日本PS面部技術(shù),滋生各種問題
現(xiàn)在,隨著時(shí)代科技的進(jìn)步,AI換臉技術(shù)早已經(jīng)不是什么夢(mèng)想
不少的犯罪分子甚至將一些明星的樣子放到了別的人的照片上,然后再進(jìn)行上傳發(fā)布

但這些行為均侵犯了他人肖像權(quán),是惡劣的犯罪行為!

關(guān)于AI換臉犯罪最前線,我們今天就來一起聽一聽櫻美林大學(xué),平和博教授是怎么解析的
平和博教:除了以往的照片AI合成以外,現(xiàn)在非常流行AI合成臉的視頻制作,簡單來說就是使用其他視頻,將視頻中的主角的臉換成別人的臉,而且看上去非常自然。那么這些視頻究竟怎么制作的呢?

為了合成一個(gè)自然的換臉視頻,制作者需要準(zhǔn)備對(duì)方(藝人)生氣的,笑的,無表情等100張以上的照片

AI就能通過學(xué)習(xí)對(duì)比照片中的表情特征,臉型,角度等,將受害人的臉用一種非常自然的方式貼在視頻中,如果是普通視頻還好!萬一這些犯罪的人將受害者的臉貼在一些成人視頻中的話....

主持人吐槽到,我們以前看那些換臉的照片,都是破綻百出的,因此不用擔(dān)心,但是現(xiàn)在的技術(shù),要是一個(gè)有名的女明星被合成到一些視頻里的話,而且那個(gè)視頻是那種....其影響的后果可想而知

主持人的擔(dān)心其實(shí)早已成為了現(xiàn)實(shí),在Twitter上發(fā)表自己的受害女優(yōu),甚至是好萊塢女星也在急速增加

平和教授還提到,如果是一些正規(guī)的視頻網(wǎng)站上的合成視頻,一般的用戶是可以分辨出真假來的,但是相對(duì)的,在朋友圈(SNS)里流行短視頻或是一些不雅視頻,那么能分辨的人就會(huì)大幅下降,考慮到視頻本身的清晰度,更加地可以以假亂真

更加讓人擔(dān)憂的是,AI換臉技術(shù)目前以一個(gè)超高性能的速度發(fā)展著,以前是需要100張照片才能做到以假亂真的換臉,現(xiàn)在只需要一張即可,因?yàn)檫@一技術(shù)被泛濫使用,換臉侵權(quán)的犯罪案件已經(jīng)不僅僅局限于有名人,連一般人也成為了犯罪分子的目標(biāo)

日本就曾經(jīng)有過這樣一個(gè)案例,一對(duì)情侶分手,為報(bào)復(fù)對(duì)方,男方竟然向女方發(fā)送一段不雅視頻,而這個(gè)視頻其實(shí)是通過了臉部合成而來的

隨著人工智能的不斷進(jìn)化,新的犯罪將接踵而來,教授還提及到聲音同樣可以進(jìn)行替換,只需要收集受害人的聲音讓AI進(jìn)行分析即可做到

而這一犯罪也早已經(jīng)出現(xiàn)!就在前段時(shí)間,歐洲的某家公司的總公司社長給子公司的人打電話,要求對(duì)方轉(zhuǎn)賬2000萬日元(126萬元)到他的賬號(hào)里,后來經(jīng)過調(diào)查,該社長的聲音其實(shí)是由犯罪分子用AI合成的

主持人:這個(gè)對(duì)普通人來說已經(jīng)很難分辨了!要是用在“猜猜我是誰”的電話詐騙里,上了年紀(jì)的人還真不知道如何防范??!

讓我們回到正題,面對(duì)這些進(jìn)化速度極快的假視頻,我們?cè)撊绾巫R(shí)破呢?

對(duì)此,平和教授的回答是:我們可以通過視頻的人物表情進(jìn)行判斷,例如眼睛一直是睜開的,表情堅(jiān)硬,鼻梁扭曲等等,但是可怕的是,隨著技術(shù)的進(jìn)步,這些都會(huì)被一一改進(jìn)...