最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

【譯】科技能救我們于深度偽造之中嗎?

2020-07-22 18:24 作者:祿存天璣  | 我要投稿

原文鏈接:https://moondisaster.org/can-tech-save-us-from-deepfakes/

作者:Pakinam Amer

翻譯:DeepL翻譯 + 祿存天璣后期潤(rùn)色

譯者注:僅對(duì)原文進(jìn)行翻譯搬運(yùn),旨在拓寬大眾視野,不代表譯者立場(chǎng)。以下的“deepfake”一律使用“深度偽造”作為譯名。

文章完整版&備份:https://lucunji.github.io/2020/07/22/can-tech-save-us-from-deepfakes/


當(dāng)深度偽造變得越來(lái)越復(fù)雜,算法能夠檢測(cè)并排除它們嗎?

深度偽造比以往任何時(shí)候都要強(qiáng)大而普遍。依賴于逼真的圖像與完美合成的人類語(yǔ)音,這些復(fù)雜的后期編輯的視頻被人工智能軟件生成出來(lái)了。

即使是迪士尼也在投資深度學(xué)習(xí)驅(qū)動(dòng)的技術(shù)。在2020年初發(fā)表的一篇論文中,來(lái)自迪士尼研究工作室的科學(xué)家們聲稱,他們已經(jīng)成功地訓(xùn)練了一種算法,來(lái)以前所未有的高分辨率質(zhì)量在圖像和視頻中呈現(xiàn)照片般逼真的換臉。論文作者寫道,這家娛樂(lè)巨頭希望在需要將演員描繪得更年輕,無(wú)法使用演員使用這種特效,其他一些場(chǎng)合使用這項(xiàng)特效。

在網(wǎng)飛(Netflix)最近的影片《愛爾蘭人》(The Irishman)中,羅伯特·德尼羅(Robert De Niro)在倒敘片段中被“返老還童”了。(來(lái)源:盧卡斯影業(yè)有限公司)


但即使在這種技術(shù)成為主流的時(shí)候,圍繞著它的使用仍有未解決的憂慮。從網(wǎng)絡(luò)上開始出現(xiàn)模仿、政治諷刺和假名人色情視頻的那一刻起,人們就對(duì)深度偽造喜憂參半。據(jù)人工智能公司 Deeptrace Labs 去年發(fā)布的一份報(bào)告估計(jì),目前大約有4.9萬(wàn)個(gè)深度偽造在流傳,但社交平臺(tái)上的換臉濾鏡和由面部識(shí)別引擎驅(qū)動(dòng)的應(yīng)用程序的快速增長(zhǎng)意味著可能還有成千上萬(wàn)個(gè)。

藝術(shù)家和記者最近一直在探索如何建設(shè)性地利用該技術(shù)來(lái)創(chuàng)造社會(huì)和政治評(píng)論,或保護(hù)邊緣化和高危群體的隱私。例如,獲得奧斯卡獎(jiǎng)提名的紀(jì)錄片制作人大衛(wèi)·法蘭西(David France)在上周于HBO上映的啟示性影片《歡迎來(lái)到車臣》(Welcome to Chechneya)中,利用深層偽造技術(shù)掩蓋了車臣同性戀者的身份。該技術(shù)甚至被一位星戰(zhàn)超級(jí)粉絲用來(lái)“修飾",以改善《星球大戰(zhàn):俠盜一號(hào)》中年輕的萊婭公主的客串。

但即便是個(gè)人和迪士尼這樣的大型媒體公司將這項(xiàng)技術(shù)用于非惡意的目的,深層造假技術(shù)也正在引發(fā)關(guān)于假新聞、個(gè)人隱私和視頻證據(jù)權(quán)重的激烈辯論。

Youtube 上“derpfake”頻道的建立者使用深度偽造技術(shù)來(lái)改善《星球大戰(zhàn):俠盜一號(hào)》中年輕的凱麗·費(fèi)雪(Carrie Fisher)的外貌。建立者告訴衛(wèi)報(bào)(The Guardian,英國(guó)著名日?qǐng)?bào)),這個(gè)在上映幾天就被觀看了成千上萬(wàn)遍的工程,被在“用來(lái)看一季《辛普森》的時(shí)間里”做完了。(《辛普森》,即《辛普森一家》,The Simpsons,美國(guó)著名動(dòng)畫片,一季約20集,每集約20分鐘)


檢測(cè)的挑戰(zhàn)

1月,可能是為了在2020年大選前將問(wèn)題解決在萌芽狀態(tài),F(xiàn)acebook 宣布將禁止扭曲現(xiàn)實(shí)或誤導(dǎo)公眾的操縱媒體。

這包括“在調(diào)整清晰度或質(zhì)量之外進(jìn)行編輯或合成的視頻,其方式對(duì)普通人來(lái)說(shuō)并不明顯,很可能會(huì)誤導(dǎo)別人認(rèn)為視頻主角說(shuō)了他們實(shí)際上沒有說(shuō)過(guò)的話,”Facebook 全球政策管理副總裁 Monika Bickert 在一篇博客文章中寫道。她補(bǔ)充說(shuō),音頻或視頻,無(wú)論是否深度偽造,也會(huì)受到Facebook的社區(qū)標(biāo)準(zhǔn)管理。如果包含裸露、圖形暴力、壓制選民或仇恨言論,就會(huì)被刪除。

這個(gè)標(biāo)準(zhǔn)也適用于廣告,不過(guò)《紐約時(shí)報(bào)》的報(bào)道指出,這一政策不會(huì)追溯標(biāo)準(zhǔn)制定以前的視頻。

在全州范圍內(nèi),加州已經(jīng)先發(fā)制人地禁止在選舉后60天內(nèi)傳播模仿真實(shí)鏡頭、故意偽造政治候選人言行的“惡意”操縱的視頻、音頻和圖片。針對(duì)一段被篡改的南?!づ迓逦鳎∟ancy Pelosi)的,使美國(guó)眾議院議長(zhǎng)看起來(lái)像喝醉了酒的視頻,提出該法案的議員馬克-伯曼(Marc Berman)稱深度偽造是“一種強(qiáng)大而危險(xiǎn)的新技術(shù),可以作為武器,在已經(jīng)過(guò)度黨派化的選民中播撒錯(cuò)誤信息和不和?!?/p>

華盛頓郵報(bào)對(duì)南?!づ迓逦鞅徊倏v的視頻進(jìn)行分析。該視頻被放慢了速度,使她看起來(lái)口齒不清。(來(lái)源:華盛頓郵報(bào))


去年,美國(guó)參議院通過(guò)了“深層假消息報(bào)告法”,要求國(guó)土安全部每年對(duì)深層假消息和任何試圖“破壞民主”的人工智能驅(qū)動(dòng)的媒體進(jìn)行研究。

紐約大學(xué)法學(xué)兼職教授保羅·巴雷特(Paul Barrett)告訴NPR的“巨魔觀察"(Troll Watch),虛假信息越來(lái)越多地針對(duì)圖像,而不是文字。“任何具有基本編碼知識(shí)和“渴望在選舉中搗亂的人都可以開始拼湊這些非常令人信服但虛假的視頻,”巴雷特說(shuō)。“而這些公司也意識(shí)到了這一點(diǎn),并且正在爭(zhēng)先恐后地,試圖對(duì)此做出也許遲到的回應(yīng)?!?/p>

現(xiàn)在知道立法能否成為阻止深層網(wǎng)絡(luò)假貨流傳或病毒式傳播的有效策略還為時(shí)過(guò)早,特別是考慮到搜索引擎無(wú)法進(jìn)入深層網(wǎng)絡(luò)的許多角落。另一個(gè)挑戰(zhàn)是,這種法案可能會(huì)限制言論自由。因此,一些專家正在轉(zhuǎn)向另一種遏制深度偽造浪潮的策略:以技術(shù)對(duì)抗技術(shù)。


以科技反科技?

在識(shí)別深度偽造方面,技術(shù)專家和初創(chuàng)公司正在迎頭趕上。然而,一些人正在投資開發(fā)面向未來(lái)的方法,以防范深度偽造的黑暗面。

6月,F(xiàn)acebook 公布了一項(xiàng)深度偽造檢測(cè)挑戰(zhàn)賽的結(jié)果,該挑戰(zhàn)賽匯集了2000多名技術(shù)專家和人工智能研究人員,以創(chuàng)建和測(cè)試算法來(lái)檢測(cè)Facebook制作的操縱視頻。

在對(duì) Facebook 的測(cè)試數(shù)據(jù)集進(jìn)行測(cè)試時(shí),表現(xiàn)最好的模型達(dá)到了 82.56% 的精度,但在對(duì)包含真實(shí)世界視頻的“黑箱”數(shù)據(jù)集(這些視頻通常是之前看不到的,而且更加復(fù)雜)進(jìn)行測(cè)試時(shí),準(zhǔn)確率只有 65.18%。黑箱算法仍然是機(jī)器學(xué)習(xí)檢測(cè)技術(shù)面臨的最大挑戰(zhàn)之一。

利用視頻和技術(shù)策略揭露腐敗和援助人權(quán)活動(dòng)的國(guó)際非營(yíng)利組織 Witness 一直在游說(shuō)對(duì)媒體取證進(jìn)行更好的投資,并稱美國(guó)DARPA的MediFor計(jì)劃是一個(gè)有希望的一步。

華盛頓特區(qū)的智庫(kù)布魯金斯研究所(The Brookings Institute)正在敦促政策制定者建立一個(gè) "額外的資金流,用于開發(fā)新的工具,如反向視頻搜索或基于區(qū)塊鏈的驗(yàn)證系統(tǒng),這些工具可能更好地堅(jiān)持面對(duì)無(wú)法檢測(cè)的深層偽造。" 該研究所還鼓勵(lì)政策制定者投資培訓(xùn)記者和事實(shí)核查員,并支持與基于人工智能的檢測(cè)公司合作。

Deeptrace Labs 就是這樣一家檢測(cè)公司。這是一家利用深度學(xué)習(xí)和計(jì)算機(jī)視覺來(lái)檢測(cè)和監(jiān)控深層偽造的初創(chuàng)公司,它將自己宣傳為對(duì)抗基于人工智能的病毒式合成視頻的 “殺毒軟件”——這不失為深層技術(shù)前沿的智慧之戰(zhàn)的證明。

Deeptrace 正在開發(fā)分析檢測(cè)假視頻的后端系統(tǒng)。它可用于個(gè)人用戶和媒體公司,幫助他們識(shí)別偽造?!斑@句標(biāo)語(yǔ)很好地概括了我們?nèi)绾慰创@個(gè)問(wèn)題的一些表現(xiàn)方式,以及我們?nèi)绾慰创A(yù)防這個(gè)問(wèn)題的潛在技術(shù)解決方案。”Deeptrace實(shí)驗(yàn)室的傳播和研究分析主管Henry Ajder說(shuō)。

Reality Defender 是另一款智能軟件。它在你瀏覽網(wǎng)頁(yè)時(shí)與你并肩作戰(zhàn),檢測(cè)潛在的虛假媒體并提醒用戶注意它的存在。

科學(xué)家們也是這場(chǎng)戰(zhàn)斗的一部分。加利福尼亞大學(xué)河濱分校電氣和計(jì)算機(jī)工程教授、智能系統(tǒng)研究中心主任 Amit Roy-Chowdhury 開發(fā)了一種深度神經(jīng)網(wǎng)絡(luò)架構(gòu),可以識(shí)別被篡改的圖像,并以前所未有的精度識(shí)別偽造品。

Roy-Chowdhury 的系統(tǒng)可以通過(guò)檢測(cè)物體周圍邊界每一個(gè)像素的質(zhì)量,來(lái)分辨出被篡改的圖像和未篡改的圖像。如果圖像被篡改或修改,這些邊界可能會(huì)被“污染”,因此可以幫助研究人員精確地確定任何醫(yī)生的位置。

雖然他的系統(tǒng)適用于靜態(tài)圖像,但理論上,同樣的原理——經(jīng)過(guò)一些調(diào)整——可以應(yīng)用于由數(shù)千幀和圖像組成的深層偽造視頻。

但是,盡管做出了扎實(shí)的努力,大多數(shù)研究人員都認(rèn)為,在外部環(huán)境檢測(cè)深度偽造的過(guò)程是一個(gè)完全不同的比賽。另外,大體上,這些實(shí)驗(yàn)性的檢測(cè)技術(shù)只掌握在專家手中,一般人無(wú)法接觸到。

但科技不是萬(wàn)金油

“隨著我們的技術(shù)越來(lái)越好,打擊深層假貨將變得越來(lái)越困難,”麻省理工學(xué)院計(jì)算機(jī)科學(xué)副教授 Aleksander Madry 說(shuō),他的研究解決了計(jì)算和開發(fā)值得信賴的人工智能的關(guān)鍵算法挑戰(zhàn)。“所以目前這更像是一場(chǎng)貓捉老鼠的游戲,人們可以嘗試通過(guò)識(shí)別一些假象來(lái)檢測(cè)它們,但隨后對(duì)手可以改進(jìn)他們的方法來(lái)避免這些假象?!?/p>

“更好的方法可能會(huì)欺騙檢測(cè)機(jī)制,” Roy-Chowdhury 同意。這位計(jì)算機(jī)科學(xué)家說(shuō):“我們極不可能有一個(gè)系統(tǒng)能夠檢測(cè)到每一個(gè)深層偽造的東西。通常情況下,安全系統(tǒng)是由鏈條中最薄弱的環(huán)節(jié)來(lái)定義的?!?/p>

根據(jù)麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室教授尼克-羅伊的說(shuō)法,科學(xué)家們經(jīng)常在黑暗中工作。Roy說(shuō):“在很多情況下,科學(xué)家不知道神經(jīng)網(wǎng)絡(luò)在做什么?!彼麑?duì)人工智能、機(jī)器學(xué)習(xí)和計(jì)算系統(tǒng)的研究主要集中在不確定性導(dǎo)致的問(wèn)題上。

科學(xué)家“不能總是在出錯(cuò)的時(shí)候進(jìn)行解釋。神經(jīng)網(wǎng)絡(luò)不是黑魔法。我們確實(shí)了解很多基礎(chǔ)知識(shí),但我們沒有掌握極限的……我們需要了解極限是什么,”他解釋說(shuō)。

隨著基于深度學(xué)習(xí)技術(shù)的能力不斷發(fā)展,Madry 說(shuō):“我擔(dān)心的是,我們將不再能夠自動(dòng)依賴視頻作為證明。”

深度偽造與檢測(cè)技術(shù)的未來(lái)

對(duì)于生成較差的深層偽造視頻——那種通常由粗制濫造的編輯導(dǎo)致的明顯皺紋——智能軟件和知情的眼睛很容易發(fā)現(xiàn)篡改。但是,隨著合成視聽媒體開發(fā)者對(duì)這些問(wèn)題的解決,發(fā)現(xiàn)偽造的跡象將變得更加困難。

前些年,研究人員通過(guò)監(jiān)測(cè)眨眼頻率來(lái)訓(xùn)練軟件發(fā)現(xiàn)深層偽造。人類平均每分鐘眨眼17次,但舊的深度偽造視頻的眨眼頻率往往遠(yuǎn)低于此?!叭绻憧吹氖?018年1月的視頻,缺乏眨眼的情況很可能還適用于那里,”阿杰德說(shuō)?!暗热缯f(shuō)在接下來(lái)的一年,或兩年,或五年,就無(wú)法依賴這一點(diǎn)進(jìn)行衡量?!?/p>

同樣,隨著深度偽造的發(fā)展,依靠訓(xùn)練人工智能的,針對(duì)對(duì)編輯錯(cuò)誤(如移幀和燈光或膚色的變化)的檢測(cè)工具可能很快就會(huì)過(guò)時(shí)。

阿杰德說(shuō),他有信心,他所說(shuō)的一些假媒體的“民間檢測(cè)”方法,絕大部分“幾乎肯定會(huì)被訓(xùn)練出高級(jí)版本。只有在謹(jǐn)慎應(yīng)用并結(jié)合分析方法的情況下,它們才會(huì)有用?!?/p>

另一個(gè)問(wèn)題是社交媒體平臺(tái)所使用的分享技術(shù),它可以讓深層假貨在不被發(fā)現(xiàn)的情況下倍增。

例如,德雷克塞爾大學(xué)助理教授馬修·斯塔姆(Matthew Stamm)去年在西南偏南會(huì)議上表示,一些檢測(cè)技術(shù)會(huì)尋找“非常微小的數(shù)字簽名”,這些簽名被嵌入到視頻文件中。但當(dāng)視頻文件被分享到社交媒體上時(shí),它被縮小和壓縮,這就消除了所有被篡改的跡象。

“有很多圖像和視頻認(rèn)證技術(shù)存在,但有一處他們都失敗了,就是在社交媒體上,” 斯塔姆說(shuō)。

同時(shí),紐約大學(xué)法律系的巴雷特力勸人們“高度懷疑對(duì)他們所見”,并表示公司應(yīng)該對(duì)虛假信息采取積極行動(dòng),或許可以“降級(jí)”這些帖子或視頻。“我認(rèn)為,他們應(yīng)該完全從他們的網(wǎng)站上刪除這種材料,”他補(bǔ)充道。

最終,將需要新形式的集體行動(dòng)來(lái)打擊篡改視頻的負(fù)面影響,特別是如果它們被用來(lái)制造虛假新聞,意圖誤導(dǎo)。這個(gè)問(wèn)題已經(jīng)很普遍,無(wú)法單獨(dú)解決。人工智能公司、媒體監(jiān)督機(jī)構(gòu)、政府和個(gè)人必須分擔(dān)責(zé)任,對(duì)事實(shí)進(jìn)行核查,并決定什么是真相,什么不是。



【譯】科技能救我們于深度偽造之中嗎?的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
冕宁县| 巍山| 芒康县| 林口县| 上饶县| 金门县| 东乡县| 葫芦岛市| 车险| 小金县| 扶沟县| 高唐县| 江源县| 岐山县| 洛宁县| 大关县| 西华县| 江油市| 舟山市| 绥阳县| 乐都县| 礼泉县| 报价| 许昌市| 博客| 增城市| 博野县| 乌恰县| 衡阳市| 克东县| 建平县| 陕西省| 五大连池市| 北川| 镇宁| 西充县| 肇东市| 乌鲁木齐市| 香港| 浙江省| 博野县|