最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

換臉已經(jīng)不靈了?這些個反AI技術有點兒東西。

2023-08-09 22:35 作者:差評君  | 我要投稿

不知道大伙兒還記不記得,幾個月前有個老板 10?分鐘被騙走 430?萬的 AI 詐騙事件?

因為被詐騙的金額過于大,當時還引起了不小的轟動。

而在那之后,什么 9 秒被騙 245 萬, 7 秒視頻通話被騙 30?萬,類似的 AI 詐騙事件是接二連三。

更可怕的是,利用 AI 換臉、 AI 換聲,還衍生出了一條灰色產(chǎn)業(yè)鏈。

今年 3 月,一名女生在地鐵被偷拍后又被人換成全裸的照片,一度沖上了熱搜。

而像這種一鍵換臉,或者一鍵脫衣的違法行為在外網(wǎng)上可謂猖獗,有些人就是靠著販賣 AI 換臉軟件,或是幫助別人把臉換到色情視頻里,以此來賺錢。

雖說,咱們現(xiàn)在都知道有 AI 換臉這回事兒,但這東西它防不勝防,即使臉和聲音都對得上,也不一定是本人。

這才是 AI 的可怕之處。

現(xiàn)在是有一些用于檢測內(nèi)容是否由 AI 生成的工具,但檢測的準確性, emm 多少還是有點一言難盡。

前不久, OpenAI 還下線了自家的 AI 檢測工具,理由就是錯誤率太高了。。。

所以要阻止技術濫用的問題,光靠檢測是不夠的,還得從根源上找法子。

最近,國外的創(chuàng)意內(nèi)容平臺 Shutterstock 宣稱,要用一種叫做 C2PA 的協(xié)議,給自家平臺上的 AI 生成內(nèi)容打上標簽,用來區(qū)分人類創(chuàng)作。

這?C2PA 協(xié)議,倒也不是啥新技術。

兩年前, Adobe 、微軟、 BBC 等幾家科技公司和媒體一起合作,成立了一個內(nèi)容來源和真實性聯(lián)盟?(? C2PA ?)?。

成立的初衷呢也簡單,當時受到 AI 等數(shù)字技術的影響,媒體發(fā)布內(nèi)容的可信度越來越低,于是這些個巨頭就想通過建立 C2PA 協(xié)議,打擊網(wǎng)絡上的一些虛假信息。

具體來看,這個 C2PA 協(xié)議是一種類似區(qū)塊鏈的加密技術。

就比如說,一張圖像里包含了數(shù)百萬的像素,?C2PA?通過數(shù)據(jù)加密技術給每個像素的來源信息進行編碼,它最大的特點就是可以溯源。

簡單來理解,有了 C2PA 協(xié)議之后,內(nèi)容是誰創(chuàng)作的,歷史的修改記錄,這些都會被記錄下來。

就相當于給你的圖像、視頻打上了一層看不見的水?。?文本目前暫時還不適用?)。

這個協(xié)議雖說不能防止 AI 作惡,但有了水印之后,至少能反向解決 AI 檢測工具準確率不高的問題。

當你看到某段視頻的時候,到底是 AI 生成,還是人類創(chuàng)作的,一目了然。

C2PA 協(xié)議推出之后,已經(jīng)有部分企業(yè)將其集成到了自家的產(chǎn)品當中。

像微軟,就已經(jīng)在自家的?Bing Image Creator?和?Microsoft Designer?里裝上了?C2PA?協(xié)議,AI?生成的圖像都會被標記,并且還會披露出元數(shù)據(jù)的來源。

當然了,這種加密方法也存在一定的 bug ,那就是需要有足夠多的內(nèi)容創(chuàng)作者和平臺使用這協(xié)議,不然也是白搭。

如果想要給平時拍的每一張照片都打上水印,這就需要把協(xié)議集成到手機相機里,又或者,你在 PS 上設計的圖片,也需要平臺集成了這個協(xié)議才行。

也就是說,C2PA 協(xié)議要生效,需要完整的使用鏈條。

可惜的是,目前在協(xié)議上,整個互聯(lián)網(wǎng)還沒形成統(tǒng)一的共識。

不過最近,來自 MIT 的大佬們,又推出了另外一個叫做?PhotoGuard?的工具。

這跟上邊兒的協(xié)議還不太一樣,如果說 C2PA 只是留下水印,那么 PhotoGuard 的方式就更簡單粗暴了,直接切斷了 AI 生成內(nèi)容的生路。

原理很簡單,就是利用 PhotoGuard 在原始照片中引入一種干擾的噪聲得到免疫圖片( immunize images ),但同時這種噪聲又很難被察覺出來。

當有人想用圖片進行 AI 惡搞時,就會得到一堆馬賽克、或者扭曲的照片。

就比如論文中,原始照片是兩個男人在看打網(wǎng)球,如果沒有加防護,那么就會被隨意更改,比如這樣。

但 PhotoGuard 可以生成一模一樣的免疫照片出來。

如果再有人想用 AI 來惡搞,就會得到一張這樣的照片。

一個是打水印,一個是直接把路封死,要真的跟 AI 詐騙打起來,還不是嘎嘎亂殺?

但問題也出在這,技術有,但是還沒能大規(guī)模用起來。

即使有微軟、 Adobe 、 Arm 這些巨頭撐腰, C2PA 協(xié)議的大面積鋪開也還需要些時日,更別提剛出來的 PhotoGuard 了。

不過好在,事情還是朝著樂觀的方向在發(fā)展。

包括上邊兒提到微軟的兩個工具,還有 Shutterstock 平臺,今年陸陸續(xù)續(xù)都開始用起來了。

照著這勢頭, C2PA 在不久的將來或許大有可為。

況且, C2PA 協(xié)議一直都是開源的,這就方便了很多人把協(xié)議集成到應用當中。

畢竟, AI 詐騙、灰產(chǎn)肆意橫行的同時,也在反推大家思考如何加快反 AI 詐騙的步伐。

同時呢,像 C2PA 這種打水印的方式,也給 AI 生成內(nèi)容的版權問題,提供一個解決思路。

對于 AI 生成的內(nèi)容,大家爭論的關鍵點就是不希望自己的作品獻祭給 AI 。

那倘若生成的結果顯示數(shù)據(jù)來源了,作品收入也會根據(jù)來源來分成,那是不是也可以算作一種新的商業(yè)模式?

當然了,這也只是一種假設。

回到反 AI 詐騙本身,技術的進步固然重要,如果相關法規(guī)能適時再添一把火,相信也能好好治一治 AI 帶來的這股不良風氣。

不管怎么說吧,在規(guī)范形成之前,咱還是多留個心眼,以后可能眼見也不一定為實咯。

撰文:西西?編輯:江江&面線?封面:煥妍

圖片、資料來源:

Github?、部分圖源網(wǎng)絡

美通社,科技、媒體公司攜手制定標準提升在線內(nèi)容信任度

cnBeta?,微軟與?BBC?等合作研發(fā)解決信息欺詐技術

Hadi Salman?等,《?提高惡意人工智能圖像編輯的成本?》

MIT?科技評論,已獲微軟和?Adobe?支持,?C2PA?協(xié)議能為?AI?生成內(nèi)容貼上標簽

MIT?科技評論,?MIT?團隊研發(fā)?“?照片保護罩?”?,能阻止?Stable Diffusion?等?AI?模型修改原圖

PetaPixel?,?“Photoguard”?阻止你的照片被人工智能操縱

IT?之家,微軟打擊深度偽造,為?AI?生成的圖像和視頻加上?“?身份證?”?

換臉已經(jīng)不靈了?這些個反AI技術有點兒東西。的評論 (共 條)

分享到微博請遵守國家法律
中山市| 屏东县| 江川县| 浦县| 北海市| 曲阜市| 土默特左旗| 永和县| 余庆县| 鄂托克前旗| 山西省| 五台县| 长白| 通河县| 成都市| 定边县| 汉阴县| 油尖旺区| 临颍县| 壤塘县| 农安县| 邓州市| 海盐县| 剑河县| 嵊州市| 文登市| 定边县| 松江区| 黎城县| 徐闻县| 宜川县| 黔南| 吉安县| 隆子县| 崇信县| 红安县| 微山县| 长沙市| 泸溪县| 惠来县| 保亭|