警惕!10分鐘騙走430萬(wàn),四大AI詐騙手段,提防新型詐騙技術(shù)!
一種新的人工智能騙局在全國(guó)范圍內(nèi)爆發(fā)。
內(nèi)蒙古包頭的一起“AI電信詐騙10分鐘騙走430萬(wàn)”登上微博熱搜,引發(fā)關(guān)注。目前普通人很難用肉眼識(shí)別通過(guò)AI深度偽造技術(shù)生成的圖片、音視頻內(nèi)容。
實(shí)際上,事件涉及的AI 換臉技術(shù)并不是新技術(shù),很多短視頻都有類似的實(shí)現(xiàn)技術(shù)。其中聲音合成相對(duì)復(fù)雜,最普遍的方法就是利用騷擾電話,只要接聽(tīng)電話后并說(shuō)了幾句話,犯罪分子就能對(duì)聲音進(jìn)行錄制,并提取聲音的特征信息。
有業(yè)內(nèi)人士表示,犯罪分子通過(guò)這一套流程進(jìn)行詐騙的成功率基本是 100%,尤其是面向那些并不懂AI、防范意識(shí)可能薄弱的老年群體,AI詐騙更容易發(fā)生。
從文章到圖片,從人聲到視頻的動(dòng)態(tài)效果都能被最大程度還原,更有各種詐騙套路層出不窮、防不勝防。數(shù)字經(jīng)濟(jì)應(yīng)用實(shí)踐專家駱仁童表示,很多年輕人很難分辨真假,一旦他們的信任被不法分子利用來(lái)違法犯罪,后果不堪設(shè)想。
難以防范的AI詐騙
隨著AI技術(shù)的不斷發(fā)展,AI偽造變得越來(lái)越容易,內(nèi)容也更為逼真。商道童言(Innovationcase)整理了當(dāng)前四大類詐騙手段。
第一種:換臉視頻
其中最容易獲取對(duì)方信任的就是AI換臉技術(shù),詐騙者往往利用這一技術(shù)換臉成受害者認(rèn)識(shí)的人,并撥打電話和對(duì)方確認(rèn)信息。
這種騙局通常是通過(guò)AI技術(shù)將受害者的臉換成某個(gè)熟悉的人,并撥打微信視頻聯(lián)系受害人,讓受害人相信這是真實(shí)的請(qǐng)求。騙子往往會(huì)利用受害人的信任,虛構(gòu)緊急情況或編造其他理由,要求受害人轉(zhuǎn)賬或提供個(gè)人信息。
前述事件就是典型的案例。據(jù)媒體披露,內(nèi)蒙古包頭市自治區(qū)公安局網(wǎng)偵部門就成功偵破一起利用AI進(jìn)行電信詐騙的案件,事件中,罪犯假借好友名義稱自己急需用錢,并撥打微信視頻聯(lián)系受害者郭先生。這起案件再次提醒人們要保護(hù)好個(gè)人信息,不輕易提供任何涉及個(gè)人隱私的信息給他人,同時(shí)要通過(guò)各種渠道核驗(yàn)對(duì)方身份,對(duì)潛在風(fēng)險(xiǎn)保持警惕。
除了“AI換臉”外,還有一種類似的“AI脫衣”功能。今年3月,一則“女子地鐵照被AI一鍵脫衣傳播”的新聞沖上了熱搜,一名女性搭乘地鐵時(shí)的一張照片被人用AI軟件“一鍵脫衣”,遭到惡意傳播,罪犯還廣泛散布不實(shí)信息對(duì)該女子進(jìn)行污蔑。雖然“AI換臉”在影視劇二度創(chuàng)作、趣味惡搞視頻、表情包制作當(dāng)中被廣泛使用,但其中隱藏的法律風(fēng)險(xiǎn)和侵權(quán)糾紛依舊不容忽視。
對(duì)于AI換臉視頻騙局,有律師表示,使用人工智能技術(shù)手段模仿真人面容、聲音,冒充親友、熟人、領(lǐng)導(dǎo)等,很容易達(dá)到以假亂真的程度,具有極強(qiáng)的迷惑性。與其他類型電信詐騙相比,AI詐騙迷惑性更強(qiáng),針對(duì)性更強(qiáng),辨識(shí)更困難。
第二種:聲音合成
聲音合成騙局同樣利用人工智能技術(shù)克隆聲音,騙取他人的信任。這種騙局也很危險(xiǎn),因?yàn)榭寺〉穆曇舴浅1普?,很難被察覺(jué)。
這項(xiàng)技術(shù)目前已經(jīng)催生了很多AI歌手,例如AI孫燕姿《出道即巔峰!“AI孫燕姿”會(huì)顛覆樂(lè)壇嗎?》,但此后這項(xiàng)技術(shù)被用于“作惡”。
一位網(wǎng)友使用美國(guó)知名歌手弗蘭克·奧什(Frank Ocean)的歌曲片段訓(xùn)練出來(lái)仿冒其音樂(lè)風(fēng)格的歌曲,并在地下音樂(lè)論壇上發(fā)布了這些“音樂(lè)作品”,還將這些歌曲偽造成是在錄音時(shí)不小心泄露的版本,最終蒙混過(guò)關(guān),賣出了近970美元的價(jià)格。類似的事件還有西班牙電影制作公司Peabody Films遭受的AI電話詐騙,詐騙者偽裝成著名演員“卷福”本尼迪克特·康伯巴奇(Benedict Cumberbatch)進(jìn)行詐騙勒索。
這類詐騙者往往通過(guò)電話錄音等素材提取某人的聲音進(jìn)行聲音合成,再利用偽造后的聲音來(lái)騙過(guò)熟人。即使是熟人也可能被偽造聲音所迷惑。美國(guó)CBS電視臺(tái)的電視新聞雜志節(jié)目60 Minutes在5月22日的最新一期節(jié)目中,現(xiàn)場(chǎng)展示了黑客是怎樣克隆聲音來(lái)騙過(guò)同事,并成功竊取護(hù)照信息的。
第三種:偽造照片
偽造照片騙局利用人工智能技術(shù)生成虛假圖片,以欺騙他人獲取利益,它可以偽造各種圖片,而且很難被普通人識(shí)破。
最早這項(xiàng)技術(shù)也是用于娛樂(lè),如各種搞笑圖片等,后來(lái)專業(yè)程度提高,變成更穩(wěn)定的工具?!?0秒一張作品,AI作畫(huà)會(huì)搶走人類畫(huà)師的工作嗎?》
一些由AI生成的虛假圖片已經(jīng)在社交媒體上廣泛傳播。例如,一張五角大樓附近地區(qū)發(fā)生爆炸的圖片在社交媒體上瘋傳,導(dǎo)致標(biāo)普500指數(shù)短線下跌約0.3%至盤中低點(diǎn),由漲轉(zhuǎn)跌。
由AI生成的90年代情侶寫(xiě)真、特朗普“被捕”圖和教皇穿羽絨服走秀的照片也在網(wǎng)上引起軒然大波。
這些虛假圖片的生成者通常使用AI工具,如Midjourney,來(lái)制作這些圖片。這些圖片會(huì)有一些AI生成時(shí)候的漏洞和錯(cuò)誤,比如路燈有些歪,圍欄長(zhǎng)在了人行道上等,不過(guò)普通人不經(jīng)觀察,很難識(shí)別這些圖片的真?zhèn)巍?/p>
第四種:編撰新聞
編撰新聞騙局利用人工智能技術(shù)生成虛假信息,這些虛假信息不僅混淆了大眾的視聽(tīng),而且讓人們失去了分辨真相的能力,因?yàn)樗鼈兛雌饋?lái)非常真實(shí),而且包含各種細(xì)節(jié)和證據(jù)。
最近,甘肅省平?jīng)鍪泄簿志W(wǎng)安大隊(duì)就成功偵破了一起利用ChatGPT修改編輯社會(huì)熱點(diǎn)新聞的案件。犯罪嫌疑人編撰了一條虛假新聞,稱“今晨甘肅一火車撞上修路工人致9人死亡”,并通過(guò)獲取網(wǎng)絡(luò)流量和關(guān)注度來(lái)變現(xiàn)。
英國(guó)《每日郵報(bào)》曾經(jīng)刊登了一則虛假新聞,稱一位22歲的加拿大男子為在韓國(guó)以偶像身份出道而整容12次最終喪命,該新聞在全球多家媒體中引起了關(guān)注。但是后來(lái)發(fā)現(xiàn)該男子可能壓根就不存在,照片有75%的可能性是AI生成的。
如今,耳聽(tīng)眼見(jiàn)都不一定為實(shí),各種騙局真是讓人防不勝防,為了防范AI詐騙,需要采取一些措施來(lái)保護(hù)自己和他人免受損失。
警方則提醒,對(duì)于新型詐騙方式有以下三種防范措施:
首先,要保持警惕。對(duì)于突如其來(lái)的電話或信息,要保持警惕,謹(jǐn)慎對(duì)待。即使是來(lái)自你認(rèn)識(shí)的人,也要對(duì)來(lái)電顯示的號(hào)碼進(jìn)行多重驗(yàn)證,防止被騙。
其次,要多重驗(yàn)證。在分享個(gè)人身份信息時(shí),要進(jìn)行多重驗(yàn)證,確認(rèn)對(duì)方的身份。不輕易提供人臉、指紋等個(gè)人生物信息給他人,防止被騙取個(gè)人信息。
此外,要提高安全防范意識(shí)。如果遇到可疑情形,要注意保護(hù)證據(jù),并及時(shí)報(bào)警。同時(shí),也要避免下載陌生軟件、點(diǎn)擊陌生鏈接等行為,防止被騙取個(gè)人信息或電腦中病毒。
防范AI詐騙需要我們保持警惕,注意個(gè)人信息安全,并采取一些有效的措施來(lái)保護(hù)自己和他人免受損失。隨著人工智能技術(shù)的不斷發(fā)展,營(yíng)造創(chuàng)新生態(tài)、重視防范風(fēng)險(xiǎn),已經(jīng)成為整體AI技術(shù)行業(yè)亟待解決的關(guān)鍵性問(wèn)題。
4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室迅速起草了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,涉及的生成式人工智能包括基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù),可以說(shuō),對(duì)當(dāng)下的AI偽造都進(jìn)行了更為全面的約束?!毒W(wǎng)信辦公開(kāi)征求意見(jiàn)!AIGC生成式人工智能服務(wù)新規(guī)如何規(guī)制?》
同時(shí),產(chǎn)業(yè)中的用戶、技術(shù)提供者和運(yùn)營(yíng)商、內(nèi)容分發(fā)平臺(tái)及內(nèi)容生產(chǎn)者都需要加強(qiáng)自律。
數(shù)字經(jīng)濟(jì)應(yīng)用實(shí)踐專家駱仁童認(rèn)為,如果不對(duì)AI詐騙進(jìn)行有效治理,安全將得不到保障,人工智能系統(tǒng)的應(yīng)用和社會(huì)的穩(wěn)定將受到極大挑戰(zhàn)。不過(guò),AI詐騙不僅是技術(shù)應(yīng)用層面的問(wèn)題,應(yīng)該從立法監(jiān)管和行業(yè)自律的角度對(duì)詐騙進(jìn)行嚴(yán)厲規(guī)范,因?yàn)榧夹g(shù)會(huì)不斷發(fā)展,約束AI并不能解決本質(zhì)問(wèn)題。
知名安全公司瑞萊智慧RealAI聯(lián)合創(chuàng)始人、算法科學(xué)家蕭子豪表示,目前深度偽造技術(shù)在不斷進(jìn)化,生成的聲音和視頻越來(lái)越逼真,普通人肉眼鑒別的難度非常大。從長(zhǎng)遠(yuǎn)來(lái)看,AI 的安全問(wèn)題還應(yīng)從模型算法的原理上來(lái)突破。
較早前,OpenAI CEO山姆·奧特曼(Sam Altman)出席美國(guó)國(guó)會(huì)聽(tīng)證會(huì),呼吁全世界建立一個(gè)獨(dú)立的機(jī)構(gòu)來(lái)規(guī)范和監(jiān)督人工智能。
蘋(píng)果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)也稱,AI內(nèi)容應(yīng)該被明確標(biāo)記,并且需要對(duì)該行業(yè)進(jìn)行監(jiān)管。任何由AI生成內(nèi)容都應(yīng)該由發(fā)布者來(lái)承擔(dān)責(zé)任,但不代表大型科技公司可以逃脫法律制裁。
可以說(shuō),潘多拉的魔盒,已經(jīng)打開(kāi)。
商道童言(Innovationcases)歡迎點(diǎn)贊和分享哦!~~
免費(fèi)電子書(shū):結(jié)構(gòu)化思維?|?荊棘商途?|?年度十詞?|?創(chuàng)新企業(yè)案例?|?區(qū)塊鏈金融
數(shù)字經(jīng)濟(jì)應(yīng)用實(shí)踐專家 駱仁童主講課程
智慧應(yīng)用 |《能源互聯(lián)網(wǎng)》.《新型電力系統(tǒng)》.《智慧建筑》.《智慧機(jī)場(chǎng)》.《智慧交通》.《煙草數(shù)字化》.《智慧城市》.《數(shù)字政府》
數(shù)字應(yīng)用?|?《大數(shù)據(jù)及中臺(tái)》.《區(qū)塊鏈》.《元宇宙》
人工智能 |??《人工智能趨勢(shì)》.?《ChatGPT新紀(jì)元》
數(shù)字化轉(zhuǎn)型?|《制造業(yè)數(shù)字化》.《零售業(yè)數(shù)字化》?
金融類課程 | 《金融科技創(chuàng)新》.?《商業(yè)銀行變革》?.《數(shù)字人民幣》
思維與技能 |《數(shù)字化管理思維》.《數(shù)字化組織變革》.《用戶思維》
宏觀與趨勢(shì) |《2023宏觀趨勢(shì)》.《數(shù)字經(jīng)濟(jì)》.《雙碳戰(zhàn)略》.《新能源汽車》
創(chuàng)新與創(chuàng)業(yè)?|《創(chuàng)業(yè)導(dǎo)師能力提升培訓(xùn)》.《中小企業(yè)賦能》