AI技術助長騙局!人臉、聲音、視頻齊上陣,防不勝防!
隨著人工智能的迅猛發(fā)展,詐騙團伙的手段也越來越科技化,竟然用上了 AI 技術!此前,小媛報道了有人用知名男星 AI 版的聲音差點行騙成功的事情。如果畫面和聲音同時 AI 化,那豈不是更容易被騙?如今,害怕的事情真的發(fā)生了。近期,“AI 換臉”新型詐騙頻發(fā),和你視頻對話的可能不是本人!有一位福州老板在10分鐘內(nèi)被騙走了430萬元。據(jù)平安包頭官微消息,包頭市公安局電信網(wǎng)絡犯罪偵查局發(fā)布了一起使用智能 AI 技術進行電信詐騙的案件。騙子通過聲音合成和 AI 換臉技術,偽裝成受害者的好友,成功騙取了受害者的信任和錢財。
4月20日11時40分左右,福州市某科技公司法人代表郭先生的好友突然通過微信視頻聯(lián)系他。兩人短暫聊天后,好友告訴郭先生,他的朋友在外地投標,需要430萬元保證金,且需要公對公賬戶過賬,所以想要借用郭先生公司的賬戶走賬。好友要求銀行卡號,聲稱已經(jīng)把錢打到郭先生的賬戶上,并通過微信發(fā)送銀行轉賬底單的截圖給了郭先生?;谝曨l聊天的信任,郭先生沒有核實錢是否到賬,于11時49分先后分兩筆把430萬元轉賬給對方。錢款轉賬后,郭先生通過微信向好友確認事情已經(jīng)辦妥,但好友回復了一個問號。郭先生打電話聯(lián)系好友,對方表示沒有這回事,他才意識到遭遇了高端騙局。對方通過智能
AI
換臉技術佯裝成好友對他實施了詐騙。郭先生說:“從頭到尾都沒有和我提借錢的事情,就說會先把錢給我打過來,再讓我給他朋友賬戶轉過去,而且當時是通過視頻聯(lián)系的,我在視頻中也確認了面孔和聲音,所以才放松了戒備?!?figure class="img-box" contenteditable="false">
4月20日12時21分,包頭市電信網(wǎng)絡犯罪偵查局接到福建省福州市公安局刑偵支隊的外協(xié)請求。涉案的銀行卡為包頭市蒙商銀行對公賬戶。騙子通過騷擾電話錄音等方式提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。因為人臉效果更易取得對方信任,騙子用
AI 技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。除了
AI
換臉、合成語音外,還有一些詐騙手段也可謂防不勝防。不久前就有騙子通過轉發(fā)微信語音的方式行騙。在盜取微信號后,騙子便向其好友借錢。為取得對方的信任,他們會轉發(fā)之前的語音,進而騙取錢款。盡管微信沒有語音轉發(fā)功能,但他們通過提取語音文件或安裝非官方版本插件可實現(xiàn)語音轉發(fā)。
這些騙局中,騙子不是漫無目的地全面撒網(wǎng),而是根據(jù)所要實施的騙術,通過 AI 技術篩選受騙人群,別有用心地鎖定特定對象。例如,當進行金融詐騙時,經(jīng)常搜集投資信息的小伙伴就會成為他們潛在的目標。
以下是防范騙局的建議:
1. 不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等。
2. 網(wǎng)絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發(fā)現(xiàn)風險,及時報警求助。
3. 如果有人自稱“熟人”“領導”通過社交軟件、短信