AI在犯罪上的運用,將馬上會到來
在chatGPT大火的當下仍有一個問題需要注意,那就是安全問題。chatGPT可以模擬真人之間的對話,甚至可以通過大量的數(shù)據(jù)訓練完成諸如論文,劇本,故事,和情節(jié)設(shè)定上的問題,如果不仔細看幾乎與真人設(shè)計無異。 而在最近幾年ai更是成爆發(fā)性發(fā)展,現(xiàn)在ai可以合成真人的聲音,與真人幾乎還無區(qū)別,如果我拿我的聲音特征去訓練ai那么我就得到一個發(fā)出我聲音的ai訓練模型,而這一但被運用到詐騙犯罪上,幾乎讓人分不出真假。 AI換臉到完全虛擬的視頻甚至分辨率相當?shù)母?,制作一張并不存在的照片更是十分簡單,只需要丟給AI便能很快得到跟攝像機拍出了別無二致的“真人”照片,屆時一些普通的防詐騙的方式將會全部失效。有可能有一天你的父母可能會接到一段視頻。視頻上的你滿身是傷躺在醫(yī)院,嘴里說著我受傷了把錢打到XXX賬戶上。 而這只是AI的基本運用,更復(fù)雜的運用方式還不得而知,但可以預(yù)見到這一切的發(fā)生幾乎是肯定的。
標簽: