80多萬人上當(dāng),1.8億“拉人頭”傭金,這個騙局你一定要警惕
當(dāng)你接到各種推銷電話,特別是涉及股票投資之類的電話,一定要加倍小心。
最近央視曝光的一起為境外詐騙組織引流的團(tuán)伙。

他們聲稱自己是證券公司的工作人員,為回饋新老客戶可以推薦優(yōu)質(zhì)股票,只需進(jìn)入他們的福利群就可以獲得。
大多數(shù)人肯定不相信,但總有少數(shù)人抱著僥幸心理試一試,一不小心就上了當(dāng)。
最開始的投資能賺錢,也能提現(xiàn),但隨著投入加大,很快就無法提現(xiàn)了。
這個團(tuán)伙一共打了1700萬通騷擾電話。
最終有80多萬人上當(dāng),共獲得近1.8億元的“拉人頭”傭金。
根據(jù)警方的調(diào)查,這里面其實有兩撥詐騙團(tuán)伙。
一伙是運營這個騙局的,一伙是為這個騙局打電話拉人的。
這樣的騙局如今并不少見,這個騙局中最引人注意的,這伙人使用了AI電話機(jī)器人。
試想一下,撥打1700萬個電話,如果靠人工,工作量很大,但靠AI就簡單多了。
AI機(jī)器人可以通過語音識別技術(shù)識別關(guān)鍵字。
準(zhǔn)確率已高達(dá)98%,且延遲可做到0.2秒。
AI機(jī)器人會先播放一段開場白,然后根據(jù)關(guān)鍵字判斷對方的狀態(tài),再進(jìn)行后續(xù)的話術(shù)輸出。

一位被騙了24萬塊錢的受害者,得知真相后很吃驚。
他感覺給他打電話的都是人,根本聽不出來是機(jī)器人在講話。
隨著AI技術(shù)的發(fā)展,以后我們也許會遇到越來越多這樣的詐騙,不得不防。
比如現(xiàn)在的AI技術(shù),已經(jīng)可以輕松給視頻中的人物換頭像。
這意味著看到熟人拍的借錢視頻,如果不找朋友再次核實,也極有可能會上當(dāng)受騙。
視頻都可以偽造,更不要提聲音了。
只要提交你的聲音,經(jīng)過一定訓(xùn)練,AI可以輕松模仿你的聲音。
如果接到陌生電話,一聽就是某個朋友,也應(yīng)該多加小心。
AI技術(shù)的發(fā)展日新月異。
最近OpenAI發(fā)布了一個文字生成圖像工具 DALL-E 2。
只要發(fā)一段文字,AI就會自動根據(jù)文字生成逼真的圖像。
比如你輸入這樣一段字:在 1980 年代的月球上致力于新 AI 研究的泰迪熊。
AI就會自動生成這樣的圖像。?

輸入文字“一張古色古香的花店的店面照片,潔白的門面綠意盎然,大門敞開,還有一扇大窗戶”,會生成下面的圖像。

這項技術(shù)有廣闊的應(yīng)用前景,比如自媒體經(jīng)常需要合適的配圖。
現(xiàn)在的情況是合適的配圖不太好找,而且還要考慮版權(quán)問題。
可想而知,這項文字生成圖像的技術(shù)會極大方便自媒體。
需要什么配圖,只要用文字描述一下,圖像就自動生成了,還避免了版權(quán)的風(fēng)險。
再往遠(yuǎn)處想一想,也許漫畫行業(yè)都會迎來巨大變革。
以后的漫畫家可能根本不需要學(xué)習(xí)畫畫,只要有想象力,用文字描述出來,就能生成相應(yīng)的圖畫。
借助這項AI技術(shù),以后的小說甚至有可能有一鍵生成漫畫的功能。
但技術(shù)是把雙刃劍,不法分子肯定也會用這項技術(shù)實施詐騙等非法活動。
只要簡單描述一下,就能生成一張逼真的車禍?zhǔn)軅掌?/strong>
然后讓親朋好友打錢,細(xì)思極恐,不得不防。
央視報道的這個詐騙團(tuán)伙,也是沒把技術(shù)用到正道。
現(xiàn)在不少商家,把同樣的技術(shù)用在客戶電話回訪上,節(jié)省了大量人力,取得了不錯的效果。
這個團(tuán)伙如果幫正經(jīng)公司營銷引流,雖然短期賺得少,但長期看,一定更有發(fā)展前途。
隨著AI技術(shù)的發(fā)展,未來AI的能力一定超出我們大多數(shù)人的想象。
這背后既有機(jī)遇,也有風(fēng)險,還有可能被不法分子濫用,每個人都應(yīng)該對此多一份警醒。
時代變了,你看到的,聽到的都不一定是真的。