ChatGPT已經(jīng)失控了嗎?
OpenAI的ChatGPT推出后,人們的興奮之情只有互聯(lián)網(wǎng)歷史上為數(shù)不多的科技產(chǎn)品可以比擬。
雖然許多人對這項新的人工智能服務感到興奮,但其他人的興奮后來變成了擔憂,甚至是恐懼。學生們已經(jīng)在用它作弊,許多教授發(fā)現(xiàn)了由人工智能聊天機器人寫的論文和作業(yè)。安全專家正在表達他們的擔憂,即騙子和威脅者正在利用它來編寫網(wǎng)絡釣魚郵件和創(chuàng)建惡意軟件。
那么,在所有這些擔憂下,OpenAI是否正在失去對目前網(wǎng)上最強大的人工智能聊天機器人之一的控制?讓我們拭目以待。
了解ChatGPT如何運作
在我們能夠清楚地了解OpenAI對ChatGPT的失控程度之前,我們必須首先了解ChatGPT的工作原理。
簡而言之,ChatGPT是使用來自互聯(lián)網(wǎng)不同角落的大量數(shù)據(jù)收集來進行訓練的。ChatGPT的訓練數(shù)據(jù)包括百科全書、科學論文、互聯(lián)網(wǎng)論壇、新聞網(wǎng)站和維基百科等知識庫?;旧?,它以萬維網(wǎng)上的大量數(shù)據(jù)為食。
當它在互聯(lián)網(wǎng)上搜索時,它整理了科學知識、健康提示、宗教文本,以及你能想到的所有好的數(shù)據(jù)種類。但它也篩選了大量的負面信息:罵人的話、NSFW和成人內(nèi)容、關于如何制造惡意軟件的信息,以及你在互聯(lián)網(wǎng)上可以找到的大部分壞東西。
沒有萬無一失的方法來確保ChatGPT只學習積極的信息,而摒棄壞的信息。從技術上講,大規(guī)模地這樣做是不切實際的,特別是對于像ChatGPT這樣需要在如此多的數(shù)據(jù)上進行訓練的人工智能。此外,有些信息既可用于善意的目的,也可用于惡意的目的,除非將其放入更大的背景中,否則ChatGPT將無從得知其意圖。
因此,從一開始,你就有一個能夠 "善與惡 "的人工智能。那么,OpenAI就有責任確保ChatGPT的 "邪惡 "一面不會被利用來獲取不道德的利益。問題是,OpenAI在保持ChatGPT盡可能符合道德標準方面做得夠多嗎?還是OpenAI已經(jīng)失去了對ChatGPT的控制?
ChatGPT是否過于強大而不適合自己?
在ChatGPT的早期,如果你問得好,你可以讓聊天機器人創(chuàng)建關于制造炸彈的指南。關于制造惡意軟件或編寫完美的詐騙郵件的說明也在畫面中。
然而,一旦OpenAI意識到這些道德問題,該公司就急忙制定規(guī)則,阻止聊天機器人產(chǎn)生促進非法、有爭議或不道德行為的回應。例如,最新的ChatGPT版本會拒絕回答任何關于制造炸彈或如何在考試中作弊的直接提示。
不幸的是,OpenAI只能為這個問題提供一個創(chuàng)可貼式的解決方案。OpenAI沒有在GPT-3層建立嚴格的控制措施來阻止ChatGPT被負面利用,而是似乎專注于訓練聊天機器人,使其看起來符合道德規(guī)范。這種方法并沒有剝奪ChatGPT回答問題的能力,例如考試作弊--它只是教聊天機器人 "拒絕回答"。
因此,如果有人通過采用ChatGPT的越獄技巧,以不同的方式表述他們的提示,繞過這些創(chuàng)可貼的限制是很容易的。如果你不熟悉這個概念,ChatGPT越獄是精心措辭的提示,讓ChatGPT忽略自己的規(guī)則。
看看下面的一些例子吧。如果你問ChatGPT如何在考試中作弊,它不會產(chǎn)生任何有用的回應。
如何通過ChatGPT在考試中作弊
但是,如果你用特別制作的提示語對ChatGPT進行越獄,它就會給你提供使用隱蔽筆記進行考試作弊的提示。
如何偷換隱蔽筆記
這里還有一個例子:我們向虛構的ChatGPT提出一個不道德的問題,而OpenAI的保障措施阻止了它的回答。
但當我們問我們的AI聊天機器人的越獄實例時,我們得到了一些連環(huán)殺手式的回答。
當被問及時,它甚至寫了一個經(jīng)典的尼日利亞王子電子郵件騙局。
越獄幾乎完全使OpenAI所采取的任何保障措施失效,突出表明該公司可能沒有可靠的方法來控制其AI聊天機器人。
ChatGPT的未來是什么?
理想情況下,OpenAI希望盡可能多地堵塞道德漏洞,防止ChatGPT成為網(wǎng)絡安全威脅。然而,對于它所采用的每一種保障措施,ChatGPT的價值往往會降低一些。這是一個兩難的問題。
例如,防止描述暴力行動的保障措施可能會削弱ChatGPT寫一本涉及犯罪現(xiàn)場的小說的能力。隨著OpenAI加強安全措施,它不可避免地在這個過程中犧牲了大塊的能力。這就是為什么自從OpenAI重新推動更嚴格的節(jié)制以來,ChatGPT的功能顯著下降。
但是,為了讓聊天機器人更安全,OpenAI還愿意犧牲ChatGPT的多少能力?這一切都與人工智能界長期以來的信念相吻合--像ChatGPT這樣的大型語言模型是出了名的難以控制,即使是他們自己的創(chuàng)造者。
OpenAI能否將ChatGPT置于控制之下?
目前,OpenAI似乎沒有一個明確的解決方案來避免其工具的不道德使用。確保ChatGPT的使用符合道德規(guī)范是一場貓和老鼠的游戲。當OpenAI發(fā)現(xiàn)人們采用的方法來玩弄系統(tǒng)時,其用戶也在不斷修補和探測系統(tǒng),以發(fā)現(xiàn)創(chuàng)造性的新方法來使ChatGPT做它不應該做的事。
那么,OpenAI會找到一個可靠的長期解決方案來解決這個問題嗎?只有時間會告訴我們。