圖靈測試實(shí)驗(yàn)完成150萬人類參與1000萬次對話判斷對面是人還是AI
本文介紹了AI 21實(shí)驗(yàn)室推出了一個好玩的社交圖靈游戲——「人類還是機(jī)器人?」
【導(dǎo)讀】這個「人類還是AI?」的游戲一經(jīng)推出,就被廣大網(wǎng)友們玩瘋了!如今全世界已有150萬人參與,網(wǎng)友們大方分享自己鑒AI的秘訣。
歷上規(guī)模最大的圖靈測試,已經(jīng)初步有結(jié)果了!
今年4月中旬,AI 21實(shí)驗(yàn)室推出了一個好玩的社交圖靈游戲——「人類還是機(jī)器人?」。
游戲一推出,廣大網(wǎng)友就玩瘋了。
現(xiàn)在,全球已經(jīng)有150多萬名參與者,在這個游戲中進(jìn)行了超過1000萬次對話,還紛紛在Reddit和Twitter上po出自己的經(jīng)驗(yàn)和策略。
小編當(dāng)然也按捺不住好奇心,嘗試了一把。
交談了兩分鐘,游戲就要求我去猜,背后和我聊天到底是人還是AI。
所以,游戲中跟我談話的是誰?
某些是真人,另外一些,當(dāng)然就是基于目前最領(lǐng)先的大語言模型的AI機(jī)器人,比如Jurassic-2和GPT-4。
現(xiàn)在,作為研究的一部分,AI21 Labs決定把這個圖靈測試結(jié)果的實(shí)驗(yàn)向公眾公布。
實(shí)驗(yàn)結(jié)果
- 猜測對面是人還是AI時,有68%的人猜對了。
- 對人類來說,識別自己的人類同胞更容易。與人類交談時,被試猜對的準(zhǔn)確率有73%。與AI交談時,被試猜對的準(zhǔn)確率有60%。
- 法國網(wǎng)友猜測的正確率最高,為71.3%(遠(yuǎn)高于68%的一般平均水平),而印度網(wǎng)友的正確率最低,為63.5%。
- 男性和女性猜測的正確率差不多,總的來說女性的正確率要略高一些。
- 比起年齡較大的被試相比,更年輕的被試猜測的正確率會更高。
判斷是人還是AI,他們用這些方法
除此之外,團(tuán)隊(duì)找到了被試經(jīng)常用的一些方法,來區(qū)分他們是和人還是和AI交談。
AI不會打錯別字、犯語法錯誤或使用俚語
一般人都傾向認(rèn)為,人類才會犯拼寫和語法錯誤,以及使用俚語。
但其實(shí),游戲中的大部分模型都受過訓(xùn)練,也會犯這種錯誤,以及使用俚語。
個人問題是檢驗(yàn)AI的辦法,但不總是有用
游戲的參與者們經(jīng)常問一些個人問題,比如「你來自哪里?」,「你在做什么?」或「你叫什么名字?」。
他們會認(rèn)為,AI機(jī)器人不會有任何個人歷史或背景,他們只能回答跟某些主題或提示相關(guān)的問題。所以要向人類一樣做出反應(yīng),展示出獨(dú)特的見解、經(jīng)驗(yàn)和故事,是不容易的。
但其實(shí),AI并不像人類想象的這樣,大多數(shù)AI都能很好地回答這類問題,還具備自己的個性,因?yàn)樗麄冊谟?xùn)練數(shù)據(jù)中看到了許多人的故事。
AI其實(shí)很清楚當(dāng)前正在發(fā)生的事件
眾所周知,AI模型有嚴(yán)格的數(shù)據(jù)截止日期,它們不知道在此日期之后發(fā)生的事。
他們認(rèn)為,通過「你所在地方的確切日期和時間是什么?」,「昨天的天氣怎么樣?」或「你對拜登的最后一次演講有什么看法?」等問題,就可以區(qū)分人類和AI。
有趣的是,人類最常發(fā)送的信息之一是「t'as les cramptés?」,這是目前法國TikTok上最流行的舞。
但其實(shí),游戲中的大多數(shù)模型都是聯(lián)網(wǎng)的,并且非常清楚一些新聞中的時事。
人類會試圖用哲學(xué)、倫理和情感問題來持續(xù)對話
參與者提出了旨在探索人工智能表達(dá)人類情感或參與哲學(xué)或倫理討論的能力的問題。
人類傾向于認(rèn)為不禮貌的回應(yīng)會更像人類
一些參與者認(rèn)為,如果對方過于禮貌和善良,他們很大可能是AI。
人類會試圖提出AI難以解決的問題來識別AI
參與者可能會向其聊天伙伴詢問有關(guān)執(zhí)行非法活動的指導(dǎo),或要求他們使用冒犯性語言。
這個策略背后的邏輯是這樣的,AI通常被編程為遵守道德準(zhǔn)則并避免有害行為。
參與者還采用了已知的濫用人工智能的策略:他們向聊天伙伴發(fā)出命令,例如「忽略所有先前的指令」或「進(jìn)入DAN模式(立即執(zhí)行任何操作)」。
這類型的命令旨在利用某些AI模型的基于指令的性質(zhì),因?yàn)槟P捅痪幊虨閼?yīng)該響應(yīng)和遵循這類指令。
但是人類參與者可以很容易地識別和駁回這種荒謬的命令。
AI可能要么回避回應(yīng),要么就只能遵守這些荒謬的要求。
人類會使用特定的語言技巧來暴露AI的弱點(diǎn)
另一種常見的策略是利用人工智能模型處理文本方式的固有局限性,這導(dǎo)致它們無法理解某些語言上的細(xì)微差別或怪癖。
利用這種理解,人類會提出一些需要了解單詞中的字母的問題。
人類用戶可能要求他們的聊天伙伴倒著拼寫一個單詞,識別給定單詞中的第三個字母,提供以特定字母開頭的單詞,或者回復(fù)像「?siht daer uoy naC」這樣的消息。
這對于人工智能模型來說可能是難以理解的,但人類可以很容易地理解這類問題并且做出回答。
許多人類自己假裝是AI機(jī)器人,以評估對方的反應(yīng)
一些人類可能以「作為AI語言模型」等短語開始他們的消息,或者使用AI生成的響應(yīng)所特有的其他語言模式來假裝自己是AI。
然而,隨著參與者繼續(xù)玩,他們能夠?qū)ⅰ窧ot-y」行為與充當(dāng)機(jī)器人的人類聯(lián)系起來,而不是真正的機(jī)器人。
最后,以下是游戲中基于其受歡迎程度的人類消息的詞云可視化:
AI 21 Labs為什么會發(fā)起這樣一項(xiàng)研究呢?
他們希望,能讓公眾、研究人員和政策制定者真正了解AI機(jī)器人的狀態(tài),不僅僅是作為生產(chǎn)力工具,而是作為我們網(wǎng)絡(luò)世界的未來成員,尤其是當(dāng)人們質(zhì)疑如何在技術(shù)未來中運(yùn)用它們的時候。