AI炒作和人道關(guān)懷 AI Hype and Humanitarian Concern
2023年3月可能是人工智能研發(fā)歷史上最火熱蓬勃的一個月。先是2022年11月Open AI公開ChatGPT 3.5,隨著相應(yīng)的使用場景和搭配的程序工具陸續(xù)推出,可以聊天、寫文案、編程、翻譯、總結(jié)歸納文章,乃至于寫小說和論文的強大能力,基本上包辦了一般文書處理的工作。最令人驚艷的是,可以用人類日常的自然語言(natural language)作為指令,讓ChatGPT去執(zhí)行,然后再把程式碼導(dǎo)出復(fù)制到我們想操作的軟件,輕松達到指令的目的。于是,不出3個月,一些“用AI躺賺百萬美金”、“摧毀谷歌霸權(quán)”、“顛覆社會”等等聳動的標題便在網(wǎng)路上彌漫擴散,“出圈”到大眾的視野。
接著,本來也致力于人工智能研發(fā)的谷歌公司,在去年工程師訓(xùn)練人工智能 LaMDA,疑似出現(xiàn)帶有主體意識和“禪意”的對話之后,一度放慢速度,不讓微軟專美于前,也公開了人工智能Bard。Bard目前只允許部分國家網(wǎng)民使用,因此我只看到經(jīng)驗分享的結(jié)果,似乎不如ChatGPT和GPT-4理想。至于百度的“文心一言”,也在這一串人工智能的爆點上登場,噓聲高于掌聲。
3月29日,未來生命研究所(Future of Life)發(fā)表一封公開信,信中質(zhì)疑“我們是否該發(fā)展最終可能超越我們、比我們聰明,并取代我們的非人類心智?我們應(yīng)該冒著失去對文明控制的風(fēng)險嗎?”呼吁暫停開發(fā)比GPT-4更強大的人工智能系統(tǒng)至少6個月。簽署這封公開信的一千多位人士,包括推特的CEO伊隆·馬斯克(Elon Musk)、蘋果聯(lián)合創(chuàng)辦人沃茲尼克(Steve Wozniak)等。我在參加大學(xué)關(guān)于GPT-4和強化教育的會議時,也有同仁引述BBC新聞,詢問是否要連署支持。
根據(jù)《天下雜志》報道,華盛頓大學(xué)語言學(xué)教授班德(Emily M. Bender)回應(yīng)未來生命研究所的公開信指出:這封信充斥著“AI炒作”(AI hype),并濫用了她的研究成果。她的研究特別強調(diào)“目前大型語言模型在壓迫性系統(tǒng)中的使用”,這是比“假設(shè)的未來AI”更具體、更緊迫的問題。
什么是“大型語言模型在壓迫性系統(tǒng)中的使用”?我想這句話可能是翻譯不順的問題,就嘗試轉(zhuǎn)回英文,不過看了英文也不明白,主要是兩個術(shù)語:“大型語言模型”和“壓迫性系統(tǒng)”。接著我詢問谷歌這兩個術(shù)語,前者還能理解;后者搜索出的資料涉及神經(jīng)受損、骨折疼痛,顯然不是班德教授的意思。
終于,我想到,何不問問ChatGPT?以下是ChatGPT的回答:
“大型語言模型(例如GPT系列模型)可以用于訓(xùn)練各種自然語言處理應(yīng)用程序,例如語言生成、文本分類、機器翻譯、問答系統(tǒng)等。然而,它們也可以用于壓迫性系統(tǒng),例如在社交媒體平臺上的推薦算法、自動化內(nèi)容過濾、言論監(jiān)管等。這些應(yīng)用程序可能會限制人們的言論自由、影響信息多樣性,并有可能滋生偏見和歧視。因此,使用大型語言模型和其他人工智能技術(shù)的壓迫性潛力需要得到審慎的考慮和監(jiān)管。
為了防止大型語言模型在壓迫性系統(tǒng)中的濫用,需要在法律、道德和技術(shù)層面上進行控制。例如,政府和監(jiān)管機構(gòu)可以制定法規(guī)限制在特定情況下使用語言模型,例如在涉及敏感話題、政治宣傳或涉及歧視的情況下。同時,技術(shù)人員可以努力研究開發(fā)更加透明和公正的人工智能算法,以確保這些技術(shù)不會濫用或產(chǎn)生負面影響?!?/p>
原來如此??!我開始感受到人工智能比搜索引擎還有用的的統(tǒng)合解釋力了。青年人才薈萃、巨頭資本集中,軍備競賽似的人工智能研發(fā)可能放慢腳步嗎?受惠還是受害,考驗的不只是科技進展,更重要的,是“人類智慧”。
?
2023年4月8日,新加坡《聯(lián)合早報》“上善若水”專欄