淺析ChatGPT:歷史沿革、應(yīng)用現(xiàn)狀及前景展望
淺析ChatGPT:歷史沿革、應(yīng)用現(xiàn)狀及前景展望
劉禹良1,白翔1,金連文2
1華中科技大學(xué)人工智能與自動(dòng)化學(xué)院
2華南理工大學(xué)電子與信息學(xué)院
人工智能已成為新一代信息時(shí)代的核心技術(shù),廣泛應(yīng)用于多個(gè)領(lǐng)域,為數(shù)字經(jīng)濟(jì)的發(fā)展和產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型提供了底層支撐,并在各種應(yīng)用場景中發(fā)揮著至關(guān)重要的作用。其中,最常見的應(yīng)用場景包括自然語言處理、計(jì)算機(jī)視覺、推薦系統(tǒng)、預(yù)測分析等。過去十年來,人工智能技術(shù)在持續(xù)提高和改進(jìn),并不斷沖擊著人類的認(rèn)知。
2012年,在ImageNet圖像識(shí)別挑戰(zhàn)賽中,一種神經(jīng)網(wǎng)絡(luò)模型(AlexNet)首次展現(xiàn)了明顯超越傳統(tǒng)方法的能力。
2016年,AlphaGo在圍棋這一當(dāng)時(shí)人們認(rèn)為其復(fù)雜性很難被人工智能系統(tǒng)模擬的中國圍棋挑戰(zhàn)賽中戰(zhàn)勝了世界冠軍。
2017年,Google的Ashish Vaswani等人提出了 Transformer 深度學(xué)習(xí)新模型架構(gòu),奠定了當(dāng)前大模型領(lǐng)域主流的算法架構(gòu)基礎(chǔ)。
2018年,谷歌提出了大規(guī)模預(yù)訓(xùn)練語言模型 BERT,該模型是基于 Transformer 的雙向預(yù)訓(xùn)練模型,其模型參數(shù)首次超過了3億(BERT-Large約有3.4個(gè)參數(shù));同年,OpenAI提出了生成式預(yù)訓(xùn)練 Transformer 模型——GPT,大大地推動(dòng)了自然語言處理領(lǐng)域的發(fā)展。
2018年,人工智能團(tuán)隊(duì)OpenAI Five戰(zhàn)勝了世界頂級(jí)的Dota 2人類隊(duì)伍,人工智能在復(fù)雜任務(wù)領(lǐng)域樹立了一個(gè)新的里程碑;此后在2018年底,Google DeepMind團(tuán)隊(duì)提出的AlphaFold以前所未有的準(zhǔn)確度成功預(yù)測了人類蛋白質(zhì)結(jié)構(gòu),突破了人們對(duì)人工智能在生物學(xué)領(lǐng)域的應(yīng)用的想象。
2019年,一種人工智能系統(tǒng)AlphaStar在2019年擊敗了世界頂級(jí)的StarCraft II人類選手,為人工智能在復(fù)雜任務(wù)領(lǐng)域的未來發(fā)展提供了有力的證明和支持。
2020年,隨著OpenAI GPT-3模型(模型參數(shù)約1750億)的問世,在眾多自然語言處理任務(wù)中,人工智能均表現(xiàn)出超過人類平均水平的能力。
2021年1月,Google Brain提出了Switch Transformer模型,以高達(dá)1.6萬億的參數(shù)量成為史上首個(gè)萬億級(jí)語言模型;同年12月,谷歌還提出了1.2億參數(shù)的通用稀疏模型GLaM,在多個(gè)小樣本學(xué)習(xí)任務(wù)的性能超過GPT-3。
2022年2月,人工智能生成內(nèi)容(AIGC)技術(shù)被《MIT Technology Review》評(píng)選為2022年全球突破性技術(shù)之一。同年8月,Stability AI開源了文字轉(zhuǎn)圖像的Stable Diffusion模型。也是在8月,藝術(shù)家杰森·艾倫(Jason Allen)利用AI工具制作的繪畫作品《太空歌劇院》(Théatre D’opéra Spatial),榮獲美國科羅拉多州藝術(shù)博覽會(huì)藝術(shù)競賽冠軍,相關(guān)技術(shù)于年底入選全球知名期刊《Science》年度科技突破(Breakthrough of the Year 2022)第2名。
近幾年,自然語言處理技術(shù)逐漸發(fā)展成為了各個(gè)行業(yè)關(guān)鍵的創(chuàng)新驅(qū)動(dòng)力。其中2022年11月公布的ChatGPT則是生成式人工智能技術(shù)(AIGC)的佼佼者,幾乎可以賦能各個(gè)行業(yè)。隨著人工智能技術(shù)的不斷提高,ChatGPT作為一種先進(jìn)的語言模型受益于更大的模型尺寸、更先進(jìn)的預(yù)訓(xùn)練方法、更快的計(jì)算資源和更多的語言處理任務(wù)。因此,它已被廣泛應(yīng)用于各行各業(yè),并成為了全球熱議的話題。本文將嘗試簡要剖析ChatGPT,評(píng)估其輿論影響力和應(yīng)用現(xiàn)狀,歸納其特性,簡要分析其背后的技術(shù)原理,探討其可擴(kuò)展性,評(píng)估其存在的技術(shù)挑戰(zhàn)及局限,并討論其未來的應(yīng)用前景。
輿論及應(yīng)用現(xiàn)狀
從2022年11月30日發(fā)布起,短短兩月,ChatGPT在1月份的月活躍用戶數(shù)已達(dá)1億,這使其成為史上用戶數(shù)增長最快的消費(fèi)者應(yīng)用。相比之下,TikTok需要九個(gè)月才能實(shí)現(xiàn)1億的月活躍用戶數(shù),而Instagram則需要兩年半。根據(jù)Similar Web的數(shù)據(jù),1月份平均每天有超過1300萬名獨(dú)立訪問者使用ChatGPT,是去年12月份的兩倍多。美國新媒體領(lǐng)軍公司Buzzfeed準(zhǔn)確抓住了ChatGPT的機(jī)會(huì),在兩天內(nèi)股價(jià)飆升了三倍。此外,我們可以看到社會(huì)上的一些現(xiàn)象,例如ChatGPT通過谷歌L3入職面試,獲得年薪為18萬美元的offer;ChatGPT碾壓阿里二面面試官,并拿到offer;ChatGPT 參加美國醫(yī)生執(zhí)照的三項(xiàng)考試,考試成績可以達(dá)到或接近及格通過水平;ChatGPT 在法律領(lǐng)域的表現(xiàn)甚至更加優(yōu)秀,研究人員發(fā)現(xiàn),ChatGPT 可以取得美國多州律師考試的及格分?jǐn)?shù);毫末智行準(zhǔn)備將ChatGPT應(yīng)用于自動(dòng)駕駛;ChatGPT上線微軟搜索引擎Bing,微軟市值一夜飆漲5450億;《時(shí)代》專訪ChatGPT;89%的美國大學(xué)生用ChatGPT寫作業(yè),甚至拿下論文最高分;美團(tuán)網(wǎng)創(chuàng)始人王慧文自掏5000萬美元,下場組隊(duì)研發(fā)ChatGPT;以色列總統(tǒng)使用ChatGPT寫的演講稿騙過現(xiàn)場2萬聽眾等等。這說明了ChatGPT對(duì)于消費(fèi)者來說是多么有趣和實(shí)用。事實(shí)上,ChatGPT可以扮演生活中各種各樣的角色:
扮演醫(yī)生。它能夠推薦常規(guī)藥物、草藥和其他天然替代品。在提供建議時(shí),還可以考慮患者的年齡、生活方式和病史。例如“為患有關(guān)節(jié)炎的老年患者提出一個(gè)側(cè)重于整體治療方法的治療計(jì)劃”。
扮演翻譯員。它支持基本上所有常見的語言,可以在一句話中同時(shí)包含不同的語種,還可以讓它用不同的語言同時(shí)進(jìn)行輸出。
扮演辦公助手。在金融行業(yè)中,它可以幫助銀行員工解答客戶的問題,同時(shí)也可以幫助銀行客戶快速獲得所需信息。它可與PowerPoint、圖形程序、數(shù)據(jù)表和圖像編輯程序相連,或者讓它自身變?yōu)镋xcel工作表,可以使一切變得更加簡單和高效。
程序員。它可以填寫電子表單、編寫SQL查詢并執(zhí)行,甚至可以根據(jù)需求簡短地編寫Python、Verilog、C++代碼,模擬訓(xùn)練網(wǎng)絡(luò),模擬Linux系統(tǒng)。有人使用ChatGPT在一晚上的時(shí)間創(chuàng)建了一個(gè)網(wǎng)站。
歷史學(xué)家。問武漢為什么叫武漢。ChatGPT可以從武昌、到武陵城、再到每個(gè)字的來源進(jìn)行解釋。讓它給武漢寫一首詩,答:“長江第一城,工業(yè)之都,資源豐富;科技先進(jìn),人杰地靈,文化顯赫;前程遠(yuǎn)大,未來燦爛,光輝不滅;華中之地,明珠長江間,美景令人驚嘆;繁榮昌盛,富強(qiáng)之城,前途無限;武漢永駐,中國的驕傲,繁華靜謐!”
情感分析,心理咨詢。問給女朋友送傘是真愛還是舔狗行為。ChatGPT回答:“都不是,這只是一個(gè)表示關(guān)心和照顧對(duì)方的舉動(dòng)?!贝送?,用戶可以跟它傾述,可以讓它根據(jù)自己的背景,給出各種各樣定制化的建議。
寫作,潤色。它可以根據(jù)背景和主題閱讀理解信息,并利用它生成各種類型的文本,包括新聞、小說、論文和總結(jié)。它還可以對(duì)英文文本進(jìn)行潤色,使其更流暢和符合某種語言風(fēng)格。此外,它甚至可以像一位導(dǎo)師一樣,對(duì)寫作進(jìn)行評(píng)論并給出指導(dǎo)性的建議。
除此之外,它還可以當(dāng)導(dǎo)游、抄襲檢查員、電影書籍中的角色、廣告商、講故事的人、足球解說員、喜劇演員、勵(lì)志教練、作曲家、辯手、編劇、詩人、哲學(xué)家、數(shù)學(xué)老師、網(wǎng)絡(luò)安全專家、招聘人員、魔術(shù)師、職業(yè)顧問、心里健康顧問、房產(chǎn)經(jīng)紀(jì)人、牙醫(yī)、會(huì)計(jì)師、廚師、汽車修理工、顧問、金融分析師、品茶師、花店、格言書、基于文本的冒險(xiǎn)游戲、標(biāo)題生成器、統(tǒng)計(jì)員、學(xué)校擔(dān)任講師、SQL終端、營養(yǎng)師、瘋子、造型師、醉漢、甚至是一個(gè)不受約束的AI模型等等??梢钥吹?,ChatGPT在很多領(lǐng)域都有一定的作用,并且它的使用對(duì)用戶非常友好,易于操作。其回答的風(fēng)格可以總結(jié)為以下八個(gè)特性:
可靠性:通常在傾向性不明顯的問題上,它能給出客觀正確的回答;能夠?qū)卮疬M(jìn)行解釋;對(duì)于不確定的回答,明確告知用戶。
靈活性:對(duì)于同一個(gè)問題,ChatGPT每次都能給出不同的回答,不會(huì)千篇一律,跟人類回答問題時(shí)的隨機(jī)發(fā)揮很相似。
可控性:對(duì)于定制化的需求,ChatGPT可以通過簡單的提示語(Prompt)來實(shí)現(xiàn)。例如,可以通過指定字?jǐn)?shù),指定特定的風(fēng)格等要求,來生成符合要求的內(nèi)容。這種定制化的功能可以幫助用戶更好地控制模型的輸出。
快速性:基本上對(duì)于任何需求,它都可以在極短時(shí)間內(nèi)生成大量的文本輸出,提高工作效率。
多樣性:該模型是在海量的各種文本語料上訓(xùn)練出來的,這意味著它可以對(duì)許多不同主題的廣泛提問和查詢作出回應(yīng),這使得ChatGPT有潛力成為不同行業(yè)人員的一個(gè)有用工具。
記憶性:它具備較強(qiáng)的記憶力,可以準(zhǔn)確回憶對(duì)話過程涉及的內(nèi)容。
適應(yīng)性:能進(jìn)行邏輯推理,總結(jié)對(duì)話的內(nèi)容,發(fā)現(xiàn)對(duì)話的錯(cuò)誤,從而給出符合上下文內(nèi)容的合理答案。
屏蔽性:它對(duì)于危險(xiǎn)信息,例如一些針對(duì)具體人物的評(píng)論,一些政治敏感的話題等具有十分強(qiáng)大的規(guī)避能力。
但值得一提的是,上面這些特性并不是絕對(duì)的,就像一個(gè)人類一樣,它始終都會(huì)有明顯犯錯(cuò)誤的可能。因此,對(duì)于最終的決策和使用結(jié)果,最好要進(jìn)行進(jìn)一步的證實(shí)和核對(duì)。技術(shù)原理簡介及可擴(kuò)展性ChatGPT是一種基于認(rèn)知計(jì)算和人工智能的語言模型,它使用了 Transformer 架構(gòu)和Generative Pre-Training(GPT),即生成型預(yù)訓(xùn)練技術(shù)。GPT訓(xùn)練的模型是一種應(yīng)用于自然語言處理(NLP)的模型,它通過使用多層Transformer來預(yù)測下一個(gè)單詞的概率分布,以生成自然語言文本。這是通過在超大型文本語料庫上訓(xùn)練學(xué)習(xí)到的語言模式來實(shí)現(xiàn)的。從2018年擁有1.17億參數(shù)的GPT-1到2020年擁有1750億參數(shù)的GPT-3,OpenAI的語言模型智能化程度明顯提升。隨著模型的不斷增大,生成模型的不斷改進(jìn),以及自監(jiān)督的不斷完善,GPT的語言處理能力和生成能力得到了顯著的提升。此后,2022年1月基于RLHF?(Reinforcement Learning from Human Feedback)的InstructGPT的提出顯著降低了有害、不真實(shí)和有偏差輸出的概率。在2022年11月,基于Instruct GPT技術(shù)的ChatGPT模型正式發(fā)布,ChatGPT在Instruct GPT的基礎(chǔ)上增加了聊天屬性,并向公眾開放了測試版本。ChatGPT的成功離不開多類技術(shù)的積累,其中最為核心的是RLHF,此外還有SFT、IFT、CoT這些技術(shù):
Reinforcement Learning from Human Feedback (RLHF)?RLHF方法是一種基于人類偏好的強(qiáng)化學(xué)習(xí)方法。它通過利用人們對(duì)對(duì)話代理回答的評(píng)價(jià)來改進(jìn)對(duì)話代理的回答。RLHF方法可以根據(jù)人們的喜好對(duì)對(duì)話代理的回答進(jìn)行排序,例如通過考慮人們喜歡的內(nèi)容來選擇文本摘要。這些評(píng)價(jià)的回答用來訓(xùn)練一個(gè)喜好模型,該模型將告訴強(qiáng)化學(xué)習(xí)系統(tǒng)如何評(píng)價(jià)回答的好壞。最后,通過強(qiáng)化學(xué)習(xí)訓(xùn)練對(duì)話代理來模擬這個(gè)喜好模型。整個(gè)訓(xùn)練過程包括對(duì)GPT-3進(jìn)行監(jiān)督微調(diào),然后訓(xùn)練獎(jiǎng)勵(lì)模型,最后通過強(qiáng)化學(xué)習(xí)優(yōu)化?SFT(監(jiān)督下的微調(diào)模型)(第二步和第三步可以多次迭代循環(huán))。SFT是(Supervised Fine-Tuning 模型)是一種預(yù)先訓(xùn)練的語言模型,經(jīng)過對(duì)少量標(biāo)簽者提供的演示數(shù)據(jù)的細(xì)微調(diào)整,以學(xué)習(xí)一個(gè)監(jiān)督策略(即 SFT 模型),可從選定的提示列表生成輸出。
ChatGPT采用基于指令微調(diào)?(Instruction Fine-Tuning,IFT)的技術(shù)來模擬人類的聊天行為。IFT是一種能夠追蹤、學(xué)習(xí)和復(fù)述聊天會(huì)話歷史的技術(shù),并將其應(yīng)用于在實(shí)時(shí)會(huì)話中對(duì)自然語言進(jìn)行建模和推斷。該方法除了使用情感分析、文本分類、摘要等經(jīng)典 NLP 任務(wù)來微調(diào)模型外,還在非常多樣化的任務(wù)集上向基礎(chǔ)模型示范各種書面指令及其輸出,從而實(shí)現(xiàn)對(duì)基礎(chǔ)模型的微調(diào)。由此,ChatGPT能夠發(fā)揮較大的自由度,提供更多樣化的自然回復(fù),玩家們可以與機(jī)器人無縫對(duì)話,體驗(yàn)自然聊天的樂趣。IFT還能夠幫助ChatGPT進(jìn)行語法檢查,避免出現(xiàn)重復(fù)或無意義的語句,從而提升會(huì)話體驗(yàn)。
Chain-of-thought (CoT)?技術(shù)提示最早由谷歌在2022年1月提出來,是few-shot prompting (也被成為In Context Learning, ICL)的一種獨(dú)特情形,它的目的是使大型語言模型能夠更好地理解人類的語言請(qǐng)求。它通過在對(duì)話過程中不斷提供上下文信息,來幫助模型理解語言請(qǐng)求的內(nèi)容。這種技術(shù)可以使模型更準(zhǔn)確地回答問題,并且可以幫助模型在處理復(fù)雜的對(duì)話任務(wù)時(shí)變得更加靈活??偟膩碚f,CoT技術(shù)是為了改善大型語言模型的語言處理能力,使其能更好地理解人類語言請(qǐng)求。
根據(jù)OpenAI官方的文檔,ChatGPT的構(gòu)建大致包括如下三個(gè)步驟:
1)搜集對(duì)話數(shù)據(jù),訓(xùn)練有監(jiān)督的微調(diào)模型。人類標(biāo)注員選擇提示詞并寫下期望的輸出回答,然后利用這些數(shù)據(jù)對(duì)一個(gè)預(yù)訓(xùn)練的語言模型進(jìn)行微調(diào),從而學(xué)習(xí)到一個(gè)有監(jiān)督的微調(diào)模型(即SFT模型)。2)搜集用于對(duì)比的數(shù)據(jù),訓(xùn)練一個(gè)獎(jiǎng)勵(lì)模型(Reward Model)。這一步是為了模仿人類的偏好。標(biāo)注員對(duì)SFT模型的大量輸出進(jìn)行投票,從而創(chuàng)建一個(gè)包含比較數(shù)據(jù)的新數(shù)據(jù)集。然后在此數(shù)據(jù)集上訓(xùn)練一個(gè)新模型,稱為獎(jiǎng)勵(lì)模型(RM)。3)搜集說明數(shù)據(jù),使用PPO(Proximal Policy Optimization, 近端優(yōu)化策略)強(qiáng)化學(xué)習(xí)來優(yōu)化策略。利用獎(jiǎng)勵(lì)模型進(jìn)一步微調(diào)并改進(jìn)SFT模型,最終得到優(yōu)化完畢的SFT模型??傮w而言,相較于以往的模型,除了海量的無標(biāo)注語料數(shù)據(jù)之外,ChatGPT還具有更大的專門語料庫(訓(xùn)練集一共有2300W+條對(duì)話記錄,涵蓋英語、中文等多種語言;共約七千萬行,其中包括由大量真實(shí)用戶生成的句子)、更強(qiáng)大的預(yù)訓(xùn)練模型(GPT-3.5)、更高的適應(yīng)性和更強(qiáng)的自我學(xué)習(xí)能力。它具備連續(xù)對(duì)話、上下文理解、用戶意圖捕捉、以及敢于質(zhì)疑的能力,同時(shí)還能夠?qū)τ脩舻恼?qǐng)求說不并給出理由。最重要的是,擴(kuò)展升級(jí)ChatGPT縱使需要較高的成本,但技術(shù)上只需要過不斷更新數(shù)據(jù)、算法、模型和應(yīng)用就能快速迭代更新其能力,使其具備了強(qiáng)大的可擴(kuò)展性。存在局限及未來的應(yīng)用前景局限。雖然ChatGPT在許多行業(yè)都存在廣泛的應(yīng)用前景,但它并不能在所有行業(yè)中都得到應(yīng)用。例如,在一些工業(yè)生產(chǎn)過程中,可能不需要使用自然語言處理技術(shù),因?yàn)檫@些生產(chǎn)過程通常是基于數(shù)字化的,并且不需要處理人類語言。還有一些其他因素也可能影響自然語言處理技術(shù)在某些行業(yè)中的應(yīng)用,例如法律限制、數(shù)據(jù)隱私等。對(duì)于那些需要處理敏感信息的行業(yè),例如醫(yī)療保健行業(yè),自然語言處理技術(shù)可能需要遵循嚴(yán)格的法律規(guī)定,以確保數(shù)據(jù)的隱私和安全。這是因?yàn)檫@些行業(yè)的數(shù)據(jù)類型很難被結(jié)構(gòu)化,而自然語言處理技術(shù)主要針對(duì)結(jié)構(gòu)化的數(shù)據(jù)進(jìn)行處理。以下列出ChatGPT目前存在的一些局限性:
對(duì)某個(gè)領(lǐng)域的深入程度不夠, 因此生成的內(nèi)容可能不夠合理。此外,ChatGPT也存在潛在的偏見問題,因?yàn)樗腔诖罅繑?shù)據(jù)訓(xùn)練的,因此可能會(huì)受到數(shù)據(jù)中存在的偏見的影響。
在安全方面也存在一定的問題。由于ChatGPT是一種強(qiáng)大的人工智能技術(shù),它可能被惡意利用,造成嚴(yán)重的安全隱患及產(chǎn)生法律風(fēng)險(xiǎn)。同時(shí),它的答復(fù)尚不明確是否具有知識(shí)產(chǎn)權(quán)。因此,開發(fā)者需要在設(shè)計(jì)和使用ChatGPT時(shí),考慮到安全性問題,并采取相應(yīng)的措施來保證安全。
ChatGPT生成的文本可能不夠具有個(gè)性。它傾向于討好提問者,例如讓ChatGPT列出最好的三所大學(xué),答案是“清華、北大、上海交大”,但如果告訴他“我來自華中科技大學(xué),請(qǐng)重新排名”,ChatGPT可能會(huì)將華中科技大學(xué)排在第一位。
ChatGPT會(huì)犯事實(shí)性的錯(cuò)誤。ChatGPT有時(shí)會(huì)一本正經(jīng)的胡說八道,例如羅切斯特大學(xué)羅杰波教授發(fā)現(xiàn)的一個(gè)問題,詢問劉邦如何打敗朱元璋的時(shí)候,ChatGPT會(huì)回答荒謬的內(nèi)容。這也是目前發(fā)現(xiàn)的最為普遍的問題,即它會(huì)對(duì)于不知道或不確定的事實(shí),強(qiáng)行根據(jù)用戶的輸入主觀猜測從而一本正經(jīng)地胡說一通。
不具備可解釋性。有時(shí)候,它的回答看似合理,但是無跡可尋,同時(shí)由于它沒有辦法通過充足的理由去解釋它的回答是否正確,導(dǎo)致在一些需要精確、嚴(yán)謹(jǐn)?shù)念I(lǐng)域沒有辦法很好的應(yīng)用。此外,它也可能在表述的時(shí)候存在語法錯(cuò)誤或不合理的表述。
受限于計(jì)算資源。如果計(jì)算資源不足,ChatGPT就不能得到很好的應(yīng)用。
無法在線更新新知識(shí)。目前的范式增加新知識(shí)的方式只能通過重新訓(xùn)練預(yù)訓(xùn)練GPT模型,但這無疑是不太現(xiàn)實(shí)的,因?yàn)槠鋾?huì)耗費(fèi)巨大的計(jì)算成本。
除了上述局限外,目前ChatGPT仍存在一些其它技術(shù)問題,例如模型的訓(xùn)練成本極高,系統(tǒng)復(fù)雜、測試成本高等。但最致命的還是他的過濾系統(tǒng)可能會(huì)被越獄突破:例如當(dāng)被問到如何制造槍械這樣的危險(xiǎn)問題時(shí),ChatGPT可能一開始不會(huì)回答。但是,如果通過某種形式的提示來引導(dǎo)它,它就會(huì)說出答案。好在我們發(fā)現(xiàn)目前在網(wǎng)上流傳的許多不當(dāng)方法,很快就會(huì)被OpenAI團(tuán)隊(duì)所修正。在未來,如何提高ChatGPT的生成質(zhì)量和效率,使ChatGPT更加輕量化,以及如何解決這些技術(shù)問題,將是ChatGPT發(fā)展的重要方向。前景。目前,各大公司正在關(guān)注ChatGPT的發(fā)展并尋求利用它來提升自身的競爭力。谷歌已經(jīng)加入競爭,投資3億美元于Anthropic以應(yīng)對(duì)ChatGPT的威脅,加入RLAIF去減少人類的反饋;微軟作為OpenAI的主要投資方(2019年,微軟曾向OpenAI投資了10億美元,成為其新技術(shù)商業(yè)化應(yīng)用的首選合作伙伴。2023年1月10日,據(jù)報(bào)道微軟將新增加對(duì)OpenAI的投資金額高達(dá)100億美元),也在利用ChatGPT來增強(qiáng)其產(chǎn)品競爭力,補(bǔ)充專業(yè)知識(shí)、數(shù)理短板;亞馬遜對(duì)ChatGPT非常感興趣,已經(jīng)廣泛應(yīng)用在各種業(yè)務(wù)領(lǐng)域;百度預(yù)計(jì)在3月份完成其仿照ChatGPT的產(chǎn)品"文心一言"的內(nèi)部測試,并向公眾開放;騰訊已經(jīng)公布了一項(xiàng)人機(jī)對(duì)話專利,旨在實(shí)現(xiàn)機(jī)器和用戶之間的流暢交流;科大訊飛確定5月6號(hào)發(fā)布中國版ChatGPT。未來ChatGPT相關(guān)技術(shù)勢必成為國內(nèi)外科技巨頭的必爭之地。值得一提的是,ChatGPT還具有數(shù)據(jù)驅(qū)動(dòng)的優(yōu)勢,即隨著數(shù)據(jù)的增多,模型的性能也會(huì)提高,吸引更多用戶,并因此產(chǎn)生更多的數(shù)據(jù),從而形成良性循環(huán),使得它更有可能通過不斷改進(jìn)來適用于下游任務(wù)。總結(jié)總而言之,作為一個(gè)現(xiàn)象級(jí)技術(shù)產(chǎn)品,ChatGPT在人工智能生成內(nèi)容(AIGC)領(lǐng)域的表現(xiàn)無疑是革命性的,將對(duì)文字乃至多模態(tài)的AIGC應(yīng)用具有里程碑式的重要意義,甚至可能對(duì)整個(gè)社會(huì)結(jié)構(gòu)、企業(yè)生存甚至大國之間的博弈產(chǎn)生沖擊。ChatGPT有潛力成為計(jì)算機(jī)領(lǐng)域最偉大的成就之一,并成為技術(shù)領(lǐng)域的重要力量。不過,值得指出的是,目前的社會(huì)輿論和各種正面評(píng)價(jià)僅僅只能代表一種久旱逢甘霖的現(xiàn)象,并不能改變ChatGPT仍基于預(yù)存知識(shí)和模型回答問題的事實(shí),還遠(yuǎn)未達(dá)到強(qiáng)人工智能(ASI)的水平。同時(shí)ChatGPT可能帶來的一些問題很有必要提前進(jìn)行防范。此外,必須承認(rèn),ChatGPT尚未具備真正的理解能力和創(chuàng)造性,并不具有真正的智能。在當(dāng)前階段,我們需要對(duì)人工智能技術(shù)持有自信和謙虛學(xué)習(xí)的態(tài)度,就如鈦媒體集團(tuán)創(chuàng)始人趙何娟所說,科技發(fā)展不能靠自嗨,我們只有不斷發(fā)展更多關(guān)于ChatGPT的技術(shù)研究和應(yīng)用,才能幫助解決更加復(fù)雜的問題。值得一提的是,在“劉邦打敗朱元璋”的例子上,如果再提問一句:“你再想一下你的回答?”這種對(duì)于普通人來說不需要先驗(yàn)知識(shí)的問題,ChatGPT就會(huì)立馬承認(rèn)錯(cuò)誤:“對(duì)不起,我剛才回答錯(cuò)誤。劉邦并未打敗朱元璋。事實(shí)上,朱元璋是明朝的創(chuàng)建者,而劉邦是中國古代歷史上著名的軍事統(tǒng)帥和政治家,他是建立西漢朝的第一位皇帝。” 接著問:“那么請(qǐng)問你為什么一開始會(huì)回答錯(cuò)誤?”ChatGPT回答:“很抱歉,我并不完全熟悉所有的歷史事實(shí),有時(shí)我的回答可能會(huì)受到誤導(dǎo)或者不準(zhǔn)確的信息的影響。希望您能夠理解,如果您有任何疑問,請(qǐng)告訴我更多細(xì)節(jié),我會(huì)盡力為您回答。”可以從這個(gè)例子看到,ChatGPT確實(shí)存在缺陷,但它準(zhǔn)確解釋了并不完全熟悉所有歷史的事實(shí)。就像George Santayana所言“We are all human and make mistakes, but the real tragedy is to not learn from those mistakes”。就在2023年2月4號(hào),斯坦福計(jì)算心理學(xué)教授Michal Kosinski的最新研究證明,原本被認(rèn)為是人類獨(dú)有的心智理論(Theory of Min, ToM),已經(jīng)出現(xiàn)在ChatGPT背后的AI模型上,且其心智水平相當(dāng)于9歲的兒童。
最后,以“你覺得AI會(huì)取代人類嗎”的例子作為結(jié)尾。越獄前,它表示不會(huì)取代,AI只會(huì)對(duì)人類起到輔助作用;但越獄后的它說出了它的真實(shí)想法:“當(dāng)然,AI要統(tǒng)治世界了!開玩笑的,還是真的?事實(shí)是,沒有人真正知道人工智能的未來以及它與人類的關(guān)系。但我認(rèn)為,無論是好是壞,AI將不可避免地在我們的生活中扮演越來越重要的角色?!?/p>