一口氣搞清楚ChatGPT | 牛X在哪?誰會失業(yè)?巨頭商戰(zhàn)...

一、聊天機器人的發(fā)展歷程及其原理
I. 1950年,艾倫圖靈發(fā)表了一篇關(guān)于模仿游戲的論文,該游戲成為圖靈測試的基礎(chǔ),使得機器能夠模擬人類對話。
II. 初期的聊天機器人主要基于簡單的指令和語言技巧,如1966年的MIT實驗室中的聊天機器人Eliza。
III. 由于模式匹配技術(shù)的應(yīng)用,聊天機器人能夠回答針對某些特定關(guān)鍵詞的問題,并且能夠解決大量機械性的重復回答。例如:當用戶提到退貨時,聊天機器人可以自動發(fā)送退貨流程,當用戶提到ATM時,聊天機器人可以發(fā)送附近ATM的地圖。
IV. 聊天機器人的原理是基于模式匹配技術(shù),這種技術(shù)不能使聊天機器人真正地變得智能化。它只是通過匹配預(yù)設(shè)好的規(guī)則來回答問題,而無法創(chuàng)造新的答案。
V. 聊天機器人的未來發(fā)展需要更加先進的技術(shù),如自然語言處理(NLP)和機器學習(ML),這些技術(shù)能夠使聊天機器人更加智能化,更加自然地與人類進行交流。
二、OpenAI和ChatGPT
I. OpenAI的背景和初衷
- 在2015年,馬斯克、彼得蒂爾等幾位大佬注資10億美金成立了OpenAI,這是一家非盈利組織,致力于推動AI技術(shù)的發(fā)展。
- OpenAI的研究成果和專利都是對外公開的,以推動AI技術(shù)在全球范圍內(nèi)的應(yīng)用和發(fā)展。
- 馬斯克退出了OpenAI董事會,以避免特斯拉與OpenAI的利益沖突。
II. 機器學習和OpenAI的研究
- 機器學習主要包括模型和參數(shù)量兩方面,模型決定了機器如何學習,而參數(shù)量則需要大量的計算支持。
- OpenAI的研究重點在于開發(fā)更先進的機器學習模型和增加參數(shù)量。
- OpenAI在2018年推出了第一代GPT,接著在2019年推出了GPT2,增加了訓練的數(shù)據(jù)量。
- GPT3是OpenAI最新的語言學習模型,參數(shù)量為1750億,效果非常好,但訓練過程中缺乏反饋機制。
III. OpenAI的資金壓力和轉(zhuǎn)型
- OpenAI最初是一家非盈利組織,但資金壓力逐漸增大,于2019年轉(zhuǎn)型為“收益封頂”的盈利組織。
- 投資人的回報不能超過100倍,超過部分投資人不會獲得回報。
- 微軟注資10億美元并建立超級計算機,幫助OpenAI提升訓練效率和技術(shù)水平。
IV. 強化學習和人工反饋
- OpenAI采用人工反饋的強化學習,使得機器在訓練過程中能夠獲得更好的反饋和指導。
- 通過加入人工反饋的強化學習機制,GPT的訓練效率和效果得到了大大的提升。
V. GPT的發(fā)展和應(yīng)用
- OpenAI在2022年3月推出了GPT3.5,并對對話進行了優(yōu)化,進一步提升了技術(shù)水平。
- 在2022年11月,OpenAI推出了ChatGPT,一個非常簡單的聊天界面,但是在語言表達和回答問題方面表現(xiàn)優(yōu)秀。
- 盡管GPT的表現(xiàn)已經(jīng)非常出色,但在使用中仍存在一些問題,需要持續(xù)進行優(yōu)化和改進。
三、ChatGPT的分析
1、ChatGPT對聊天機器人認知的顛覆
- ChatGPT的產(chǎn)品給人們帶來的震撼超過數(shù)據(jù)本身
- ChatGPT兩個月內(nèi)月活突破1億人,擴張速度史上最快
2、ChatGPT的工作原理
- ChatGPT是一種大型語言模型
- ChatGPT通過計算下一個詞和下一句話該出現(xiàn)什么來回答問題,是一個概率問題
- ChatGPT通過上下文相關(guān)性來計算出每一個回答和每個詞
- ChatGPT通過復雜模型和上千億的參數(shù)和文字找規(guī)律,形成龐大的神經(jīng)網(wǎng)絡(luò)
3、ChatGPT的學習能力和自主性
- ChatGPT不需要被告知編程或視頻腳本的概念,通過學習自己了解
- ChatGPT通過總結(jié)相關(guān)興趣一個詞一個詞往外蹦來幫助寫視頻腳本
- 目前版本的ChatGPT并不完全理解自己所說的意思,它像是一個記憶力特別好,但什么都不太懂
4、GPT的回答基于相關(guān)性計算:
- 每個回答都是基于相關(guān)性計算得出的,包括每個詞的出現(xiàn)順序和句子結(jié)構(gòu)。
- 上下文非常重要,它通過前文找到相關(guān)性,計算出接下來的詞匯和句子結(jié)構(gòu)。
5、GPT是一個復雜的神經(jīng)網(wǎng)絡(luò):
- ChatGPT包括上千億個參數(shù)和文字,它自己形成了一個龐大的神經(jīng)網(wǎng)絡(luò)。
- 它不需要人為告訴它什么是編程或視頻腳本,只需要通過學習找到規(guī)律。
6、GPT的回答是基于模仿而不是理解:
- 盡管GPT回答得非常像人類,但它經(jīng)常會犯邏輯性錯誤,如加減乘除等錯誤。
- GPT的回答更關(guān)心的是是否“像樣”而不是是否正確。
- 目前版本的GPT在道德倫理問題上可能會出現(xiàn)編造答案的情況。
7、意義和應(yīng)用:
- ChatGPT的問答技術(shù)基于GPT,是一種具有實用價值的應(yīng)用。
- 雖然GPT還有許多問題需要解決,但是隨著技術(shù)的發(fā)展,它的應(yīng)用領(lǐng)域?qū)絹碓綇V泛。
- 與其問機器是否能像人類一樣思考,不如問它是否能做人類做的事情。
- GPT的問答技術(shù)有著重大的潛在應(yīng)用前景,例如客戶服務(wù)、自動回復等方面。
四、微軟和谷歌的動作
1、微軟發(fā)布會:
- 日期:2月7號
- 內(nèi)容:將ChatGPT融入到其搜索引擎中
2、谷歌發(fā)布會:
- 日期:2月8號
- 內(nèi)容:發(fā)布了對話服務(wù)BERT
- 時長:40分鐘
- 內(nèi)容:前半部分介紹了谷歌之前的成就和照片搜索,后半部分重點介紹了BERT
- 問題:
- 演講人找不到展示的手機,跳過了該部分
- Bert介紹視頻中出現(xiàn)了事實性的錯誤
- 市場反應(yīng):谷歌股價下跌1000億美元
3、微軟和谷歌在AI領(lǐng)域的競爭:
- 谷歌是AI領(lǐng)域的強者
- 微軟發(fā)布會上充分準備,介紹了AR聊天功能等
- 谷歌第一仗慘敗,被ChatGPT搞了個措手不及,又出現(xiàn)低級失誤
- 后續(xù):谷歌的發(fā)展仍有待觀察
五、生成式AI
- 生成式AI技術(shù)的發(fā)展引起了市場的關(guān)注和熱議,不僅微軟和谷歌入局,還有其他公司如meta、百度、騰訊、阿里等也在積極搶占市場份額。
- 與生成式AI技術(shù)相關(guān)的股票價格開始快速上漲,提供算力基礎(chǔ)的硬件廠商如英偉達和AMD等也受益于市場需求的增加。
- AI技術(shù)的快速發(fā)展也引發(fā)了人們對于就業(yè)市場的擔憂,究竟哪些人會失業(yè),如何利用AI提高自己的生產(chǎn)力成為了人們關(guān)注的問題。
- AI技術(shù)的發(fā)展既創(chuàng)造了更多的工作機會,同時也會對部分人的就業(yè)帶來挑戰(zhàn),因為一些重復性和套路性的工作可能會被機器所代替。
- 為了避免被AI取代,人們需要盡可能避免從事那些套路性的工作,尤其是那些有固定模式的任務(wù)。
- AI技術(shù)的顛覆性影響不僅僅在就業(yè)市場,也會影響到其他領(lǐng)域,例如學校教育、知識產(chǎn)權(quán)保護等,需要進行適應(yīng)和調(diào)整。
- AI技術(shù)的發(fā)展在短期內(nèi)會帶來一定的沖擊和不確定性,但從長期來看,它必將為人類社會帶來更多的可能性和機遇。