一口氣搞清楚ChatGPT | 牛X在哪?誰會失業(yè)?巨頭商戰(zhàn)...

1950 計算機科學之父 人工智能之父 艾倫圖靈發(fā)表論文 提出了the imitation game(模仿游戲),也就是圖靈測試。
早期的聊天機器人 chatbot 原理都是pattern matching(模式匹配)if...then...限定規(guī)則的機器人
機器學習(給你例子去找規(guī)律)
2010 人工神經(jīng)網(wǎng)絡 模擬人腦的神經(jīng)網(wǎng)絡

神經(jīng)網(wǎng)絡的思想早就有了,但是要實現(xiàn)神經(jīng)網(wǎng)絡需要具備兩個條件:大量數(shù)據(jù)和強大算力
2010年神經(jīng)網(wǎng)絡才開始能應用起來
AlphaGo也是用的神經(jīng)網(wǎng)絡
循環(huán)神經(jīng)網(wǎng)絡(RNN),一個詞一個詞學習
2017年 Google出了一篇論文,提出了一個新的學習框架Transformer,可以讓機器同時學習大量的文字。原來的RNN模式像是串聯(lián),現(xiàn)在的Transform類似于并聯(lián)。現(xiàn)在的自然語言處理模型很多都是建立在它的基礎架構之上的。Google的模型BERT和ChatGPT里面的T都是transformer。
2015年,埃隆馬斯克、彼得蒂爾在內(nèi)的大佬一起注資10億美金,成立了一家非營利性組織 OpenAI,ChatGPT的母公司。
2018年,馬斯克退出董事會。2018年發(fā)表了一篇論文介紹了新的語言學習模型Generative Pre-trained Transformer。之前的語言模型需要人監(jiān)督,GPT就屬于無監(jiān)督學習。
機器學習拼模型和參數(shù)量,模型就是同樣的數(shù)據(jù)進去,誰輸出的比較好,參數(shù)量就是需要大量的計算。
OpenAI2019年從非營利組織轉(zhuǎn)型了,收益封頂?shù)臓I利組織,任何投資人的匯報都不能超過100倍。微軟注資10億美元
GPT-1 1.2億參數(shù)
GPT-2 15億參數(shù)
GPT-3 1750億參數(shù),效果非常好
缺乏反饋機制,加入一個人工反饋機制,也就是人工反饋的強化學習(reinforcement learning from human feedback, RLHF)
2022年3月 推出 GPT-3.5
2022年11月 推出ChatGPT
短短2月內(nèi),月活就突破了一億人
GPT的語言模型就是計算下一個詞應該出現(xiàn)什么,根據(jù)上下文,根據(jù)相關性計算出來,自己生成了一個龐大的神經(jīng)網(wǎng)絡
依然是一個語言模型,學人說話
圖靈在論文里討論過的問題 與其問“機器能像人類一樣思考嗎?”不如問“機器能做人類做的事嗎?”
chatGPT極大提升了人類和計算機溝通的效率是強大的接口,很多事情就可以交給機器做(像鋼鐵俠的助手)
2023年一個月往openAI又投入了100億美元,OpenAI估值達到290億美元
將chatGPT融入到自己的搜索引擎bing中,copilot for the web
chatGPT訓練數(shù)據(jù)只到2021年
只能那個用edge才能
可能會撼動Google 搜索業(yè)務,Google目前占到全球搜索市場份額的93%,搜索帶來的廣告收入能占Google總收入的60%
Google的自然語言處理機器人 BERT和LaMDA2 沒有把機器人放出來
需要大量算力和能源
Google發(fā)布紅色預警,市值直接蒸發(fā)1000億美元
AIGC領域融資額瘋漲
對學校教育的顛覆性作用,我們目前的教育體系還沒有準備好讓chatGPT進來,秩序會擾亂,只能一刀切禁止