AI-矩陣革命-淺談人工智能的發(fā)展
背景
- 隨著計算機(jī)硬件的發(fā)展,機(jī)器學(xué)習(xí)得以突顯,從2013年開始的機(jī)器學(xué)習(xí),2017年的TensorFlow,到2023年的chatgpt的火熱,本質(zhì)上是算力的提升導(dǎo)致,可以支持大模型的海量參數(shù)
- 在機(jī)器學(xué)習(xí)中,底層的運算是矩陣,通過對矩陣的拆分,使用多層模型可以實現(xiàn)
- 在算法層面,通過梯度,降維進(jìn)行矩陣化擬合和向量化,使用高維數(shù)據(jù)可以變成矩陣
- 在gptchat流行以后,人們基于chatgpt進(jìn)行了想象和實踐化的應(yīng)用,總的來說主要有: nlp(自然語言理解) , 邏輯 , 生成等,但是最基礎(chǔ)的是nlp
機(jī)器學(xué)習(xí)的必要條件
- 優(yōu)質(zhì)數(shù)據(jù)
- 優(yōu)化擬合算法
- 計算單元
說明
1.cpu是更適合的場景功能是邏輯性強的,即if-else,gpu的使用場景是計算的
2.不同llm(大語言模型)的數(shù)據(jù)格式,影響了模型的性能如int ,double
3.數(shù)據(jù)格式由兩部分組成 表達(dá)范圍 + 精度
以代碼生成功能-實際說明
- 從公開的數(shù)據(jù)來看,chatgpt使用的數(shù)據(jù)是基于github的
- 進(jìn)行代碼生成的主要流程是 (nlp)自然語言處理--> 詞法token --> 中間語法樹 --> 中間表示 --> 程序依賴圖 --> 向量化 --> 啟發(fā)式搜索 --> 重復(fù)n次 --> 輸出
未來的發(fā)展
- ai的核心是數(shù)據(jù)和算力,越大的模型入門的門檻就越高,chatgpt3.5的成本是1500w美元,未來的中小企業(yè)只能租用
- ai的輸出和可預(yù)期的,人的行為具有隨機(jī)性的,這是一個重要的節(jié)點
- 怎么定義有效的優(yōu)質(zhì)數(shù)據(jù),依然是需要人來做的,目前東南亞的已經(jīng)有大量的數(shù)據(jù)標(biāo)注崗位,而數(shù)據(jù)標(biāo)注直接影響到ai的質(zhì)量
AI的評價
- ai將使得人們從重復(fù)勞動中解放
- 未來的核心競爭力是創(chuàng)造力
- 個人的影響力將進(jìn)一步提升,可以參考現(xiàn)在的頭部個人自媒體
思考題
- 什么是價值?
- 其他的人相比,你有什么不同?
結(jié)論
- 通過簡短的梳理,從宏觀角度回顧了一下AI的發(fā)展,并做出了一些展望和建議