機器學習,2023新章節(jié)。

機器學習 新章節(jié)
機器學習,2023新章節(jié)。
在2023這個時間點,機器學習應(yīng)該學什么。線性回歸,分類? NO NO NO, 我們還是來學大模型,大語言模型。
下面是我的一些看法:


首先要學習Transformer ,其次了解Hugging Face,他是機器學習界的githup。
他的網(wǎng)站是 https://huggingface.co/
它提供了模型, 數(shù)據(jù)集, 免部署的Space,直接可以訪問的API。
有最先進Transformers架構(gòu)庫,加速部署的庫,數(shù)據(jù)處理的方法,等等等。
都是開源的,可以分享和復(fù)用。


目前已經(jīng)有上萬個模型,可以真正做到模型即服務(wù),MAAS。 model as a servie。
因為他們的科學家真正理解處理數(shù)據(jù)和運維之難,他們可以幫助初學者,跨越不可能的鴻溝,完成自己的任務(wù)。
網(wǎng)站里包含AI的原理,知識,代碼,和示例項目。

?網(wǎng)站還提供了非常好的學習的課程。
課程宣言是:By the end of this part, you will be ready to apply ?? Transformers to (almost) any machine learning problem!
我們要學課程, 看書籍,最重要的還是做練習。
我們的目的是掌握機器學習,什么是掌握,我的定義是能夠?qū)W習新的機器學習項目,并用在實踐中,為企業(yè)帶來利潤。




推薦了解的項目有
項目一 minichain
屬于AI界的Hello World。如何使用幾行代碼部署一個網(wǎng)站,有UI 有GUI。答案是Gradio。Gradio被Hugging Face 收購了。
項目二Transformers-chat
這是最火的Langchian示例,演示如何做一個基于文檔網(wǎng)站的知識庫問答系統(tǒng)。
最后了解下DeepSpeed的,里面介紹了不少小的模型,是AI 模型的小兵。
傅盛前段時間稱做“大模型”會分有兩個方向:一個是科技巨頭們搞的“愛因斯坦”很高端、很專業(yè);另一個則是“平民化大模型”,數(shù)據(jù)量不會那么高,能一些特定領(lǐng)域能達成某種效果。






如果有時間看看AI 繪畫,Diffusers,希望它可以幫助我們啟發(fā)想象力。
前段時間陸奇對創(chuàng)業(yè)者提出了一些建議,在現(xiàn)在看來創(chuàng)始人技術(shù)能力強,好像很牛、很重要,未來真的不重要。技術(shù)ChatGPT以后都能幫你做。作為創(chuàng)始人,越來越重要、越來越值錢的是愿力和心力。
這么看來想去做一件事,并長期堅持,這是一個重要的品質(zhì)。
