通用vs垂直,熱門AI大模型你更看好哪個(gè)?(附免費(fèi)資源包)
自ChatGPT發(fā)布以來,通用大模型就仿佛坐了火箭,短短幾個(gè)月的時(shí)間,各大企業(yè)便爭(zhēng)相發(fā)布自己的大模型,這其實(shí)也反應(yīng)了目前人工智能發(fā)展的方向。
不過從長(zhǎng)遠(yuǎn)來看,垂直領(lǐng)域大模型的發(fā)展會(huì)比通用大模型更具勢(shì)頭,一是通用大模型有GPT4這座難以跨越的大山,二是自研通用大模型的成本實(shí)在太高,一般公司承受不來。
目前,無論是通用大模型還是垂直領(lǐng)域大模型,都已經(jīng)有了相當(dāng)多的成果。那今天咱們就來簡(jiǎn)單盤點(diǎn)一些比較出名的通用/垂直領(lǐng)域大模型。
當(dāng)然啦~相關(guān)論文資料學(xué)姐也給打包了,還附贈(zèng)一份超詳細(xì)的垂直領(lǐng)域大模型思維圖譜!

掃碼添加小享,回復(fù)“大模型PK”
免費(fèi)領(lǐng)取全部論文合集+思維導(dǎo)圖

通用大模型
國內(nèi):
1.文心一言
網(wǎng)址:https://yiyan.baidu.com/
使用評(píng)價(jià):在文學(xué)創(chuàng)作上回答的挺全面,數(shù)學(xué)解答能力有點(diǎn)不太行,代碼生成和理解能力有待提升。

2.通義千問
網(wǎng)址:https://qianwen.aliyun.com/
使用評(píng)價(jià):文學(xué)創(chuàng)作也很不錯(cuò),翻譯和數(shù)學(xué)問題回答的也可以,代碼頗具優(yōu)勢(shì)。
3.訊飛星火
網(wǎng)址:https://xinghuo.xfyun.cn/desk
使用評(píng)價(jià):首先它這個(gè)審核速度我是滿意的,兩天就通過可以上手玩耍了,代碼解釋能力不錯(cuò),但是寫代碼還是差點(diǎn)意思。
4.天工
網(wǎng)址:https://tiangong.kunlun.com/
使用評(píng)價(jià):文學(xué)創(chuàng)作能力也在線,多輪對(duì)話不錯(cuò),數(shù)理問題也能做,代碼能力整體也是一般。
5.360智腦
網(wǎng)址:https://chat.#/index?src=invite
使用評(píng)價(jià):這個(gè)也是申請(qǐng)了好久,剛剛才通過,我都快忘了...簡(jiǎn)單試用了一下,數(shù)理問題復(fù)雜點(diǎn)的不太行,代碼編程能力還不錯(cuò)。

國外:
1.ChatGPT
網(wǎng)址:https://chat.openai.com/
使用評(píng)價(jià):這還需要學(xué)姐評(píng)價(jià)嘛(doge)
2.new bing
網(wǎng)址:https://www.bing.com/
使用評(píng)價(jià):這么說吧,學(xué)姐現(xiàn)在找論文基本都用它。
3.Claude
網(wǎng)址:https://app.slack.com/
使用評(píng)價(jià):用Claude需要先注冊(cè)一個(gè)slack號(hào),然后才能使用。好處是登錄之后就不用再用魔法了,而且用它來輔助閱讀論文是真不錯(cuò)~
PS:還能給Claude改名哦~
4.Bard
網(wǎng)址:https://bard.google.com/
使用評(píng)價(jià):這個(gè)學(xué)姐用的少,用的時(shí)候還不支持中文,創(chuàng)造力不如GPT,其他能力還是可以的。
掃碼添加小享,回復(fù)“大模型PK”
免費(fèi)領(lǐng)取全部論文合集+思維導(dǎo)圖

垂直領(lǐng)域大模型
1.BloombergGPT 金融大模型
原始論文:BloombergGPT: A Large Language Model for Finance
BloombergGPT是由彭博社開發(fā)的擁有500億參數(shù)的語言模型。依托彭博社的大量金融數(shù)據(jù)源,BloombergGPT構(gòu)建了一個(gè)3630億個(gè)標(biāo)簽的數(shù)據(jù)集,支持金融行業(yè)內(nèi)的各類任務(wù)。
作為首個(gè)金融垂直領(lǐng)域大模型,BloombergGPT同樣基于transformer架構(gòu),采用譯碼器的技術(shù)。實(shí)驗(yàn)可得,BloombergGPT在執(zhí)行金融任務(wù)方面的表現(xiàn)超過了現(xiàn)有的通用 LLM模型。
2.FinBERT金融大模型
原始論文:FinBERT: A Large Language Model for Extracting Information from Financial Text*
FinBERT同樣是適用于金融領(lǐng)域的大型語言模型,采用了兩大類預(yù)訓(xùn)練任務(wù):字詞級(jí)別的預(yù)訓(xùn)練和任務(wù)級(jí)別的預(yù)訓(xùn)練。具體來說,F(xiàn)inBERT有以下內(nèi)容:
FinBERT-Pretrained:針對(duì)大規(guī)模金融文本的預(yù)訓(xùn)練 FinBERT 模型。
FinBERT-Sentiment:用于情感分類任務(wù)。
FinBERT-ESG:用于 ESG 分類任務(wù)。
FinBERT-FLS:用于前瞻性陳述(FLS)分類任務(wù)。
實(shí)驗(yàn)表明FinBERT在識(shí)別與環(huán)境、社會(huì)和治理問題相關(guān)的討論方面優(yōu)于其他模型。
3.LaWGPT 中文法律知識(shí)模型
項(xiàng)目地址:https://github.com/pengxiao-song/LaWGPT/
LaWGPT 目前也是比較熱門的垂直領(lǐng)域大模型之一了,它是一系列基于中文法律知識(shí)的開源大語言模型。
該系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基礎(chǔ)上擴(kuò)充法律領(lǐng)域?qū)S性~表、大規(guī)模中文法律語料預(yù)訓(xùn)練,增強(qiáng)了大模型在法律領(lǐng)域的基礎(chǔ)語義理解能力。在此基礎(chǔ)上,構(gòu)造法律領(lǐng)域?qū)υ拞柎饠?shù)據(jù)集、中國司法考試數(shù)據(jù)集進(jìn)行指令精調(diào),提升了模型對(duì)法律內(nèi)容的理解和執(zhí)行能力。
放張官方圖感受一下:

4.BenTsao 中文醫(yī)學(xué)模型
項(xiàng)目地址:https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese
原名華佗(HuaTuo),是一個(gè)基于中文醫(yī)學(xué)知識(shí)的LLaMA-7B微調(diào)模型,通過醫(yī)學(xué)知識(shí)圖譜和GPT3.5 API構(gòu)建了中文醫(yī)學(xué)指令數(shù)據(jù)集,在此基礎(chǔ)上對(duì)LLaMA進(jìn)行指令微調(diào)。
目前這個(gè)模型只開放針對(duì)"肝癌"單個(gè)疾病訓(xùn)練的模型參數(shù),開發(fā)團(tuán)隊(duì)表示后期會(huì)針對(duì)“肝膽胰”相關(guān)16種疾病訓(xùn)練模型。
5.MathGPT 數(shù)學(xué)大模型
MathGPT是學(xué)而思自研,以數(shù)學(xué)領(lǐng)域的解題和講題算法為核心的數(shù)學(xué)大模型,目前官方表示今年內(nèi)將推出基于該自研大模型的產(chǎn)品級(jí)應(yīng)用,可以等待一波。
掃碼添加小享,回復(fù)“大模型PK”
免費(fèi)領(lǐng)取全部論文合集+思維導(dǎo)圖
