最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網 會員登陸 & 注冊

6個中文開源語言模型的對話體驗

2023-03-08 15:24 作者:璃花晝  | 我要投稿

????????體驗了一些中文開源的語言模型,功能上可以算做類ChatGPT的模型吧(雖然模型結構完全不一樣),效果上肯定不能和ChatGPT比,但基本的對話功能已經有了雛形,有一定的理解能力和回答能力。并且因為是開源模型,可以在這個基礎上收集語料繼續(xù)訓練,有可拓展的空間。

????????這些模型不一定是完全用來對話的,還有生成、判別之類的其他功能,這里只是進行了本地部署,并初步測試了它們的對話功能。

ChatRWKV

代碼地址:https://github.com/BlinkDL/ChatRWKV

模型地址:https://huggingface.co/BlinkDL

在【Models】里面選擇一個模型,然后在【FIles?and versions】里面選擇一個版本進行下載


ChatRWKV模型下載

模型結構:近些年隨著?Transformer 的火爆后,RNN 明顯逐漸沒落了,然而?RWKV 反其道行之,選擇使用了純 RNN 結構,通過對架構的修改,同時擁有了 RNN 和 Transformer 兩者的優(yōu)點。

參數(shù)數(shù)量:目前有1.5B、3B、7B、14B四種,參數(shù)數(shù)量越多效果越好。14B大約要28G顯存,我顯存只有24G,所以我這里用的模型是RWKV-4-Pile-7B-Instruct-test2-20230209,大約要15G顯存。

訓練數(shù)據(jù):331B個token的語料上訓練。

測試方法:下載代碼和模型,模型和代碼在同一個目錄下,如圖修改chat.py的參數(shù),執(zhí)行chat.py即可

ChatRWKV配置修改

對話體驗:模型在回答的時候是有理解到問題的,也是有回答到一些點的,但回答的內容更像是在根據(jù)我的話生成內容,而不是在和我對話,可能這個模型本身就是基于生成文本來訓練的??梢栽陂_頭加上+gen、+qa、+qq之類的指令,來控制對話的內容是生成模式還是獨立對話等。

ChatRWKV對話體驗

EVA2

代碼地址:https://github.com/thu-coai/EVA

模型地址:https://huggingface.co/thu-coai/EVA2.0-xlarge

另外還有base和large兩個版本,這里用的是最大的xlarge版本


EVA2模型下載

參數(shù)數(shù)量:xlarge 2.8B

論文地址:https://arxiv.org/abs/2203.09313

訓練數(shù)據(jù):經過清洗的Wudao對話語料庫

測試方法:下載代碼,然后下載模型到model目錄即可

EVA2測試代碼

對話體驗:可以進行日常的閑聊,回答比較隨心所欲。

EVA2對話體驗

gpt2-dialogbot-base-chinese

代碼地址:https://github.com/shibing624/dialogbot?

模型地址:https://huggingface.co/shibing624/gpt2-dialogbot-base-chinese

模型結構:基于GPT2

訓練數(shù)據(jù):來自一些論壇、電視劇的對話語料

測試方法:下載代碼,然后下載模型到model目錄即可

gpt2-dialogbot-base-chinese測試代碼

對話體驗:能夠進行一些簡單的閑聊對話,有點在網上和人瞎扯的感覺。

gpt2-dialogbot-base-chinese對話體驗

chat-DialoGPT-small-zh

模型地址:https://huggingface.co/liam168/chat-DialoGPT-small-zh

模型結構:比較老的一個基于GPT2的對話模型,目前已被GODEL替代,但可惜沒有找到GODEL的開源中文模型。

論文地址:https://arxiv.org/abs/1911.00536

訓練數(shù)據(jù):中文聊天數(shù)據(jù)

測試方法:下載模型到model目錄即可,模型地址中有測試的代碼

chat-DialoGPT-small-zh測試代碼

對話體驗:比較抽象。這里他有提示padding的問題,不過加上這兩個參數(shù):padding=True和padding_side='left',似乎也沒有什么改變。

chat-DialoGPT-small-zh對話體驗

PromptCLUE

代碼地址:https://github.com/clue-ai/PromptCLUE

模型地址:https://huggingface.co/ClueAI/PromptCLUE-base-v1-5

在線測試:https://www.cluebenchmarks.com/clueai.html

模型結構:基于t5-large

參數(shù)數(shù)量:base 220M,large 770M

訓練數(shù)據(jù):萬億級別token

測試方法:我這里直接用modelscope框架。也可以下載原始代碼和模型,然后用示例代碼進行測試

PromptCLUE測試代碼

對話體驗:這是一個多任務預訓練零樣本的語言模型,可以支持情感分析、閱讀理解?、提取、生成、翻譯等幾十種任務,但是在對話方面好像并不擅長,所以這里只是簡單測試一下問答的情況。開源的是base版本,比網頁上的large版本效果也會差一些。

PromptCLUE對話體驗

ChatYuan

代碼地址:https://github.com/clue-ai/ChatYuan

模型地址:https://huggingface.co/ClueAI/ChatYuan-large-v1

在線測試:模型的介紹頁面的【Colab在線試用】

模型結構:基于PromptCLUE-large進一步訓練

訓練數(shù)據(jù):數(shù)億條功能對話多輪對話數(shù)據(jù)

測試方法:這里同樣使用modelscope框架,也可以用原始代碼和模型測試

ChatYuan測試代碼

對話體驗:這個模型是基于PromptCLUE-large用對話數(shù)據(jù)訓練的,雖然PromptCLUE可能對話效果并不是很好,但ChatYuan在對話領域已經有了很大的提升。簡單的短對話都能夠有效的進行,并且有對上下文的理解。 不過對話很長時,還是會有些問題。

ChatYuan對話體驗?

????????總體上,這些模型的規(guī)??赡苤挥蠧hatGPT的千分之一,能達到這樣有一定理解能力的效果已經不錯了,說明整體的方向沒有走偏。

????????后續(xù)可以嘗試的,可以選一個模型作為基礎模型,然后在一個特定領域的對話語料集上進行微調,如果能在這個領域有不錯的效果,那么就能有進一步的應用空間。

? ? ? ? 當然這些模型結構和ChatGPT并不一樣,如果要訓練結構一樣的小型ChatGPT,可以參考OpenAssistant,也是一個可嘗試方向(就是成本可能有點高)。

????????另外,隨著這兩天的LLaMA模型被公開,應該很快就會有各種各樣自研的大型語言模型出來了。


6個中文開源語言模型的對話體驗的評論 (共 條)

分享到微博請遵守國家法律
灵石县| 金寨县| 东乌珠穆沁旗| 南溪县| 额尔古纳市| 淮滨县| 赤水市| 白玉县| 河源市| 台南市| 陇西县| 黔西县| 封开县| 济阳县| 黑河市| 乳源| 昭觉县| 伊金霍洛旗| 黄骅市| 青海省| 丘北县| 昭平县| 湖州市| 工布江达县| 平乐县| 黄浦区| 沙湾县| 息烽县| 诏安县| 双峰县| 华容县| 山西省| 乌兰浩特市| 于田县| 滁州市| 富源县| 滦平县| 南开区| 铜鼓县| 珠海市| 新平|