本地部署ChatGPT 大語言模型 Alpaca LLaMA llama

大語言模型學(xué)習(xí)總結(jié),本地部署ChatGPT
- LLaMA alpaca llama cpp alpaca-lora

鏈接
https://github.com/tatsu-lab/stanford_alpaca
https://github.com/tloen/alpaca-lora
https://github.com/antimatter15/alpaca.cpp
https://github.com/ggerganov/llama.cpp
https://github.com/LianjiaTech/BELLE
https://github.com/THUDM/ChatGLM-6B
- ChatGLM-6B

- 模型微調(diào) 什么是微調(diào) 為什么要微調(diào) 如何微調(diào)

https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning
- 如何微調(diào) 準(zhǔn)備數(shù)據(jù) 訓(xùn)練 推理

https://github.com/mymusise/ChatGLM-Tuning
- 調(diào)教ChatGLM 寫文案 學(xué)英文 寫代碼

LLaMA 大語言模型
alpaca 數(shù)據(jù)集
alpaca-lora 高效訓(xùn)練方法

https://github.com/sahil280114/codealpaca
https://github.com/unit-mesh/unit-minions
寫代碼 codealpaca
中文大模型 ChatGLM
GLM 寫代碼 CodeGLM

- 模型部署 命令行??Gradio 的網(wǎng)頁版?API

- 總結(jié) 興趣?ChatGPT 部署 微調(diào)

標(biāo)簽: