用 ChatGPT+LangChain 部署到服務器,打造專屬 GPT知識庫
本地部署
安裝 python,小白自己去找安裝教程
pip install llama-index,安裝 llama-index 庫
pip install langchain,安裝 langchain 庫
pip install gradio,安裝 gradio 庫
pip install openai,安裝 openai 庫
若有報錯,那根據(jù)報錯進行安裝相應的庫,可能因為網(wǎng)絡等原因致安裝不成功,或缺少自帶的庫。
上面的代碼有兩處是需要修改的,一是修改文件路徑,(我這里是在 D 盤創(chuàng)建了一個 ai 的文件夾,下面是該文件夾為例);二是修改填寫你的 open ai 的 api。
將上面的代碼,保存為 app.py,放到 ai 文件夾。同時,在 ai 文件下創(chuàng)建一個文件夾,命名為 docs,用于放需要訓練的文本。
將你的知識庫以 md 格式,或者 txt、pdf 等格式放到 docs 文件夾
一切做完后,用 VS code 等解釋器打開 app.py 便可運行。若沒有解釋器,也可以用 cmd 命令運行,輸入 python D:\ai\app.py,進行運行便可。
運行因電腦算力和訓練的文本多少不同,訓練完成之后,會有一個本地域名,用瀏覽器打開,便可像 chat gpt 一樣,使用自己專屬的 gpt。
關閉運行的話是在終端,鍵入 ctrl+c
注意,每次運行都是對你的知識庫進行全部訓練,會消耗相應的 api tokens。若不是掛到服務器的話,不建議在 docs 文件中放過多的文件,畢竟電腦總是要關機的。
服務器部署
跟本地部署一致,但我們需要通過域名去訪問,所以我們在創(chuàng)建站點之后,要使用到反向代理,對本地的域名進行反向代理,這里以寶塔為例。

代碼