一個知識終結能力超越gpt的本地模型
剛發(fā)布了個模型 歡迎體驗 https://huggingface.co/fb700/chatglm-fitness-RLHF 本次訓練使用的方法 首先,用40萬條優(yōu)質數據進行強化訓練,以提高模型的基礎能力; 第二,使用30萬條人類反饋數據,構建一個表達方式規(guī)范優(yōu)雅的語言模式(RM模型); 第三,在保留SFT階段三分之一訓練數據的同時,增加了30萬條fitness數據,疊加RM模型,對ChatGLM-6B進行強化訓練。 成果,訓練后在健康咨詢,文檔總結能力上不但強于glm,而且部分能力上更是強于glm2,配合“聞達”和“l(fā)angchain-chatglm”等知識庫項目,應用體驗上對比glm和glm2均勻顯著提升。 性能,fp16運行時速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。 問下類似問題你們就知道他有多強了 系統性紅斑狼瘡的危害和治療方法是什么? 早期激素和免疫抑制劑用藥建議是什么? 本模型可以無限制多輪會話。 網友反饋
第一例為本模型知識庫召回結果
給大家截個圖,這個是同一份文件,分別調用chatgpt3.5,chatglm2,本模型召回結果。
標簽: