免費,本地部署,在知識總結(jié)上超越chatgpt
剛發(fā)布了個模型 歡迎體驗 https://huggingface.co/fb700/chatglm-fitness-RLHF 本次訓(xùn)練使用的方法 首先,用40萬條優(yōu)質(zhì)數(shù)據(jù)進行強化訓(xùn)練,以提高模型的基礎(chǔ)能力; 第二,使用30萬條人類反饋數(shù)據(jù),構(gòu)建一個表達方式規(guī)范優(yōu)雅的語言模式(RM模型); 第三,在保留SFT階段三分之一訓(xùn)練數(shù)據(jù)的同時,增加了30萬條fitness數(shù)據(jù),疊加RM模型,對ChatGLM-6B進行強化訓(xùn)練。 成果,訓(xùn)練后在健康咨詢,文檔總結(jié)能力上不但強于glm,而且部分能力上更是強于glm2,配合“聞達”和“l(fā)angchain-chatglm”等知識庫項目,應(yīng)用體驗上對比glm和glm2均勻顯著提升。 性能,fp16運行時速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。 問下類似問題你們就知道他有多強了 系統(tǒng)性紅斑狼瘡的危害和治療方法是什么? 早期激素和免疫抑制劑用藥建議是什么? 本模型可以無限制多輪會話。 網(wǎng)友反饋
第一例為本模型知識庫召回結(jié)果
給大家截個圖,這個是同一份文件,分別調(diào)用chatgpt3.5,chatglm2,本模型召回結(jié)果。
標(biāo)簽: