低成本微調(diào)垂直領(lǐng)域?qū)?ChatGPT

省流:我用ChatGPT總結(jié)了本視頻要點(diǎn):
1. 微調(diào)大模型常見的方法和步驟;
2. LMFlow工具包:低成本微調(diào)大模型的全流程框架;
3. LMFlow benchmark:全自動(dòng)可擴(kuò)展的模型評(píng)測(cè)基準(zhǔn);
4. 全新的對(duì)齊算法raft;
5. ChatGPT的應(yīng)用存在高成本和安全隱私問(wèn)題;
6. 個(gè)人數(shù)據(jù)需保護(hù),垂直領(lǐng)域需要數(shù)據(jù)安全;
7. 安全和隱私對(duì)于金融、法律、醫(yī)療等領(lǐng)域至關(guān)重要;
8. ChatGPT無(wú)法滿足個(gè)性化且低成本的需求;
9. ChatGPT的微調(diào)模型能夠滿足個(gè)性化需求。
10. 機(jī)器人可以進(jìn)行心理陪伴,安慰和鼓勵(lì)用戶。
11. DetGPT模型可以進(jìn)行多模態(tài)的處理,如根據(jù)用戶需求在圖片中定位物體。
12. 復(fù)雜推理能力是搭建智能家居機(jī)器人的基礎(chǔ)。
13. 微調(diào)模型可以提高機(jī)器人的個(gè)性化表現(xiàn),滿足用戶需求更加精準(zhǔn)。
14. ChatGPT和DetGPT微調(diào)模型適應(yīng)性強(qiáng)、處理多模態(tài)能力出色。
15. 智能家居機(jī)器人可通過(guò)微調(diào)模型提高個(gè)性化表現(xiàn)。
16. LMFlow框架易擴(kuò)展、可定制、輕量級(jí)、成本低。
17. 訓(xùn)練模型的成本在幾十元到100元以內(nèi)。
18. 有監(jiān)督數(shù)據(jù)對(duì)比可用于微調(diào)模型,提升機(jī)器人的推理和表現(xiàn)。
19. ChatGPT模型訓(xùn)練流程包括預(yù)訓(xùn)練、微調(diào)和強(qiáng)化學(xué)習(xí)等多個(gè)步驟。
20. 預(yù)訓(xùn)練是代價(jià)較大的步驟,一般會(huì)跳過(guò)。
21. 二次預(yù)訓(xùn)練和有監(jiān)督微調(diào)等方法可提升模型性能。
22. LMFlow框架提供了全流程的代碼與模型,方便使用者進(jìn)行訓(xùn)練和部署。
23. 基于flow框架可提升機(jī)器人推理表現(xiàn)。
24. 醫(yī)療領(lǐng)域的微調(diào)提高了模型性能。
25. 數(shù)據(jù)集準(zhǔn)備是使用流程中的重要步驟。
26. 提供開源數(shù)據(jù)集供用戶下載和調(diào)試模型。
27. 進(jìn)行微調(diào)和部署是整個(gè)流程的關(guān)鍵步驟。
28. 提供基于flow框架的模型微調(diào)腳本和數(shù)據(jù)集。
29. 微調(diào)時(shí)需要注意深度和速度的配置,還要調(diào)整超參數(shù)。
30. 提供多種部署方案,包括網(wǎng)頁(yè)形式、shell腳本、本地部署等。
31. 針對(duì)對(duì)話式模型的評(píng)測(cè)一直是難點(diǎn),目前常見的幾種方法各有優(yōu)劣。
32. 提出新的對(duì)話式模型評(píng)測(cè)方式,使用負(fù)對(duì)數(shù)自然進(jìn)行評(píng)測(cè)。
33. 建議使用負(fù)對(duì)數(shù)資源的方式,因?yàn)殚L(zhǎng)度的不同會(huì)影響困惑度的打分。
34. 在封閉數(shù)據(jù)集上的accuracy與負(fù)對(duì)數(shù)自然的客觀評(píng)分高度相關(guān)。
35. Rolling模型在負(fù)對(duì)數(shù)自然評(píng)測(cè)中效果優(yōu)于其他常見模型。
36. 通過(guò)負(fù)對(duì)數(shù)自然評(píng)測(cè),模型能夠應(yīng)對(duì)實(shí)際問(wèn)題并作出有效回應(yīng)。
37. rolling模型在對(duì)話式模型評(píng)測(cè)中優(yōu)于其他常見模型。
38. 負(fù)對(duì)數(shù)自然可以作為對(duì)話式模型的評(píng)測(cè)指標(biāo)。
39. 對(duì)模型進(jìn)行預(yù)訓(xùn)練和擴(kuò)大數(shù)據(jù)集規(guī)??梢缘玫礁玫男Ч?/p>
40. 自研算法RAFT用于模型對(duì)齊和微調(diào),比傳統(tǒng)算法效率更高穩(wěn)定度更好。
41. 本段介紹了RAFT算法的實(shí)現(xiàn)流程和存在的一些限制。
42. 提出了新算法RAFT,基于獎(jiǎng)勵(lì)對(duì)話模型進(jìn)行排序并微調(diào),可以提高模型的精度和魯棒性。
43. 通過(guò)自動(dòng)數(shù)據(jù)生成進(jìn)行對(duì)話模型對(duì)齊和微調(diào),可以提高模型的效果,但成本比較高。
44. RAFT算法比PPO更高效,對(duì)顯存的占用較為友好。
45. RAFT算法不僅可以用于對(duì)話模型的對(duì)齊和微調(diào),也可以用于其他模型的對(duì)齊和微調(diào)。
46. 展示了RAFT算法在不同數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,并提供了相關(guān)的示例。
47. 參與RAFT算法項(xiàng)目可以獲得算力支持和獎(jiǎng)賞金,并有面試直通車的機(jī)會(huì)。
48. RAFT算法支持多種項(xiàng)目,包括前沿算法、多模態(tài)對(duì)話、分類器、模型打包工具等。
49. RAFT算法框架可以基于不同的底座模型做微調(diào),支持商業(yè)許可。
50. RAFT算法目前已上線兩個(gè)項(xiàng)目,即將上線14個(gè)項(xiàng)目。
51. RAFT算法通過(guò)自然語(yǔ)言評(píng)測(cè)和其他評(píng)測(cè)方法評(píng)估大模型的能力,目前效果不錯(cuò)。
52. RAFT算法項(xiàng)目涉及多元化的主題和參與者獎(jiǎng)勵(lì)機(jī)會(huì)。
53. 算法框架支持底座模型微調(diào)和效果評(píng)測(cè)。
54. 14個(gè)項(xiàng)目即將上線,讀者需要注意已上線的兩個(gè)項(xiàng)目即將結(jié)束報(bào)名。
55. 該算法項(xiàng)目中,對(duì)人類智能的理解包括指令理解和常識(shí)判斷。
56. 該算法對(duì)中文的支持非常好,讀者可以去官網(wǎng)試用,網(wǎng)站背后模型也是開源的。
57. 微調(diào)數(shù)據(jù)量不必非常大,幾百條也可以
58. 使用self-instruct方法可自動(dòng)擴(kuò)充微調(diào)數(shù)據(jù)量
59. 要做微調(diào)需要一塊消費(fèi)級(jí)的GPU,如3090
60. 微調(diào)數(shù)據(jù)可從公開數(shù)據(jù)、個(gè)人業(yè)務(wù)數(shù)據(jù)等多種渠道獲取
61. LoRa模型訓(xùn)練速度快。
62. 調(diào)整參數(shù)更迭代效率高。
63. 對(duì)話評(píng)估指標(biāo)可通過(guò)收集測(cè)試集跑負(fù)對(duì)數(shù)似然來(lái)實(shí)現(xiàn)。
64. 二次預(yù)訓(xùn)練和微調(diào)在數(shù)據(jù)量和形式上有差異。