百川13B、書生浦語7B商用開源;MOSS-RLHF、雅意等多個(gè)LLM項(xiàng)目開源



本周帶來的?6?個(gè)模型項(xiàng)目分別用于中英雙語對話、圖文對話、醫(yī)療對話、圖像分割等;2?個(gè)工具項(xiàng)目用于知識問答、LLM應(yīng)用開發(fā)。
百川智能發(fā)布Baichuan-13B,開源可商用支持中英雙語,提供量化版本供開發(fā)者部署
Baichuan-13B 是百川智能推出的開源可商用大型語言模型,是其之前 Baichuan-7B 的升級版本。該模型在中文和英文的權(quán)威 benchmark 上都取得了同等尺寸的最佳效果。Baichuan-13B 包含預(yù)訓(xùn)練和對齊模型兩個(gè)版本。預(yù)訓(xùn)練模型是適用于開發(fā)者的基座模型,而對齊模型則具有很強(qiáng)的對話能力,可直接進(jìn)行部署。該模型使用高質(zhì)量的 1.4 萬億 tokens 語料進(jìn)行訓(xùn)練,并支持中英雙語,使用 ALiBi 位置編碼,上下文窗口長度為 4096。此外,Baichuan-13B 還支持 int8 和 int4 的量化版本,可以在幾乎沒有效果損失的情況下大大降低部署的機(jī)器資源門檻。當(dāng)前,Baichuan-13B 對學(xué)術(shù)研究完全開放,開發(fā)者在申請并獲得官方商用許可后,即可免費(fèi)商用。
獲取資源:
https://sota.jiqizhixin.com/project/baichuan-13b

書生·浦語開源輕量級版模型InternLM-7B,免費(fèi)可商用,支持8k上下文長度
近日上海人工智能實(shí)驗(yàn)室書生?浦語的 7B 輕量級版 InternLM-7B 正式開源,還免費(fèi)提供商用。InternLM-7B 為實(shí)用場景量身定制,使用上萬億高質(zhì)量語料來訓(xùn)練,建立起了超強(qiáng)知識體系。與其他在單項(xiàng)或數(shù)項(xiàng)基準(zhǔn)上達(dá)到高水平的模型不同,InternLM-7B 強(qiáng)調(diào)各方面能力的均衡,為了實(shí)現(xiàn)均衡且強(qiáng)大的能力,該模型使用了創(chuàng)新的動態(tài)調(diào)整模式,保證了數(shù)據(jù)配比的合理性。此外,InternLM-7B 還具備可編程的通用工具調(diào)用能力,使模型能夠在需要工具的時(shí)候自動編寫一段 Python 程序,以綜合調(diào)用多種能力,從而大幅拓展模型的能力。
獲取資源:
https://sota.jiqizhixin.com/project/internlm

復(fù)旦NLP團(tuán)隊(duì)基于穩(wěn)定訓(xùn)練算法PPO-max發(fā)布MOSS-RLHF模型,提供中英文獎勵模型
復(fù)旦大學(xué)深入剖析了 RLHF 中的強(qiáng)化學(xué)習(xí) PPO 算法,進(jìn)一步提出了 PPO-max 算法以確保模型訓(xùn)練的穩(wěn)定性。并將 PPO-max 算法后續(xù)將接入此前開源的 MOSS 模型,作為 “MOSS-RLHF” 模型發(fā)布,并提供中英文獎勵模型、開源代碼和訓(xùn)練步驟。在項(xiàng)目開源倉庫中開發(fā)者可在倉庫中獲取基于 openChineseLlama 的 7B 中文獎勵模型、基于 Llama-7B 的 7B 英語獎勵模型,以及用于大型語言模型中的強(qiáng)化學(xué)習(xí)訓(xùn)練的開源代碼。
獲取資源:
https://sota.jiqizhixin.com/project/moss-rlhf

大型語言模型LongLLaMA將上下文長度擴(kuò)展到256k,基于OpenLLaMA和Focused Transformer微調(diào)得到
大型語言模型 LongLLaMA 將支持處理上下文長度擴(kuò)展到 256k ,該模型基于 OpenLLaMA 模型和 Focused Transformer (FoT)方法微調(diào)得到。LongLLaMA 提供了經(jīng)過訓(xùn)練的 3B 版本模型和支持更長上下文的推理代碼。相比于現(xiàn)有實(shí)現(xiàn)中 LLaMA 的替代品(適用于長度不超過 2048 個(gè)標(biāo)記的短上下文),LongLLaMA 的模型權(quán)重可以作為更好的選擇。此外,LongLLaMA 提供了性能評估結(jié)果和與原始 OpenLLaMA 模型的比較。在關(guān)鍵詞檢索任務(wù)中, LongLLaMA 可以處理長度為 256k 的輸入,從而將有效上下文長度推廣到訓(xùn)練中所見的遠(yuǎn)遠(yuǎn)之外。
獲取資源:
https://sota.jiqizhixin.com/project/longllama

開源PDF文檔對話工具ChatPDF,幫助開發(fā)者快速對PDF文檔進(jìn)行摘要和分析
ChatPDF 是一個(gè)開源的 PDF 對話工具,它可以幫助開發(fā)者快速地對 PDF 文檔進(jìn)行摘要和分析,并提供回答問題的功能。該工具使用 React、Antd、tailwindCSS、Python、FastAPI、langchain 和 llama_index 等技術(shù)棧實(shí)現(xiàn),具有流式傳輸、注冊和登錄、對話數(shù)量限制和國際化支持等特點(diǎn)。開發(fā)者可以使用自己的私人 OpenAI 密鑰輕松部署該工具,并自由地與 PDF 進(jìn)行對話。然而,由于該項(xiàng)目最初并非為開源目的而設(shè)計(jì),因此需要一些相關(guān)技術(shù)棧經(jīng)驗(yàn)才能進(jìn)行部署。未來該項(xiàng)目的代碼和部署過程將進(jìn)行優(yōu)化,并提供詳細(xì)的部署指南。
獲取資源:
https://sota.jiqizhixin.com/project/chatpdf

基于中文LLaMA和Alpaca的多模態(tài)中文大模型VisualCLA,支持視覺信息輸入和多模態(tài)理解
VisualCLA 是一個(gè)基于中文 LLaMA&Alpaca 大模型項(xiàng)目開發(fā)的多模態(tài)中文大模型。它增加了圖像編碼等模塊,使中文 LLaMA/Alpaca 模型可以接收視覺信息,并使用中文圖文對數(shù)據(jù)進(jìn)行多模態(tài)預(yù)訓(xùn)練,賦予其基本的多模態(tài)理解能力。同時(shí),使用多模態(tài)指令數(shù)據(jù)集進(jìn)行微調(diào),增強(qiáng)其對多模態(tài)指令的理解、執(zhí)行和對話能力。VisualCLA 提供了推理代碼和基于 Gradio/Text-Generation-WebUI 的部署腳本,并在多模態(tài)指令理解任務(wù)上展示了模型的效果。
獲取資源:
https://sota.jiqizhixin.com/project/visualcla

基于高質(zhì)量領(lǐng)域數(shù)據(jù)微調(diào)的開源中文語言模型雅意,支持上百種自然語言指令任務(wù)
雅意大模型是一款在百萬級人工構(gòu)造的高質(zhì)量領(lǐng)域數(shù)據(jù)上進(jìn)行指令微調(diào)得到的中文語言模型,訓(xùn)練數(shù)據(jù)覆蓋媒體宣傳、輿情分析、公共安全、金融風(fēng)控、城市治理等五大領(lǐng)域,支持上百種自然語言指令任務(wù)。雅意大模型從預(yù)訓(xùn)練初始化權(quán)重到領(lǐng)域模型的迭代過程中不斷增強(qiáng)了中文基礎(chǔ)能力和領(lǐng)域分析能力,并增加了部分插件能力。經(jīng)過數(shù)百名用戶內(nèi)測過程中持續(xù)不斷的人工反饋優(yōu)化,模型性能和安全性得到了進(jìn)一步提升。
獲取資源:
https://sota.jiqizhixin.com/project/ya-yi

通用高精度圖像分割模型Semantic-SAM,可根據(jù)任何所需的粒度分割和識別任何內(nèi)容
Semantic-SAM 是一個(gè)通用的圖像分割模型,可在任何所需的粒度上對任何物體進(jìn)行分割和識別。該模型基于 DETR-based 模型實(shí)現(xiàn)通用和交互式分割,并在 SA-1B 數(shù)據(jù)集上進(jìn)行了訓(xùn)練,可以復(fù)現(xiàn) SAM 及其更多功能。該項(xiàng)目提供了從實(shí)例到部分級別的語義意識和粒度豐富的屬性,以及高質(zhì)量的掩碼。這些特點(diǎn)使得該模型在許多應(yīng)用場景中都非常有用,例如計(jì)算機(jī)視覺、自動駕駛、機(jī)器人以及其他需要圖像分割和識別的領(lǐng)域。
獲取資源:
https://sota.jiqizhixin.com/project/semantic-sam

中文醫(yī)療大語言模型PULSE開源,基于OpenChineseLLaMA 13B和約四百萬個(gè)醫(yī)學(xué)SFT數(shù)據(jù)微調(diào)得到
PULSE 是一個(gè)中文醫(yī)療大語言模型,它基于 OpenChineseLLaMA 13B 模型進(jìn)行大規(guī)模訓(xùn)練,并使用約四百萬個(gè)醫(yī)學(xué)領(lǐng)域和通用領(lǐng)域的 SFT 數(shù)據(jù)進(jìn)行進(jìn)一步微調(diào)。該模型支持醫(yī)學(xué)領(lǐng)域的各種自然語言處理任務(wù),包括健康教育、醫(yī)師考試問題、報(bào)告解讀、醫(yī)療記錄結(jié)構(gòu)化以及模擬診斷和治療。PULSE 模型提供了下載地址,供開發(fā)者使用。然而,需要注意的是,該模型僅供醫(yī)療領(lǐng)域研究使用,不能代替線下職業(yè)醫(yī)生的建議和治療方案。同時(shí),模型的參數(shù)量較小,雖然它提供了有關(guān)疾病診斷和治療的推理結(jié)果,但這些結(jié)果僅供參考。
獲取資源:
https://sota.jiqizhixin.com/project/pulse-2

輕量級LLMs應(yīng)用程序構(gòu)建替代工具LiteChain,助力開發(fā)者快速構(gòu)建應(yīng)用
LiteChain 可幫助開發(fā)者快速構(gòu)建 LLMs 應(yīng)用程序。相比于 LangChain,LiteChain 專注于擁有單個(gè)小核心,易于學(xué)習(xí)、易于適應(yīng)、文檔齊全、完全類型化和真正可組合。這些特點(diǎn)使得該工具在許多應(yīng)用場景中都非常有用,例如自然語言處理、機(jī)器翻譯、語音識別等領(lǐng)域。此外,LiteChain 強(qiáng)調(diào)“明確勝于隱式”,意味著更多的手工操作,但能夠使應(yīng)用程序易于維護(hù)和定制。開發(fā)者可以通過使用 LiteChain 來構(gòu)建自己的 LLMs 應(yīng)用程序,并且由于其輕量級和易用性,也可以很容易地進(jìn)行二次開發(fā)和改進(jìn)。
獲取資源:
https://sota.jiqizhixin.com/project/litechain


網(wǎng)頁端訪問: 在瀏覽器地址欄輸入新版站點(diǎn)地址 sota.jiqizhixin.com ,即可前往「SOTA!模型」平臺,查看關(guān)注的模型是否有新資源收錄。?
移動端訪問:在微信移動端中搜索服務(wù)號名稱「機(jī)器之心SOTA模型」或 ID 「sotaai」,關(guān)注 SOTA!模型服務(wù)號,即可通過服務(wù)號底部菜單欄使用平臺功能,更有最新AI技術(shù)、開發(fā)資源及社區(qū)動態(tài)定期推送。
