Hugging News #0602: Transformers Agents 介紹、大語言模型排行榜發(fā)布!

每一周,我們的同事都會向社區(qū)的成員們發(fā)布一些關(guān)于 Hugging Face 相關(guān)的更新,包括我們的產(chǎn)品和平臺更新、社區(qū)活動、學(xué)習(xí)資源和內(nèi)容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」,本期 Hugging News 有哪些有趣的消息,快來看看吧!
重磅更新
Transformers Agents 發(fā)布,通過自然語言控制超過十多萬個 HF 模型!

近期,我們發(fā)布了一個非?!按竽憽钡男绿匦? Transformers Agents,并加入到了 ?? Transformers 4.29 之后的版本中。它在 Transformers 的基礎(chǔ)上提供了一個自然語言 API,來 “讓 Transformers 可以做任何事情”。這其中有兩個概念:一個是 Agent (代理),另一個是 Tools (工具),我們定義了一系列默認(rèn)的工具,讓代理去理解自然語言并使用這些工具,文檔:
https://hf.co/docs/transformers/transformers_agents
代理這里指的是大語言模型 (LLM),你可以選擇使用 OpenAI 的模型 (需要提供密鑰),或者開源的 StarCoder 和 OpenAssistant 的模型,我們會提示讓代理去訪問一組特定的工具。
工具指的是一個個單一的功能,我們定義了一系列工具,然后使用這些工具的描述來提示代理,并展示它將如何利用工具來執(zhí)行查詢中請求的內(nèi)容。

我們在 transformers 中集成的工具包括:文檔問答、文本問答、圖片配文、圖片問答、圖像分割、語音轉(zhuǎn)文本、文本轉(zhuǎn)語音、零樣本文本分類、文本摘要、翻譯等。不過你也可以擴(kuò)展這些一些與 transformers 無關(guān)的工具,比如從網(wǎng)絡(luò)讀取文本等,查看如何開發(fā)自定義工具:
https://hf.co/docs/transformers/custom_tools
輔助生成 (Assisted Generation) 發(fā)布: 將低延遲文本生成付諸實踐,本地大語言模型助手不是夢!
大語言模型目前廣受歡迎,但其響應(yīng)速度的緩慢限制了其用戶體驗。對于需要快速反應(yīng)的任務(wù),人們通常使用規(guī)模較小的模型,但這會犧牲結(jié)果質(zhì)量。文本生成的延遲主要來自于模型的前向傳遞步驟,即模型權(quán)重加載到設(shè)備計算核心的過程,我們的一篇博文介紹了一種新的解碼方法,通過這種輔助生成方法,硬件中的延遲可以降低多達(dá) 10 倍。此外,還可以通過模型優(yōu)化和輸入批處理來改善模型前向傳遞的性能問題。
歡迎閱讀中文博客內(nèi)容 (微信版):https://huggingface.co/blog/zh/assisted-generation
以及這個 Space 應(yīng)用:https://hf.co/spaces/joaogante/assisted_generation_demo
開源更新
開放的開源大語言模型排行榜

每周都有大量的大型語言模型 (LLM) 和各種聊天機(jī)器人發(fā)布,令人眼花繚亂~ 我們制作了一個開放的大語言模型排行版,主要目標(biāo)是跟蹤、排名和評估最新的大語言模型和聊天機(jī)器人,讓所有人方便的觀察到開源社區(qū)的進(jìn)展和評估這些模型。這個排行榜有一個關(guān)鍵優(yōu)勢,社區(qū)中的任何成員都可以提交模型,并在 Hugging Face 的 GPU 集群上自動評估。
你可以在這里看到這個排行榜:https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
Woodstock of AI 活動回顧視頻
回顧我們在 3 月底在舊金山舉辦的 AI 社區(qū)會議:
