Hugging News #0428: HuggingChat 來(lái)啦!

每一周,我們的同事都會(huì)向社區(qū)的成員們發(fā)布一些關(guān)于 Hugging Face 相關(guān)的更新,包括我們的產(chǎn)品和平臺(tái)更新、社區(qū)活動(dòng)、學(xué)習(xí)資源和內(nèi)容更新、開源庫(kù)和模型更新等,我們將其稱之為「Hugging News」,本期 Hugging News 有哪些有趣的消息,快來(lái)看看吧!
Hugging Chat 來(lái)啦!

我們認(rèn)為需要有一個(gè) ChatGPT 的開源替代品,讓好的機(jī)器學(xué)習(xí)大眾化,因此,我們推出了 HuggingChat,歡迎你的使用!這個(gè)聊天機(jī)器人使用了德國(guó)非營(yíng)利組織 LAION.ai 的 Open Assistant 模型。這是一個(gè)V.0的版本,但是我們正在努力快速迭代界面和安全機(jī)制以支持下一個(gè)快速改進(jìn)的開源模型。
使用 Hugging Chat:hf.co/chat
以及,邀請(qǐng)各位關(guān)注 Hugging Face 的小紅書賬號(hào):

Hugging Face 中文博客正式發(fā)布
4 月 20 日(上周),我們成功舉辦了 Hugging Face 在國(guó)內(nèi)的首次線下活動(dòng),邀請(qǐng)了 JAX/Diffusers 社區(qū)沖刺的參賽選手以及社區(qū)成員們共同交流和探討了 ControlNet、JAX、Diffusers、Cloud TPU 等技術(shù)內(nèi)容,有 7 支來(lái)自北京的參賽隊(duì)伍代表也來(lái)到臺(tái)前向參會(huì)者分享他們的參賽作品,令人印象深刻。

截止彼時(shí),Hugging Face 的中國(guó)社區(qū)已經(jīng)成立了五個(gè)月,我們也非常高興的看到 Hugging Face 相關(guān)的中文內(nèi)容在各個(gè)平臺(tái)都廣受好評(píng),因此,我們?cè)谶@次特別的線下活動(dòng)上正式發(fā)布了我們的 Hugging Face 中文博客,歡迎通過(guò) hf.co/blog/zh 來(lái)查看。
官宣文章(英文):https://hf.co/blog/chinese-language-blog官宣文章(中文):https://hf.co/blog/zh/chinese-language-blog
由于公眾號(hào)文章限制,未來(lái)的文章請(qǐng)讀者們點(diǎn)擊閱讀原文到中文博客里體驗(yàn)更完整的文章內(nèi)容。
社區(qū)活動(dòng)
組隊(duì)學(xué)習(xí):ChatGPT 從入門到應(yīng)用

我們正聯(lián)合 Datawhale 團(tuán)隊(duì)組織 AIGC 主題學(xué)習(xí)活動(dòng)「ChatGPT 從入門到應(yīng)用」,歡迎大家參加!
開源庫(kù)更新
Diffusers 0.16 正式發(fā)布

0.16.0 版本支持了 DeepFloyd 的 IF 文生圖模型和 ControlNet 1.1,IF 的靈感來(lái)自 Google 的 Imagen,使用了 SOTA 開源文生圖模型,具有高度的真實(shí)感和語(yǔ)言理解能力。
查看全部更新內(nèi)容:https://github.com/huggingface/diffusers/releases/tag/v0.16.0
對(duì)了,我們還更新了我們 Diffusers 的文檔頁(yè)面,歡迎來(lái)看看:https://hf.co/docs/diffusers/index
PEFT 現(xiàn)已支持 Multi-Adapter 的訓(xùn)練和推理
?? PEFT 包含了參數(shù)高效的微調(diào)方法,用于訓(xùn)練大型預(yù)訓(xùn)練模型。通過(guò) PEFT,你可以將不同的 LoRA 權(quán)重相結(jié)合來(lái)做微調(diào)和推理。
你還可以通過(guò)這個(gè)教程了解更多:https://github.com/huggingface/peft/blob/main/docs/source/task_guides/dreambooth_lora.mdx
將 transformers 模型轉(zhuǎn)換為 ??Core ML
將你的 transformers 模型轉(zhuǎn)換為 Core ML,以支持在 iPhone 和 Mac 電腦上運(yùn)行模型推理!
快來(lái)體驗(yàn)吧:https://hf.co/spaces/huggingface-projects/transformers-to-coreml
內(nèi)容更新
RLHF 實(shí)踐教程: 訓(xùn)練 LLaMA 模型回答 Stack Exchange 上的問題
我們發(fā)布了一篇實(shí)踐教程類型的博文,教你使用強(qiáng)化學(xué)習(xí)以及 RLHF 的方法,通過(guò)結(jié)合有監(jiān)督微調(diào)、獎(jiǎng)勵(lì)/偏好建模和強(qiáng)化學(xué)習(xí)來(lái)訓(xùn)練一個(gè)名為 StackLLaMA 的模型來(lái)回答 Stack Exchange 上的問題。在 RLHF 過(guò)程中,需要從已有的能力模型出發(fā),通過(guò) fine-tuning 來(lái)改善模型響應(yīng)和使用方式的一致性。為了訓(xùn)練龐大的模型,需要采用 Parameter-Efficient Fine-Tuning (PEFT) 技術(shù)和數(shù)據(jù)并行處理等策略。最終在人工反饋下進(jìn)行強(qiáng)化學(xué)習(xí),并通過(guò)獎(jiǎng)勵(lì)模型建模評(píng)分,以完成模型的訓(xùn)練。
查看博客文章:https://hf.co/blog/stackllama
如何降低模型帶來(lái)的道德和社會(huì)風(fēng)險(xiǎn)問題

Hugging Face 的使命是推動(dòng)好的機(jī)器學(xué)習(xí)大眾化,我們也在研究如何支持機(jī)器學(xué)習(xí)社區(qū)的工作,幫助識(shí)別危害和防止可能的危害發(fā)生。我們正在開發(fā)工具并推出一些保障措施,如“不適合所有受眾”標(biāo)簽等,我們也推出了一些流程來(lái)保證模型和數(shù)據(jù)的限制、共享和其他機(jī)制。
閱讀我們的?Hugging Face AI 倫理簡(jiǎn)報(bào) #3?了解更多。
以上就是本期 Hugging News,預(yù)祝各位社區(qū)成員們有個(gè)愉快的五一假期,我們節(jié)后見!