Hugging News #0703: 在瀏覽器中運行 Whisper 模型、WAIC 分論壇活動邀請報名

每一周,我們的同事都會向社區(qū)的成員們發(fā)布一些關于 Hugging Face 相關的更新,包括我們的產品和平臺更新、社區(qū)活動、學習資源和內容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」,本期 Hugging News 有哪些有趣的消息,快來看看吧!
重要更新
Whisper Web:在你的瀏覽器中運行語音識別

作為 Transformers.js v2.2.0 的示例應用,我們發(fā)布了一個名為 Whisper Web 的網(wǎng)頁應用,它支持了 100 多種不同語言的轉錄和翻譯,并支持切換模型、語言和任務。其代碼是開源的,只需要幾行代碼即可運行。
在線體驗:https://hf.co/spaces/Xenova/whisper-web
開源更新
Transformers v4.30 發(fā)布: 在更小的設備上運行大語言模型

Transformers 的 4.30 版本已經發(fā)布了,其中的 4-bit 量化是這次更新的亮點。4-bit 量化是一種降低深度學習模型大小和運算復雜度的技術。一般來說,深度學習模型中的參數(shù)是以 32-bit 浮點數(shù)(也就是我們常說的float)來表示的。每個這樣的浮點數(shù)都需要 32 個 bit 的存儲空間。然而,對于大多數(shù)的應用場景來說,我們并不需要這么高的精度。因此,我們可以通過量化技術將 32-bit 的浮點數(shù)轉換為更低 bit 的表示,比如 4-bit,從而極大地降低模型的大小,加快模型運算速度,降低能耗。通過將模型轉換為 4-bit 格式,使得模型的大小減小,從而可以在更小的設備上運行,比如只有 24GB 的 GPU 上就能運行一個 30B 的模型。而這在之前是不可能做到的。使用這個功能非常簡單,只需要在?.from_pretrained()
?加載函數(shù)中添加?load_in_4bit=True
?即可,這將使你的模型在推理和訓練時更加節(jié)省資源。
除此之外,這個版本還加入了在本地運行的 transformers agents、為了使 transformers 模型更加安全,將 safetensors 作為默認的序列化解決方案以及將 Meta 的 MMS 工作加入到 transformers 庫中等。查閱詳細的更新內容,請參與如下鏈接在 GitHub 上閱讀:https://huggingface.link/tfs430
Transformers 正式使用 Accelerate 作為其 PyTorch 后端

在長期的使用中,我們發(fā)現(xiàn) transformers 在不同設備上以及做分布式的訓練時,其中有大量重復的代碼,這并不是很 ??,而 accelerate 庫正好就是做這些的,所以我們決定將 Trainer 轉換為使用這個庫。我們盡量保持向后兼容,以確保用戶不會有太大感知,如果你一直在只用 Trainer 寫分布式訓練的代碼則不需要做任何改動,但有一點需要注意,為了得到更好的性能,建議未來你可以選擇使用最新版本的 accelerate 庫。
與你在 WAIC 活動中相遇

世界人工智能大會 (WAIC) 是國家發(fā)展和改革委員會、工業(yè)和信息化部、科學技術部、國家互聯(lián)網(wǎng)信息辦公室、中國科學院、中國工程院、中國科學技術協(xié)會和上海市人民政府共同主辦的一個人工智能盛會,自 18 年開始至今已經成功舉辦五屆。今年的 WAIC 將于 2023 年 7 月 6 — 8 日在上海舉辦。
WAIC - AIGC 時代下的青年開發(fā)者人才培養(yǎng)論壇
歡迎來參加由 Hugging Face 中國負責人 Tiezhen 出席的 WAIC - AIGC 時代下的青年開發(fā)者人才培養(yǎng)論壇,2023 年 7 月 8 日 9:00-12:00,在上海世博展覽館 - X 號會議室,請查看活動海報和報名鏈接。
報名鏈接:https://huggingface.link/waic-hf

WAIC - 啟明創(chuàng)投論壇:生成式 AI 與大模型
我們也將出席和參與 2023 年 7 月 7 日 9:00-12:00 在世博展覽館 B2F-1 號會議室的「啟明創(chuàng)投論壇:生成式 AI 與大模型」的圓桌討論環(huán)節(jié)。

歡迎掃碼參與活動,期待與你在現(xiàn)場見面!
以上就是上周的 Hugging News,新的一周開始了,我們一起加油!