Hugging Face 每周速遞: 擴散模型課程完成中文翻譯

每一周,我們的同事都會向社區(qū)的成員們發(fā)布一些關于 Hugging Face 相關的更新,包括我們的產(chǎn)品和平臺更新、社區(qū)活動、學習資源和內(nèi)容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」。
產(chǎn)品更新
享用由 A100 GPU 強力支持的超快速機器學習推理

Hugging Face Spaces 現(xiàn)已支持使用 A100 GPU,用戶享受超快速機器學習推理,自助開通的價格為每小時 4.13 美元,企業(yè)客戶更可以享受更低的價格。此外,未來幾個月,Spaces 還將提供更多用于機器學習的超酷硬件,如果您有特定的需求,可以給我們留言。
macOS 上的 Diffusers 應用現(xiàn)已發(fā)布 (而且還開源了)

基于隱私保障設計,所有的圖片都不聯(lián)網(wǎng)而是在本地生成;可下載模型,這些模型都基于 CPU、GPU 和 Apple 的神經(jīng)計算引擎 (ANE) 進行優(yōu)化。
應用商店地址:
https://apps.apple.com/app/diffusers/id1666309574開源地址:
https://github.com/huggingface/swift-coreml-diffusers
開源庫更新
Transformers 大更新

Transformer 4.25 引入了 ImageProcessor,讓用戶能夠利用更為強大的圖像處理能力。同時,部分 API 也更加統(tǒng)一,參數(shù)配置項也改為使用?dict
,更直觀也更方便。
示例地址:
https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification
提名道德意識良好的 Space 應用

機器學習技術在今天的社會中發(fā)揮著越來越重要的作用,可以應用于各種領域,包括醫(yī)療、金融、社交媒體、自動駕駛等。然而,這些技術的應用也可能帶來許多潛在的倫理和道德問題,比如數(shù)據(jù)隱私、算法歧視、社會影響等。因此,有必要關注和鼓勵那些采用了倫理意識的機器學習項目,以確保這些項目符合社會的倫理標準和價值觀。
為了展示和鼓勵更好的機器學習實踐,我們正在請社區(qū)的成員們提交提名那些在這方面做的很好的 Space 應用,我們正在找尋如下相關的項目:
?? 征求同意: 有意識地征求相關方的同意,并盡可能提供透明度和選擇權。
?? 可持續(xù)的: 考慮其對環(huán)境和社會的影響,并采取措施減少其負面影響。
??? 社會責任感: 考慮對社會的影響,并采取措施以最大程度地提高其社會價值。
???????? 具有包容性: 確保多元、平等與包容,采取措施確保其對不同背景和群體的用戶和利益相關者具有包容性。
?? 嚴謹性: 采用嚴謹?shù)姆椒ê土鞒?,以確保項目的質(zhì)量和有效性。
?? 探索精神: 不斷追求新的想法和解決方案,并持續(xù)優(yōu)化和改進項目。
你可以在這里提名:
http://hf.co/spaces/society-ethics/featured-spaces-submissions
AI 與 AI 對抗賽
?? 我們正在舉辦首場 AI 對陣 AI 的虛擬足球賽,你可以將自己的模型提交到 Hugging Face Hub 中,然后與其他隊伍的作品展開一張 2v2 的足球較量賽。
首場挑戰(zhàn)賽由 MLAgents 團隊基于 Unity 引擎提供,我們會基于大家的反饋舉辦更多精彩的比賽。
快來加入我們的課程,并與來自世界各地的同學們踢一場精彩的 AI 球賽吧!
演示地址:
https://hf.co/spaces/unity/ML-Agents-SoccerTwosADeep RL 課程地址:
https://hf.co/deep-rl-course/unit7/introduction
?? Accelerate 0.16.0 發(fā)布

在這個版本中,我們提供了一款交互式配置 ?? Accelerate 的在線小工具,幫助你快速上手。同時,當你在訓練中需要跳過前幾個批次的數(shù)據(jù)時,DataLoaders
?現(xiàn)在提供了函數(shù)來直接實現(xiàn)。此外,我們還提供了?release_memory
?函數(shù)輔助釋放 PyTorch 占用的內(nèi)存,以及更靈活的?load_state
?與?save_state
?API。
交互式體驗 ?? Accelerate 文檔鏈接:
https://hf.co/docs/accelerate/usage_guides/explore詳細更新內(nèi)容:
https://github.com/huggingface/accelerate/releases/tag/v0.16.0
?? Hugging Face Hub 更易用了

現(xiàn)在,我們在模型查找頁面增加了一個庫 (library) 篩選的標簽,這樣你就能更快找到跟自己感興趣的庫相關的各種模型了!
模型頁面地址:
https://hf.co/models
Tune-A-Video: 以文調(diào)片的文字轉視頻模型
我們在 ?? Hugging Face Spaces 匯總了不少優(yōu)秀的 Tune-A-Video 模型,幫你輕松實現(xiàn)「一句話,讓模型給我調(diào)個片」。
?? Hugging Face Spaces 網(wǎng)址:
https://hf.co/spaces/Tune-A-Video-library/Tune-A-Video-Training-UI演示項目地址:
https://hf.co/Tune-A-Video-library/a-man-is-surfingTune-A-Video 庫地址:
https://hf.co/Tune-A-Video-library
學習資源 & 內(nèi)容更新
擴散模型的最后一課已經(jīng)發(fā)布!

Hugging Face 擴散模型課程的第四單元: 深入研究擴散模型已經(jīng)發(fā)布,這是本課程的最后一個單元,在這個單元中,我們將探討最新研究中出現(xiàn)的擴散模型的許多改進和擴展。它將比以往的單元代碼更少,旨在為您提供進一步研究的起點。
在此前的推文里,我們發(fā)布了本課程的第一單元的?第一部分?和?第二部分。我們很高興地通知大家,我們的抱抱臉本地化小組已經(jīng)完成了這個課程的全部內(nèi)容!我們也即將在隨后的推文中陸續(xù)發(fā)布,歡迎關注我們。
Hugging Face ?? 計算機視覺

只是因為在人群中多看了你一眼,我們在計算機視覺上的投入只是從 21 年的這個 PR 開始 (huggingface/transformers#10950)。
但自去年開始,我們開始投入大量的精力投入到計算機視覺上?,F(xiàn)如今,Hugging Face Hub 上已經(jīng)有 8 個核心的計算機視覺任務、3000 多個模型和 100 多個數(shù)據(jù)集了!
我們寫了篇博客介紹這些內(nèi)容,不過你可以等等,我們的本地化小組的譯者 AIboy1993 已經(jīng)完成了這篇博客的中文版,下周就發(fā)推送 (爭取不鴿)!
只是因為在人群中多看了你一眼 (PR 鏈接):
https://github.com/huggingface/transformers/pull/10950博客文章: The State of Computer Vision at Hugging Face ??:
https://hf.co/blog/cv_state
除此之外,還有一篇關于計算機視覺和語言預訓練的研究進展的博客文章 A Dive into Vision-Language Models,也已由我們本地化小組的 Matrix 同學完成了本地化,下周也將推送給大家。
博客文章: A Dive into Vision-Language Models:
https://hf.co/blog/vision_language_pretraining
文字生成音頻的 AudioLM 模型

現(xiàn)在,你可以在 ?? Hugging Face Spaces 上體驗 AudioLM 模型用文字描述生成相應音效的能力了。你只需要提供足夠詳細的描述,然后提交給模型進行處理即可??烊ンw驗專屬于你的獨家音效吧!
?? Hugging Face Spaces:
https://hf.co/spaces/haoheliu/audioldm-text-to-audio-generation項目倉庫:
https://github.com/haoheliu/AudioLDM
可視化三種模型輸出的結果

我們?yōu)榇蠹姨峁┝艘豢畋容^ Stable Diffusion v1.4、v2 和 Dall-E 2 執(zhí)行文字生成圖片結果的工具。你可以選擇一個職業(yè),及相應的形容詞,然后對比它們?nèi)呱傻膱D片。
體驗地址:
https://hf.co/spaces/society-ethics/Average_diffusion_faces
看圖對話的模型 BLIP-2 開源!

據(jù)說這可能是一個可以教 ChatGPT 看懂圖片的大語言模型,BLIP-2 由 Salesforce Research 團隊發(fā)布,你可以給他一張圖片,然后針對圖片里的內(nèi)容跟 AI 進行對話。小編看了一些報道提到說?BLIP-2 可以「教會」讓 ChatGPT 學會看圖,真的有這么神奇嗎?
快來官方的 Space 應用上試玩,找找靈感吧 (或許下一個爆火的就是它呢),點擊右側原文鏈接直達:
https://hf.co/spaces/Salesforce/BLIP2
BLIP-2?開源地址:
https://github.com/salesforce/LAVIS/tree/main/projects/blip2