最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Hugging Face 每周速遞: 擴散模型課程完成中文翻譯

2023-02-20 11:04 作者:HuggingFace  | 我要投稿


每一周,我們的同事都會向社區(qū)的成員們發(fā)布一些關于 Hugging Face 相關的更新,包括我們的產(chǎn)品和平臺更新、社區(qū)活動、學習資源和內(nèi)容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」。

產(chǎn)品更新

享用由 A100 GPU 強力支持的超快速機器學習推理

Hugging Face Spaces 現(xiàn)已支持使用 A100 GPU,用戶享受超快速機器學習推理,自助開通的價格為每小時 4.13 美元,企業(yè)客戶更可以享受更低的價格。此外,未來幾個月,Spaces 還將提供更多用于機器學習的超酷硬件,如果您有特定的需求,可以給我們留言。

macOS 上的 Diffusers 應用現(xiàn)已發(fā)布 (而且還開源了)

基于隱私保障設計,所有的圖片都不聯(lián)網(wǎng)而是在本地生成;可下載模型,這些模型都基于 CPU、GPU 和 Apple 的神經(jīng)計算引擎 (ANE) 進行優(yōu)化。

  • 應用商店地址:
    https://apps.apple.com/app/diffusers/id1666309574

  • 開源地址:
    https://github.com/huggingface/swift-coreml-diffusers

開源庫更新

Transformers 大更新

Transformer 4.25 引入了 ImageProcessor,讓用戶能夠利用更為強大的圖像處理能力。同時,部分 API 也更加統(tǒng)一,參數(shù)配置項也改為使用?dict,更直觀也更方便。

  • 示例地址:
    https://github.com/huggingface/transformers/tree/main/examples/pytorch/image-classification

提名道德意識良好的 Space 應用

機器學習技術在今天的社會中發(fā)揮著越來越重要的作用,可以應用于各種領域,包括醫(yī)療、金融、社交媒體、自動駕駛等。然而,這些技術的應用也可能帶來許多潛在的倫理和道德問題,比如數(shù)據(jù)隱私、算法歧視、社會影響等。因此,有必要關注和鼓勵那些采用了倫理意識的機器學習項目,以確保這些項目符合社會的倫理標準和價值觀。

為了展示和鼓勵更好的機器學習實踐,我們正在請社區(qū)的成員們提交提名那些在這方面做的很好的 Space 應用,我們正在找尋如下相關的項目:

  • ?? 征求同意: 有意識地征求相關方的同意,并盡可能提供透明度和選擇權。

  • ?? 可持續(xù)的: 考慮其對環(huán)境和社會的影響,并采取措施減少其負面影響。

  • ??? 社會責任感: 考慮對社會的影響,并采取措施以最大程度地提高其社會價值。

  • ???????? 具有包容性: 確保多元、平等與包容,采取措施確保其對不同背景和群體的用戶和利益相關者具有包容性。

  • ?? 嚴謹性: 采用嚴謹?shù)姆椒ê土鞒?,以確保項目的質(zhì)量和有效性。

  • ?? 探索精神: 不斷追求新的想法和解決方案,并持續(xù)優(yōu)化和改進項目。

你可以在這里提名:
http://hf.co/spaces/society-ethics/featured-spaces-submissions

AI 與 AI 對抗賽

?? 我們正在舉辦首場 AI 對陣 AI 的虛擬足球賽,你可以將自己的模型提交到 Hugging Face Hub 中,然后與其他隊伍的作品展開一張 2v2 的足球較量賽。

首場挑戰(zhàn)賽由 MLAgents 團隊基于 Unity 引擎提供,我們會基于大家的反饋舉辦更多精彩的比賽。

快來加入我們的課程,并與來自世界各地的同學們踢一場精彩的 AI 球賽吧!

  • 演示地址:
    https://hf.co/spaces/unity/ML-Agents-SoccerTwosA

  • Deep RL 課程地址:
    https://hf.co/deep-rl-course/unit7/introduction

?? Accelerate 0.16.0 發(fā)布

在這個版本中,我們提供了一款交互式配置 ?? Accelerate 的在線小工具,幫助你快速上手。同時,當你在訓練中需要跳過前幾個批次的數(shù)據(jù)時,DataLoaders?現(xiàn)在提供了函數(shù)來直接實現(xiàn)。此外,我們還提供了?release_memory?函數(shù)輔助釋放 PyTorch 占用的內(nèi)存,以及更靈活的?load_state?與?save_state?API。

  • 交互式體驗 ?? Accelerate 文檔鏈接:
    https://hf.co/docs/accelerate/usage_guides/explore

  • 詳細更新內(nèi)容:
    https://github.com/huggingface/accelerate/releases/tag/v0.16.0

?? Hugging Face Hub 更易用了

現(xiàn)在,我們在模型查找頁面增加了一個庫 (library) 篩選的標簽,這樣你就能更快找到跟自己感興趣的庫相關的各種模型了!

  • 模型頁面地址:
    https://hf.co/models

Tune-A-Video: 以文調(diào)片的文字轉視頻模型

我們在 ?? Hugging Face Spaces 匯總了不少優(yōu)秀的 Tune-A-Video 模型,幫你輕松實現(xiàn)「一句話,讓模型給我調(diào)個片」。

  • ?? Hugging Face Spaces 網(wǎng)址:
    https://hf.co/spaces/Tune-A-Video-library/Tune-A-Video-Training-UI

  • 演示項目地址:
    https://hf.co/Tune-A-Video-library/a-man-is-surfing

  • Tune-A-Video 庫地址:
    https://hf.co/Tune-A-Video-library

學習資源 & 內(nèi)容更新

擴散模型的最后一課已經(jīng)發(fā)布!

Hugging Face 擴散模型課程的第四單元: 深入研究擴散模型已經(jīng)發(fā)布,這是本課程的最后一個單元,在這個單元中,我們將探討最新研究中出現(xiàn)的擴散模型的許多改進和擴展。它將比以往的單元代碼更少,旨在為您提供進一步研究的起點。

在此前的推文里,我們發(fā)布了本課程的第一單元的?第一部分?和?第二部分。我們很高興地通知大家,我們的抱抱臉本地化小組已經(jīng)完成了這個課程的全部內(nèi)容!我們也即將在隨后的推文中陸續(xù)發(fā)布,歡迎關注我們。

Hugging Face ?? 計算機視覺

只是因為在人群中多看了你一眼,我們在計算機視覺上的投入只是從 21 年的這個 PR 開始 (huggingface/transformers#10950)。

但自去年開始,我們開始投入大量的精力投入到計算機視覺上?,F(xiàn)如今,Hugging Face Hub 上已經(jīng)有 8 個核心的計算機視覺任務、3000 多個模型和 100 多個數(shù)據(jù)集了!

我們寫了篇博客介紹這些內(nèi)容,不過你可以等等,我們的本地化小組的譯者 AIboy1993 已經(jīng)完成了這篇博客的中文版,下周就發(fā)推送 (爭取不鴿)!

  • 只是因為在人群中多看了你一眼 (PR 鏈接):
    https://github.com/huggingface/transformers/pull/10950

  • 博客文章: The State of Computer Vision at Hugging Face ??:
    https://hf.co/blog/cv_state

除此之外,還有一篇關于計算機視覺和語言預訓練的研究進展的博客文章 A Dive into Vision-Language Models,也已由我們本地化小組的 Matrix 同學完成了本地化,下周也將推送給大家。

  • 博客文章: A Dive into Vision-Language Models:
    https://hf.co/blog/vision_language_pretraining

文字生成音頻的 AudioLM 模型

現(xiàn)在,你可以在 ?? Hugging Face Spaces 上體驗 AudioLM 模型用文字描述生成相應音效的能力了。你只需要提供足夠詳細的描述,然后提交給模型進行處理即可??烊ンw驗專屬于你的獨家音效吧!

  • ?? Hugging Face Spaces:
    https://hf.co/spaces/haoheliu/audioldm-text-to-audio-generation

  • 項目倉庫:
    https://github.com/haoheliu/AudioLDM

可視化三種模型輸出的結果

我們?yōu)榇蠹姨峁┝艘豢畋容^ Stable Diffusion v1.4、v2 和 Dall-E 2 執(zhí)行文字生成圖片結果的工具。你可以選擇一個職業(yè),及相應的形容詞,然后對比它們?nèi)呱傻膱D片。

  • 體驗地址:
    https://hf.co/spaces/society-ethics/Average_diffusion_faces

看圖對話的模型 BLIP-2 開源!

據(jù)說這可能是一個可以教 ChatGPT 看懂圖片的大語言模型,BLIP-2 由 Salesforce Research 團隊發(fā)布,你可以給他一張圖片,然后針對圖片里的內(nèi)容跟 AI 進行對話。小編看了一些報道提到說?BLIP-2 可以「教會」讓 ChatGPT 學會看圖,真的有這么神奇嗎?

快來官方的 Space 應用上試玩,找找靈感吧 (或許下一個爆火的就是它呢),點擊右側原文鏈接直達:
https://hf.co/spaces/Salesforce/BLIP2
BLIP-2?開源地址:
https://github.com/salesforce/LAVIS/tree/main/projects/blip2

Hugging Face 每周速遞: 擴散模型課程完成中文翻譯的評論 (共 條)

分享到微博請遵守國家法律
阿克陶县| 荣昌县| 吴旗县| 富宁县| 永新县| 安溪县| 绵阳市| 卢氏县| 澄江县| 中西区| 循化| 赞皇县| 葫芦岛市| 莱西市| 衡南县| 张家港市| 讷河市| 大埔区| 盐边县| 西安市| 延庆县| 平乡县| 桐梓县| 柞水县| 巴彦淖尔市| 陇南市| 天祝| 商洛市| 巴里| 华蓥市| 屏山县| 武陟县| 冷水江市| 南阳市| 图片| 镇原县| 宁晋县| 通道| 金昌市| 磴口县| 宁南县|