最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網 會員登陸 & 注冊

不寫代碼、構建一個開源的 ChatGPT,總共需要幾步?|Hugging News #1020

2023-10-23 01:36 作者:HuggingFace  | 我要投稿

每一周,我們的同事都會向社區(qū)的成員們發(fā)布一些關于 Hugging Face 相關的更新,包括我們的產品和平臺更新、社區(qū)活動、學習資源和內容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」。本期 Hugging News 有哪些有趣的消息,快來看看吧!??

給 Pro 訂閱賬戶加入的更高級的推理 API 功能

我們?yōu)?Hugging Face Pro 訂閱用戶加入了一些新的模型 API 訪問權限包括 Llama 2 Chat、Code Llama Base 和 Stable Diffusion XL 等,同時也提高了對推理 API 的速率限制。開發(fā)者們可以更好地進行模型實驗和原型開發(fā),而無需部署模型到自己的基礎設施上。

朋友們,升個級?https://hf.co/subscribe/pro

為推理 API 發(fā)布新的模型分類頁面

我們發(fā)布了一個新的模型分類頁面,展示了一系列精選、即時可部署的模型,包括如文本生成、文本到圖像、自動語音識別和文本嵌入提取等多個模型分類。每個模型條目提供了模型的簡要描述、優(yōu)化目標、模型的參數(shù)大小、每小時的運行成本和運行所需的硬件配置,例如 GPU 型號等。

大家可以在這里查看:https://ui.endpoints.huggingface.co/catalog

Flash Attention 2 現(xiàn)已在 ?? Transformers 可用

Flash Attention 2 是一個優(yōu)化的注意力機制算法,旨在改善基于 transformer 的模型的效率。通過改進并行處理和工作分區(qū)、減少內存使用、Flash 解碼等策略,使得模型以更長的序列長度運行和訓練,而不會遇到內存溢出問題,從而更好地處理大規(guī)模數(shù)據。

?? Transformers 現(xiàn)已原生支持 Flash Attention 2,支持 PEFT(預訓練嵌入式微調)的訓練和量化(GPTQ, QLoRA, LLM.int8)。

構建一個開源的 ChatGPT,總共需要幾步(還不用寫代碼)

我們發(fā)表了一篇博客,介紹如何在不編寫任何代碼的情況下構建自己的開源 ChatGPT,它使用 LLaMA 2 基礎模型,通過一個開源指令數(shù)據集對其進行微調,然后部署到一個聊天應用程序中,可以與朋友分享,使用 Hugging Face 平臺的各種工具 ,如 Spaces、AutoTrain 和 ChatUI。

??https://hf.co/blog/Llama2-for-non-engineers

不寫代碼、構建一個開源的 ChatGPT,總共需要幾步?|Hugging News #1020的評論 (共 條)

分享到微博請遵守國家法律
江孜县| 绿春县| 郓城县| 客服| 崇义县| 禹城市| 台安县| 铁力市| 鄂尔多斯市| 利津县| 黑山县| 南涧| 麻江县| 当雄县| 钟山县| 扎鲁特旗| 铜山县| 龙江县| 莲花县| 扬州市| 太保市| 遂宁市| 尖扎县| 察隅县| 洪雅县| 宿州市| 溧阳市| 乌海市| 九江县| 邛崃市| 日土县| 九龙坡区| 广饶县| 兴国县| 台湾省| 新河县| 呼玛县| 仁布县| 商城县| 淳化县| 甘谷县|