【AI繪畫】關(guān)于huggingface網(wǎng)站
https://mp.weixin.qq.com/s/mrdIymI2okafun77SdSh6g
目前,Transformers庫在GitHub上已有62.3k個(gè)Star,F(xiàn)ork數(shù)量達(dá)到了1.48k。
?

Transformers 為數(shù)以千計(jì)的預(yù)訓(xùn)練模型奠定了基礎(chǔ)(包括我們熟知的Bert、GPT、GPT-2、XLM等),支持100多種語言的文本分類、信息抽取、問答、摘要、翻譯、文本生成。它的宗旨就是讓最先進(jìn)的 NLP 技術(shù)人人易用。Transformer還提供了便于快速下載和使用的API,讓你可以把預(yù)訓(xùn)練模型用于給定文本上,在自己的數(shù)據(jù)集上對它們進(jìn)行微調(diào),然后通過modle hub與社區(qū)共享它們。此外,Transformer由三個(gè)最熱門的深度學(xué)習(xí)庫——Jax、PyTorch和TensorFlow支持,它們之間可以無縫整合。
Hugging Face的愿景是構(gòu)建機(jī)器學(xué)習(xí)領(lǐng)域的GitHub。它是一個(gè)社區(qū)驅(qū)動(dòng)型的平臺(tái),擁有大量的資源。開發(fā)人員可以在機(jī)器學(xué)習(xí)模型、數(shù)據(jù)集和 ML 應(yīng)用程序上不斷創(chuàng)建、創(chuàng)新和互相協(xié)作。
Hugging Face 還提供托管服務(wù),允許你通過編程接口使用數(shù)千個(gè)模型的推理API,以及“自動(dòng)訓(xùn)練”模型的能力。
為人工智能領(lǐng)域按下快進(jìn)鍵
現(xiàn)在,已有超過1萬家公司正在使用該公司的服務(wù)來建立機(jī)器學(xué)習(xí)技術(shù)。這些公司的機(jī)器學(xué)習(xí)科學(xué)家、數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)工程師在Hugging Face的產(chǎn)品和服務(wù)的幫助下,節(jié)省了無數(shù)時(shí)間,同時(shí)加快了他們的機(jī)器學(xué)習(xí)進(jìn)程。
Hugging Face團(tuán)隊(duì)表示,本輪融資將用于人工智能的科研、開源、產(chǎn)品和以及人工智能民主化方面。他們相信,未來的人工智能的方向是通過公開分享模型、數(shù)據(jù)集、訓(xùn)練程序、評估指標(biāo)和合作解決問題。開源和開放科學(xué)會(huì)帶來信任,促進(jìn)社區(qū)的穩(wěn)健發(fā)展和持續(xù)創(chuàng)新,而未來的人工智能也一定是建立在這個(gè)基礎(chǔ)之上的。
如何使用,網(wǎng)上也能找到教程:
https://blog.csdn.net/sinat_28931055/article/details/119560054
流媒體網(wǎng)CSDN;
https://www.csdn.net/?spm=1001.2014.3001.4476
https://blog.csdn.net/OneFlow_Official/article/details/129577447