華為版ChatGPT來了!“盤古Chat”將發(fā)布:定于7月7日!
近日,有消息稱華為公司將發(fā)布一款直接對標(biāo)ChatGPT的多模態(tài)千億級(jí)大模型產(chǎn)品,名為“盤古Chat”。預(yù)計(jì)華為盤古Chat將于今年7月7日舉行的華為云開發(fā)者大會(huì)(HDC.Cloud 2023)上對外發(fā)布并內(nèi)測,產(chǎn)品主要面向ToB/G政企端客戶。
這意味著,在國產(chǎn)大模型軍備競賽中,繼阿里、百度之后,又一重要科技巨頭入局。基于華為的技術(shù)能力,盤古Chat有望成為國內(nèi)技術(shù)能力最強(qiáng)的ChatGPT產(chǎn)品之一,同時(shí)華為生態(tài)產(chǎn)業(yè)鏈企業(yè)也將因此受益。

據(jù)悉,盤古大模型于2020年11月在華為云內(nèi)部立項(xiàng)成功。對于盤古大模型定位,華為內(nèi)部團(tuán)隊(duì)確立了三項(xiàng)最關(guān)鍵的核心設(shè)計(jì)原則:一是模型要大,可以吸收海量數(shù)據(jù);二是網(wǎng)絡(luò)結(jié)構(gòu)要強(qiáng),能夠真正發(fā)揮出模型的性能;三是要具有優(yōu)秀的泛化能力,可以真正落地到各行各業(yè)的工作場景。
與其它廠商相比,華為的優(yōu)勢或在于擁有完整的產(chǎn)業(yè)鏈和較強(qiáng)的算力調(diào)配能力。據(jù)浙商證券此前披露,在訓(xùn)練千億參數(shù)的盤古大模型時(shí),華為團(tuán)隊(duì)調(diào)用了超過兩千塊的昇騰910芯片,進(jìn)行了超兩個(gè)月的數(shù)據(jù)訓(xùn)練能力。華為內(nèi)部稱,每年大模型訓(xùn)練調(diào)用GPU/TPU卡超過四千片,三年的大模型算力成本高達(dá)9.6億元人民幣。

值得一提的是,由于盤古大模型擁有超大規(guī)模的參數(shù),因此訓(xùn)練成本較高,但在中文語言的處理方面具有很高的準(zhǔn)確度和質(zhì)量。
最后,小伙伴們期待盤古Chat的到來嗎?