騰訊混元大模型—攜千億參數(shù)勇闖“百模大戰(zhàn)”孰勝孰敗,實力說話
原創(chuàng) | 文 BFT機器人

騰訊混元大模型“霸氣”亮相
9月7號,在深圳舉行的2023騰訊全球數(shù)字生態(tài)大會上,騰訊混元大模型正式亮相,并宣布通過騰訊云對外開放。騰訊混元大模型是由騰訊全鏈路自研的通用大語言模型,擁有超千億參數(shù)規(guī)模,預訓練語料超2萬億tokens,具備強大的中文創(chuàng)作能力,復雜語境下的邏輯推理能力,以及可靠的任務執(zhí)行能力。
面對“百模大戰(zhàn)”的市場環(huán)境,混元突勝關鍵在哪
騰訊集團副總裁蔣杰說:“騰訊的策略:第一是從中文領域做攻克,讓大模型具備更強的中文創(chuàng)作能力,完善服務中國企業(yè)時的本土化能力;第二是在復雜推理過程中,增強對大模型安全的管控能力?!?/p>

值得關注的是,混元大模型雖然現(xiàn)階段還處在成熟度和對復雜任務處理的能力還不夠,屬于在完善中的初級模型。即使混元模型還不夠成熟,但是混元還是能在眾多國外研發(fā)模型中具有突勝點,這在于混元模型主攻中文領域,服務國內大部分的企業(yè),對于在眾多外國英文模型的對比下,國內企業(yè)為了更加方便與提高效率,加上對國家技術的認同感,都會選擇混元。
混元的“天羅地網”已覆蓋騰訊50多個產業(yè)
騰訊混元大模型是“從實踐中來,到實踐中去”的實用級大模型。騰訊云、騰訊廣告、騰訊游戲、騰訊金融科技、騰訊會議、騰訊文檔、微信搜一搜、QQ瀏覽器等超過50個騰訊業(yè)務和產品,已經接入騰訊混元大模型測試,并取得初步效果。
據(jù)騰訊集團副總裁湯道生表示,千行百業(yè)也可以通過API調用混元,或者將混元作為基底模型,為不同產業(yè)場景構建大模型應用。為此,騰訊已經和1萬1千家生態(tài)伙伴展開緊密合作,推出了覆蓋100多個產業(yè)場景的行業(yè)解決方案。
從零到一,堅持全鏈路技術自研
據(jù)了解,騰訊混元大模型是從第一個token開始就從零開始訓練,掌握了從模型算法到機器學習框架,再到AI基礎設施的全鏈路自研技術。

對此騰訊副總裁蔣杰總結了混元大模型的三大特點:具備強大的中文創(chuàng)作能力、復雜語境下的邏輯推理能力以及可靠的任務執(zhí)行能力。在過去以及現(xiàn)今,眾多大模型不論在性能還是算法上都有局限性,且多數(shù)用于一些簡單的場景,還不能滿足對于復雜的場景的應變能力里。例如:在文檔處理方面,騰訊混元大模型支持數(shù)十種文本創(chuàng)作場景,在騰訊文檔推出的智能助手功能中已有應用。同時,混元還能夠一鍵生成標準格式文本,精通數(shù)百種Excel公式,支持自然語言生成函數(shù),并基于表格內容生成圖表。而chatGOT4連4000字的文檔內容都不能很好的滿足。

蔣杰表示:“騰訊堅持自研技術是因為,如果企業(yè)不從頭開始做自研的話,就缺乏對這個技術的完全掌握。騰訊大模型的自研,能夠加速后續(xù)的迭代,加快與其他業(yè)務的深度結合和綁定。對于騰訊那么多海量高并發(fā)的業(yè)務來說,開源架構無法應對沖擊,對騰訊來說是并不合適的。所以我們一定要走出一條基于自主體系的研發(fā)道路?!敝链蓑v訊走出了一條適合自己發(fā)展的康莊大道。另外蔣杰還表示,騰訊的自研機器學習框架Angel讓訓練速度相比業(yè)界主流框架提升1倍,推理速度比業(yè)界主流框架提升1.3倍。
對于騰訊混元大模型的降世,開啟屬于在中國大模型發(fā)展模式的新時代,這是值得肯定與支持的。另外騰訊云已經全面接入Llama 2、Bloom等20多個主流模型,并支持直接部署調用??蛻艨梢愿鶕?jù)實際需求,既可以基于混元大模型,也可以基于開源模型,打造自己的行業(yè)大模型。
作者?| 春花
排版 | 春花
審核 | 橙橙
若您對該文章內容有任何疑問,請與我們聯(lián)系,將及時回應。想要了解更多資訊,請關注BFT智能機器人系統(tǒng)~