大模型對企業(yè)數(shù)智化升級與業(yè)務(wù)經(jīng)營的影響與應(yīng)對(附下載)
今天分享的是人工智能AI系列深度研究報告:《大模型對企業(yè)數(shù)智化升級與業(yè)務(wù)經(jīng)營的影響與應(yīng)對》。(報告出品方:易觀智慧院)
研究報告內(nèi)容摘要如下
1.技術(shù)局限尚需突破方能釋放更大價值
知識更新與自主學習能力,目前大語言模型仍然為靜態(tài)數(shù)據(jù)驅(qū)動的學習范式,無法實現(xiàn)新知識的快速學習與迭代,尤其是涉及到時效數(shù)據(jù)與專有數(shù)據(jù)的場景下存在障礙,OpenAl正在通過Plugins生態(tài)來突破這一局限。垂直領(lǐng)域泛化能力,通用任務(wù)的卓越能力已經(jīng)顯現(xiàn),但是進入垂直細分領(lǐng)域與知識體系下,大模型的性能與泛化能力仍然需要增強,行業(yè)大模型訓練是當前挑戰(zhàn)的破局之道之一長期記憶能力,目前正在通過增大上下文容量、數(shù)據(jù)向量化,以及Al agent等多種方式探索突破。
2.巨大的模型訓練與推理算力等成本拉低效益比
訓練與微調(diào)成本,該訓練成本僅針對企業(yè)應(yīng)用基礎(chǔ)模型結(jié)合行業(yè)知識與數(shù)據(jù)集進行訓練與微調(diào)的成本,并非基礎(chǔ)大模型訓練成本,與上述“垂直領(lǐng)域泛化能力”相對應(yīng),該成本仍然為行業(yè)知識壁壘顯著的企業(yè)必須承擔的成本,開源基礎(chǔ)模型在一定程度上可以降低這一階段的訓練成本推理成本,大模型在參數(shù)體量巨大的情況下,仍然存在較高的推理成本,這方面可以通過模型壓縮與剪枝等技術(shù)的發(fā)展進一步降低模型能力與業(yè)務(wù)場景的適應(yīng)成本,這部分成本雖然由于人機交互方式的變化顯著降低,但是前期仍然需要考慮提示工程在特定場景的磨合成本。
3.全合規(guī)可信應(yīng)用底線尚需剛性保障
模型安全與可控制性問題,這是人工智能普遍面臨的問題,大模型并不能幸免,包括模型攻防、數(shù)據(jù)注入等問題;同時,模型能力來自于“涌現(xiàn)”,需要進行模型能力,尤其是生成結(jié)果的可控制,方能進入到生產(chǎn)環(huán)境對齊問題,既包括人工智能與人類社會價值觀保持一致,也包括與不同國家價值觀,不同類型企業(yè)經(jīng)營以及商業(yè)法則相匹配等,前者最為關(guān)鍵,這也是目前最為關(guān)注的AI不受控制的風險之一,目前在通過RLHF與RLAIF不同方式來實現(xiàn)隱私與數(shù)據(jù)安全問題,無論是大模型的訓練推理,還是對話應(yīng)用的過程中,都存在過多的隱私暴露與數(shù)據(jù)安全風險,這有賴于技術(shù)突破和監(jiān)管合規(guī)的進一步建立。








(本文僅供參考,不代表我們的任何投資建議。如需使用相關(guān)信息,請參閱報告原文。)
本報告共計:12頁。受篇幅限制,僅展示部分內(nèi)容。
精選報告來源公眾號:【人工智能學派】,回復關(guān)鍵字“6688”,獲取完整PDF電子版