給ChatGLM2注入知識;閱文集團發(fā)布首個網(wǎng)文大模型“閱文妙筆”

?? AI新聞
?? 閱文集團發(fā)布首個網(wǎng)文大模型“閱文妙筆”
摘要:在閱文創(chuàng)作大會上,閱文集團發(fā)布了國內(nèi)首個網(wǎng)文大模型“閱文妙筆”。該模型以AIGC為創(chuàng)作生態(tài)和IP生態(tài)賦能,將為作家?guī)韯?chuàng)作模式的創(chuàng)新和新的價值。侯曉楠表示,AI不會取代創(chuàng)作者,而是成為創(chuàng)作者的“金手指”。閱文集團還調(diào)整了管理層,并明確了三個重點方向:發(fā)展作家和內(nèi)容生態(tài),建立版權保護統(tǒng)一戰(zhàn)線,提升商業(yè)化能力。同時,閱文集團回應網(wǎng)絡盜版事件,并表示將維權。
?? 韓國音樂公司HYBE利用AI消除語言障礙
摘要:韓國最大流行音樂廠牌HYBE的制作人利用AI技術成功消除語言障礙,將歌曲以六種語言發(fā)布。該公司表示這是全球首創(chuàng),可能為其吸引更多聽眾。使用AI技術,歌手利用母語人士朗讀歌詞,然后在HYBE內(nèi)部AI音樂技術的幫助下,將歌詞與唱腔、旋律無縫結合。HYBE在今年1月以450億韓元的價格收購了Supertone,后者提供神經(jīng)分析與合成技術,能使歌曲聽起來更自然。該新聞影響力大,公眾興趣高,新穎性強,重要性顯著。
?? 蘋果內(nèi)部開發(fā)“Apple GPT”人工智能項目,或?qū)⒃?024年發(fā)布
摘要:據(jù)報道,蘋果內(nèi)部正在開發(fā)“Apple GPT”人工智能項目,此項目預計于2024年發(fā)布。該項目使用了Google的機器學習框架Jax構建的“Ajax”平臺,并且開發(fā)了自己的內(nèi)部聊天機器人。蘋果曾考慮與OpenAI簽訂合同,但最終放棄了這項計劃。目前蘋果的人工智能工作由John Giannandrea和Craig Federighi領導。這一新聞的總分為75分,因為它對公眾興趣度較高,新穎性一般,對蘋果自身影響較大,但重要性相對較低。
?? 清華用 ChatGPT 打造了零人工含量的游戲公司
摘要:清華大學的研究團隊利用 ChatGPT 打造了一個名為「ChatDev」的「零人工含量」的游戲公司。在這個公司中,通過聊天機器人的合作完成游戲開發(fā)的整個流程,從設計到測試只需要不到七分鐘的時間,成本不到0.3美元。該團隊設計了一套由ChatGPT串聯(lián)起的「ChatChain」,讓每個聊天機器人分別扮演不同的角色,涵蓋了游戲研發(fā)涉及的所有崗位。這種全程AI參與的開發(fā)過程在速度、成本和靈活性方面都取得了很好的效果。
?? 百度文心大模型3.5在AI能力評估中獲得綜合第一
摘要:百度文心大模型3.5在最新的AI大模型技術能力評估報告中,獲得7個滿分,綜合評分第一,并在算法模型和行業(yè)覆蓋方面排名第一。百度自2019年開始深耕預訓練模型研發(fā),先后推出知識增強文心系列模型,最近發(fā)布的文心大模型3.5在基礎模型、知識增強和檢索增強等方面取得創(chuàng)新和明顯提升。百度文心通過芯片、框架、模型和應用四層技術棧優(yōu)勢,以及自研的深度學習平臺飛槳的協(xié)同優(yōu)化,使3.5版本的模型效果提升50%,訓練速度提升2倍,推理速度提升30倍。百度文心還形成了企業(yè)、教育和社區(qū)三位一體的生態(tài)體系,推動大模型產(chǎn)業(yè)化。雖然大模型仍面臨挑戰(zhàn),但未來預計將形成少量大模型的應用生態(tài)。
?? 2023年全球IT支出預計將達到4.7萬億美元,設備支出將下降8.6%
摘要:根據(jù)市場調(diào)查機構Gartner的預測數(shù)據(jù),2023年全球IT支出預計將達到4.7萬億美元,較2022年增長4.3%。報告顯示,企業(yè)首席信息官在爭奪IT人才的競爭中失利,將更多的重心轉向?qū)崿F(xiàn)自動化和效率的技術上。雖然企業(yè)IT支出的整體前景樂觀,但由于通貨膨脹對消費者購買力的持續(xù)影響,設備支出將在2023年下降8.6%。許多企業(yè)和IT領導者正積極推進生成式AI,但目前并未顯著影響IT支出水平。
?? AI知識
???(Code Interpreter)插件
這里向大家介紹一個開源實現(xiàn)的 ChatGPT 代碼解釋器(Code Interpreter)插件分享。
使用該插件,開發(fā)者可以直接調(diào)用 API,在項目中利用 AI 快速處理數(shù)據(jù)分析、圖像處理、股票圖表展示等工作。
?? 單樣本微調(diào)給ChatGLM2注入知識~](https://zhuanlan.zhihu.com/p/642357133)
前方干貨預警:這可能是一篇會改變你對LLM微調(diào)范式,以及對LLM原理理解的文章。
同時這也是一篇非常有趣好玩,具有強大實操性的ChatGLM2微調(diào)喂飯級教程。
我們演示了使用AdaLoRA算法,使用1條樣本對ChatGLM2-6b實施微調(diào)。幾分鐘就成功注入了"夢中情爐"有關的知識。
更多AI工具,參考Github-AiBard123,國內(nèi)AiBard123