機器學習算法示例的收集;MetaAI編碼工具Code Llama;“天工AI搜索”首發(fā)實測

?? AI新聞
?? Meta推出新一代AI編碼工具Code Llama,助力程序員提高開發(fā)效率
摘要:Meta推出Code Llama,這是一個基于Llama 2語言模型打造的AI編碼工具,能夠生成新的代碼并調試人類編寫的工作。Code Llama可根據(jù)代碼核自然語言提示生成代碼,也可以根據(jù)指定的代碼進行完善和調試。Meta表示,在基準測試中,Code Llama優(yōu)于目前公開可用的LLM模型,并憑借著53.7%的準確編寫代碼得分和56.2%在MBPP上的得分,在代碼編寫方面具有一定優(yōu)勢。Code Llama將通過GitHub免費開放,并推出三種不同參數(shù)的版本。該新聞受眾廣泛,技術和編程領域的讀者對于這種能夠提升開發(fā)效率的AI編碼工具表現(xiàn)出較高的興趣和關注度。
?? 國內首款AI搜索產品“天工AI搜索”首發(fā)實測
這是一款國內首個正式落地的獨立AI搜索產品,它通過AI模型對用戶的自然語言提問進行理解,并從相關網(wǎng)頁中提取信息進行自動生成和總結,形成針對性的回答,還支持多輪追問。相比傳統(tǒng)搜索,它屏蔽了廣告和低質量內容,提供更精準和高效的結果。
?? 好未來自研數(shù)學大模型MathGPT開啟內測
摘要:好未來宣布自研的數(shù)學大模型MathGPT開始內測,用戶可通過官網(wǎng)免費試用體驗。MathGPT是面向全球數(shù)學愛好者和科研機構的大模型,通過文字或圖片上傳數(shù)學題可獲得解答反饋,也可隨機生成數(shù)學題目并獲得解答。目前支持中英文版本的PC端和移動端體驗,題目類型涵蓋小學、初中、高中的數(shù)學題。MathGPT的解題能力將持續(xù)提升,基于該模型的產品應用也在加速研發(fā)中。
?? 三星計劃于2023年發(fā)布自家版生成式AI,類ChatGPT
摘要:據(jù)韓媒報道,三星計劃于9月12日舉辦Real Summit 2023活動,并公開自家版本的生成式AI,具備類似于ChatGPT的多種技能。目前,該AI主要用于內部員工,提高工作效率。預計于2023年底或2024年初向員工開放。三星已向韓國知識產權信息服務中心提交商標申請,可能將命名為“Simply Chat”。此舉將對公眾產生影響,引發(fā)廣泛興趣,具有新穎性和重要性。
總分數(shù):90
?? 英偉達財報業(yè)績強勁,股價下滑至40倍市盈率,仍被認為被低估
摘要:本文報道了英偉達公布的新財季財報,該財報業(yè)績超出分析師預期,預期市盈率跌至約40倍,低于5月份的63倍。投資者對其估值過高的擔憂得到緩解,還有觀點認為英偉達的股價仍被低估,有較大上漲空間。分析師普遍認為,英偉達能繼續(xù)保持增長勢頭并達到其估值水平。英偉達宣布回購額外250億美元的股票,也給看漲人士帶來了歡呼。綜合影響力、公眾興趣、新穎性和重要性等因素,本文新聞評分為85分。
?? Gartner預測2023年全球AI硬件銷售額將達534億美元
摘要:根據(jù)市場研究公司Gartner的最新預測,到2023年全球用于AI的硬件銷售收入預計將同比增長20.9%,達到534億美元。Gartner表示,生成式AI的發(fā)展和各種基于AI的應用在數(shù)據(jù)中心、邊緣基礎設施和端點設備中的廣泛使用,需要部署GPU和“優(yōu)化的半導體設備”,這將推動AI芯片的生產和部署。預計到2027年,AI芯片收入將達到1194億美元。隨著企業(yè)中AI工作負載的成熟,許多行業(yè)和IT組織將部署包含AI芯片的系統(tǒng)。
?? 中國知網(wǎng)發(fā)布基于“大模型 + AIGC”的大數(shù)據(jù)知識管理系列產品
摘要:中國知網(wǎng)在“2023年創(chuàng)新與大數(shù)據(jù)知識管理研討會”上發(fā)布了基于“大模型 + AIGC”的大數(shù)據(jù)知識管理系列產品。其中包括“大數(shù)據(jù)治理平臺”、“數(shù)字標準智能應用平臺”、“知網(wǎng)智能寫作平臺”和“中國經(jīng)濟社會大數(shù)據(jù)研究平臺”。其中,知網(wǎng) AI 智能寫作是利用大模型和知識庫開發(fā)的“文檔智能生產系統(tǒng)”,可輔助用戶快速、高效地編寫文檔,提升報告質量,并支持重寫、續(xù)寫、潤色等功能。此舉將推動數(shù)字化轉型,加速數(shù)字技術與實體經(jīng)濟融合發(fā)展。評分:影響力25分,公眾興趣25分,新穎性25分,重要性25分。
?? AI知識
???大型語言模型的事實性摘要對比研究
本文對Llama-2-70b、GPT-4、GPT-3.5-turbo等大型語言模型進行了事實性摘要的對比實驗。結果表明,Llama-2-70b和GPT-4在事實準確性方面表現(xiàn)較好,而GPT-3.5-turbo和較小的Llama存在問題。實驗也指出了順序偏見和遵循指示的重要性等問題。建議Llama-2-70b和GPT-4用于事實性摘要。Llama 2與GPT-4相比,在等效的事實水平下成本明顯更低。實驗通過Anyscale Endpoints平臺完成,利用Pandas和Ray進行了易于實驗化。
???機器學習算法示例的收集
這是一系列獨立的Python機器學習算法示例的收集,包含人工神經(jīng)網(wǎng)絡、馬爾可夫決策過程和降維等各種算法。每個示例都附有對原始研究論文或書籍的參考,這些論文或書籍首次提出了該算法。
更多AI工具,參考Github-AiBard123,國內AiBard123