AI前沿速報0528:IEEE“AI十大新星”引爭議
大家好,今天的AI前沿速報為大家?guī)砹硕鄠€領域的進展。華為和悉尼大學合作開發(fā)的神經(jīng)網(wǎng)絡架構(gòu)VanillaNet,醫(yī)療語言模型MedGPT的發(fā)布,以及AI在游戲中的應用等,這些新的技術和應用將會給我們帶來更多的驚喜和可能性。讓我們一起來了解這些前沿動態(tài),探索AI的無限可能性。同時,歡迎大家關注、點贊、轉(zhuǎn)發(fā)這篇內(nèi)容,讓更多的人了解AI日新月異的變化。
1. 【華為Noah與悉尼大學合作開發(fā)VanillaNet神經(jīng)網(wǎng)絡架構(gòu)】
華為Noah實驗室與悉尼大學合作開發(fā)了一種名為VanillaNet的神經(jīng)網(wǎng)絡架構(gòu),其設計簡單但精度高,比傳統(tǒng)網(wǎng)絡如AlexNet表現(xiàn)更好,且在圖像分類、檢測和分割任務中表現(xiàn)出類似于ResNet-50的精度,速度更快。這一成果挑戰(zhàn)了注意力機制在計算機視覺任務中高性能的觀念。
2. 【IEEE Intelligent Systems評選“AI十大新星”引爭議】
近日,IEEE Intelligent Systems評選出“AI十大新星”,其中九位獲獎者均為中國研究人員,未有美國或西方人士入選,引發(fā)了對名單的質(zhì)疑和要求修改。主編曹龍兵教授因此被停止編輯工作。
3. 【Medlinker推出中國醫(yī)學語言模型MedGPT,提高醫(yī)療效率】
中國醫(yī)療科技公司Medlinker推出了中國醫(yī)學語言模型MedGPT,經(jīng)過九年的研發(fā)。該模型旨在提高遠程會診的效率和準確性,簡化醫(yī)療文件,減輕醫(yī)務人員的工作負擔。MedGPT基于Transformer架構(gòu),支持醫(yī)學場景下的多模態(tài)輸入和輸出。該工具已經(jīng)在超過150萬注冊醫(yī)生和2000萬患者的數(shù)據(jù)集上進行了訓練。Medlinker呼吁與AI技術、醫(yī)療機構(gòu)和多模態(tài)醫(yī)療應用進行合作。
4. 【中山大學團隊開發(fā)Graph2Edits模型,可用于分子圖編輯和預測反應】
中山大學的研究人員開發(fā)了Graph2Edits模型,可用于預測化學反應。該模型在USPTO-50k基準數(shù)據(jù)集上的top-1準確率達到55.1%,在USPTO-full數(shù)據(jù)集上為44.0%。該團隊還開發(fā)了一個系統(tǒng),可以從文本描述中生成圖表,準確率達到85%。該模型可用于教育、生成教材和其他材料的圖表等方面。
5. 【谷歌AI開發(fā)SoundStorm,實現(xiàn)高效非自回歸音頻生成】
谷歌AI團隊開發(fā)了一種名為SoundStorm的音頻生成模型,采用獨特的架構(gòu)和并行解碼方案,比AudioLM快兩個數(shù)量級,與SPEAR-TTS結(jié)合使用可以創(chuàng)建高質(zhì)量、逼真的對話。未來預計在長序列音頻建模方面有更多發(fā)展。
6. 【生成式AI的潛力為商業(yè)帶來成功】
生成式AI可能會創(chuàng)造數(shù)萬億美元的經(jīng)濟價值;全球AI市場價值1366億美元,預計未來8年增長40%;AI輔助的初創(chuàng)企業(yè)占去了去年超過一半的風險投資;生成式AI初創(chuàng)企業(yè)應該專注于客戶需求、全球規(guī)模和貨幣化論點。
7. 【CoT Collection數(shù)據(jù)集提升語言模型的零樣本和少樣本學習】
CoT Collection數(shù)據(jù)集旨在進行指令調(diào)整,包括1060個任務的188萬個CoT理由。使用CoT Collection對Flan-T5 LMs進行微調(diào),提高了語言模型在零樣本和少樣本學習中的任務泛化能力,并在BIG-Bench-Hard基準測試的27個數(shù)據(jù)集上提高了平均零樣本準確率。
8. 【GANonymization:一種新的人臉匿名化框架,保留面部表情】
GANonymization是一種新的人臉匿名化框架,可以在去除身份特征的同時保留面部表情。該框架使用生成對抗網(wǎng)絡(GAN)合成人臉的匿名版本,并在保留情感表達方面優(yōu)于DeepPrivacy2。該框架有潛力在確保隱私保護的同時保留情感信息。
9. 【PandaGPT:跨六種模態(tài)的AI基礎模型】
PandaGPT是一種通用模型,可以處理六種模態(tài)的輸入,結(jié)合多模態(tài)編碼器和語言模型,能夠理解和組合各種形式的信息,這標志著AGI發(fā)展的重要一步。該模型不需要顯式監(jiān)督,可用于指令遵循等任務。
10. 【Salesforce AI推出ULIP和ULIP-2計劃,提升機器對3D物體的理解能力】
Salesforce AI的ULIP和ULIP-2計劃旨在提高機器對3D物體的理解能力,將3D點云、圖片和文本對齊到一個表示空間中,對于各種技術中AI的發(fā)展至關重要,正在徹底改變3D環(huán)境理解領域。
11. 【律師因在訴訟中使用ChatGPT虛假引用面臨后果】
據(jù)報道,律師Steven A. Schwartz在研究時使用了OpenAI的ChatGPT,但提交的六個案例被發(fā)現(xiàn)是虛假的。ChatGPT為混淆道歉,但堅稱該案例是真實的。此事件凸顯了驗證聊天機器人生成信息的重要性。
12. 【AI大變革已無法逆轉(zhuǎn)】
專家擔心生成式AI的快速發(fā)展將改變產(chǎn)業(yè)格局;美國不能停止AI的發(fā)展;監(jiān)管機構(gòu)需要跟上AI的步伐;AI可以革新社會,但也可能被用于惡意目的。
13. 【AI巨頭與政策制定者探討AI監(jiān)管愿景】
本周,AI行業(yè)高管與政策制定者就AI監(jiān)管愿景進行了討論。OpenAI CEO警告歐盟提出的AI法案,谷歌CEO強調(diào)需要適當?shù)腁I監(jiān)管措施,微軟提出了五點公共治理AI的藍圖。這些巨頭的發(fā)言引起了人們對AI監(jiān)管的關注。
14. 【8款AI工具助力提高工作效率】
TLDV是一款基于AI的遠程會議平臺;Kickresume提供AI簡歷和求職信生成器;10Web是一款AI增強的WordPress平臺;CHARTGPT是一款從文本生成圖表的AI工具;Yatter Plus是一款基于AI的WhatsApp聊天機器人;Glasp是一款AI驅(qū)動的YouTube視頻摘要應用;Monic AI正在開發(fā)一個數(shù)字化學習管理總部;ChatABC是ChatGPT的升級版,具有額外的功能。
15. 【研究人員開發(fā)Minecraft GITM AI代理,解鎖所有物品并取得高成功率】
中國商湯、清華大學和上海人工智能實驗室的研究人員開發(fā)了Ghost in the Minecraft (GITM) AI代理,可以解鎖游戲技術樹中的262個物品,并在“獲取鉆石”任務中取得了47.5%的成功率。GITM的訓練時間比以前的方法短得多,被視為實現(xiàn)通用人工智能(AGI)的一步。GITM的核心是使用大型語言模型(LLM)作為代理。
16. 【圖靈獎得主和超算創(chuàng)始人:機器學習過度依賴GPU】
據(jù)報道,超算創(chuàng)始人Jack Dongarra認為機器學習過度依賴GPU,提出了多維計算方法以提高高性能計算機的效率。然而,研究領域的資金限制成為了制約因素。此外,線性代數(shù)在AI算法中的重要性也被強調(diào)。同時,機器學習硬件的濫用也引起了關注。
17. 【Nvidia發(fā)布基于GPT-4的Voyager AI模型,在Minecraft中表現(xiàn)優(yōu)于AutoGPT】
Nvidia發(fā)布了基于GPT-4的Voyager AI模型,該模型在Minecraft中表現(xiàn)優(yōu)于AutoGPT。Voyager可以學習和適應新任務,無需人類干預,是通用人工智能的重要一步。該模型可應用于機器人和自動駕駛等領域,并可通過視覺感知進行未來的增強。
18. 【Nvidia的Voyager AI模型在Minecraft中實現(xiàn)15倍性能提升】
Nvidia的Voyager AI模型在Minecraft中實現(xiàn)了15倍的性能提升,這一成果是由大型語言模型(LLM)驅(qū)動的。這一進展讓人們離實現(xiàn)通用人工智能(AGI)更近了一步。Voyager的開源研究背后,是一種新的模型訓練范式,即通過代碼執(zhí)行來訓練模型。這一技術在游戲和機器人領域有著潛在的應用。
19. 【詹姆斯·卡梅隆透露新終結(jié)者電影劇本由ChatGPT編寫】
詹姆斯·卡梅隆正在創(chuàng)作新的終結(jié)者電影劇本,以ChatGPT作為主角。靈感來自于OpenAI的ChatGPT等人工智能的崛起。新電影將基于GPT的真實技術,AI專家警告不要將AI視為對人類的威脅。ChatGPT創(chuàng)作了自己的終結(jié)者劇本,展現(xiàn)了對人工智能潛力的積極態(tài)度。
20. 【LoRA讓LLaMA語言模型微調(diào)更容易高效】
LoRA是一種輕量級高效的微調(diào)預訓練語言模型的方法,平衡了模型復雜性、適應性和過擬合風險。在某些基準測試中,表現(xiàn)比完全微調(diào)和其他參數(shù)高效方法更好。LoRA和LLaMA適配器使微調(diào)更具資源效率和可訪問性。
感謝您的關注,AI前沿觀察將繼續(xù)為您帶來前沿、全面的人工智能資訊。請大家積極參與互動,點贊、評論、轉(zhuǎn)發(fā),讓更多人了解AI的前沿動態(tài)。明天的速報,我們不見不散!