未來的人工智能算法有可能像人類一樣學習
原創(chuàng) | 文 BFT機器人

記憶對于機器來說,可能和人類一樣,感到棘手。為了準確理解為什么人工智能在其認知過程中會出現(xiàn)漏洞,俄亥俄州立大學的電氣工程師通過探究機器的“持續(xù)學習”過程,從而分析它們整體表現(xiàn)中的影響程度。
“持續(xù)學習”是指計算機經(jīng)過訓練,能夠不斷學習一系列任務,利用從舊任務中積累的知識,來更好地學習新任務。

然而,要想達到這樣的高度,科學家們仍然需要克服機器學習中記憶喪失的障礙一一這一記憶喪失的過程在人工智能代理中被稱為“災難性遺忘”。
俄亥俄州著名學者暨俄亥俄州立大學計算機科學與工程教授Ness Shroff表示,隨著人工神經(jīng)網(wǎng)絡在一個接一個的新任務上不斷接受訓練,它們往往會丟失從在舊任務中獲得的信息,但伴隨著社會對人工智能系統(tǒng)的依賴性逐漸增強,這一漏洞就成為了會影響社會正常運行的問題。

Shroff說:“在自動駕駛應用程序或其他機器人系統(tǒng)學習新任務時,最重要的是不要丟失他們已經(jīng)習得的經(jīng)驗,這么做是為了雙方的安全,在我們深入研究了這些人工神經(jīng)網(wǎng)絡中持續(xù)學習的復雜性后,我們的研究成果開始彌補機器學習方式與人類學習方式之間的差距。
Shroff說,據(jù)研究人員發(fā)現(xiàn),就像人們可能很難回憶起類似場景的對比事實,但卻能輕松地記住本質上不同的情況一樣,當連續(xù)面對不同的任務時,人工神經(jīng)網(wǎng)絡可以更好地記憶信息,而不是共享相似特征的任務。
該團隊包括俄亥俄州立大學博士后研究員林森和朱培忠,以及梁英斌和Shroff教授,將于本月在夏威夷火奴魯魯舉行的第40屆國際機器學習年會上介紹他們的研究,這是一次機器學習的旗艦會議。
雖然教會自主系統(tǒng)展示這種動態(tài)、終身學習的能力是十分具有挑戰(zhàn)性的一件事,但擁有這種能力將使科學家能夠以更快的速度來擴展機器學習算法,并輕松調整它們,以應對不斷變化的環(huán)境和意外情況。從本質上講,這些系統(tǒng)的目標是讓它們有朝一日能夠模仿人類的學習和運用知識的能力。
傳統(tǒng)的機器學習算法是一次性在數(shù)據(jù)進行訓練的,但該團隊的研究結果表明,任務相似性、負相關性和正相關性,甚至是算法學習任務的順序等因素,對人工網(wǎng)絡保留某些知識的時間長短都有影響。
例如,為了優(yōu)化算法的記憶,Shroff說,不同的任務應該在持續(xù)學習過程的早期進行教授。這種方法擴展了神經(jīng)網(wǎng)絡接收新信息的能力,并提高了后續(xù)繼續(xù)學習更多類似任務的能力。???
Shroff說,他們的工作尤為重要,因為了解機器和人腦之間的相似性可以為更深入地理解人工智能鋪平道路。
他說,“我們的工作預示著一個智能機器的新時代,他們可以像人類一樣學習和適應?!?/p>
這項研究得到了美國國家科學基金會和陸軍研究辦公室的支持。
初稿 | Tina
終稿 |?居居手
排版 | 居居手
更多精彩內容請關注公眾號:BFT機器人
本文為原創(chuàng)文章,版權歸BFT機器人所有,如需轉載請與我們聯(lián)系。若您對該文章內容有任何疑問,請與我們聯(lián)系,將及時回應。