AI算力需求平均每2個月翻一倍? & 《腦啟發(fā)計算——我們需要一個總體規(guī)劃》譯文

微信公眾號【樂生活與愛IT Plus】編者按
一、英文原文網(wǎng)址:
Brain-inspired computing needs a master plan | Nature
https://www.nature.com/articles/s41586-021-04362-w
本文2022年4月13日發(fā)表于"Nature Electronics"?雜志,該雜志是?Springer Nature?公司出版的同行評議期刊,專注于電子工程領域的研究。
二、AI算力需求平均每2個月翻一倍
受楊老師、黃老師啟發(fā),近日發(fā)現(xiàn)了一個令人驚訝的數(shù)據(jù):2018年開始,AI算力需求增長進一步加速,平均每2個月就需要翻一倍!這意味著,5年(也即30個月),AI算力需求將達到10億倍!不知道AI資深從業(yè)者如何看待這個數(shù)據(jù)?
這個增速,比OpenAI網(wǎng)站在2018年的數(shù)據(jù)要高出很多!2018年,OpenAI官網(wǎng)發(fā)布數(shù)據(jù),6年(從2012年到2018年)AI算力增長30萬倍。對應的圖如下:

三、一些總結
數(shù)據(jù):
1.?人工智能系統(tǒng)的算力需求快速增長,2012年到2018年呈指數(shù)增長,每3.5個月翻一倍;2018年后進一步加速,每2個月翻一倍。
2.?訓練復雜機器學習模型的成本也在快速增長,2011年至今增長了近30萬倍。
3.?與大腦相比,數(shù)字系統(tǒng)模擬相近規(guī)模的神經(jīng)網(wǎng)絡能耗差異達近40萬倍。
4.?全球各國政府對數(shù)字人工智能技術的公共研發(fā)投入正在大規(guī)模增加,已達數(shù)十億美元。
5.?相比之下,神經(jīng)形態(tài)計算研發(fā)投入嚴重不足。
觀點:
6.?現(xiàn)有計算方法難以滿足未來AI系統(tǒng)的算力需求,我們需要新的計算方法。
7.?腦啟發(fā)計算和神經(jīng)形態(tài)計算有極大前景,可以在效率、處理非結構化數(shù)據(jù)等方面獲得突破。
8.?必須增加對神經(jīng)形態(tài)計算研發(fā)的投入,通過建立研究中心、培訓人才等方式產(chǎn)生聚變效應。
9.?腦啟發(fā)計算、量子計算和神經(jīng)形態(tài)計算將協(xié)同推進未來計算技術發(fā)展。
10. COVID-19疫情加速了對更低碳計算技術的需求,神經(jīng)形態(tài)計算可以發(fā)揮關鍵作用。
四、腦啟發(fā)計算和神經(jīng)形態(tài)計算的關系
腦啟發(fā)計算(Brain-inspired computing)和神經(jīng)形態(tài)計算(Neuromorphic computing)是兩種不同的計算方法,但它們都受到了大腦的啟發(fā)。
腦啟發(fā)計算是一種計算方法,旨在模仿大腦的信息處理方式和神經(jīng)網(wǎng)絡結構。它通過使用類似于大腦中神經(jīng)元之間相互連接的方式來構建計算系統(tǒng),并采用類似于大腦中信息傳遞和處理的方法。腦啟發(fā)計算通常使用傳統(tǒng)的計算硬件,如中央處理單元(CPU)和圖形處理單元(GPU),但其軟件和算法設計受到神經(jīng)科學的啟發(fā)。它旨在實現(xiàn)大腦類似的信息處理能力和智能行為,但并不一定依賴于大腦的生物物理實現(xiàn)。
神經(jīng)形態(tài)計算是一種更特定的腦啟發(fā)計算方法,它著重于模擬和復制大腦神經(jīng)元和突觸的物理特性和行為。神經(jīng)形態(tài)計算的目標是構建神經(jīng)形態(tài)系統(tǒng),這些系統(tǒng)的硬件和軟件設計都受到大腦生物學的啟發(fā)。它使用特殊的硬件設備,如記憶電阻器(memristor),以模擬神經(jīng)元和突觸之間的連接和信息傳遞。神經(jīng)形態(tài)計算試圖在計算系統(tǒng)中實現(xiàn)大腦類似的并行性、低功耗和高效能的特性。
總的來說,腦啟發(fā)計算是一個更廣泛的概念,涵蓋了各種以大腦為啟發(fā)的計算方法,而神經(jīng)形態(tài)計算是在腦啟發(fā)計算范疇內的一種特定方法,旨在模擬和復制大腦神經(jīng)元和突觸的物理特性和行為。
下面開始呈現(xiàn)Brain-inspired computing needs a master plan的全部中文翻譯。感謝Google翻譯、Claude.ai、GPT-4?& ChatGPT等。
摘要
受大腦啟發(fā)的新型計算技術承諾以極高的能源效率處理信息,以及具備處理我們正以不斷增加的速度,產(chǎn)生的大量非結構化和雜亂數(shù)據(jù)的能力。要實現(xiàn)這一承諾,需要一個勇敢和協(xié)調的計劃,將不同的研究社區(qū)聚集在一起,并為他們提供所需的資金、重點和支持。我們過去曾通過數(shù)字技術做到這一點;我們正在利用量子技術來做到這一點;我們現(xiàn)在也能否使腦啟發(fā)計算實現(xiàn)這一點?
主要
現(xiàn)代計算系統(tǒng)消耗了太多的能量。它們不是復雜的AI應用程序的可持續(xù)平臺,這些應用程序越來越成為我們生活的一部分。我們通??床坏竭@一點,尤其是在基于云的系統(tǒng)的情況下,因為我們專注于功能——它們有多快;準確性如何;每秒有多少個并行操作?我們習慣于近乎即時地訪問信息,以至于我們忽略了計算系統(tǒng)為我們提供這種訪問權限的能源以及環(huán)境后果。然而,每次谷歌搜索都要耗費能量:數(shù)據(jù)中心目前每年使用約200太瓦時(terawatt hours,10^12?瓦特小時,也即兆瓦特小時)的能源,預計到2030年將增長約一個數(shù)量級。1.
同樣,具有驚人成就的DeepMind的AlphaGo和AlphaZero等高端AI系統(tǒng),可以在復雜的策略游戲中擊敗人類專家,需要數(shù)千個并行處理單元,每個單元消耗約200瓦。2).
雖然并非所有的數(shù)據(jù)密集型計算都需要人工智能或深度學習,但深度學習的部署如此廣泛,以至于我們必須擔心其環(huán)境成本。我們還應該考慮包括物聯(lián)網(wǎng)(IoT)和自主機器人代理在內的應用,這些應用可能不需要總是由計算密集型深度學習算法操作,但仍必須降低其能耗。如果無數(shù)連接設備的能源需求太高,物聯(lián)網(wǎng)的愿景就無法實現(xiàn)。最近的分析表明,對計算力的需求增長遠遠超過了摩爾定律擴展帶來的改進。3.
現(xiàn)在,計算力需求每兩個月翻一番(圖)。1a).
通過智能架構和軟硬件協(xié)同設計的結合,取得了顯著的改進。例如,自2012年以來,NVIDIA GPU(圖形處理單元)的性能提高了?317?倍:遠遠超出了摩爾定律的預期(圖)。1b)
盡管在同一時期,設備的功耗從大約?25 W?增加到大約?320 W。在研發(fā)階段已經(jīng)證明了進一步令人印象深刻的性能改進(圖)。1b,紅色),我們很可能可以實現(xiàn)更多4,5.
不幸的是,僅靠傳統(tǒng)的計算解決方案不太可能在長期應對需求。當我們考慮到最復雜的深度學習模型所需的訓練成本高得驚人時,這一點尤其明顯(圖)。1c).
我們需要替代方法。
從根本上講,能源問題是數(shù)字計算系統(tǒng)將數(shù)據(jù)分開存儲和處理的結果。這是支撐數(shù)字計算系統(tǒng)的經(jīng)典馮諾依曼架構。處理器花費大部分時間和精力來移動數(shù)據(jù)。幸運的是,我們可以通過從生物學中汲取靈感來改善這種情況,生物學采用了完全不同的方法——共置記憶和處理,以完全不同的方式編碼信息或直接對信號進行操作,并采用大規(guī)模并行性,例如(框1)。
有一個系統(tǒng)可以很好地實現(xiàn)能源效率和高級功能:大腦。我們認識到我們仍有許多關于大腦運作方式需要學習的地方,并且我們的目標并不僅僅是模仿生物系統(tǒng),然而,在過去幾十年的神經(jīng)科學和計算神經(jīng)科學取得的顯著進展中,我們仍然可以從中汲取教訓。我們已經(jīng)對大腦有足夠的了解,足以將其作為靈感,推動技術的改進。
專欄1?我們所說的“神經(jīng)形態(tài)”系統(tǒng)是什么意思?
從大腦中獲取靈感使我們能夠以與現(xiàn)有傳統(tǒng)計算系統(tǒng)的工作方式根本不同的方式來處理信息處理。不同的大腦啟發(fā)(“神經(jīng)形態(tài)”)平臺使用不同方法的組合:模擬數(shù)據(jù)處理,異步通信,大規(guī)模并行信息處理或基于尖峰的信息表示。這些特性將它們與馮·諾依曼計算機區(qū)分開來。
術語神經(jīng)形態(tài)至少包括三個廣泛的研究人員群體,區(qū)別在于他們的目標是模擬神經(jīng)功能(對大腦進行逆向工程),模擬神經(jīng)網(wǎng)絡(開發(fā)新的計算方法)還是設計新類別的電子設備。
“神經(jīng)形態(tài)工程”著眼于大腦如何使用生物突觸和神經(jīng)元的物理學來“計算”。神經(jīng)形態(tài)工程師通過利用模擬電子學的物理特性(例如載波隧穿、硅浮柵上的電荷保留以及各種設備或材料屬性在現(xiàn)場的指數(shù)依賴性)來模擬生物神經(jīng)元和突觸的功能,以定義基本操作以支撐音頻或視頻處理或智能傳感器。晶體管用作具有豐富動態(tài)行為的模擬電路元件,而不是二進制開關。更多細節(jié)可以在參考中找到。41及相關工作。
“神經(jīng)形態(tài)計算”希望生物學激發(fā)處理數(shù)據(jù)的新方法。這可以被認為是神經(jīng)形態(tài)系統(tǒng)的計算科學。研究旨在模擬生物神經(jīng)網(wǎng)絡的結構和/或操作,這可能意味著像大腦一樣將存儲和計算放在一起;或者采用完全不同的計算方法,基于電壓尖峰來模擬生物系統(tǒng)的動作電位。
支撐一切的是實現(xiàn)仿生功能所需的設備和材料。在這里,最近的發(fā)展有望出現(xiàn)新的電子和光子器件,我們可以定制其特性以模仿突觸和神經(jīng)元等生物元素。這些“神經(jīng)形態(tài)設備”可以提供令人興奮的新技術,以擴展神經(jīng)形態(tài)工程和計算的能力。
在這些新設備中,最重要的是記憶電阻器(memristor):它們是雙端電子設備,其電阻與它們的歷史有關。它們對電刺激的復雜動態(tài)響應意味著它們可以用作數(shù)字存儲元件,在人工突觸中用作可變權重,作為認知處理元件、光學傳感器以及模仿生物神經(jīng)元的裝置。它們可能具備生物樹突的某些功能,并且它們的動態(tài)響應可以產(chǎn)生類似于大腦的振蕩行為?-?有爭議地,它們在混沌邊緣運行。它們還可以與生物神經(jīng)元在一個單一系統(tǒng)中相互關聯(lián)。最重要的是,它們在消耗非常少的能量的情況下實現(xiàn)了所有這些功能
圖1:計算需求正在迅速增加。

1.(a) Brain-inspired computing needs a master plan, Nature Electronics, Volume 2, pages 284-286 (2019)
圖?1. (a),過去四十年中計算力需求的增加,以PetaFLOPS-days表示。到2012年,計算力需求每24個月翻一番;最近,這已縮短到大約每?2?個月一次。顏色圖例表示不同的應用領域。數(shù)據(jù)來自參考文獻。3.
圖?1. (b),過去五年人工智能硬件效率的提高。最先進的解決方案使計算效率提高了?300?多倍。研發(fā)解決方案有望進一步改進22,23,–24.
圖?1. (c),自2011年以來,訓練AI模型的成本增加。這種指數(shù)級增長顯然是不可持續(xù)的。數(shù)據(jù)來自參考文獻。25.
生物靈感
在生物學中,數(shù)據(jù)存儲與處理并不分離。相同的元素?-?主要是神經(jīng)元和突觸?-?在大規(guī)模平行和適應性強的結構中執(zhí)行這兩種功能。1011神經(jīng)元和?1015典型人腦中包含的突觸消耗大約?20 W?的功率,而大約相同大小的人工神經(jīng)網(wǎng)絡的數(shù)字模擬消耗?7.9 MW(參考文獻)。
6).這個六個數(shù)量級的差距給我們帶來了挑戰(zhàn)。大腦直接處理嘈雜的極端效率信號。這與我們傳統(tǒng)計算機系統(tǒng)中的信號到數(shù)據(jù)轉換和高精度計算形成鮮明對比,即使是最強大的數(shù)字超級計算機也會產(chǎn)生巨大的能源和時間成本。因此,腦啟發(fā)的或神經(jīng)形態(tài)的計算系統(tǒng)可以改變我們處理信號和數(shù)據(jù)的方式,無論是在能源效率方面還是在處理現(xiàn)實世界不確定性的能力方面。
這不是一個新想法。神經(jīng)形態(tài)一詞,描述模仿生物神經(jīng)系統(tǒng)某些功能的設備和系統(tǒng),由加州理工學院的卡弗·米德(Carver Mead)在1980年代后期創(chuàng)造。7,8.
靈感來自過去幾十年的工作,即將神經(jīng)系統(tǒng)建模為等效電路。9以及建立模擬電子設備和系統(tǒng)以提供類似的功能(框注1)。
關于“數(shù)據(jù)”的一句話。我們使用這個術語來描述編碼在模擬信號或傳感器的物理響應中的信息,以及更標準的以計算為中心的數(shù)字數(shù)據(jù)感。當我們提到大腦“處理數(shù)據(jù)”時,我們描述了一組集成的信號處理任務,這些任務不依賴于任何傳統(tǒng)意義上的信號數(shù)字化。我們可以想到在不同層面上運行的受大腦啟發(fā)的系統(tǒng):從模擬信號處理到處理大型數(shù)字數(shù)據(jù)集。在前一種情況下,我們可以首先避免生成大型數(shù)據(jù)集;在后者中,我們可以通過擺脫馮諾依曼模型來大大提高處理效率。當然,我們?yōu)樵S多應用以數(shù)字方式表示數(shù)據(jù)是有充分理由的:我們需要高精度、可靠性和確定性。然而,數(shù)字化抽象丟棄了晶體管物理學中的大量信息,以獲得最小的信息量子:一個比特。我們通過犧牲效率來換取可靠性,從而付出了可觀的能源成本。AI應用程序本質上通常是概率性的,因此我們必須考慮這種權衡是否有意義。當由傳統(tǒng)的馮諾依曼計算機執(zhí)行時,支撐AI應用程序的計算任務是非常計算密集型的(因此需要耗能)。但是,在使用基于峰值的信息表示的模擬或混合系統(tǒng)上,我們可能會更節(jié)能地執(zhí)行類似的任務。因此,最近對神經(jīng)形態(tài)計算的興趣重新抬頭,這是由于人工智能系統(tǒng)的增長和新設備的出現(xiàn),這些設備提供了新的和令人興奮的方法來模仿生物神經(jīng)系統(tǒng)的一些功能(框1)。
“神經(jīng)形態(tài)”的定義差異很大。粗略地說,這個故事是一個硬件問題:神經(jīng)形態(tài)芯片旨在集成和利用大腦的各種有用功能,包括內存計算、基于尖峰的信息處理、細粒度并行性、抗噪聲和隨機性的信號處理、適應性、硬件學習、異步通信和模擬處理。盡管需要實現(xiàn)多少這些方法才能被歸類為神經(jīng)形態(tài),但顯然這與在主流計算系統(tǒng)上實現(xiàn)的AI不同。然而,我們不應迷失在術語中;主要問題是這種方法是否有用。
神經(jīng)形態(tài)技術的方法介于逆向工程大腦的結構和功能(分析)和生活在我們目前缺乏大腦知識但從我們所知道的(綜合)中汲取靈感之間。也許前一種方法中最重要的是人腦項目,這是一個備受矚目且雄心勃勃的十年計劃,由歐盟從2013年開始資助。該計劃支持采用和進一步發(fā)展兩個現(xiàn)有的神經(jīng)形態(tài)硬件平臺?- SpiNNaker(曼徹斯特大學)和BrainScaleS(海德堡大學)?-?作為可公開訪問的神經(jīng)形態(tài)平臺。這兩個系統(tǒng)都實現(xiàn)了高度復雜的大腦結構硅模型,以更好地了解生物大腦的運作。在光譜的另一端,許多團體使用選定的生物啟發(fā)方法增強數(shù)字或模擬電子產(chǎn)品的性能。圖2總結了現(xiàn)有神經(jīng)形態(tài)芯片的范圍,根據(jù)其在分析合成頻譜上的位置及其技術平臺分為四類。重要的是要記住,神經(jīng)形態(tài)工程不僅僅是關于高級認知系統(tǒng),而且還在認知能力有限的小型邊緣設備中提供能量、速度和安全性增益(至少通過消除與云持續(xù)通信的需要)。
圖2:神經(jīng)形態(tài)系統(tǒng)的景觀。
神經(jīng)形態(tài)芯片可以歸類為模擬生物系統(tǒng)或將受腦啟發(fā)的原理應用于新的計算應用。它們可以進一步細分為基于具有新穎架構的數(shù)字CMOS的設備(例如,脈沖可以在數(shù)字領域模擬,而不是作為模擬電壓實現(xiàn)),以及使用一定程度的模擬電路實現(xiàn)的設備。然而,在所有情況下,它們至少具有右側列出的一些特性,這些特性將它們與傳統(tǒng)的CMOS芯片區(qū)分開來。在這里,我們對最近開發(fā)的神經(jīng)形態(tài)芯片的例子進行了分類。每個的更多詳細信息可以在相關參考中找到:Neurogrid13, BrainSclaseS14, MNIFAT15, DYNAP16, DYNAP-SEL17, ROLLS18, Spirit19,ReASOn20, DeepSouth21, SpiNNaker22, IBM TrueNorth23, Intel Loihi24, Tianjic25, ODIN26,和?Intel SNN chip27.
Fig. 2: The landscape of neuromorphic systems. | Nature
前景
我們不認為神經(jīng)形態(tài)系統(tǒng)將或應該取代傳統(tǒng)的計算平臺。相反,精確計算應該仍然是數(shù)字計算的專利,而神經(jīng)形態(tài)系統(tǒng)可以處理非結構化數(shù)據(jù),執(zhí)行圖像識別,對雜亂和不確定的數(shù)據(jù)集進行分類,并支持新的學習和推理系統(tǒng)。在自主和物聯(lián)網(wǎng)連接的系統(tǒng)中,與傳統(tǒng)同類產(chǎn)品相比,它們可以提供巨大的節(jié)能效果。量子計算也是這一愿景的一部分;一臺實用的量子計算機,雖然估計還需要幾年的時間,但肯定會徹底改變許多計算任務。然而,物聯(lián)網(wǎng)連接的智能傳感器、邊緣計算設備或自主機器人系統(tǒng)不太可能在不依賴云計算的情況下采用量子計算。仍然需要能夠處理不確定和雜亂數(shù)據(jù)的低功耗計算元件。我們可以想象數(shù)字、神經(jīng)形態(tài)和量子系統(tǒng)之間的三向協(xié)同作用。
正如半導體微電子學的發(fā)展依賴于許多不同的學科,包括固態(tài)物理學、電子工程、計算機科學和材料科學,神經(jīng)形態(tài)計算是深刻的跨學科和跨學科的。物理學家、化學家、工程師、計算機科學家、生物學家和神經(jīng)科學家都扮演著關鍵角色。簡單地讓來自不同學科的研究人員說一種共同語言是具有挑戰(zhàn)性的。在我們自己的工作中,我們花費了大量的時間和精力,確保房間里的每個人都以相同的方式理解術語和概念。連接計算機科學(特別是人工智能)和神經(jīng)科學(最初是計算神經(jīng)科學)社區(qū)的案例是明確的。畢竟,在當今最先進的人工智能系統(tǒng)中發(fā)現(xiàn)的許多概念都是在?1970?年代和?80?年代在神經(jīng)科學中出現(xiàn)的,當然,人工智能系統(tǒng)不一定是完全生物現(xiàn)實的。我們必須包括其他學科,認識到我們在人工智能或神經(jīng)科學方面取得的許多進步是由不同的社區(qū)實現(xiàn)的,例如材料科學、納米技術或電子工程方面的創(chuàng)新。此外,傳統(tǒng)的CMOS(互補金屬氧化物半導體)技術可能不是有效實施新的大腦啟發(fā)算法的最佳結構;需要全面創(chuàng)新。盡早讓這些社區(qū)參與可以降低將精力浪費在已經(jīng)探索和失敗的方向上或重新發(fā)明輪子的風險。
此外,我們不應忽視在系統(tǒng)層面整合新的神經(jīng)形態(tài)技術的挑戰(zhàn)。除了開發(fā)受大腦啟發(fā)的設備和算法之外,還有緊迫的問題圍繞著如何用功能等效的神經(jīng)形態(tài)替代品取代現(xiàn)有的主流人工智能系統(tǒng)。這進一步強調了對大腦啟發(fā)計算的完全集成方法的需求。
神經(jīng)形態(tài)計算具有改變我們對人工智能的方法的潛力。由于新設備和技術與對高效人工智能系統(tǒng)的巨大和不斷增長的需求相結合,我們有一個及時的機會。需要大膽的思考,以及支持這種思考的大膽舉措。我們會抓住這個機會嗎?
抓住機遇
如果需要神經(jīng)形態(tài)計算,如何實現(xiàn)?一是技術要求。將不同的研究社區(qū)聚集在一起是必要的,但還不夠。需要激勵措施、機會和基礎設施。神經(jīng)形態(tài)社區(qū)是一個完全不同的社區(qū),缺乏量子計算的重點,或半導體行業(yè)的清晰路線圖。全球各地的倡議開始收集所需的專業(yè)知識,早期勢頭正在建立。為了促進這一點,資金是關鍵。對神經(jīng)形態(tài)研究的投資遠不及數(shù)字人工智能或量子技術的規(guī)模(框注2)。
盡管考慮到數(shù)字半導體技術的成熟,這并不奇怪,但這是一個錯失的機會。有一些對神經(jīng)形態(tài)研究和開發(fā)進行中等規(guī)模投資的例子,例如IBM AI硬件中心的一系列大腦啟發(fā)項目(包括TrueNorth芯片),英特爾開發(fā)的Loihi處理器和美國大腦計劃項目,但承諾的金額遠低于他們應該得到的技術承諾來破壞數(shù)字AI。
神經(jīng)形態(tài)群落是一個龐大且不斷增長的群落,但缺乏重點。盡管這一領域出現(xiàn)了許多會議、專題討論會和期刊,但仍有許多工作要做,才能將不同的社區(qū)聚集在一起,并集中努力說服資助機構和政府相信這一領域的重要性。
采取大膽舉措的時機已經(jīng)成熟。在國家層面,政府需要與學術研究人員和行業(yè)合作,建立以任務為導向的研究中心,以加速神經(jīng)形態(tài)技術的發(fā)展。這在量子技術和納米技術等領域運作良好——美國國家納米技術計劃很好地證明了這一點。10,并提供焦點和刺激。這些中心可以是實體的,也可以是虛擬的,但必須匯集不同領域的最佳研究人員。他們的方法必須不同于傳統(tǒng)的電子技術,在傳統(tǒng)電子技術中,每個抽象層次(材料、設備、電路、系統(tǒng)、算法和應用)都屬于不同的社區(qū)。我們需要在整個堆棧中進行整體和并行設計。電路設計人員在設計系統(tǒng)之前咨詢計算神經(jīng)科學家是不夠的;工程師和神經(jīng)科學家必須在整個過程中共同努力,以確保將生物啟發(fā)的原理盡可能完全集成到硬件中。跨學科的共同創(chuàng)造必須是我們方法的核心。研究中心必須容納廣泛的研究人員。
除了所需的有形和金融基礎設施外,我們還需要一支訓練有素的勞動力隊伍。電子工程師很少接觸神經(jīng)科學的想法,反之亦然。電路設計師和物理學家可能對神經(jīng)元和突觸有一定的了解,但不太可能熟悉尖端的計算神經(jīng)科學。有充分的理由設立碩士課程和博士培訓計劃來培養(yǎng)神經(jīng)形態(tài)工程師。英國研究委員會贊助博士培訓中心(CDTs),這些中心是重點計劃,支持已確定需要訓練有素的研究人員的領域。CDT?可以是單機構或多機構;通過建立跨機構邊界的互補團隊,在這些項目上進行合作的機構將獲得實質性的好處。這些項目通常與工業(yè)界密切合作,并以更傳統(tǒng)的博士課程通常不會的方式建立高技能研究人員群體。有一個很好的案例可以開發(fā)類似的東西,刺激新生的神經(jīng)形態(tài)工程社區(qū)之間的互動,并提供下一代研究人員和研究領導者。開創(chuàng)性的例子包括格羅寧根認知系統(tǒng)和材料研究計劃,該計劃旨在培訓數(shù)十名博士生,專門研究認知(AI)系統(tǒng)的材料11,慕尼黑工業(yè)大學神經(jīng)工程碩士課程12;蘇黎世聯(lián)邦理工學院神經(jīng)形態(tài)工程模擬電路設計課程13;斯坦福大學大規(guī)模神經(jīng)建模14;以及塞維利亞微電研究所視覺神經(jīng)形態(tài)系統(tǒng)的發(fā)展15.還有做更多工作的余地。
類似的辦法可以在跨國一級奏效。與往常一樣,在研究中,合作最成功的時候是最好的,與最好的人合作,不分國界。在神經(jīng)形態(tài)計算這樣的跨學科工作中,這是至關重要的,因此國際研究網(wǎng)絡和項目無疑可以發(fā)揮作用。早期的例子包括歐洲神經(jīng)技術聯(lián)盟16,專注于神經(jīng)形態(tài)計算技術,以及德累斯頓大學(University of Dresden)的蔡憶阻器中心(Chua Memristor Centre)17,匯集了材料、器件和算法領域的許多領先憶阻器研究人員。同樣,可以而且必須做更多的工作。
如何使這能吸引政府?政府對更節(jié)能的生物啟發(fā)計算的承諾可以成為更廣泛的大規(guī)模脫碳推動的一部分。這不僅將應對氣候變化,還將加速圍繞大數(shù)據(jù)、物聯(lián)網(wǎng)、醫(yī)療保健分析、藥物和疫苗發(fā)現(xiàn)建模以及機器人等新的低碳產(chǎn)業(yè)的出現(xiàn)。如果現(xiàn)有行業(yè)依賴于更大規(guī)模的傳統(tǒng)數(shù)字數(shù)據(jù)分析,它們會增加能源成本,同時提供次優(yōu)性能。相反,我們可以創(chuàng)造一個良性循環(huán),在這個循環(huán)中,我們大大減少了知識技術的碳足跡,這些知識技術將推動下一代顛覆性產(chǎn)業(yè)的發(fā)展,并在此過程中播種出許多新的神經(jīng)形態(tài)產(chǎn)業(yè)。
如果這聽起來很高,請考慮量子技術。在英國,政府迄今已承諾為一系列量子計劃投入約1億英鎊,主要是在國家量子技術計劃的保護傘下。一系列研究中心匯集了工業(yè)界和學術界,將量子科學轉化為針對傳感器和計量、成像、通信和計算的技術。一個單獨的國家量子計算中心建立在中心和其他研究人員的工作之上,提供演示硬件和軟件來開發(fā)通用量子計算機。中國建立了價值數(shù)十億美元的中國量子信息科學國家實驗室,美國于2018年委托了《量子信息科學國家戰(zhàn)略綱要》。18,除了支持一系列國家量子研究中心外,還獲得了為期五年的1億美元投資19.由于這項研究工作,全球都在熱潮中創(chuàng)辦量子技術公司。一項分析發(fā)現(xiàn),2017年和2018年對私營企業(yè)的資金達到4.5億美元。20.盡管神經(jīng)形態(tài)計算比量子技術更成熟,盡管它有可能在更短的時間內破壞現(xiàn)有的人工智能技術,但對神經(jīng)形態(tài)計算沒有這樣的聯(lián)合支持。在我們愿景中未來計算的三個方面中,神經(jīng)形態(tài)的投資嚴重不足。
最后,談談?COVID-19?大流行可能對我們的論點產(chǎn)生的影響。越來越多的人一致認為,這場危機加速了許多已經(jīng)在進行中的事態(tài)發(fā)展:例如,轉向更多的在家工作。盡管減少通勤和旅行有直接的好處,但據(jù)估計,全球一氧化碳的減少2由于危機,高達17%?21—新的工作方式是有代價的。減少差旅帶來的碳節(jié)省將在多大程度上被數(shù)據(jù)中心排放量的增加所抵消?如果有的話,COVID大流行進一步強調了開發(fā)神經(jīng)形態(tài)系統(tǒng)等低碳計算技術的必要性。
我們關于如何實現(xiàn)神經(jīng)形態(tài)系統(tǒng)潛力的信息很明確:通過建立卓越研究中心為合作研究提供有針對性的支持;提供靈活的融資機制,以實現(xiàn)快速進展;提供與工業(yè)界密切合作的機制,以引入商業(yè)資金并產(chǎn)生新的衍生公司和初創(chuàng)企業(yè),類似于量子技術已經(jīng)到位的計劃;為下一代神經(jīng)形態(tài)研究人員和企業(yè)家制定培訓計劃;并快速、大規(guī)模地完成所有這些工作。
神經(jīng)形態(tài)計算有可能改變我們的人工智能方法。由于新技術的結合和對高效人工智能的巨大、不斷增長的需求,我們有一個及時的機會。需要大膽的思考,并采取大膽的舉措來支持這種思維。我們會抓住機會嗎?
參考
1.Jones,?N. How to stop data centres from gobbling up the world’s electricity.?Nature?https://doi.org/10.1038/d41586-018-06610-y?(12 September 2018).
2.Wu,?K. J. Google’s new AI is a master of games,?but how does it compare to the human mind??Smithsonian?https://www.smithsonianmag.com/innovation/google-ai-deepminds-alphazero-games-chess-and-go-180970981/?(10 December 2018).
3.Amodei,?D. & Hernandez,?D. AI and compute.?OpenAI Blog?https://openai.com/blog/ai-and-compute/?(16 May 2018).
4.Venkatesan,?R. et al. in?2019 IEEE Hot Chips 31 Symp.?(HCS)?https://doi.org/10.1109/HOTCHIPS.2019.8875657?(IEEE,?2019).
5.Venkatesan,?R. et al. in?2019 IEEE/ACM Intl Conf. Computer-Aided Design (ICCAD)?https://doi.org/10.1109/ICCAD45719.2019.8942127?(IEEE,?2019).
6.Wong,?T. M. et al.?1014. Report no. RJ10502 (ALM1211-004) (IBM,?2012).?The power consumption of this simulation of the brain puts that of conventional digital systems into context.
7.Mead,?C.?Analog VLSI and Neural Systems?(Addison-Wesley,?1989).
8.Mead,?C. A. Author Correction:?How we created neuromorphic engineering.?Nat. Electron.?3,?579–579 (2020).
9.Hodgkin,?A. L. & Huxley,?A. F. A quantitative description of membrane current and its application to conduction and excitation in nerve.?J. Physiol.?117,?500–544 (1952).?More complex models followed,?but this seminal work remains the clearest and an excellent starting point,developing equivalent electrical circuits and circuit models for the neural membrane.
10.?National Nanotechnology Initiative.?US National Nanotechnology Initiative?https://www.nano.gov?(National Nanotechnology Coordination Office,?accessed 18 August 2021).
11.?About Groningen Cognitive Systems and Materials.?University of Groningen?https://www.rug.nl/research/fse/cognitive-systems-and-materials/about/?(accessed 9 November 2020).
12.?Degree programs:Neuroengineering.?Technical University of Munich?https://www.tum.de/en/studies/degree-programs/detail/detail/StudyCourse/neuroengineering-master-of-science-msc/?(accessed 18 August 2021).
13.?Course catalogue:?227-1033-00L Neuromorphic Engineering I.?ETH Zürich?http://www.vvz.ethz.ch/Vorlesungsverzeichnis/lerneinheit.view?lerneinheitId=132789&semkez=2019W&ansicht=KATALOGDATEN&lang=en?(accessed 9 November 2020).
14.?Brains in Silicon.?http://web.stanford.edu/group/brainsinsilicon/?(accessed 16 March 2022).
15.?Neuromorphs.?Instituto de Microelectrónica de Sevilla?http://www2.imse-cnm.csic.es/neuromorphs?(accessed 9 November 2020).
16.?Chua Memristor Center:Members.?Technische Universit?t Dresden?https://cmc-dresden.org/members?(accessed 9 November 2020).
17.?Subcommittee on Quantum Information Science. National Strategic Overview for Quantum Information Science.?https://web.archive.org/web/20201109201659/https://www.whitehouse.gov/wp-content/uploads/2018/09/National-Strategic-Overview-for-Quantum-Information-Science.pdf?(US Government,2018;?accessed 17 March 2022).
18.?Smith-Goodson,?P. Quantum USA vs. quantum China:?the world’s most important technology race.?Forbes?https://www.forbes.com/sites/moorinsights/2019/10/10/quantum-usa-vs-quantum-china-the-worlds-most-important-technology-race/#371aad5172de?(10 October 2019).
19.?Gibney,?E. Quantum gold rush:?the private funding pouring into quantum start-ups.?Nature?https://doi.org/10.1038/d41586-019-02935-4?(2 October 2019).
20.?Le Quéré,?C. et al. Temporary reduction in daily global CO2?emissions during the COVID-19 forced confinement.?Nat. Clim. Change?10,?647–653 (2020).
21.?Gokmen,?T. & ?Vlasov,?Y. Acceleration of deep neural network training with resistive cross-point devices:design considerations.?Front. Neurosci.?1010.3389/fnins.2016.00333 (2016).
22.?Marinella,?M. J. et al. Multiscale co-design analysis of energy latency area and accuracy of a ReRAM analog neural training accelerator.?IEEE J. Emerg. Selected Topics Circuits Systems?8,86–101 (2018).
23.?Chang,?H.-Y. et al. AI hardware acceleration with analog memory:microarchitectures for low energy at high speed.?IBM J. Res. Dev.?63,?8:1–8:14 (2019).
24.?ARK Invest.?Big Ideas?2021?https://research.ark-invest.com/hubfs/1_Download_Files_ARK-Invest/White_Papers/ARK–Invest_BigIdeas_2021.pdf?(ARK Investment Management,2021;?accessed 27 April 2021).
25.?Benjamin,?B. V. et al. Neurogrid:?a mixed-analog–digital multichip system for large-scale neural simulations.?Proc. IEEE?102,?699–716 (2014).
26.?Schmitt,?S. et al. Neuromorphic hardware in the loop:training a deep spiking network on the BrainScaleS wafer-scale system. In?2017 Intl Joint Conf. Neural Networks (IJCNN)?https://doi.org/10.1109/ijcnn.2017.7966125?(IEEE,?2017).
27.?Lichtsteiner,?P.,?Posch,?C. & Delbruck,?T. A 128?×?128 120?dB 15?μs latency asynchronous temporal contrast vision sensor.?IEEE J. Solid-State Circuits?43,?566–576 (2008).
28.?Moradi,?S.,?Qiao,?N.,?Stefanini,?F. & Indiveri,?G. A scalable multicore architecture with heterogeneous memory structures for dynamic neuromorphic asynchronous processors (DYNAPs).?IEEE Trans. Biomed. Circuits Syst.?12,106–122 (2018).
29.?Thakur,?C. S. et al. Large-scale neuromorphic spiking array processors:?a quest to mimic the brain.?Front. Neurosci.?12,?891 (2018).
30.?Qiao,?N. et al. A reconfigurable on-line learning spiking neuromorphic processor comprising 256 neurons and 128K synapses.?Front. Neurosci.?9,?141 (2015).
31.?Valentian,?A. et al. in?2019 IEEE Intl Electron Devices Meeting (IEDM)?14.3.1–14.3.4?https://doi.org/10.1109/IEDM19573.2019.8993431?(IEEE,?2019).
32.?Resistive Array of Synapses with ONline Learning (ReASOn) Developed by NeuRAM3 Project?https://cordis.europa.eu/project/id/687299/reporting?(2021).
33.?Wang,?R. et al. Neuromorphic hardware architecture using the neural engineering framework for pattern recognition.?IEEE Trans. Biomed. Circuits Syst.?11,?574–584 (2017).
34.?Furber,?S. B.,?Galluppi,?F.,?Temple,?S. & Plana,?L. A. The SpiNNaker Project.?Proc. IEEE?102,?652–665 (2014).?An example of a large-scale neuromorphic system as a model for the brain.
35.?Merolla,?P. A. et al. A million spiking-neuron integrated circuit with a scalable communication network and interface.?Science?345,?668–673 (2014).
36.?Davies,?M. et al. Loihi:?a neuromorphic manycore processor with on-chip learning.?IEEE Micro?38,?82–99 (2018).
37.?Pei,?J. et al. Towards artificial general intelligence with hybrid Tianjic chip architecture.?Nature?572,?106–111 (2019).
38.?Frenkel,?C.,?Lefebvre,?M.,?Legat,?J.-D. & Bol,?D. A 0.086-mm2?12.7-pJ/SOP 64k-synapse 256-neuron online-learning digital spiking neuromorphic processor in 28-nm CMOS.?IEEE Trans. Biomed. Circuits Syst.?13,145–158 (2018).
39.?Chen,?G. K.,?Kumar,?R.,?Sumbul,?H. E.,?Knag,?P. C. & Krishnamurthy,?R. K. A 4096-neuron 1M-synapse 3.8-pJ/SOP spiking neural network with on-chip STDP learning and sparse weights in 10-nm FinFET CMOS.?IEEE J. Solid-State Circuits?54,?992–1002 (2019).
40.?Indiveri,?G. et al. Neuromorphic silicon neuron circuits.?Front. Neurosci.?5,?73 (2011).
41.?Mehonic,?A. et al. Memristors—from in‐memory computing,deep learning acceleration,?and spiking neural networks to the future of neuromorphic and bio‐inspired computing.?Adv. Intell Syst.?2,?2000085 (2020).?A review of the promise of memristors across a range of applications,including spike-based neuromorphic systems.
42.?Li,?X. et al. Power-efficient neural network with artificial dendrites.?Nat. Nanotechnol.?15,?776–782 (2020).
43.?Chua,?L. Memristor,?Hodgkin–Huxley,?and edge of chaos.?Nanotechnology?24,383001 (2013).
44.?Kumar,?S.,?Strachan,?J. P. & Williams,?R. S. Chaotic dynamics in nanoscale NbO2?Mott memristors for analogue computing.?Nature?548,?318–321 (2017).
45.?Serb,?A. et al. Memristive synapses connect brain and silicon spiking neurons.?Sci Rep.?10,?2590 (2020).
46.?Rosemain,?M. & Rose,?M. France to spend $1.8 billion on AI to compete with U.S.,?China.?Reuters?https://www.reuters.com/article/us-france-tech-idUSKBN1H51XP?(29 March 2018).
47.?Castellanos,?S. Executives say $1 billion for AI research isn’t enough.?Wall Street J.?https://www.wsj.com/articles/executives-say-1-billion-for-ai-research-isnt-enough-11568153863?(10 September 2019).
48.?Larson,?C. China’s AI imperative.?Science?359,628–630 (2018).
49.?European Commission. A European approach to artificial intelligence.?https://ec.europa.eu/digital-single-market/en/artificial-intelligence?(accessed 9 November 2020).
50.?Artificial intelligence (AI) funding investment in the United States from 2011 to 2019.?Statista?https://www.statista.com/statistics/672712/ai-funding-united-states?(accessed 9 November 2020).
51.?Worldwide artificial intelligence spending guide.?IDC Trackers?https://www.idc.com/getdoc.jsp?containerId=IDC_P33198?(accessed 9 November 2020).
52.?Markets and Markets.com.?Neuromorphic Computing Market?https://www.marketsandmarkets.com/Market-Reports/neuromorphic-chip-market-227703024.html?gclid=CjwKCAjwlcaRBhBYEiwAK341jS3mzHf9nSlOEcj3MxSj27HVewqXDR2v4TlsZYaH1RWC4qdM0fKdlxoC3NYQAvD_BwE. (accessed 17 March 2022).
AI算力需求平均每2個月翻一倍? & 《腦啟發(fā)計算——我們需要一個總體規(guī)劃》譯文的評論 (共 條)
