中國下一代AI開源框架:國際、創(chuàng)新、實用和
目前國內(nèi)外的AI開源框架領(lǐng)域,以TensorFlow、PyTorch、MindSpore等為代表,正處于一種群雄林立、七國八制的狀態(tài),但也增加了AI應(yīng)用的平臺移植成本,所以 TensorLayer的問世難能可貴,它基于各個主流的開源框架,提供了一個統(tǒng)一的AI算法模型接口,不僅穩(wěn)定了AI應(yīng)用層,也促進了各開源框架的良序競爭。同時令人稱道的是,TensorLayer 也是AI領(lǐng)域為數(shù)不多的、由中國學(xué)者主導(dǎo)研發(fā)并獲得國際認可的開源項目,它還曾經(jīng)獲得了ACM Multimedia 2017年度最佳開源軟件獎。?
鑒于中國AI開源框架實力,整體尚處于一種相對薄弱的狀態(tài),那么對于正蓄勢待發(fā)、投身于AI 開源項目的學(xué)者或從業(yè)者們來說,TensorLayer 有哪些值得學(xué)習(xí)的經(jīng)驗?zāi)兀繛榇?,我們采訪了TensorLayer的項目發(fā)起人董豪以及核心開發(fā)骨干麥絡(luò)。

董豪,北京大學(xué)前沿計算研究中心助理教授,英國帝國理工學(xué)院博士。研究方向是生成模型。?
麥絡(luò),愛丁堡大學(xué)信息學(xué)院助理教授。研究方向是計算機系統(tǒng),機器學(xué)習(xí)和大數(shù)據(jù)。?通過董豪和麥絡(luò)抽絲剝繭般的獨到解析,筆者發(fā)現(xiàn):在AI框架領(lǐng)域,生態(tài)建設(shè)越來越重要,個人靠一套代碼打天下的英雄主義時代已經(jīng)過去,其背后是人工智能潮流正奔著技術(shù)和產(chǎn)業(yè)融合的方向滾滾向前;對于下一代AI開源框架,它的成功將是團隊合作、國際視野、技術(shù)創(chuàng)新、市場落地和持之以恒的綜合結(jié)果。?下面,是董豪和麥絡(luò)在訪談中的精彩觀點。
整理:智源社區(qū) 常政

一、TenorLayer:尋找學(xué)術(shù)界和工業(yè)界AI應(yīng)用的平衡點
?智源社區(qū):TensorLayer曾經(jīng)獲得了ACM Multimedia 2017年度最佳開源軟件獎,截止目前為止已經(jīng)有280k下載量,Star超 6k,相關(guān)官方項目Star超10k,你覺得它獲得成功和公眾關(guān)注的主要原因是什么?你自己如何定位它的意義和價值??
董豪:TensorLayer能走到現(xiàn)在的一個重要原因,是早在2016年我們就開始做了。當(dāng)時TensorFlow并不那么好用,需要靠Keras庫等來給它做一些支撐。但Keras是屬于高度封裝的一個庫,而我們在做量化網(wǎng)絡(luò)的時候需要對底層做一點定制化,所以完全無從下手。所以我們最后通過研發(fā)TensorLayer,做了簡化,讓大家在制定Layer時變得非常簡單。?
我們對自己的定位是面向?qū)W術(shù)界和工業(yè)界,學(xué)術(shù)界講究的是更加透明化的編程方式,工業(yè)界追求簡潔的編程方式,所以這里面需要找到一個平衡點。首先,在學(xué)術(shù)界的一個優(yōu)勢,便是不用象企業(yè)那樣更新一個軟件版本需要制定計劃,今天突然得到一篇論文,可以很快地實現(xiàn)、迭代更新上面的算法模型,并分享給其他人使用;這樣帶來另外一個好處,便是工業(yè)界也可以通過我們的庫發(fā)現(xiàn)他們沒有的一些Layer,從而能夠很好地促成學(xué)術(shù)界的新進展在工業(yè)界的使用。另外一方面,是在抽象設(shè)計上,對于定制化的東西要簡單,同時寫出來的代碼,要方便大家容易看懂。?
麥絡(luò):我補充兩個點。我們在研發(fā)TensorLayer的時候,深度學(xué)習(xí)的開發(fā)者主要有兩個選擇:TensorFlow或者 Keras。?
早期的TensorFlow提供很多底層的API(例如session和graph),足夠靈活但是難以上手。另一方面,Keras提供高層次API,簡單上手,但是難以對模型和訓(xùn)練過程做定制。非常多的像董豪和我這樣的AI研發(fā)人員在尋找一個兼顧靈活性和高層次抽象的庫,從而幫助我們快速實現(xiàn)新型AI模型。因此我們設(shè)計了TensorLayer,并將這種抽象且靈活的哲學(xué)貫穿其中。?
此外,TensorLayer還提供了很多前沿的算法復(fù)現(xiàn)。比如董豪在里面實現(xiàn)了近一、兩個月才提出來的算法復(fù)現(xiàn),而Keras注重的是經(jīng)典算法復(fù)現(xiàn),未必很前沿,這也使得TensorLayer的第一批用戶很多來自頂尖大學(xué)的PhD。這樣,TensorLayer 的生態(tài)也就慢慢建立起來了。

智源社區(qū):TensorLayer 和目前業(yè)界的主流AI框架是一種什么關(guān)系,能否做到兼容?
董豪:我們在這方面的思路是,使得TensorLayer在上層定義出AI模型的一套規(guī)范,也就是說AI算法上層的模型都可以拿TensorLayer的基本API定義出來。而對于底層,我們會嘗試做到TensorLayer的模型定義是可以運行在MindSpore、TensorFlow和PyTorch等上面。這里面我們可以利用的一個契機是,這些主流框架現(xiàn)在都在嘗試做出一套中間表達,比如MLIR、TBM。所以,TensorLayer可以通過在中間做好轉(zhuǎn)接,讓很多應(yīng)用運行在不同的AI框架上面。
智源社區(qū):TensorLayer 目前它的產(chǎn)業(yè)應(yīng)用情況如何?有沒有令你印象深刻的幾個行業(yè)應(yīng)用?
董豪:首先是垃圾文本,它主要應(yīng)用于視頻直播。TensorLayer 開發(fā)了文本垃圾分類程序,可以自動屏蔽視頻中的臟話文本等。此外還有視覺識別中的人體姿態(tài)估計,影響力也很大,在TensorLayer的Github上,人體姿態(tài)估計獲得了700、800個Star,而且經(jīng)常收到全球各地的來信探討商業(yè)化事宜。我們的強化學(xué)習(xí)庫也有量化對沖基金團隊在使用。?
麥絡(luò):還有就是超分辨率復(fù)原有很多落地的案例,比如有某家美國上市公司用TensorLayer研發(fā)PCB復(fù)原。我們這方面的項目獲得了2,000多個Star。TensorLayer的應(yīng)用之所以集中在上述幾個領(lǐng)域,其中一個原因是它在視覺和生成對抗網(wǎng)絡(luò)方面,有很多獨有或者比較好的例子。最近一年TensorLayer開始重點支持強化學(xué)習(xí),這方面的例子也將會越來越多。
二、通過AI框架看人工智能:生態(tài)建設(shè)和團隊合作
智源社區(qū):我看到 TensorLayer 目前的版本是2020年4月的 V2.2.2,在近幾年TensorLayer的版本更新中,主要經(jīng)歷了哪些重要變化?TensorLayer ?的下一個版本預(yù)計在什么時候發(fā)布,將有哪些新特點? ?
董豪:深度學(xué)習(xí)框架如TensorFlow、PyTorch近幾年的一個主要變化往支持動態(tài)網(wǎng)絡(luò)的方向發(fā)展。TensorLayer 也基于這個大趨勢,不斷更新,目前已經(jīng)做了針對RL、NLP、CV及其它工業(yè)界需求的具體應(yīng)用庫;此外我們還出版了相關(guān)的中英文教程、書籍,包括2017年出版了一本深度學(xué)習(xí)教程,今年還會出版兩本關(guān)于強化學(xué)習(xí)的書籍。
在北大和鵬城實驗室的支持下,TensorLayer的下一個版本預(yù)計在今年年底發(fā)布,其重要特色是將會兼容華為的MindSpore框架。眾所周知,華為在AI硬件領(lǐng)域?qū)嵙π酆瘢瑩碛蠥I訓(xùn)練芯片,也擁有嵌入式推斷芯片等。如果能將華為MindSpore兼容進來,那我們就將GPU、TPU、華為昇騰系列等各類硬件都兼容了,這會使得TensorLayer 用戶的代碼將具有更大的兼容性。比如可以將GPU上訓(xùn)練出來的內(nèi)容,通過同一套代碼打通國內(nèi)外的產(chǎn)品。?
麥絡(luò):MindSpore目前AI模型的生態(tài)仍然在建立之中。因此,MindSpore本身也需要像TensorLayer這樣的高層次庫幫它將生態(tài)構(gòu)建起來,完善強化學(xué)習(xí),自然語言處理,生成對抗學(xué)習(xí)等相關(guān)應(yīng)用。?
智源社區(qū):通過TensorLayer的歷年升級變化,我們可以從中看到人工智能技術(shù)或產(chǎn)業(yè)的哪些發(fā)展趨勢??
董豪:現(xiàn)在開發(fā)人工智能基礎(chǔ)軟件的門檻已經(jīng)降低,很多前人的工作可以參考,但開發(fā)工作量變得越來越大,特別是生態(tài)建設(shè)要求也越來越高,所以以往那種一兩個人寫出一個庫已經(jīng)很難成功了,現(xiàn)在好的AI框架基本上都是由大企業(yè)來維護,以前來自高校的一些優(yōu)秀框架如Caffe、Theano、Lasagne等正漸漸退出歷史舞臺。?
另外一個趨勢是,國內(nèi)各類AI 硬件、芯片等出得越來越多,但相對以前來說,現(xiàn)在做AI芯片的難度不大,關(guān)鍵在于能否有生態(tài)的支持。所以現(xiàn)在AI基礎(chǔ)軟件也更加看重如何構(gòu)建生態(tài)。
麥絡(luò):人工智能產(chǎn)業(yè)正在從算法井噴期,慢慢進入全面應(yīng)用期。在這個期間,我們的AI基礎(chǔ)架構(gòu)會迎來很大的發(fā)展。?
首先,在AI框架的架構(gòu)方面,我們會慢慢看到基于模塊化設(shè)計的AI框架的出現(xiàn)。計算機乃至芯片的發(fā)展也有相似的脈絡(luò)。例如說,從大型機的整體設(shè)計到今天的家用機模塊化設(shè)計。芯片行業(yè)從一開始的大包大攬,到如今的芯片設(shè)計和生產(chǎn)的分工。在AI框架的發(fā)展上,我們也能看到類似的風(fēng)格。TensorFlow自上而下全部包攬設(shè)計的模式,在行業(yè)早期是非常有好處的,能快速發(fā)展。但是行業(yè)成熟以后,又會阻礙整個產(chǎn)業(yè)的健康發(fā)展。因此,AI框架最近在開始模塊化的嘗試,相關(guān)標(biāo)準(zhǔn)組織也在慢慢出現(xiàn)。例如說,JAX,MLIR和ONNX等。而模塊化架構(gòu)一旦成熟,會引領(lǐng)下一波AI框架的出現(xiàn)。?
同時,AI技術(shù)會沉淀到我們?nèi)粘J褂玫能浖锩?。非常多的傳統(tǒng)軟件(例如說辦公軟件,數(shù)據(jù)庫,集群管理,芯片設(shè)計等)會進行重構(gòu),從而高效支持AI算法參與軟件運行中的決策。另外,軟件開發(fā)工具也會更好的支持AI算法。例如說設(shè)計對AI友好的編程語言,原生支持異構(gòu)硬件和自動差分等。Swift和Julia等語言已經(jīng)開始積極的探索。理論基礎(chǔ)方面,2019年底,谷歌和愛丁堡大學(xué)在POPL這個頂級編程語言會議上首次提出了一種原生支持自動差分的編程語言。?
最后,就是隱私保護會很大程度影響AI產(chǎn)業(yè)的發(fā)展?,F(xiàn)在世界各國對數(shù)據(jù)安全非??粗亍8鞔蠡ヂ?lián)網(wǎng)公司的推薦系統(tǒng)高度依賴用戶數(shù)據(jù),而且數(shù)據(jù)保護法出現(xiàn)后,為了保證互聯(lián)網(wǎng)廣告和推薦系統(tǒng)的可持續(xù)發(fā)展,也必須要開始思考如何平衡對于數(shù)據(jù)的利用和保護。今年Google已經(jīng)第一次在產(chǎn)品上部署基于隱私保護的聯(lián)邦學(xué)習(xí)技術(shù)。Facebook和阿里巴巴也快速推進,開始了大量隱私保護的預(yù)研和產(chǎn)品研發(fā)。我覺得這類技術(shù)將影響下一代AI框架的研發(fā)。例如,新的框架要更好支持云-邊-端的統(tǒng)一訓(xùn)練和推斷,從而避免數(shù)據(jù)上傳。又或者利用起來新型的加密AI芯片。?
智源社區(qū):從長遠的角度,TensorLayer 將有哪些發(fā)展規(guī)劃??
董豪:TensorLayer的定位是提供一個AI編程標(biāo)準(zhǔn),再基于此來兼容不同的計算引擎和訓(xùn)練芯片等,不僅對工業(yè)界應(yīng)用提供一些庫支持,同時也支持好科學(xué)研究。短期來看,我們目前計劃先支持好谷歌TensorFlow、華為MindSpore,因為這兩個計算引擎覆蓋了國外的GPU和TPU,以及我們?nèi)A為的訓(xùn)練和推理AI芯片。長期來看,我們的規(guī)劃主要是根據(jù)現(xiàn)有的資源來制定,如果將來有資金、團隊等,我們也可以開發(fā)下一代商用級的底層計算引擎。這方面,請麥絡(luò)來談一下。
?麥絡(luò):在計算引擎這塊,我們作為一個開源軟件團隊,受限于人力和計算資源的限制,因此我們決定TensorLayer接下來會在差異性,獨特性上進一步推進。如果需要做到AI框架的整體突破,就需要像華為MindSpore和英國的GraphCore公司那樣做到硬件和軟件兩手抓,利用硬件成本和性能優(yōu)勢吸引使用者,并且集中大量的開發(fā)人員持續(xù)對AI框架的各個模塊提出創(chuàng)新設(shè)計。?
聚焦細分領(lǐng)域也給了TensorLayer一個很大的優(yōu)勢就是:我們可以集中力量做大跨步創(chuàng)新,做精品。特別是在“AI新型算法”和“分布式執(zhí)行”這兩個方面。超大NLP模型,深度強化學(xué)習(xí),圖神經(jīng)網(wǎng)絡(luò),聯(lián)邦學(xué)習(xí)正在快速崛起。這些AI算法的多樣性會催生出非常多的開源AI軟件。例如說,我們最近主推的強化學(xué)習(xí)方面的RLzoo和實時視覺計算的HyperPose就得到了開源社區(qū)的良好反饋和企業(yè)用戶的使用。?
另外,新型AI計算任務(wù)往往需要大量計算資源,分布式執(zhí)行。而這給使用者設(shè)立了極高的門檻。我們接下來會在分布式AI軟件和算法設(shè)計做出創(chuàng)新。例如說,我們最近在重點開發(fā)的KungFu項目,就通過在分布式訓(xùn)練領(lǐng)域做精做細,持續(xù)攻關(guān)自適應(yīng)分布式訓(xùn)練這一個技術(shù)難題。相關(guān)的成果已經(jīng)收獲不少社區(qū)和學(xué)術(shù)界關(guān)注,并且吸引到頭部科技公司(華為,阿里巴巴,微軟和Google DeepMind)的大量資源支持和技術(shù)合作。同時,在AI趨向于全球云-端協(xié)同部署的大背景下,嵌入式AI這塊企業(yè)需求也很大,我和董老師認為這一塊TensorLayer也會有發(fā)揮空間。
三、AI開源項目的建議:國際性、創(chuàng)新性、可用性、長期主義
智源社區(qū):能否結(jié)合TensorLayer 社區(qū)的經(jīng)驗談一談,如何保持一個開源社區(qū)的創(chuàng)造性、活躍度?能否談一下令你印象深刻的社區(qū)幾個貢獻者??
董豪:首先是社區(qū)人員的構(gòu)成要多樣化,背景盡可能不一樣,這樣才能相互學(xué)習(xí)。比如我的興趣是深度學(xué)習(xí),但是麥絡(luò)是做AI系統(tǒng)的,這樣我們的交流討論就能夠有更多的創(chuàng)新性。下面列舉幾個印象比較深的貢獻者,他們的年齡段、專業(yè)背景等都挺多樣化的。


張敬卿,清華大學(xué)本科,后來到我們帝國理工DSI實驗室讀PhD,他在NLP上面的貢獻比較多。?
李國,帝國理工研究員,前倫敦Google高級工程師,他幫助解決了TensorLayer研發(fā)中的很多技術(shù)難題。?
丁子涵,帝國理工研究生,即將攻讀普林斯頓大學(xué)博士生,TensorLayer強化學(xué)習(xí)庫的主要貢獻者,最近我們還出版了強化學(xué)習(xí)方面的圖書。?
下面兩位是我來北大工作之后認識的吳睿海和吳潤迪,都是北大16級本科生。睿海是高中打信息競賽(OI)的。潤迪是北大首屆圖靈班,計劃去哥大讀博,睿海準(zhǔn)備跟我讀博士了。他們對TensorLayer 2.0升級的貢獻非常大。

國外的貢獻者中,印象最深的便是Jonathon Dekthtia,他是法國的一名PhD,飛行愛好者,研究工業(yè)AI,現(xiàn)在去英偉達做Researcher了。他對TensorLayer早期版本,尤其是規(guī)范化開源項目管理方面的貢獻很大。

智源社區(qū):通過這幾年TensorLayer 的研發(fā)和開源社區(qū)經(jīng)營,對于你個人主要有哪些收獲??
董豪:對我來說主要是能認識AI各個領(lǐng)域的一些朋友,包括我的第一個博士生,正是因為開發(fā)TensorLayer認識的。同時開發(fā)TensorLayer對我來說,也是一個學(xué)習(xí)過程。比如在強化學(xué)習(xí)領(lǐng)域,大家在做的過程中,一起來寫一個庫,寫一本書,這對我來說也是一種學(xué)習(xí)。
麥絡(luò):研發(fā)TensorLayer的經(jīng)歷,讓我們在AI開源社區(qū)具有一席之地。比如我們2018年被邀請到Google的倫敦開發(fā)者大會上做演講,讓我們在開源社區(qū)中能施加影響力,也更容易獲得工業(yè)界的資源支持。同時,TensorLayer使得我們能頻繁地接觸前沿的AI實踐者,發(fā)掘出重要的AI系統(tǒng)科研問題。?
智源社區(qū):在深度學(xué)習(xí)領(lǐng)域,除了TensorLayer之外,國內(nèi)外有沒有令你比較關(guān)注的其它開源項目?為什么??
董豪:除了TensorFlow、PyTorch這些眾所周知的項目以外,我比較佩服一個項目的是日本的Chainer,它不僅是比PyTorch還要早的一個庫,甚至PyTorch的設(shè)計也很大程度上借鑒了它。日本整個國家不大,搞AI的人可能還不如北京市多,但日本人在做事的風(fēng)格上,非常專注于自己的領(lǐng)域、精益求精并形成一個自己的生態(tài)。Chainer的生態(tài)一度還是挺強的,在倫敦的時候還有很多人推薦,而且很多日本人發(fā)論文只用Chainer來寫,并不用TensorFlow或者Pytorch。當(dāng)然鑒于日本國家體量的局限性,Chainer無法競爭過后來出現(xiàn)的PyTorch,但它一直能很好地維持著自己的生態(tài)。?
曠視、清華/騰訊、一流科技等的工作也值得關(guān)注,他們進行了非常大膽的嘗試,通過一些優(yōu)化來提升性能。我們也參與了鵬城實驗室正在開發(fā)的新一代開源項目,敬請期待。?
如果說國產(chǎn)框架翻身的希望,大概率當(dāng)推華為的MindSpore,架構(gòu)設(shè)計得非常好,而且能得到華為的強大支撐:長期的海量資金投入、國際化大團隊、自主訓(xùn)練芯片、自主嵌入式芯片、華為云等等。?
麥絡(luò):很贊同,我平時經(jīng)常關(guān)注MindSpore,其所推崇的模型自動并行,算子自動生成,在云-邊-端將訓(xùn)練和推理進行統(tǒng)一,都是我很感興趣的技術(shù)點。框架以外,我也關(guān)注AI框架中的各個模塊的開源項目,例如,JAX,MLIR和TensorFlow Swift。另外,發(fā)布不久的OpenMinded項目,我也很關(guān)注。他們試圖在云-邊-端中實現(xiàn)高效的隱私保護計算解決方案。?
智源社區(qū):在深度學(xué)習(xí)領(lǐng)域,中國學(xué)者或研發(fā)者要做出世界影響力的開源項目,在哪些方面比較有機會??
董豪:在深度學(xué)習(xí)領(lǐng)域,一定要做下一代的開源項目,不能總是重復(fù)別人已經(jīng)做過的。所以我建議,大家首先要研究一下5年之后深度學(xué)習(xí)的軟件會變成什么樣,這樣才有可能取得突破。?
麥絡(luò):AI系統(tǒng)依然是我認為最有機會的。AI是可能開啟第四次工業(yè)革命的關(guān)鍵鑰匙。我們社會中已經(jīng)投入了大量的資源和人才,并且已經(jīng)看到許多良好的商業(yè)和社會應(yīng)用。我相信持續(xù)的投入是該領(lǐng)域能持續(xù)發(fā)展的關(guān)鍵。與此同時,大量中國企業(yè)開始產(chǎn)品出海,研發(fā)也開始大量的整合世界各國的研發(fā)力量,這種國際化的氛圍也會讓中國的研發(fā)者們更容易做出世界級的AI開源軟件項目。?
智源社區(qū):對于深度學(xué)習(xí)領(lǐng)域的中國開源工作者,能否提供一些發(fā)展建議?
董豪:我覺得分三個方面來說。
首先是項目上,開發(fā)的項目要有大幅度的創(chuàng)新,要有預(yù)判性。?
其次是管理上,需要了解的是開源并不是為了盈利,需要長期維護,即使是有了生態(tài)之后,還是要持續(xù)投入下去。同時要重視的是,項目有人用才是關(guān)鍵。這一點中國的AI框架還是比較弱,目前我們的下載量是280K,百度 Paddle 是300K,均比TensorFlow少了很多很多。此外,還有許多其他團隊開發(fā)的庫,甚至總下載量都不如國外框架一個小時的下載量??偟膩碚f,如果開源項目沒有市場的話,可能剛開始的兩年你會很興奮,但如果沒有人用你也堅持不了很久的。?
第三,在講究生態(tài)的時代,幾個人搞定全部已經(jīng)不現(xiàn)實了,而且也不可能幾個人做一輩子。舉個例子,比如TensorLayer,我們也不可能什么都做,我們下一個版本,對于分布式的支持,我們用的是麥絡(luò)帝國理工那邊的Kungfu來實現(xiàn)跨平臺兼容,反正都在我們社區(qū)可控的范圍內(nèi)就行。?
麥絡(luò):我們發(fā)現(xiàn)許多咱們本土的開源項目的國際化程度欠佳。我身邊不少歐美的合作者會顧慮代碼質(zhì)量和社區(qū)文化,而不愿意使用這些項目。我們在構(gòu)建開源軟件中,要在文檔,代碼規(guī)范,集成測試,國際宣講,社區(qū)互動和管理,等很多方向做到國際最頂尖的標(biāo)準(zhǔn)。這樣,我們的開源軟件才能爭取大量國際用戶,日后在AI軟件發(fā)展中形成能覆蓋全球的話語權(quán)。這一點在中美科技競爭的大背景下顯得尤為重要。?
另外,就是長期地投入也相對欠缺。一旦軟件開源后,后續(xù)維護管理不足。這就形成了惡性循環(huán):維護越不夠,大家就越不敢用;越不敢用,就越?jīng)]有動力維護。解決這個問題的關(guān)鍵是,開源軟件開發(fā)者對于自身的信心,以及對于開源項目長期投入的價值認同。我和董豪在過去四年開發(fā)過程中,很多朋友都勸我們放棄,說一些功能TensorFlow已經(jīng)做了,TensorLayer的沒必要做了。但我們覺得Google畢竟是一家商業(yè)公司,許多設(shè)計考量并不是對于全行業(yè)最優(yōu),這反而給了很多開源項目發(fā)揮的空間。另外,TensorLayer不僅僅是一個軟件,也是一個源源不斷培養(yǎng)開源人才的社區(qū),而這都讓TensorLayer在最近幾年越活越好。我相信只要認清自身項目的獨特性和優(yōu)勢,形成良好的社區(qū)文化,很多項目堅持下去,都會最終開花。?
董豪:是的,星星之火可以燎原,慢慢來、能一直做下去就好。

關(guān)于我們
北京智源人工智能研究院(Beijing Academy of Artificial Intelligence,簡稱BAAI)成立于2018年11月,是在科技部和北京市委市政府的指導(dǎo)和支持下,由北京市科委和海淀區(qū)政府推動成立的新型研發(fā)機構(gòu)
