直播研討會報名: ICML杰出論文提名一作、康奈爾在讀博士陸昱成, 就在8月5日晚8點(diǎn)!

8月5日(周四)晚20點(diǎn),我們特別邀請到今年ICML【杰出論文獎提名】獲得者、來自康奈爾大學(xué)計算機(jī)系的在讀博士生陸昱成,來到TechBeat與大家直播分享他本次在ICML的工作:Optimal Complexity in Decentralized Training(去中心化分布式訓(xùn)練的最優(yōu)復(fù)雜度)。
??本次直播活動需要報名,報名通過審核后獲得騰訊會議地址并加入活動交流群~
01『報名信息』
分享主題:Optimal Complexity in Decentralized Training(去中心化分布式訓(xùn)練的最優(yōu)復(fù)雜度)
分享嘉賓:康奈爾大學(xué)計算機(jī)系在讀博士生 陸昱成
活動時間:北京時間8月5日 (周四) 20:00-21:00
活動地點(diǎn):騰訊會議、B站直播間
活動議程:
嘉賓介紹ICML工作—30min
互動抽獎
Free Q&A—20min

02『論文介紹』

去中心化分布式訓(xùn)練的最優(yōu)復(fù)雜度
隨著機(jī)器學(xué)習(xí)模型和數(shù)據(jù)量的增大,大規(guī)模分布式訓(xùn)練決定了模型部署的效率。去中心化,作為一種經(jīng)典的分布式系統(tǒng)設(shè)計原型,近年來在擴(kuò)展機(jī)器學(xué)習(xí)規(guī)模上顯示出良好的效率和魯棒性。本文基于此背景,探究了不同去中心化系統(tǒng)下訓(xùn)練復(fù)雜度的理論極限;并進(jìn)一步提出了兩種算法,其復(fù)雜度可以達(dá)到該理論極限。
論文鏈接:
http://proceedings.mlr.press/v139/lu21a/lu21a.pdf
03『嘉賓介紹』

康奈爾大學(xué)計算機(jī)系三年級博士生
陸昱成,康奈爾大學(xué)計算機(jī)系三年級博士生,師從Christopher De Sa教授。他本科畢業(yè)于上海交通大學(xué)電子系,曾在賓夕法尼亞大學(xué)分布式系統(tǒng)實(shí)驗(yàn)室做訪問學(xué)者,并曾實(shí)習(xí)于亞馬遜,微軟等公司的機(jī)器學(xué)習(xí)實(shí)驗(yàn)室。他的研究方向?yàn)榇笠?guī)模機(jī)器學(xué)習(xí)系統(tǒng),隨機(jī)和并行優(yōu)化算法。他曾獲得過康奈爾大學(xué)2018博士生獎學(xué)金,ICML2021杰出論文提名獎等。
- The End -

關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長。 期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級打怪的根據(jù)地!
更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ