Talk預告 | 斯坦福大學博士后李昀燭:基于結(jié)構(gòu)化世界模型的機器人操作和物理交互

本期為TechBeat人工智能社區(qū)第447期線上Talk!
北京時間10月19日(周三)20:00,斯坦福大學計算機系博士后—李昀燭的Talk將準時在TechBeat人工智能社區(qū)開播!他與大家分享的主題是: “基于結(jié)構(gòu)化世界模型的機器人操作和物理交互”,屆時將詳細講解我們?nèi)绾卧跈C器人系統(tǒng)中傳感器(sensing)、感知(perception)、動力學建模(dynamics)、規(guī)劃控制(planning&control)這四個重要板塊進行創(chuàng)新并加入結(jié)構(gòu)化信息,以建立世界模型(world models)來幫助機器人更好地適應(yīng)不同的環(huán)境,拓展機器人的能力,并完成更復雜的操作和物理交互的任務(wù)。
?昀燭將于2023年秋季加入伊利諾伊大學香檳分校(UIUC)計算機科學系擔任助理教授,歡迎感興趣的同學與他聯(lián)系~
Talk·信息
主題:基于結(jié)構(gòu)化世界模型的機器人操作和物理交互
嘉賓:斯坦福大學計算機系博士后李昀燭
時間:北京時間?10月19日?(周三) 20:00
地點:TechBeat人工智能社區(qū)

完整版怎么看
掃描下方二維碼,或復制鏈接https://datayi.cn/w/q9AXvmyo瀏覽器,一鍵完成預約!上線后會在第一時間收到通知哦
Talk·介紹
我們?nèi)藢χ車沫h(huán)境有著直觀的物理認知,這種認知能幫助我們實現(xiàn)很多對機器人來說難度很高的交互任務(wù),特別是針對物理性質(zhì)比較復雜的物體,比如水、粒狀物質(zhì)如洋蔥碎、可形變材料如橡皮泥等等。
講者的研究希望能幫助機器人擁有這樣的物理認知能力,并建立結(jié)構(gòu)化的世界模型(structured world models),使其能像人類一樣靈巧有效地感知物理世界并與周圍環(huán)境進行交互,這樣的能力在物流、制造、做菜、手術(shù)和陪護等領(lǐng)域都擁有大量的潛在應(yīng)用場景。
本次分享將介紹我們?nèi)绾卧跈C器人系統(tǒng)中傳感器(sensing)、感知(perception)、動力學建模(dynamics)、規(guī)劃控制(planning&control)這四個重要板塊進行創(chuàng)新并加入結(jié)構(gòu)化信息,以建立世界模型(world models)來幫助機器人更好地適應(yīng)不同的環(huán)境,拓展機器人的能力,并完成更復雜的操作和物理交互的任務(wù)。
講者會首先介紹如何幫助機器人在和環(huán)境的交互中學習,并建立環(huán)境預測模型,以及討論這種模型如何推廣到由不同材料制成的一系列物體。這個方向工作背后的核心思想是引入全新的環(huán)境表征并將結(jié)構(gòu)化的先驗信息整合到學習系統(tǒng)中,構(gòu)建在不同抽象層次的世界模型,從最細粒度的粒子表示到描述整個場景的潛在空間表示來對不同物理特性的物體進行建模。他將討論這些結(jié)構(gòu)如何使基于模型的規(guī)劃算法更有效,并幫助機器人完成復雜的操作任務(wù)(例如,操作物體堆、倒一杯水,以及將可變形泡沫抓握成特定的形狀)。
除了視覺感知之外,講者還將討論我們?nèi)绾问褂酶鞣N形式的密集觸覺傳感器(例如手套、襪子、背心和機器人外套等)構(gòu)建多模態(tài)傳感平臺,以及它們?nèi)绾螏椭鷺?gòu)建更加精細和結(jié)構(gòu)化的交互模型。
Talk·預習資料
Learning Particle Dynamics for Manipulating Rigid Bodies, Deformable Objects, and Fluids (ICLR 2019)
http://dpi.csail.mit.edu/
RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects with Graph Networks (RSS 2022)
http://hxu.rocks/robocraft/
Keypoints into the Future: Self-Supervised Correspondence in Model-Based Reinforcement Learning (CoRL 2020)
https://sites.google.com/view/keypointsintothefuture
3D Neural Scene Representations for Visuomotor Control (CoRL 2021)
https://3d-representation-learning.github.io/nerf-dy/
Learning the Signatures of the Human Grasp Using a Scalable Tactile Glove (Nature 2019)
http://stag.csail.mit.edu/
Learning Human-environment Interactions using Conformal Tactile Textiles (Nature Electronics 2021)
http://senstextile.csail.mit.edu/
Intelligent Carpet: Inferring 3D Human Pose from Tactile Signals (CVPR 2021)
http://intcarpet.csail.mit.edu/
Talk·提問交流
通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!
方式 ①在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!
方式 ②
在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

斯坦福大學計算機系博士后
李昀燭將于2023年秋季加入伊利諾伊大學香檳分校(UIUC)計算機科學系擔任助理教授,現(xiàn)在是斯坦福大學的博士后,與Fei-Fei Li和Jiajun Wu教授合作。他在Antonio Torralba和Russ Tedrake教授的指導下從麻省理工學院獲得了博士學位。他的研究方向是機器人學、計算機視覺和機器學習領(lǐng)域的交叉,旨在幫助機器人像人類一樣靈巧有效地感知物理世界并與周圍環(huán)境進行交互。
他曾獲得Adobe Research Fellowship,并從麻省理工學院獲得First Place Recipient of the Ernst A. Guillemin Master's Thesis Award in Artificial Intelligence and Decision Making。研究成果發(fā)表在 Nature、NeurIPS、CVPR 和 RSS 等頂級期刊和會議上。他本科畢業(yè)于北京大學計算機系,并曾在英偉達機器人研究實驗室工作。
個人主頁:
https://yunzhuli.github.io/

關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學習成長。 期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ