最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Talk預告 | 斯坦福大學博士后李昀燭:基于結(jié)構(gòu)化世界模型的機器人操作和物理交互

2022-10-19 11:56 作者:TechBeat人工智能社區(qū)  | 我要投稿


Image

本期為TechBeat人工智能社區(qū)447線上Talk!

北京時間10月19(周三)20:00,斯坦福大學計算機系博士后—李昀燭的Talk將準時在TechBeat人工智能社區(qū)開播!他與大家分享的主題是: “基于結(jié)構(gòu)化世界模型的機器人操作和物理交互”,屆時將詳細講解我們?nèi)绾卧跈C器人系統(tǒng)中傳感器(sensing)、感知(perception)、動力學建模(dynamics)、規(guī)劃控制(planning&control)這四個重要板塊進行創(chuàng)新并加入結(jié)構(gòu)化信息,以建立世界模型(world models)來幫助機器人更好地適應(yīng)不同的環(huán)境,拓展機器人的能力,并完成更復雜的操作和物理交互的任務(wù)。

?昀燭將于2023年秋季加入伊利諾伊大學香檳分校(UIUC)計算機科學系擔任助理教授,歡迎感興趣的同學與他聯(lián)系~


Talk·信息

主題:基于結(jié)構(gòu)化世界模型的機器人操作和物理交互

嘉賓:斯坦福大學計算機系博士后李昀燭

時間:北京時間?10月19日?(周三) 20:00

地點:TechBeat人工智能社區(qū)

長按識別二維碼,一鍵預約TALK!


完整版怎么看

掃描下方二維碼,或復制鏈接https://datayi.cn/w/q9AXvmyo瀏覽器,一鍵完成預約!上線后會在第一時間收到通知哦


Talk·介紹

我們?nèi)藢χ車沫h(huán)境有著直觀的物理認知,這種認知能幫助我們實現(xiàn)很多對機器人來說難度很高的交互任務(wù),特別是針對物理性質(zhì)比較復雜的物體,比如水、粒狀物質(zhì)如洋蔥碎、可形變材料如橡皮泥等等。

講者的研究希望能幫助機器人擁有這樣的物理認知能力,并建立結(jié)構(gòu)化的世界模型(structured world models),使其能像人類一樣靈巧有效地感知物理世界并與周圍環(huán)境進行交互,這樣的能力在物流、制造、做菜、手術(shù)和陪護等領(lǐng)域都擁有大量的潛在應(yīng)用場景。

本次分享將介紹我們?nèi)绾卧跈C器人系統(tǒng)中傳感器(sensing)、感知(perception)、動力學建模(dynamics)、規(guī)劃控制(planning&control)這四個重要板塊進行創(chuàng)新并加入結(jié)構(gòu)化信息,以建立世界模型(world models)來幫助機器人更好地適應(yīng)不同的環(huán)境,拓展機器人的能力,并完成更復雜的操作和物理交互的任務(wù)。

講者會首先介紹如何幫助機器人在和環(huán)境的交互中學習,并建立環(huán)境預測模型,以及討論這種模型如何推廣到由不同材料制成的一系列物體。這個方向工作背后的核心思想是引入全新的環(huán)境表征并將結(jié)構(gòu)化的先驗信息整合到學習系統(tǒng)中,構(gòu)建在不同抽象層次的世界模型,從最細粒度的粒子表示到描述整個場景的潛在空間表示來對不同物理特性的物體進行建模。他將討論這些結(jié)構(gòu)如何使基于模型的規(guī)劃算法更有效,并幫助機器人完成復雜的操作任務(wù)(例如,操作物體堆、倒一杯水,以及將可變形泡沫抓握成特定的形狀)。

除了視覺感知之外,講者還將討論我們?nèi)绾问褂酶鞣N形式的密集觸覺傳感器(例如手套、襪子、背心和機器人外套等)構(gòu)建多模態(tài)傳感平臺,以及它們?nèi)绾螏椭鷺?gòu)建更加精細和結(jié)構(gòu)化的交互模型。

Talk·預習資料

  • Learning Particle Dynamics for Manipulating Rigid Bodies, Deformable Objects, and Fluids (ICLR 2019)

    http://dpi.csail.mit.edu/

  • RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects with Graph Networks (RSS 2022)

    http://hxu.rocks/robocraft/

  • Keypoints into the Future: Self-Supervised Correspondence in Model-Based Reinforcement Learning (CoRL 2020)

    https://sites.google.com/view/keypointsintothefuture

  • 3D Neural Scene Representations for Visuomotor Control (CoRL 2021)

    https://3d-representation-learning.github.io/nerf-dy/

  • Learning the Signatures of the Human Grasp Using a Scalable Tactile Glove (Nature 2019)

    http://stag.csail.mit.edu/

  • Learning Human-environment Interactions using Conformal Tactile Textiles (Nature Electronics 2021)

    http://senstextile.csail.mit.edu/

  • Intelligent Carpet: Inferring 3D Human Pose from Tactile Signals (CVPR 2021)

    http://intcarpet.csail.mit.edu/


Talk·提問交流

通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!

方式 ①在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

Image

你的每一次貢獻,我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!

方式 ②

在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Image
快來提問啦!


Talk·嘉賓介紹

Image
李昀燭

斯坦福大學計算機系博士后

李昀燭將于2023年秋季加入伊利諾伊大學香檳分校(UIUC)計算機科學系擔任助理教授,現(xiàn)在是斯坦福大學的博士后,與Fei-Fei Li和Jiajun Wu教授合作。他在Antonio Torralba和Russ Tedrake教授的指導下從麻省理工學院獲得了博士學位。他的研究方向是機器人學、計算機視覺和機器學習領(lǐng)域的交叉,旨在幫助機器人像人類一樣靈巧有效地感知物理世界并與周圍環(huán)境進行交互。

他曾獲得Adobe Research Fellowship,并從麻省理工學院獲得First Place Recipient of the Ernst A. Guillemin Master's Thesis Award in Artificial Intelligence and Decision Making。研究成果發(fā)表在 Nature、NeurIPS、CVPR 和 RSS 等頂級期刊和會議上。他本科畢業(yè)于北京大學計算機系,并曾在英偉達機器人研究實驗室工作。

個人主頁:

https://yunzhuli.github.io/

長按識別二維碼,一鍵預約TALK!


關(guān)于TechBeat人工智能社區(qū)

TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學習成長。 期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!

更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk預告 | 斯坦福大學博士后李昀燭:基于結(jié)構(gòu)化世界模型的機器人操作和物理交互的評論 (共 條)

分享到微博請遵守國家法律
乳源| 承德县| 来安县| 通海县| 沅陵县| 洱源县| 怀化市| 广德县| 太康县| 漾濞| 多伦县| 文山县| 来安县| 信宜市| 镇宁| 桑日县| 都兰县| 鄂州市| 凤台县| 保定市| 溆浦县| 古交市| 西藏| 呈贡县| 侯马市| 舟曲县| 武强县| 和龙市| 永州市| 崇文区| 察哈| 和田市| 宕昌县| 玛纳斯县| 蓝山县| 吴堡县| 乐平市| 景宁| 南开区| 分宜县| 邓州市|