Talk預告 | 紐約大學孫琪:模擬和優(yōu)化VR/AR中的人類行為

本期為TechBeat人工智能社區(qū)第434期線上Talk,也是圖形學系列Talk第③彈!北京時間8月25日(周四)20:00,紐約大學助理教授——孫琪的Talk將準時在TechBeat人工智能社區(qū)開播!
他與大家分享的主題是: “模擬和優(yōu)化VR/AR中的人類行為”,屆時將介紹關(guān)于利用眼睛/肌肉感知和學習來模擬我們在虛擬空間中的感知、反應(yīng)和感覺的一些研究。
Talk·信息
主題:模擬和優(yōu)化VR/AR中的人類行為
嘉賓:紐約大學助理教授?孫琪
時間:北京時間?8月25日?(周四) 20:00
地點:TechBeat人工智能社區(qū)

完整版怎么看?
掃描下方二維碼,或復制鏈接https://datayi.cn/w/xog0MAz9瀏覽器,一鍵完成預約!上線后會在第一時間收到通知哦
Talk·介紹
XR 為顯示虛擬內(nèi)容、感知物理環(huán)境和以高保真度跟蹤人類行為提供了前所未有的可能性。然而,在虛擬環(huán)境的幫助下,我們?nèi)匀粍?chuàng)造了能夠超越我們在物理現(xiàn)實中的“超人”。在本次Talk中,我將討論我們最近關(guān)于利用眼睛/肌肉感知和學習來模擬我們在虛擬空間中的感知、反應(yīng)和感覺的一些研究?;谶@些知識,我們創(chuàng)建了實時視覺內(nèi)容,以改變和優(yōu)化人類表現(xiàn)(例如對目標的反應(yīng)速度)和 XR 中的交互真實感。??
具體分享提綱如下:
1. 利用計算神經(jīng)科學優(yōu)化VR/AR系統(tǒng)
2. 利用VR/AR系統(tǒng)模擬和優(yōu)化人類行為
Talk·預習資料
https://www.immersivecomputinglab.org/publication/image-features-influence-reaction-time-a-learned-probabilistic-perceptual-model-for-saccade-latency/?
https://www.eurekalert.org/news-releases/960800
Talk·提問交流
通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!
方式 ①
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!
方式 ②
在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

紐約大學助理教授
孫琪是紐約大學計算機系的助理教授,在此之前他曾是Adobe Research的研究科學家。他在紐約州立大學分校獲得博士學位,研究方向為感知計算機圖形學、VR/AR、視覺光學、人機交互。曾獲得IEEE Virtual Reality 最佳論文獎。
個人主頁:
https://qisun.me/??


關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學習成長。 期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ