最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

ICCV 2023 獲獎(jiǎng)?wù)撐娜窒恚U(kuò)散模型、分割一切、跟蹤一切摘得桂冠!

2023-10-05 13:54 作者:深度之眼官方賬號(hào)  | 我要投稿

昨天計(jì)算機(jī)視覺(jué)三大頂級(jí)會(huì)議之一的ICCV 2023在法國(guó)巴黎正式“開(kāi)獎(jiǎng)”了!今年共有兩篇論文獲得最佳論文獎(jiǎng),大名鼎鼎的“分割一切”榮獲最佳論文提名。

ICCV今年共收錄了2160篇論文,從今年的錄用論文的主題領(lǐng)域來(lái)看,3D視覺(jué)、圖像視頻合成、遷移少樣本持續(xù)學(xué)習(xí)方向排名前三。

有想法發(fā)paper的同學(xué)沖起,學(xué)姐之前也做過(guò)分享,點(diǎn)這里直達(dá)。

下面我們進(jìn)入正題,一起來(lái)看看ICCV 2023的獲獎(jiǎng)?wù)撐脑斍椋?/p>

掃碼添加小享,回復(fù)“ICCV獲獎(jiǎng)

免費(fèi)領(lǐng)取獲獎(jiǎng)?wù)撐?代碼+錄用清單


最佳論文獎(jiǎng)

Adding Conditional Control to Text-to-Image Diffusion Models

標(biāo)星2.4萬(wàn),被引用量已破300+

標(biāo)題:向文本到圖像擴(kuò)散模型添加條件控制

作者:斯坦福大學(xué)

內(nèi)容:論文提出了ControlNet,這是一種神經(jīng)網(wǎng)絡(luò)架構(gòu),可向大型預(yù)訓(xùn)練的文本到圖像擴(kuò)散模型添加空間條件控制。ControlNet固定了可用于生產(chǎn)的大型擴(kuò)散模型,并重用它們?cè)跀?shù)十億張圖像上預(yù)訓(xùn)練的深度和穩(wěn)健的編碼層,作為強(qiáng)大的骨干來(lái)學(xué)習(xí)各種條件控制。該神經(jīng)網(wǎng)絡(luò)架構(gòu)通過(guò)“零卷積”(即初始化為零的卷積層)進(jìn)行連接,逐步從零增長(zhǎng)參數(shù),確保調(diào)優(yōu)過(guò)程不會(huì)受到任何有害噪聲的影響。

Passive Ultra-Wideband Single-Photon Imaging

標(biāo)題:被動(dòng)超寬帶單光子成像

作者:多倫多大學(xué)

內(nèi)容:論文考慮同時(shí)成像一個(gè)動(dòng)態(tài)場(chǎng)景的極端時(shí)間范圍的問(wèn)題——從秒到皮秒級(jí)——并且采用被動(dòng)方式,不需要太多光照,也不需要來(lái)自發(fā)光源的任何定時(shí)信號(hào)。由于現(xiàn)有的單光子相機(jī)通量估計(jì)技術(shù)在這種情況下會(huì)失效,作者開(kāi)發(fā)了一種通量探測(cè)理論,其從隨機(jī)微積分中獲得啟發(fā),以使我們能夠從單調(diào)增加的光子檢測(cè)時(shí)間戳流重構(gòu)像素的時(shí)間變化通量。作者使用這一理論:(1)顯示被動(dòng)自由運(yùn)行的單光子雪崩二極管相機(jī)在低通量條件下具有覆蓋整個(gè)直流至31GHz范圍的可實(shí)現(xiàn)頻帶寬,(2)推導(dǎo)出一種新的傅里葉域通量重建算法,它掃描時(shí)間戳數(shù)據(jù)中具有統(tǒng)計(jì)顯著支持的頻率范圍,(3)確保該算法的噪聲模型甚至在非常低的光子計(jì)數(shù)或不可忽略的死時(shí)間下仍然有效。

最佳論文榮譽(yù)提名獎(jiǎng)

Segment Anything

標(biāo)星4萬(wàn),被引用量690

標(biāo)題:分割一切

作者:Meta

內(nèi)容:論文提出了“分割任何物體”(Segment Anything)項(xiàng)目:一個(gè)用于圖像分割的新任務(wù)、模型和數(shù)據(jù)集。利用高效的模型進(jìn)行數(shù)據(jù)收集,作者構(gòu)建了迄今為止最大的分割數(shù)據(jù)集(目前是最大的),包含超過(guò)10億個(gè)掩膜和1100萬(wàn)張授權(quán)和尊重隱私的圖像。該模型的設(shè)計(jì)和訓(xùn)練使其可以即興提示,因此可以零樣本向新圖像分布和任務(wù)進(jìn)行轉(zhuǎn)移。

掃碼添加小享,回復(fù)“ICCV獲獎(jiǎng)

免費(fèi)領(lǐng)取獲獎(jiǎng)?wù)撐?代碼+錄用清單

最佳學(xué)生論文獎(jiǎng)

Tracking Everything Everywhere All at Once

標(biāo)題:隨時(shí)隨地追蹤一切

作者:康奈爾大學(xué)

內(nèi)容:論文提出了一種新的測(cè)試時(shí)優(yōu)化方法,用于從視頻序列中估計(jì)稠密和長(zhǎng)距離運(yùn)動(dòng)。以前的光流或粒子視頻跟蹤算法通常在有限的時(shí)間窗口內(nèi)運(yùn)行,在遮擋情況下跟蹤效果不佳,估計(jì)的運(yùn)動(dòng)軌跡整體一致性較差。作者提出了一種完整的全局一致運(yùn)動(dòng)表示OmniMotion,可以準(zhǔn)確地對(duì)視頻中的每個(gè)像素進(jìn)行全過(guò)程運(yùn)動(dòng)估計(jì)。OmniMotion使用準(zhǔn)三維規(guī)范體積表示視頻,并通過(guò)局部空間和規(guī)范空間之間的雙射進(jìn)行像素級(jí)跟蹤。這種表示允許我們確保全局一致性,跟蹤遮擋情況,并建模任意組合的相機(jī)和物體運(yùn)動(dòng)。

其他獎(jiǎng)項(xiàng)

Helmholtz 獎(jiǎng)

Action recognition with improved trajectories

標(biāo)題:使用過(guò)改進(jìn)的軌跡進(jìn)行動(dòng)作識(shí)別

作者:Heng Wang, Cordelia Schmid

內(nèi)容:最近,稠密軌跡被證明是動(dòng)作識(shí)別的一種高效視頻表示,并在各種數(shù)據(jù)集上獲得了最先進(jìn)的結(jié)果。本文通過(guò)考慮相機(jī)運(yùn)動(dòng)來(lái)校正軌跡,從而提高了其性能。為了估計(jì)相機(jī)運(yùn)動(dòng),作者使用SURF描述子和稠密光流匹配幀之間的特征點(diǎn),然后使用這些匹配來(lái)用RANSAC穩(wěn)健地估計(jì)單應(yīng)矩陣。人體運(yùn)動(dòng)通常與相機(jī)運(yùn)動(dòng)不同,會(huì)生成不一致的匹配。為了改進(jìn)估計(jì),使用人體檢測(cè)器去除這些匹配。給定估計(jì)的相機(jī)運(yùn)動(dòng),作者刪除與其一致的軌跡,還使用此估計(jì)從光流中消除相機(jī)運(yùn)動(dòng),這顯著改進(jìn)了基于運(yùn)動(dòng)的描述子,如HOF和MBH。

PAMI Everingham 獎(jiǎng)

  • The Ceres Solver open source non-linear optimization software library

  • The Common Objects in Context (COCO) dataset

獲獎(jiǎng)候選

  • Adding Conditional Control to Text-to-lmage Diffusion Models - Zhang et al.

  • Advancing Example Exploltation Can Alleviate Critical Challenges in Adversarial Training -Ge et al.

  • DiffusionDet: Diffusion Model for Object Detection - Chen et al

  • ITI-GEN: Inclusive Text-to-lmage Generation - Zhang et al.

  • Passive Ultra-Wideband Single-Photon imaging - Wei et al.

  • Ref-NeuS:Ambiguity-Reduced Neural implicit Surface Learning for Multi-View Reconstruction with Reflection -Ge et al.

  • Scale-MAE: A Scale-Aware Masked Autoencoder for Multiscale Geospatfal Representation Learning - Reed et al.

  • Segment Anything - Kirillov et al.

  • Shape Analysis of Euclidean Curves under Frenet-Serret Framework -Chassat et al.

  • The Victim and The Beneficiary: Exploiting a Potsoned Model to Train a Clean Model on Poisoned Data - Zhu et al.

  • Tracking Everything Everywhere All at Once-Wang et al.

  • Tri-MipRF: Tri-Mip Representation for Effcient Anti-Aliasing Neural Radiance Fields -Hu et al.

  • UniDexGrasp++: improving Universal Dexterous Grasping via Geometry-aware Curriculum Learning and terative Generalist-Specialist Learning - Wan et al.

  • Viewing Graph Solvability in Practice - Arrigoni et al.

  • VQ3D: Learning a 3D-Aware Generative Modet on imageNet-Sarget et al.

  • When Noisy Labels Meet Long Tail Dilemmas: A Representation Calibration Method -Zhang et al.

  • Zip-NeRF: Anti-Allased Grid-Based Neural Radiance Fields - Barron et al.

掃碼添加小享,回復(fù)“ICCV獲獎(jiǎng)

免費(fèi)領(lǐng)取獲獎(jiǎng)?wù)撐?代碼+錄用清單


ICCV 2023 獲獎(jiǎng)?wù)撐娜窒?!擴(kuò)散模型、分割一切、跟蹤一切摘得桂冠!的評(píng)論 (共 條)

使用qq登录你需要登录后才可以评论。
宁陵县| 通海县| 邹城市| 确山县| 九龙城区| 界首市| 浮山县| 边坝县| 长海县| 隆林| 白山市| 河东区| 万州区| 夏河县| 苗栗县| 阿克| 台北县| 鄯善县| 台湾省| 抚顺市| 安溪县| 察隅县| 华坪县| 万山特区| 汶川县| 安仁县| 聊城市| 兰溪市| 简阳市| 周口市| 桓台县| 仪征市| 察雅县| 遵义县| 青州市| 繁昌县| 崇阳县| 额尔古纳市| 桂平市| 余姚市| 柘荣县|