最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

CVPR2023點(diǎn)云相關(guān)文獻(xiàn)合集,重磅來(lái)襲!

2023-06-25 17:40 作者:3D視覺(jué)工坊  | 我要投稿

添加微信:CV3d007,備注:三維點(diǎn)云,拉你入群。文末附行業(yè)細(xì)分群。

添加微信:CV3d007,備注:CVPR2023-點(diǎn)云,即可獲取論文合集。

論文題目:LiDAR2Map: In Defense of LiDAR-Based Semantic Map Construction Using Online Camera Distillation

作者:Song Wang ;Wentong Li;Wenyu Liu等人

作者機(jī)構(gòu):Zhejiang University(浙江大學(xué));

論文鏈接:https://arxiv.org/pdf/2304.11379.pdf

項(xiàng)目代碼:https://github.com/songw-zju/LiDAR2Map

BEV視角下的語(yǔ)義地圖構(gòu)建在自動(dòng)駕駛領(lǐng)域中起著重要的作用。本文提出了一種基于激光雷達(dá)的方法,可通過(guò)引入BEV特征金字塔解碼器,學(xué)習(xí)魯棒的多尺度BEV特征,從而大大提高基于激光雷達(dá)的方法的準(zhǔn)確性。為了緩解激光雷達(dá)數(shù)據(jù)缺乏語(yǔ)義線(xiàn)索而導(dǎo)致的問(wèn)題,本文提出了在線(xiàn)相機(jī)到激光雷達(dá)蒸餾方案以促進(jìn)從圖像到點(diǎn)云的語(yǔ)義學(xué)習(xí)。實(shí)驗(yàn)結(jié)果表明,該方法在語(yǔ)義地圖構(gòu)建方面比以前的基于激光雷達(dá)的方法提高了27.9% mIoU,并且表現(xiàn)優(yōu)于最先進(jìn)的基于相機(jī)的方法。

論文題目:Hierarchical Supervision and Shuffle Data Augmentation for 3D Semi-Supervised Object Detection

作者:Chuandong Liu; Chenqiang Gao;Fangcen Liu等人

作者機(jī)構(gòu):School of Communication and Information Engineering, Chongqing University of Posts and Telecommunications, Chongqing, China(重慶郵電大學(xué)通信與信息工程學(xué)院);Chongqing Key Laboratory of Signal and Information Processing, Chongqing, China(重慶市信號(hào)與信息處理重點(diǎn)實(shí)驗(yàn)室)等

論文鏈接:https://arxiv.org/pdf/2304.01464.pdf

項(xiàng)目代碼:https://github.com/azhuantou/HSSDA

3D目標(biāo)檢測(cè)器通常需要大規(guī)模高質(zhì)量的3D標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,而這樣的數(shù)據(jù)收集通常昂貴而費(fèi)時(shí)。本文提出了一種半監(jiān)督學(xué)習(xí)的方法(HSSDA),該方法利用有限的標(biāo)注樣本和豐富的無(wú)標(biāo)注樣本進(jìn)行學(xué)習(xí)。相比于基于偽標(biāo)注的SSL目標(biāo)檢測(cè)方法,本文所提出的教師-學(xué)生框架采用動(dòng)態(tài)雙閾值策略生成監(jiān)督信號(hào),從而為學(xué)生網(wǎng)絡(luò)生成更合理的監(jiān)督并解決了混淆監(jiān)督的問(wèn)題。此外,shuffle數(shù)據(jù)增強(qiáng)策略被引入以增強(qiáng)學(xué)生網(wǎng)絡(luò)的特征表示能力。實(shí)驗(yàn)證明,HSSDA在不同數(shù)據(jù)集上解決了標(biāo)注成本高昂的問(wèn)題,并在性能上優(yōu)于最先進(jìn)的方法。

論文題目:3D Semantic Segmentation in the Wild: Learning Generalized Models for Adverse-Condition Point Clouds

作者:Aoran Xiao; Jiaxing Huang;Weihao Xuan等人

作者機(jī)構(gòu):Nanyang Technological University(南洋理工大學(xué));Waseda University (早稻田大學(xué));Technical University of Denmark(丹麥技術(shù)大學(xué))等

論文鏈接:https://arxiv.org/pdf/2304.00690.pdf

項(xiàng)目代碼:https://github.com/xiaoaoran/SemanticSTF

穩(wěn)健的點(diǎn)云解析對(duì)自動(dòng)駕駛中的Level-5自主駕駛至關(guān)重要。然而,如何學(xué)習(xí)通用的3D語(yǔ)義分割(3DSS)模型卻往往被忽略。本文介紹了一個(gè)逆境天氣點(diǎn)云數(shù)據(jù)集SemanticSTF,提供了密集的點(diǎn)級(jí)注釋?zhuān)试S研究各種惡劣的天氣條件下3DSS。我們還研究了兩種不同的全天候3DSS建模方法,其中一個(gè)是域自適應(yīng)的3DSS,另一個(gè)是域泛化的3DSS。本文還設(shè)計(jì)了一種域隨機(jī)化技術(shù),從而提高在各種惡劣天氣條件下3DSS的性能。實(shí)驗(yàn)展示了SemanticSTF數(shù)據(jù)集在3DSS研究中的重要價(jià)值,并為未來(lái)的相關(guān)研究方向提供了新的思路。

論文題目:Understanding the Robustness of 3D Object Detection with Bird's-Eye-View Representations in Autonomous Driving

作者:Zijian Zhu; Yichi Zhang;Hai Chen等人

作者機(jī)構(gòu):Institute of Image Communication and Network Engineering, Shanghai Jiao Tong University (上海交通大學(xué)圖像通信與網(wǎng)絡(luò)工程研究所);Dept. of Comp. Sci. and Tech., Institute for AI, THBI Lab, BNRist Center, Tsinghua University(清華大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,人工智能研究院,THBI實(shí)驗(yàn)室,BNRist中心)等

論文鏈接:https://arxiv.org/pdf/2303.17297.pdf

3D目標(biāo)檢測(cè)在自動(dòng)駕駛中是關(guān)鍵性的。使用Bird's-Eye-View(BEV)表示法可以顯著提高3D檢測(cè)器的性能。然而,本文仍需要更深入的了解BEV模型的強(qiáng)健性,這與自動(dòng)駕駛系統(tǒng)的安全密切相關(guān)。本文通過(guò)廣泛的實(shí)驗(yàn),發(fā)現(xiàn)BEV模型相對(duì)于先前的方法更穩(wěn)定,但更容易受到對(duì)抗性噪聲的影響,這提醒著B(niǎo)EV檢測(cè)器在應(yīng)用中的安全問(wèn)題,并有助于開(kāi)發(fā)更具魯棒性的模型。

論文題目:PartManip: Learning Cross-Category Generalizable Part Manipulation Policy from Point Cloud Observations

作者:Haoran Geng ; Ziming Li;Yiran Geng等人

作者機(jī)構(gòu):CFCS, Peking University ?(北京大學(xué)計(jì)算機(jī)前沿技術(shù)研究院);School of EECS, Peking University(北京大學(xué)電子工程與計(jì)算機(jī)科學(xué)學(xué)院)等

論文鏈接:https://arxiv.org/pdf/2303.16958.pdf

項(xiàng)目代碼:https://github.com/PKU-EPIC/PartManip

項(xiàng)目主頁(yè):https://pku-epic.github.io/PartManip/

為了更好地使具有行為能力的智能體在復(fù)雜的真實(shí)場(chǎng)景中操作物體,在本文中,作者建立了一個(gè)大規(guī)模的基于部件跨類(lèi)別物體操作基準(zhǔn)測(cè)試PartManip。通過(guò)使用提出的部件感知獎(jiǎng)勵(lì)和基于部件的規(guī)范化訓(xùn)練一個(gè)狀態(tài)專(zhuān)家,并將其知識(shí)轉(zhuǎn)換為基于視覺(jué)的學(xué)生,同時(shí),引入域?qū)箤W(xué)習(xí)進(jìn)行域不變特征提取以實(shí)現(xiàn)跨類(lèi)別的泛化性。實(shí)驗(yàn)證明,作者的學(xué)習(xí)策略可以大大優(yōu)于其他方法,并在未知的物體類(lèi)別上具有出色的性能,同時(shí)也可以成功地應(yīng)用于真實(shí)世界。

論文題目:NerVE: Neural Volumetric Edges for Parametric Curve Extraction from Point Cloud

作者:Xiangyu Zhu; Dong Du;Weikai Chen等人

作者機(jī)構(gòu):SSE, CUHKSZ(香港中文大學(xué)(深圳)理工學(xué)院);FNii, CUHKSZ(香港中文大學(xué)(深圳)未來(lái)智聯(lián)網(wǎng)絡(luò)研究院)等

論文鏈接:https://arxiv.org/pdf/2303.16465.pdf

項(xiàng)目代碼:https://github.com/dongdu3/NerVE

項(xiàng)目主頁(yè):https://dongdu3.github.io/projects/2023/NerVE/

從點(diǎn)云中提取參數(shù)化邊緣曲線(xiàn)是3D視覺(jué)和幾何處理中的一個(gè)基本問(wèn)題。為了解決在先前點(diǎn)級(jí)方法中檢測(cè)到嘈雜輸出的問(wèn)題,本文提出了一個(gè)直接檢測(cè)結(jié)構(gòu)化邊緣的方法NerVE,它可以通過(guò)體積學(xué)習(xí)框架輕松地完成學(xué)習(xí),并可以轉(zhuǎn)換為通用的分段線(xiàn)性曲線(xiàn)表示法。由于NerVE編碼了豐富的結(jié)構(gòu)信息,因此基于NerVE的邊緣提取可以簡(jiǎn)化為一個(gè)簡(jiǎn)單的圖搜索問(wèn)題,從而可以獲得參數(shù)曲線(xiàn)。在ABC數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文方法可以顯著優(yōu)于以往的最先進(jìn)方法。

論文題目:Binarizing Sparse Convolutional Networks for Efficient Point Cloud Analysis

作者:Xiuwei Xu; ?Ziwei Wang;Jie Zhou等人

作者機(jī)構(gòu):Department of Automation, Tsinghua University, China(清華大學(xué)自動(dòng)化系);Beijing National Research Center for Information Science and Technology, China(北京信息科學(xué)與技術(shù)國(guó)家研究中心)等

論文鏈接:https://arxiv.org/pdf/2303.15493.pdf

本文提出了BSC-Net,這是一種具有二值稀疏卷積網(wǎng)絡(luò)的新型神經(jīng)網(wǎng)絡(luò),專(zhuān)門(mén)用于點(diǎn)云分析。相比于傳統(tǒng)的網(wǎng)絡(luò)量化方法,BSC-Net采用優(yōu)化卷積操作子集的方法緩解量化誤差,與真值卷積神經(jīng)網(wǎng)絡(luò)的性能差距顯著縮小,并超越了當(dāng)前的網(wǎng)絡(luò)二值化方法。

論文題目:VL-SAT: Visual-Linguistic Semantics Assisted Training for 3D Semantic Scene Graph Prediction in Point Cloud

作者:Ziqin Wang; Bowen Cheng;Lichen Zhao等人

作者機(jī)構(gòu):School of Software, Beihang University(北航軟件學(xué)院);The University of Hong Kong(香港大學(xué))等

論文鏈接:https://arxiv.org/pdf/2303.14408.pdf

項(xiàng)目代碼:https://github.com/wz7in/CVPR2023-VLSAT

本文提出了VL-SAT方案,在從點(diǎn)云中預(yù)測(cè)3D語(yǔ)義場(chǎng)景圖的任務(wù)中,通過(guò)訓(xùn)練強(qiáng)大的多模態(tài)oracle模型來(lái)輔助3D模型,實(shí)現(xiàn)對(duì)尾部和模棱兩可的語(yǔ)義關(guān)系進(jìn)行準(zhǔn)確預(yù)測(cè)。通過(guò)在訓(xùn)練中有效利用視覺(jué)-語(yǔ)言語(yǔ)義,VL-SAT可以顯著提高常見(jiàn)的3DSSG預(yù)測(cè)模型的性能,尤其在處理尾關(guān)系三元組時(shí)。全面的實(shí)驗(yàn)驗(yàn)證了該方案的有效性。

論文題目:MSF: Motion-guided Sequential Fusion for Efficient 3D Object Detection from Point Cloud Sequences

作者:Chenhang He; Ruihuang Li;Yabin Zhang等人

作者機(jī)構(gòu):The Hong Kong Polytechnic University(香港理工大學(xué))

論文鏈接:https://arxiv.org/pdf/2303.08316.pdf

項(xiàng)目代碼:https://github.com/skyhehe123/MSF

本文提出了VL-SAT方案,在從點(diǎn)云中預(yù)測(cè)3D語(yǔ)義場(chǎng)景圖的任務(wù)中,通過(guò)訓(xùn)練強(qiáng)大的多模態(tài)oracle模型來(lái)輔助3D模型,實(shí)現(xiàn)對(duì)尾部和模棱兩可的語(yǔ)義關(guān)系進(jìn)行準(zhǔn)確預(yù)測(cè)。通過(guò)在訓(xùn)練中有效利用視覺(jué)-語(yǔ)言語(yǔ)義,VL-SAT可以顯著提高常見(jiàn)的3DSSG預(yù)測(cè)模型的性能,尤其在處理尾關(guān)系三元組時(shí)。全面的實(shí)驗(yàn)驗(yàn)證了該方案的有效性。

論文題目:PiMAE: Point Cloud and Image Interactive Masked Autoencoders for 3D Object Detection

作者:Anthony Chen; Kevin Zhang;Renrui Zhang等人

作者機(jī)構(gòu):National Key Laboratory for Multimedia Information Processing(北京大學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室);Peking University(北京大學(xué))等

論文鏈接:https://arxiv.org/pdf/2303.08129.pdf

項(xiàng)目代碼:https://github.com/BLVLab/PiMAE

本研究主要針對(duì)點(diǎn)云和RGB圖像這兩種經(jīng)常一起出現(xiàn)的模態(tài),提出了一個(gè)掩碼自編碼器先預(yù)訓(xùn)練的框架PiMAE。通過(guò)遮蓋策略、共享解碼器和跨模態(tài)重建模塊等措施,促進(jìn)了這兩種模式之間的交互作用,在多項(xiàng)實(shí)驗(yàn)中獲得了不錯(cuò)的結(jié)果。這個(gè)框架可以用于場(chǎng)景理解和物體識(shí)別等相關(guān)任務(wù)。

論文題目:MVImgNet: A Large-scale Dataset of Multi-view Images

作者:Xianggang Yu; Mutian Xu;Yidan Zhang等人

作者機(jī)構(gòu):SSE, CUHKSZ(香港中文大學(xué)(深圳)理工學(xué)院);FNii, CUHKSZ(香港中文大學(xué)(深圳)未來(lái)智聯(lián)網(wǎng)絡(luò)研究院)等

論文鏈接:https://arxiv.org/pdf/2303.06042.pdf

項(xiàng)目主頁(yè):https://gaplab.cuhk.edu.cn/projects/MVImgNet/

本研究引入了MVImgNet,這是一個(gè)通過(guò)人們?nèi)粘I钪信臄z真實(shí)物體的視頻來(lái)高效獲得的大規(guī)模多視角圖像數(shù)據(jù)集,具有3D感知信號(hào),是2D和3D視覺(jué)的軟橋梁。通過(guò)MVImgNet進(jìn)行的試驗(yàn)表明它在多種3D和2D視覺(jué)任務(wù)中具有很高的潛力。此外,通過(guò)MVImgNet的密集重建,還得到了一個(gè)3D物體點(diǎn)云數(shù)據(jù)集MVPNet,它為真實(shí)世界的3D物體分類(lèi)帶來(lái)好處,同時(shí)對(duì)點(diǎn)云理解提出了新的挑戰(zhàn)。MVImgNet和MVPNet將公開(kāi)發(fā)布。

論文題目:LoGoNet: Towards Accurate 3D Object Detection with Local-to-Global Cross-Modal Fusion

作者:Xin Li; Tao Ma;Yuenan Hou等人

作者機(jī)構(gòu):East China Normal University (華東師范大學(xué));The Chinese University of Hong Kong(香港中文大學(xué))等

論文鏈接:https://arxiv.org/pdf/2303.03595.pdf

項(xiàng)目代碼:https://github.com/sankin97/LoGoNet

本研究提出了一種新的Local-to-Global融合網(wǎng)絡(luò)(LoGoNet),它執(zhí)行LiDAR-相機(jī)融合并在本地和全局兩個(gè)級(jí)別上進(jìn)行。全局融合(GoF)采用了以前的文獻(xiàn),并巧妙地使用點(diǎn)重心以更好地進(jìn)行跨模態(tài)對(duì)齊,并提出了局部融合(LoF)和特征動(dòng)態(tài)聚合(FDA)模塊來(lái)最大限度地利用上下文信息,從而生成更具信息量的多模態(tài)特征。在Waymo和KITTI數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)證明了這種方法的優(yōu)越性,并在Waymo 3D物體檢測(cè)排行榜上取得了第一名。

論文題目:ProxyFormer: Proxy Alignment Assisted Point Cloud Completion with Missing Part Sensitive Transformer

作者:Shanshan Li; Pan Gao;Xiaoyang Tan等人

作者機(jī)構(gòu):College of Computer Science and Technology,Nanjing University of Aeronautics and Astronautics(南京航空航天大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院)

論文鏈接:https://arxiv.org/pdf/2302.14435.pdf

項(xiàng)目代碼:https://github.com/I2-Multimedia-Lab/ProxyFormer

本文提出了一種新的點(diǎn)云完成方法ProxyFormer,它通過(guò)點(diǎn)代理相互傳遞信息,從現(xiàn)有點(diǎn)云的特征生成缺失點(diǎn)的特征,并設(shè)計(jì)了一種缺失部分敏感的變形器來(lái)改進(jìn)缺失代理。實(shí)驗(yàn)結(jié)果表明,該方法在多個(gè)基準(zhǔn)數(shù)據(jù)集上優(yōu)于最新的完成網(wǎng)絡(luò),并具有最快的推理速度。

論文題目:NeuMap: Neural Coordinate Mapping by Auto-Transdecoder for Camera Localization

作者:Shitao Tang; Sicong Tang;Andrea Tagliasacchi等人

作者機(jī)構(gòu):Simon Fraser University(西門(mén)菲莎大學(xué))

論文鏈接:https://arxiv.org/pdf/2211.11177.pdf

項(xiàng)目代碼:https://github.com/Tangshitao/NeuMap

本文提出了一種名為NeuMap的端到端神經(jīng)映射方法,它使用基于Transformer的自動(dòng)解碼器對(duì)查詢(xún)點(diǎn)的3D坐標(biāo)進(jìn)行回歸,并結(jié)合了特征匹配和坐標(biāo)回歸方法的優(yōu)點(diǎn),實(shí)現(xiàn)了對(duì)場(chǎng)景信息的高效壓縮和更好的魯棒性。實(shí)驗(yàn)結(jié)果表明,NeuMap在坐標(biāo)回歸方面顯著優(yōu)于其他方法,并且在需要更小的場(chǎng)景表示尺寸的同時(shí)實(shí)現(xiàn)了與特征匹配方法相媲美的性能。

論文題目:LidarGait: Benchmarking 3D Gait Recognition with Point Clouds

作者:Chuanfu Shen; Fan Chao;Wei Wu等人

作者機(jī)構(gòu):Department of Industrial and Manufacturing Systems Engineering, The University of Hong Kong(香港大學(xué)工程學(xué)院);Department of Computer Science and Engineering, Southern University of Science and Technology(南方科技大學(xué)工程學(xué)院)

論文鏈接:https://arxiv.org/pdf/2211.10598.pdf

項(xiàng)目主頁(yè):https://lidargait.github.io/

此研究提出了一種基于點(diǎn)云來(lái)探索精確的3D步態(tài)特征的新方法,并構(gòu)建了第一個(gè)大規(guī)模的基于LiDAR傳感器和RGB相機(jī)收集的步態(tài)識(shí)別數(shù)據(jù)集SUSTech1K。實(shí)驗(yàn)結(jié)果表明,3D結(jié)構(gòu)信息是步態(tài)識(shí)別的顯著特征,LidarGait相對(duì)于現(xiàn)有的基于點(diǎn)和基于輪廓線(xiàn)的方法表現(xiàn)出顯著優(yōu)勢(shì),并提供了穩(wěn)定的跨視角結(jié)果。

論文題目:EDA: Explicit Text-Decoupling and Dense Alignment for 3D Visual Grounding

作者:Yanmin Wu; Xinhua Cheng;Renrui Zhang等人

作者機(jī)構(gòu):Shenzhen Graduate School, Peking University, China(深圳大學(xué)城北京大學(xué)深圳研究生院);The Chinese University of Hong Kong, China 3 Shanghai AI Laboratory, China(中國(guó)香港中文大學(xué))

論文鏈接:https://arxiv.org/pdf/2209.14941.pdf

項(xiàng)目主頁(yè):https://github.com/yanmin-wu/EDA

本文提出了EDA,一種顯式解耦文本屬性并對(duì)細(xì)粒度語(yǔ)言和點(diǎn)云對(duì)象進(jìn)行密集對(duì)齊的新方法。通過(guò)實(shí)驗(yàn),在兩個(gè)廣泛采用的3D視覺(jué)基礎(chǔ)數(shù)據(jù)集ScanRef和SR3D / NR3D上取得了最先進(jìn)的性能,并在新提出的視覺(jué)基礎(chǔ)任務(wù)上取得了絕對(duì)領(lǐng)先地位。

論文題目:PointVector: A Vector Representation In Point Cloud Analysis

作者:Xin Deng; WenYu Zhang;Qing Ding等人

作者機(jī)構(gòu):University of Science and Technology of China(中國(guó)科學(xué)技術(shù)大學(xué))

論文鏈接:https://arxiv.org/pdf/2205.10528.pdf

本文提出了一種向量為導(dǎo)向的點(diǎn)集抽象方法,用于解決標(biāo)準(zhǔn)MLP 在提取局部特征方面受到限制這一問(wèn)題。提出的PointVector模型在S3DIS數(shù)據(jù)集上實(shí)現(xiàn)了最新的72.3% mIOU和78.4% mIOU表現(xiàn),其模型參數(shù)僅為PointNeXt的58%,在有效性方面表現(xiàn)出眾。

—END—

目前工坊已經(jīng)建立了3D視覺(jué)方向多個(gè)社群,包括SLAM、工業(yè)3D視覺(jué)、自動(dòng)駕駛方向,細(xì)分群包括:[工業(yè)方向]三維點(diǎn)云、結(jié)構(gòu)光、機(jī)械臂、缺陷檢測(cè)、三維測(cè)量、TOF、相機(jī)標(biāo)定、綜合群;[SLAM方向]多傳感器融合、ORB-SLAM、激光SLAM、機(jī)器人導(dǎo)航、RTK|GPS|UWB等傳感器交流群、SLAM綜合討論群;[自動(dòng)駕駛方向]深度估計(jì)、Transformer、毫米波|激光雷達(dá)|視覺(jué)攝像頭傳感器討論群、多傳感器標(biāo)定、自動(dòng)駕駛綜合群等。[三維重建方向]NeRF、colmap、OpenMVS等。除了這些,還有求職、硬件選型、視覺(jué)產(chǎn)品落地等交流群。大家可以添加小助理微信: CV3d007,備注:加群+方向+學(xué)校|公司, 小助理會(huì)拉你入群。

CVPR2023點(diǎn)云相關(guān)文獻(xiàn)合集,重磅來(lái)襲!的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
雅江县| 东方市| 板桥市| 连州市| 昌图县| 鹰潭市| 淳安县| 青浦区| 星座| 怀仁县| 兴安盟| 金湖县| 东兴市| 理塘县| 古浪县| 平原县| 驻马店市| 仁布县| 临朐县| 嘉禾县| 大理市| 浏阳市| 襄汾县| 石狮市| 资源县| 新营市| 赤壁市| 高安市| 江源县| 北安市| 临沧市| 岳阳市| 新丰县| 新宁县| 南宁市| 阳信县| 云安县| 尼玛县| 油尖旺区| 株洲县| 普宁市|