2023.03.17 ArXiv精選
關(guān)注領(lǐng)域:
AIGC
3D computer vision learning
Fine-grained learning
GNN
其他
聲明
論文較多,時(shí)間有限,本專欄無法做文章的講解,只挑選出符合PaperABC研究興趣和當(dāng)前熱點(diǎn)問題相關(guān)的論文,如果你的research topic和上述內(nèi)容有關(guān),那本專欄可作為你的論文更新源或Paper reading list.

Paper list:
今日ArXiv共更新130篇
NeRF
PartNeRF: Generating Part-Aware Editable 3D Shapes without 3D Supervision
https://arxiv.org/pdf/2303.09554.pdf

斯坦福Guibas組的工作,提出了PartNeRF,可以實(shí)現(xiàn)物體部件級(jí)別的編輯.主要做法就是通過定義一系列的local NeRF,配合放射變換.這個(gè)工作的編輯粒度已經(jīng)來到part級(jí)別了,非常推薦!
LERF: Language Embedded Radiance Fields
https://arxiv.org/pdf/2303.09553.pdf

伯克利的一篇工作.提出了LERF,是將CLIP的語言能力Ground到NeRF的3D空間中,使得LERF具備了text ground的能力.這篇工作個(gè)人認(rèn)為很有意思,想法很獨(dú)特,對(duì)機(jī)器人的發(fā)展也很有促進(jìn)作用.
AIGC
P+: Extended Textual Conditioning in Text-to-Image Generation
https://arxiv.org/pdf/2303.09522.pdf

谷歌的工作.提出了一種區(qū)別于以往文本注入擴(kuò)散模型的方式.采用逐層注入.每一層注入的embedding不同.
Unified Multi-Modal Latent Diffusion for Joint Subject and Text Conditional Image Generation
https://arxiv.org/pdf/2303.09319.pdf

北大的工作,在給定參考圖和輸入文本的情況下,如何實(shí)現(xiàn)保持參考圖屬性的同時(shí),根據(jù)文本生成特定內(nèi)容.這個(gè)工作很有參考意義,同樣輸入是多種模態(tài)信息調(diào)制下的生成問題.