最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

實(shí)時(shí)追蹤科研動(dòng)態(tài)丨7.6精選新論文,附ChatPaper綜述

2023-07-06 17:51 作者:AMiner科技  | 我要投稿

作為科研人員,每天需要檢索和瀏覽大量的學(xué)術(shù)文獻(xiàn),以獲取最新的科技進(jìn)展和研究成果。然而,傳統(tǒng)的檢索和閱讀方式已經(jīng)無(wú)法滿足科研人的需求。ChatPaper,一款集檢索、閱讀、知識(shí)問(wèn)答于一體的文獻(xiàn)知識(shí)工具。幫助你快提高檢索、閱讀論文效率,獲取最新領(lǐng)域研究動(dòng)態(tài),讓科研工作更加游刃有余。

結(jié)合前沿動(dòng)態(tài)訂閱功能,精選arXiv當(dāng)日熱門新論文,形成論文綜述,讓大家更加快速了解前沿動(dòng)態(tài)。如果想要對(duì)某篇論文進(jìn)行深入對(duì)話,可以直接復(fù)制論文鏈接到瀏覽器上或者直達(dá)ChatPaper頁(yè)面:

https://www.aminer.cn/chat/g/www.aminer.cn/chat/g/

2023年7月6日精選新論文列表:

1.LONGNET: Scaling Transformers to 1,000,000,000 Tokens

鏈接:aminer.cn/pub/64a625ccb

ChatPaper綜述:文章指出了在大語(yǔ)言模型時(shí)代,擴(kuò)展序列長(zhǎng)度已經(jīng)成為一個(gè)關(guān)鍵需求。然而,現(xiàn)有的方法在計(jì)算復(fù)雜度或模型表達(dá)能力上都存在困難,導(dǎo)致最大序列長(zhǎng)度受限。作者在這項(xiàng)工作中介紹了LONGNET,它是一種Transformer變體,可以將序列長(zhǎng)度擴(kuò)展到超過(guò)10億個(gè)標(biāo)記,而不會(huì)犧牲對(duì)較短序列的性能。具體來(lái)說(shuō),作者提出了擴(kuò)展注意力機(jī)制,隨著距離的增加,注意力范圍呈指數(shù)級(jí)擴(kuò)展。LONGNET具有顯著優(yōu)勢(shì):1)它具有線性計(jì)算復(fù)雜度和標(biāo)記之間的對(duì)數(shù)依賴關(guān)系;2)它可以作為處理極長(zhǎng)序列的分布式訓(xùn)練器;3)其擴(kuò)展注意力可以無(wú)縫地與現(xiàn)有的基于Transformer的優(yōu)化方法集成。實(shí)驗(yàn)證明,LONGNET在長(zhǎng)序列建模和一般語(yǔ)言任務(wù)上都具有強(qiáng)大的性能。該工作為建模非常長(zhǎng)的序列打開(kāi)了新的可能性,例如將整個(gè)語(yǔ)料庫(kù)甚至整個(gè)互聯(lián)網(wǎng)視為一個(gè)序列。

2.Elastic Decision Transformer

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:論文介紹了"Elastic Decision Transformer"(EDT),它是現(xiàn)有"Decision Transformer"(DT)及其變種的一項(xiàng)重要進(jìn)展。雖然DT聲稱能生成最優(yōu)軌跡,但經(jīng)驗(yàn)證據(jù)顯示,它在軌跡拼接方面存在困難,即從一組次優(yōu)軌跡中生成最優(yōu)或接近最優(yōu)的軌跡。所提出的EDT通過(guò)在測(cè)試時(shí)調(diào)整DT中維護(hù)的歷史長(zhǎng)度,實(shí)現(xiàn)了在行動(dòng)推斷期間進(jìn)行軌跡拼接。此外,EDT通過(guò)在前一個(gè)軌跡是最優(yōu)時(shí)保留更長(zhǎng)的歷史,而在前一個(gè)軌跡是次優(yōu)時(shí)保留較短的歷史,來(lái)優(yōu)化軌跡,使其能夠與更優(yōu)的軌跡“拼接”。大量實(shí)驗(yàn)證明EDT在DT和Q學(xué)習(xí)方法之間的性能差距縮小。特別是在D4RL機(jī)動(dòng)基準(zhǔn)和Atari游戲的多任務(wù)環(huán)境中,EDT勝過(guò)了基于Q學(xué)習(xí)的方法。

3.Physics-based Motion Retargeting from Sparse Inputs

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:這項(xiàng)工作討論了在虛擬世界中為角色賦予動(dòng)作的問(wèn)題。具體來(lái)說(shuō),作者提出了在有限的傳感器數(shù)據(jù)情況下,通過(guò)物理學(xué)模擬將稀疏的人體傳感器數(shù)據(jù)實(shí)時(shí)轉(zhuǎn)化為不同形態(tài)角色的動(dòng)作的方法。同時(shí),作者還解決了角色可能具有不同骨骼結(jié)構(gòu)的問(wèn)題,以及角色與人體之間映射的不確定性。通過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練控制角色的策略,作者成功地實(shí)現(xiàn)了從真實(shí)且稀疏的數(shù)據(jù)中追蹤未知用戶的動(dòng)作。通過(guò)將方法應(yīng)用于不同骨骼結(jié)構(gòu)的角色,如恐龍、類鼠動(dòng)物和人類,作者展示了該方法的可行性。盡管只有上半身的傳感器信息可用,但角色的姿勢(shì)通常與用戶驚人地匹配。最后,作者在不平衡、舞蹈和體育動(dòng)作等多種情景下測(cè)試了該方法的魯棒性。

4.DragonDiffusion: Enabling Drag-style Manipulation on Diffusion Models

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:論文說(shuō)明了現(xiàn)有的大規(guī)模文本到圖像(T2I)模型雖然能從詳細(xì)的文本描述生成高質(zhì)量的圖像,但它們經(jīng)常缺乏對(duì)生成或真實(shí)圖像進(jìn)行精確編輯的能力。針對(duì)這個(gè)問(wèn)題,論文提出了一種新的圖像編輯方法DragonDiffusion,可以在擴(kuò)散模型上實(shí)現(xiàn)拖拽式操作。具體而言,論文通過(guò)構(gòu)建基于擴(kuò)散模型中間特征強(qiáng)對(duì)應(yīng)關(guān)系的分類器引導(dǎo)方法,將編輯信號(hào)轉(zhuǎn)換為通過(guò)特征對(duì)應(yīng)損失修改擴(kuò)散模型中間表示的梯度?;谶@種引導(dǎo)策略,論文還構(gòu)建了多尺度引導(dǎo),以考慮語(yǔ)義和幾何對(duì)齊。此外,還添加了交叉分支的自注意力機(jī)制,以保持原始圖像和編輯結(jié)果之間的一致性。通過(guò)高效的設(shè)計(jì),我們的方法實(shí)現(xiàn)了生成圖像或真實(shí)圖像的各種編輯模式,如物體移動(dòng)、物體大小調(diào)整、物體外觀替換和內(nèi)容拖動(dòng)。值得注意的是,所有的編輯和內(nèi)容保留信號(hào)都來(lái)自于圖像本身,模型不需要進(jìn)行微調(diào)或添加額外的模塊。

5.SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:論文介紹了一種名為SDXL的潛在擴(kuò)散模型,用于文本到圖像的合成。該模型在穩(wěn)定擴(kuò)散(Stable Diffusion)的基礎(chǔ)上進(jìn)行了改進(jìn),使用了一個(gè)三倍大的UNet主干網(wǎng)絡(luò),并引入了第二個(gè)文本編碼器。論文設(shè)計(jì)了多種新的條件方案,并在多個(gè)縱橫比上對(duì)SDXL進(jìn)行訓(xùn)練。此外,論文還引入了一個(gè)改進(jìn)模型,通過(guò)后期圖像技術(shù)改善由SDXL生成的樣本的視覺(jué)保真度。研究結(jié)果表明,與穩(wěn)定擴(kuò)散的先前版本相比,SDXL表現(xiàn)出顯著提高的性能,并達(dá)到與現(xiàn)有黑盒最先進(jìn)圖像生成器相競(jìng)爭(zhēng)的結(jié)果。為了促進(jìn)開(kāi)放研究和提高大型模型訓(xùn)練和評(píng)估的透明度,論文提供了代碼和模型權(quán)重的訪問(wèn)鏈接。

6.What Matters in Training a GPT4-Style Language Model with Multimodal Inputs??

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:論文指出了訓(xùn)練GPT4風(fēng)格的多模態(tài)語(yǔ)言模型所面臨的問(wèn)題。盡管最近的大型語(yǔ)言模型如GPT4在根據(jù)圖像遵循開(kāi)放式指令方面展示出了卓越的多模態(tài)能力,但這些模型的性能嚴(yán)重依賴于網(wǎng)絡(luò)結(jié)構(gòu)、訓(xùn)練數(shù)據(jù)和訓(xùn)練策略等設(shè)計(jì)選擇。然而,關(guān)于這些選擇在文獻(xiàn)中尚未廣泛討論,這使得難以量化該領(lǐng)域的進(jìn)展。為了解決這個(gè)問(wèn)題,本文系統(tǒng)全面地研究了訓(xùn)練這種模型的問(wèn)題,并進(jìn)行了定量和定性的分析。具體而言,對(duì)于網(wǎng)絡(luò)結(jié)構(gòu),我們比較了不同的LLM骨干和模型設(shè)計(jì)。對(duì)于訓(xùn)練數(shù)據(jù),我們研究了數(shù)據(jù)和采樣策略的影響。對(duì)于指令,我們探討了多樣化提示對(duì)訓(xùn)練模型的指令遵循能力的影響。對(duì)于基準(zhǔn)測(cè)試,我們通過(guò)眾包貢獻(xiàn)了第一個(gè)全面評(píng)估集,包括圖像和視頻任務(wù)。根據(jù)我們的發(fā)現(xiàn),我們提出了Lynx,它在保持與現(xiàn)有開(kāi)源GPT4風(fēng)格模型相比最準(zhǔn)確的多模態(tài)理解能力的同時(shí),具有最佳的多模態(tài)生成能力。

7.Robots That Ask For Help: Uncertainty Alignment for Large Language Model Planners

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:大型語(yǔ)言模型(LLMs)在進(jìn)行規(guī)劃時(shí)存在確定性偏差,即它們經(jīng)常產(chǎn)生自信的虛構(gòu)預(yù)測(cè)。這可能導(dǎo)致機(jī)器人在復(fù)雜的多步規(guī)劃環(huán)境中需要人類的幫助。為了解決這個(gè)問(wèn)題,研究者提出了一種名為KnowNo的框架,它通過(guò)測(cè)量和調(diào)整LLM基礎(chǔ)規(guī)劃器的不確定性,使其在需要幫助時(shí)知道自己不知道并尋求幫助。KnowNo利用符合預(yù)測(cè)理論提供了任務(wù)完成的統(tǒng)計(jì)保證,同時(shí)在復(fù)雜的多步規(guī)劃環(huán)境中最大程度地減少了人類的幫助。通過(guò)在各種模擬和真實(shí)機(jī)器人設(shè)置中進(jìn)行實(shí)驗(yàn),包括涉及不同類型不確定性的任務(wù)(例如,從空間不確定性到數(shù)值不確定性,從人類偏好到Winograd模式),結(jié)果顯示KnowNo在提高效率和自主性方面優(yōu)于現(xiàn)代基準(zhǔn)模型(可能涉及模型集成或大量提示調(diào)整),同時(shí)提供了形式上的保證。KnowNo可以直接用于LLMs,無(wú)需模型微調(diào),并且提供了一種輕量級(jí)的建模不確定性的有前途的方法,可以與基礎(chǔ)模型不斷增強(qiáng)的能力相適應(yīng)和擴(kuò)展。

8.Building Cooperative Embodied Agents Modularly with Large Language Models

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:論文探討了大型語(yǔ)言模型(LLMs)在單一智能體任務(wù)中的規(guī)劃能力,并指出這些模型在多智能體合作中的規(guī)劃和通信能力尚不明確。然而,多智能體合作對(duì)智能體來(lái)說(shuō)是至關(guān)重要的技能。為了解決這個(gè)問(wèn)題,論文提出了一個(gè)新的框架,利用LLMs實(shí)現(xiàn)多智能體合作,并在各種具體環(huán)境中進(jìn)行了測(cè)試??蚣苁怪悄荏w能夠高效地規(guī)劃、通信和合作,以完成長(zhǎng)期任務(wù)。論文還表明,最近的LLMs(如GPT-4)可以在不需要微調(diào)或少量提醒的情況下,超越強(qiáng)規(guī)劃方法,并通過(guò)我們的框架展現(xiàn)出新興的有效通信能力。此外,我們還發(fā)現(xiàn),以自然語(yǔ)言進(jìn)行通信的基于LLM的智能體能夠贏得更多信任,并與人類更有效地合作。這項(xiàng)研究突顯了LLMs在具體AI中的潛力,并為多智能體合作的未來(lái)研究奠定了基礎(chǔ)。

9.Flacuna: Unleashing the Problem Solving Power of Vicuna using FLAN Fine-Tuning

鏈接:aminer.cn/pub/64a63bddd

ChatPaper綜述:說(shuō)明了一個(gè)問(wèn)題,即T5-based LLMs在需要具有一般問(wèn)題解決能力的任務(wù)上,仍然優(yōu)于最新的基于解碼器的LLMs,例如LLAMA和VICUNA。作者通過(guò)對(duì)VICUNA進(jìn)行微調(diào)來(lái)研究第三個(gè)因素的影響,即指令數(shù)據(jù)集。他們使用了一個(gè)自定義的指令數(shù)據(jù)集集合FLANMINI,其中包括了FLAN的子集以及來(lái)自ChatGPT/GPT-4的各種代碼相關(guān)數(shù)據(jù)集和對(duì)話數(shù)據(jù)集。實(shí)驗(yàn)結(jié)果表明,通過(guò)在FLAN數(shù)據(jù)集上微調(diào)VICUNA,他們的模型FLACUNA在INSTRUCTEVAL的多個(gè)基準(zhǔn)數(shù)據(jù)集上實(shí)現(xiàn)了顯著改進(jìn)。


如何使用ChatPaper?

使用ChatPaper的方法很簡(jiǎn)單,打開(kāi)AMiner首頁(yè),從頁(yè)面頂部導(dǎo)航欄或者右下角便可進(jìn)入ChatPaper頁(yè)面。

在ChatPaper頁(yè)面中,可以選擇基于單篇文獻(xiàn)進(jìn)行對(duì)話和基于全庫(kù)(個(gè)人文獻(xiàn)庫(kù))對(duì)話,可選擇上傳本地PDF或者直接在AMiner上檢索文獻(xiàn)。

實(shí)時(shí)追蹤科研動(dòng)態(tài)丨7.6精選新論文,附ChatPaper綜述的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
西贡区| 和平县| 蓬安县| 苏尼特右旗| 吉木萨尔县| 绥芬河市| 高密市| 余江县| 博爱县| 舟曲县| 芦溪县| 息烽县| 六盘水市| 萨迦县| 新巴尔虎左旗| 剑阁县| 柳州市| 广元市| 荆门市| 外汇| 大同市| 玉环县| 巴林右旗| 昭觉县| 黄陵县| 南投县| 莱州市| 保亭| 漯河市| 襄城县| 泸州市| 军事| 尖扎县| 凤凰县| 丰都县| 济源市| 丽水市| 开江县| 米易县| 共和县| 玛多县|