最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

70+篇ACL 2023最新獲獎(jiǎng)?wù)撐恼砗昧?,免費(fèi)速領(lǐng)

2023-07-12 17:58 作者:深度之眼官方賬號(hào)  | 我要投稿

ACL 2023獲獎(jiǎng)?wù)撐某鰻t啦!今年共有3篇最佳論文,4篇特別獎(jiǎng)?wù)撐?/strong>(資源獎(jiǎng),社會(huì)影響?yīng)劊瑥?fù)現(xiàn)獎(jiǎng),主題論文獎(jiǎng))和39篇優(yōu)秀論文!此外,還有區(qū)域主席獎(jiǎng):每個(gè)領(lǐng)域的高級(jí)區(qū)域主席都有機(jī)會(huì)提名他們的一篇論文獲得單獨(dú)的獎(jiǎng)項(xiàng)。

為了方便同學(xué)們學(xué)習(xí),今天學(xué)姐就幫大家整理了一下,但凡獲獎(jiǎng)的論文全部都分享在下面啦!建議大家收藏起來(lái)慢慢看!

另外,上回學(xué)姐還分享了CVPR近5年最佳論文,有需要的同學(xué)點(diǎn)藍(lán)字傳送。

鑒于論文太多了不好找,學(xué)姐還幫大家把這些論文都整理打包了!原文和代碼都有!

掃碼添加小享,回復(fù)“ACL最佳”?

免費(fèi)獲取全部論文+代碼合集

最佳論文

1.Do Androids Laugh at Electric Sheep? Humor “Understanding” Benchmarks from The New Yorker Caption Contest

標(biāo)題:電子羊會(huì)讓安卓笑嗎?來(lái)自《紐約客》漫畫(huà)標(biāo)題大賽的幽默“理解”基準(zhǔn)測(cè)試

內(nèi)容:現(xiàn)在的大型神經(jīng)網(wǎng)絡(luò)可以生成笑話,但它們是否真正“理解”幽默還存疑問(wèn)。作者通過(guò)三個(gè)源自New Yorker漫畫(huà)標(biāo)題競(jìng)賽的任務(wù)來(lái)測(cè)試AI模型:匹配圖文、識(shí)別獲勝標(biāo)題、解釋幽默標(biāo)題的笑點(diǎn)。這三個(gè)任務(wù)體現(xiàn)了漸進(jìn)的“理解”漫畫(huà)的復(fù)雜層次,關(guān)鍵在于圖像和標(biāo)題之間復(fù)雜、常令人驚訝的關(guān)系,以及對(duì)人類(lèi)經(jīng)驗(yàn)和文化的含蓄玩味的暗示。研究采用了多模態(tài)和僅語(yǔ)言模型,前者直接處理漫畫(huà)圖像,后者給出場(chǎng)景的多方面描述來(lái)模擬人類(lèi)視覺(jué)理解。

結(jié)果表明兩類(lèi)模型在三個(gè)任務(wù)上都存在困難。例如,最好的多模態(tài)模型匹配任務(wù)上比人類(lèi)低30個(gè)百分點(diǎn)。即使給出真實(shí)的視覺(jué)場(chǎng)景描述,在三分之二的情況下,人類(lèi)解釋仍優(yōu)于最好的機(jī)器生成解釋(few-shot GPT-4)。

2.What the DAAM: Interpreting Stable Diffusion Using Cross Attention

標(biāo)題:使用交叉注意力理解Stable Diffusion:介紹DAAM

內(nèi)容:大規(guī)模擴(kuò)散神經(jīng)網(wǎng)絡(luò)在文本到圖像生成方面實(shí)現(xiàn)了重大突破,但我們對(duì)它們的理解仍較少,缺乏解釋性分析。本文對(duì)Stable Diffusion等最近開(kāi)源的模型進(jìn)行了文本圖像歸因分析。作者通過(guò)上采樣并聚合去噪子網(wǎng)絡(luò)中詞與像素之間的交叉注意力分?jǐn)?shù),得到像素級(jí)的歸因熱力圖,將方法命名為DAAM。

通過(guò)測(cè)試它對(duì)名詞的語(yǔ)義分割能力以及對(duì)所有詞性的歸因質(zhì)量(由人工評(píng)分)來(lái)驗(yàn)證其正確性,然后應(yīng)用DAAM來(lái)研究句法結(jié)構(gòu)在像素空間的作用,通過(guò)十種常見(jiàn)依存關(guān)系特征化頭詞與依存詞之間的熱力圖交互模式。最后作者用DAAM研究了幾種語(yǔ)義現(xiàn)象,著重關(guān)注特征糾纏,發(fā)現(xiàn)同義詞惡化了生成質(zhì)量,描述性形容詞的關(guān)注面過(guò)于廣泛。作者是首次從視覺(jué)語(yǔ)言學(xué)角度解釋大規(guī)模擴(kuò)散模型,這啟發(fā)了后續(xù)研究方向。

3.From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models

標(biāo)題:從預(yù)訓(xùn)練數(shù)據(jù)到語(yǔ)言模型再到下游任務(wù):跟蹤導(dǎo)致NLP模型不公的政治偏見(jiàn)的路徑

內(nèi)容:論文主要討論了語(yǔ)言模型中的政治偏見(jiàn)問(wèn)題。 語(yǔ)言模型是在多樣化的數(shù)據(jù)源上預(yù)訓(xùn)練的,這些數(shù)據(jù)中包含了大量的觀點(diǎn)和視角。一方面這體現(xiàn)了民主和思想多樣性,另一方面也會(huì)帶來(lái)社會(huì)偏見(jiàn)。作者開(kāi)發(fā)了新的方法來(lái)測(cè)量語(yǔ)言模型中的政治偏見(jiàn),包括社會(huì)和經(jīng)濟(jì)方面的,測(cè)量下游基于politically biased語(yǔ)言模型的NLP模型的公平性。

作者關(guān)注仇恨言論和誤information檢測(cè),目的是量化預(yù)訓(xùn)練數(shù)據(jù)中的政治偏見(jiàn)對(duì)高風(fēng)險(xiǎn)的社會(huì)導(dǎo)向任務(wù)的公平性的影響。結(jié)果發(fā)現(xiàn),預(yù)訓(xùn)練語(yǔ)言模型確實(shí)存在加強(qiáng)預(yù)訓(xùn)練語(yǔ)料中存在的政治極化的偏見(jiàn),并將社會(huì)偏見(jiàn)傳播到仇恨言論預(yù)測(cè)和誤信息檢測(cè)中。作者討論了研究結(jié)果對(duì)NLP研究的影響,并提出了未來(lái)減輕不公平性的方向。

特別獎(jiǎng)

復(fù)現(xiàn)獎(jiǎng):4.Do CoNLL-2003 Named Entity Taggers Still Work Well in 2023?

資源獎(jiǎng):5.When Does Translation Require Context? A Data-driven, Multilingual Exploration

社會(huì)影響?yīng)劊?/strong>6.Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models

主題論文獎(jiǎng):7.Weaker Than You Think: A Critical Look at Weakly Supervised Learning

優(yōu)秀論文(39篇)

掃碼添加小享,回復(fù)“ACL最佳”?

免費(fèi)獲取全部論文+代碼合集



領(lǐng)域主席獎(jiǎng)

語(yǔ)言多樣性

Small Data, Big Impact: Leveraging Minimal Data for Effective Machine Translation

情感分析、文體分析和論據(jù)挖掘

StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse Representations and Content Enhancing

語(yǔ)篇與語(yǔ)用學(xué)

Resolving Indirect Referring Expressions for Entity Selection

語(yǔ)義學(xué):句子級(jí)語(yǔ)義學(xué)、文本推理和其他領(lǐng)域

ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR Back-Translation

問(wèn)答

DisentQA: Disentangling Parametric and Contextual Knowledge with Counterfactual Question Answering

語(yǔ)義學(xué):詞匯

LexSym: Compositionality as Lexical Symmetry

NLP應(yīng)用程序

Are You Copying My Model? Protecting the Copyright of Large Language Models for EaaS via Backdoor Watermark

言語(yǔ)和多模態(tài)

Hearing Lips in Noise: Universal Viseme-Phoneme Mapping and Transfer for Robust Audio-Visual Speech Recognition

NLP模型的可解釋性與分析

Entity Tracking in Language Models

語(yǔ)言學(xué)理論、認(rèn)知模型和心理語(yǔ)言學(xué)

Exploring How Generative Adversarial Networks Learn Phonological Representations

資源與評(píng)價(jià)

Tell2Design: A Dataset for Language-Guided Floor Plan Generation

多語(yǔ)言和跨語(yǔ)言NLP

Glot500: Scaling Multilingual Corpora and Language Models to 500 Languages

演示賽道獎(jiǎng)

最佳Demo獎(jiǎng)

VisKoP: Visual Knowledge oriented Programming for Interactive Knowledge Base Question Answering

杰出Demo論文

  • CB2: Collaborative Natural Language Interaction Research Platform

  • disco: a toolkit for Distributional Control of Generative Models

學(xué)生研究獎(jiǎng)(4篇)

  • Assessing Chain-of-Thought Reasoning against Lexical Negation: A Case Study on Syllogism

    • Mengyu Ye, Tatsuki Kuribayashi, Jun Suzuki, Hiroaki Funayama, Goro Kobayashi

  • Is a Knowledge-based Response Engaging?: An Analysis on Knowledge-Grounded Dialogue with Information Source Annotation

    • Takashi Kodama, Hirokazu Kiyomaru, Yin Jou Huang, Taro Okahisa, Sadao Kurohashi

  • LECO: Improving Early Exiting via Learned Exits and Comparison-based Exiting Mechanism

    • Jingfan Zhang, Ming Tan, Pengyu Dai, Wei Zhu

  • How-to Guides for Specific Audiences: A Corpus and Initial Findings

    • Nicola Fanton, Agnieszka Falenska, Michael Roth

榮譽(yù)提名(14篇)

掃碼添加小享,回復(fù)“ACL最佳”?

免費(fèi)獲取全部論文+代碼合集


70+篇ACL 2023最新獲獎(jiǎng)?wù)撐恼砗昧?,免費(fèi)速領(lǐng)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
集安市| 冕宁县| 伊春市| 腾冲县| 耒阳市| 普定县| 台湾省| 密山市| 信丰县| 南岸区| 贵定县| 陇西县| 杭锦后旗| 饶阳县| 五寨县| 特克斯县| 岢岚县| 四川省| 青海省| 博湖县| 嘉义市| 中牟县| 绥化市| 呼玛县| 尚志市| 南开区| 昌江| 理塘县| 英山县| 响水县| 互助| 平昌县| 邳州市| 无极县| 勃利县| 卫辉市| 涿州市| 泰来县| 柳江县| 运城市| 石屏县|