最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

NLP經(jīng)典論文推薦:信息抽取之命名實體識別

2021-12-17 18:25 作者:深度之眼官方賬號  | 我要投稿

如果你問我為什么先更新CV論文,再更新NLP論文,絕對不是因為我偏心,是因為NLP方向的同學蠻少的,學姐最近的閱讀量都下降了,嗚嗚嗚,大家給我點點??吧!



深度學習應用NER的經(jīng)典模型

《Bidirectional LSTM-CRF Models for Sequence Tagging》

簡介

在這篇論文中,我們提出了一系列用于序列標注的長短期記憶 (LSTM)模型。這些模型包括了LSTM網(wǎng)絡,雙向LSTM (BI-LSTM)網(wǎng)絡,帶有條件隨機場(CRF)的LSTM(LSTM-CRF),以及帶有CRF層的雙向LSTM (BI-LSTM-CRF)。我們的工作首次在NLP基準序列標記數(shù)據(jù)集中使用雙向LSTM CRF(記為BI-LSTM-CRF)。我們證明,因為雙向LSTM組件,BILSTM-CRF模型可以有效影響過去和未來的輸入特征。而由于CRF層,模型同時能使用句子層標記信息。 BI-LSTMCRF模型在POS(詞性標注),chunking(語義組塊標注)和 NER(命名實體識別)數(shù)據(jù)集上都達到了目前最優(yōu)的精確度。另外,對比以前的方法,該模型是健壯的,并且減少了對詞向量的依賴性。

論文鏈接

https://arxiv.org/pdf/1508.01991

視頻講解:

https://www.bilibili.com/video/BV1K54y117yD?spm_id_from=333.999.0.0


融合字詞向量的中文NER論文標題

《Chinese NER Using Lattice LSTM》


摘要

本文研究了lattice-structured LSTM模型用來做中文的NER,在character-based的序列標注的模型上改進得到的,在character-based模型中的每個character cell vector通過詞向量輸入門的控制引入以當前字符結束的在詞表中出現(xiàn)的所有詞的word cell vector得到新的character cell vector,用新的character cell vector得到每個字符的hidden vector來進行最終的標簽的預測。


與基于字符的方法相比,本文的方法顯式的使用了詞和詞序列信息,與基于詞的方法相比lattice LSTM不存在分割錯誤的問題,Gated recurrent cells使模型能夠從句子中選取最相關的字符和詞,從而得到更好的NER效果。

論文鏈接

https://arxiv.org/pdf/1805.02023.pdf

代碼鏈接

https://github.com/jiesutd/LatticeLSTM


Rethinking機制的CNN網(wǎng)絡解決中文NER問題論文標題


《CNN-Based Chinese NER with Lexicon Rethinking》

簡介

本文模型提出的動機是,盡管現(xiàn)有的融合了lexicon信息的RNN模型在中文NER任務中取得了一定的成功,但這類模型存在兩處缺點:


效率限制: 基于RNN的模型由于循環(huán)結構的限制無法進行并行操作,尤其是Lattice-LSTM;


Lexicon沖突問題: 當句子中的某個字符可能與lexicon中的多個word有關時,基于RNN的模型難以對此做出判斷。例如,圖一中的"長"可能屬于"市長"一詞,也可能屬于"長隆"一詞,而對"長"所屬lexicon word判斷的不同,將導致對字符"長"預測的標簽不同。

論文鏈接

https://www.ijcai.org/Proceedings/2019/0692.pdf

代碼鏈接

https://github.com/guitaowufeng/LR-CNN


圖神經(jīng)網(wǎng)絡解決中文NER任務

《A Lexicon-Based Graph Neural Network for Chinese NER》

論文簡介

基于字符的中文NER中,同一個字符可能屬于多個lexicon word,存在 overlapping ambiguity 的現(xiàn)象, 這會對最終標注結果造成誤導。例如圖1中, “河流” 也可屬于 “流經(jīng)” 兩個詞中,都含有同一個"流"字。Ma等人于2014年提出,想解決overlapping across strings的問題,需要引入整個句子中的上下文以及來自高層的信息;然而,現(xiàn)有的基于RNN的序列模型,不能讓字符收到序列方向上 remain characters 的信息;

論文鏈接

https://www.aclweb.org/anthology/D19-1096.pdf

代碼

https://github.com/RowitZou/LGN


這篇論文的源地址貌似出了問題,需要的話公眾號后臺找學姐要。


改進Transformer應用在NER任務

《TENER- Adapting Transformer Encoder for Named Entity Recognition》

簡介

BiLSTMs結構在NLP的任務中廣泛應用,最近,全連接模型Transformer大火,它的 self-attention 機制和強大的并行計算能力使其在眾多模型中脫穎而出,但是,原始版本的 Transformer 在命名體識別(NER)中表現(xiàn)卻不像在其他領域中那么好,本文將介紹一種叫 TENER 的模型,是在 Transformer 的基礎上為 NER 任務改進的,既可以應用在 word-level,也可以應用在 character-level。


通過使用位置感知的編碼方式和被削減的attention,我們讓 Transformer 在 NER 中達到了在其他任務中那樣好的效果。

論文鏈接

https://arxiv.org/abs/1911.04474

代碼

https://github.com/fastnlp/TENER


自適應Embedding融合詞典信息解決中文NER任務期刊日期

《Simplify?the Usage of Lexicon in Chinese NER》

簡介

最近,許多工作試圖使用單詞詞典來增強中文命名實體識別(NER)的性能。作為代表,Lattice-LSTM (Zhang and Yang, 2018) 在幾個公開的中文 NER 數(shù)據(jù)集上取得了新的基準測試結果。但是,Lattice-LSTM 具有復雜的模型架構。這限制了它在許多需要實時 NER 響應的工業(yè)領域的應用。在這項工作中,我們提出了一種簡單但有效的方法,將單詞詞典整合到字符表示中。這種方法避免了設計復雜的序列建模架構,對于任何神經(jīng) NER 模型,只需要對字符表示層進行細微的調整即可引入詞典信息。對四個基準中文 NER 數(shù)據(jù)集的實驗研究表明,我們的方法的推理速度比最先進的方法快 6.15 倍,并且具有更好的性能。實驗結果還表明,所提出的方法可以很容易地與 BERT 等預訓練模型結合使用。

論文鏈接

https://arxiv.org/pdf/1908.05969.pdf

代碼鏈接

https://github.com/v-mipeng/LexiconAugmentedNER

免責聲明:所載內容來源互聯(lián)網(wǎng),僅供參考。轉載稿件版權歸原作者和機構所有,如有侵權,請聯(lián)系我們刪除。



覺得有用就點贊吧!

每天18:30分更新

關注學姐+星標+在看

不迷路看好文

如有錯漏歡迎指出,別上來就噴哈~

NLP經(jīng)典論文推薦:信息抽取之命名實體識別的評論 (共 條)

分享到微博請遵守國家法律
嘉善县| 交口县| 都匀市| 林州市| 大化| 普洱| 拉萨市| 剑河县| 开江县| 平江县| 南昌县| 武鸣县| 大姚县| 毕节市| 淮阳县| 泰来县| 新昌县| 平昌县| 廊坊市| 石阡县| 沧源| 珠海市| 盐城市| 明溪县| 浦城县| 博爱县| 化德县| 习水县| 临泉县| 兴化市| 阿拉善右旗| 武功县| 平远县| 宜兰市| 正阳县| 农安县| 长垣县| 桃源县| 德安县| 新昌县| 巴彦淖尔市|