最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

Talk預(yù)告 | MSRA宋愷濤&南大余博濤:面向文本/音樂(lè)序列任務(wù)的Transformer注意力機(jī)制

2022-11-21 12:20 作者:TechBeat人工智能社區(qū)  | 我要投稿


Image

本期為TechBeat人工智能社區(qū)456線上Talk!

北京時(shí)間11月22(周二)20:00微軟亞洲研究院研究員——宋愷濤南京大學(xué)碩士研究生——余博濤的Talk將準(zhǔn)時(shí)在TechBeat人工智能社區(qū)開播!

他們與大家分享的主題是:?“面向文本/音樂(lè)序列任務(wù)的Transformer注意力機(jī)制設(shè)計(jì)”,屆時(shí)將分別講解在文本和音樂(lè)序列任務(wù)中的Transformer注意力機(jī)制設(shè)計(jì),包括1)Transcormer,通過(guò)設(shè)計(jì)三流注意力機(jī)制(Triple-stream Self-attention)和滑動(dòng)語(yǔ)言模型(Sliding Language Models)來(lái)實(shí)現(xiàn)高效的語(yǔ)言打分;2)Museformer,通過(guò)設(shè)計(jì)細(xì)粒度-粗粒度(Fine- and Coarse-Grained)結(jié)合的注意力機(jī)制以實(shí)現(xiàn)高效的音樂(lè)生成。


Talk·信息

主題:面向文本/音樂(lè)序列任務(wù)的Transformer注意力機(jī)制設(shè)計(jì)

嘉賓:微軟亞洲研究院研究員 宋愷濤

南京大學(xué)碩士研究生 余博濤

時(shí)間:北京時(shí)間?11月22日?(周二) 20:00

地點(diǎn):TechBeat人工智能社區(qū)

http://www.techbeat.net/

?長(zhǎng)按識(shí)別二維碼,一鍵預(yù)約TALK!


完整版怎么看

掃描下方二維碼,或復(fù)制鏈接https://datayi.cn/w/a9a0z3Ao瀏覽器,一鍵完成預(yù)約!上線后會(huì)在第一時(shí)間收到通知哦


Talk·介紹

Transformer憑借其強(qiáng)大的注意力機(jī)制,逐漸成為文本、語(yǔ)音、音樂(lè)、圖像等任務(wù)的通用模型結(jié)構(gòu)。然而,在典型的序列任務(wù)中,Transformer的注意力機(jī)制還有比較大的提升空間,以實(shí)現(xiàn)高效的序列建模。在本次talk中,我們將介紹在文本和音樂(lè)序列任務(wù)中的Transformer注意力機(jī)制設(shè)計(jì),包括1)Transcormer,通過(guò)設(shè)計(jì)三流注意力機(jī)制(Triple-stream Self-attention)和滑動(dòng)語(yǔ)言模型(Sliding Language Models)來(lái)實(shí)現(xiàn)高效的語(yǔ)言打分;2)Museformer,通過(guò)設(shè)計(jì)細(xì)粒度-粗粒度(Fine- and Coarse-Grained)結(jié)合的注意力機(jī)制以實(shí)現(xiàn)高效的音樂(lè)生成。

?分享一?

當(dāng)下基于Transformer的語(yǔ)言模型是否已經(jīng)能夠滿足自然語(yǔ)言處理中的所有任務(wù)?如何針對(duì)不同的任務(wù)來(lái)設(shè)計(jì)更加有效的語(yǔ)言模型呢?我們?cè)贜eurIPS 2022上針對(duì)語(yǔ)言評(píng)分這一任務(wù)特性,設(shè)計(jì)了一個(gè)全新的Transformer模型——Transcormer。該模型提出了一個(gè)全新的滑動(dòng)語(yǔ)言模型,并設(shè)計(jì)了一種三流自注意力機(jī)制 ?;谶@樣的設(shè)計(jì),Transcormer模型能夠在利用雙向信息的同時(shí),只需要計(jì)算一次便可以得到每個(gè)單詞的概率分布。該方法在解決語(yǔ)言評(píng)估的任務(wù)上,具有更好的性能和更高的效率。?

Talk提綱如下:

  • 語(yǔ)言評(píng)分的任務(wù)定義

  • 過(guò)去預(yù)訓(xùn)練模型的優(yōu)缺點(diǎn)

  • 滑動(dòng)語(yǔ)言模型的設(shè)計(jì)

  • 實(shí)驗(yàn)結(jié)果

  • 工作總結(jié)

?分享二?

隨著深度學(xué)習(xí)的快速發(fā)展,自動(dòng)音樂(lè)創(chuàng)作成為新興研究方向。Transformer模型被應(yīng)用于音樂(lè)生成任務(wù)中并取得良好效果,但長(zhǎng)序列建模(如何高效建模通常長(zhǎng)度超過(guò)10000的音樂(lè)序列)和音樂(lè)結(jié)構(gòu)建模(如何使生成的音樂(lè)具有更好的音樂(lè)重復(fù)結(jié)構(gòu))仍然是該領(lǐng)域的重大挑戰(zhàn)。因此,在NeurIPS 2022上,我們提出Museformer,它使用一種細(xì)粒度和粗粒度相結(jié)合的注意力機(jī)制來(lái)解決這些挑戰(zhàn)。

Talk提綱如下:

  • AI+藝術(shù)

  • 背景介紹:symbolic music,音樂(lè)生成中的挑戰(zhàn)

  • Museformer模型和細(xì)-粗注意力機(jī)制的核心思想和具體設(shè)計(jì)

  • 實(shí)驗(yàn)和結(jié)果分析

  • 總結(jié)


Talk·預(yù)習(xí)資料

[1] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding?

[2] Improving Language Understanding by Generative Pre-Training?

[3] XLNet: Generalized Autoregressive Pretraining for Language Understanding

[4] arXiv:?https://arxiv.org/abs/2210.10349?

[5] Demo:?https://ai-muzic.github.io/museformer

[6] Code:?https://github.com/microsoft/muzic


Talk·提問(wèn)交流


在Talk界面下的【交流區(qū)】參與互動(dòng)!

留下你的打call??和問(wèn)題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

Image

你的每一次貢獻(xiàn),我們都會(huì)給予你相應(yīng)的i豆積分,還會(huì)有驚喜獎(jiǎng)勵(lì)哦!



Talk·嘉賓介紹

Image
宋愷濤

微軟亞洲研究院研究員

宋愷濤,微軟亞洲研究院。博士畢業(yè)于南京理工大學(xué)計(jì)算機(jī)科學(xué)與應(yīng)用專業(yè)。研究方向?yàn)樽匀徽Z(yǔ)言處理,包括機(jī)器翻譯,預(yù)訓(xùn)練模型,語(yǔ)言生成等領(lǐng)域。在ICML、NeurIPS、KDD、ACL、IJCAI、ICCV、TIP、COLING、ICASSP、InterSpeech等頂級(jí)會(huì)議及期刊發(fā)表了多篇論文,其谷歌學(xué)術(shù)被引2200+余次。他的多項(xiàng)研究成果應(yīng)用在微軟的產(chǎn)品中。

個(gè)人主頁(yè):https://scholar.google.com/citations?user=LLk9dR8AAAAJ&hl=en

Image
余博濤

南京大學(xué)碩士研究生

余博濤,南京大學(xué)碩士研究生,導(dǎo)師為胡偉副教授,正在尋求海外讀博機(jī)會(huì)。主要研究方向包含自然語(yǔ)言處理、AI音樂(lè)和深度學(xué)習(xí)。

個(gè)人主頁(yè):https://btyu.github.io/

長(zhǎng)按識(shí)別二維碼,一鍵預(yù)約TALK!

關(guān)于TechBeat人工智能社區(qū)

TechBeat (www.techbeat.net) 是一個(gè)薈聚全球華人AI精英的成長(zhǎng)社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長(zhǎng)。 期待這里可以成為你學(xué)習(xí)AI前沿知識(shí)的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級(jí)打怪的根據(jù)地!

更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk預(yù)告 | MSRA宋愷濤&南大余博濤:面向文本/音樂(lè)序列任務(wù)的Transformer注意力機(jī)制的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
临朐县| 阳江市| 台南县| 日喀则市| 友谊县| 南部县| 新晃| 丰镇市| 东安县| 咸阳市| 兰坪| 鄂尔多斯市| 栾川县| 盐边县| 雷山县| 侯马市| 林甸县| 金溪县| 即墨市| 洛宁县| 大关县| 眉山市| 阜康市| 正宁县| 腾冲县| 海原县| 巴青县| 大渡口区| 中山市| 浠水县| 泗洪县| 新巴尔虎右旗| 双江| 三原县| 大埔县| 桓台县| 佳木斯市| 榆树市| 府谷县| 曲阳县| 綦江县|