最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Talk預(yù)告 | FAIR研究科學(xué)家劉壯:高效和可擴(kuò)展的視覺神經(jīng)網(wǎng)絡(luò)架構(gòu)

2022-09-13 12:53 作者:TechBeat人工智能社區(qū)  | 我要投稿


Image

本期為TechBeat人工智能社區(qū)440線上Talk。

北京時間9月15(周四)20:00,FAIR Research Scientist——劉壯的Talk將準(zhǔn)時在TechBeat人工智能社區(qū)開播!他與大家分享的主題是: “高效和可擴(kuò)展的視覺神經(jīng)網(wǎng)絡(luò)架構(gòu)”,屆時將介紹一種在圖像分割任務(wù)上讓模型更好地做到"任意時刻"推理的框架。接著我們來考察模型剪枝方法的有效性,將它們與一種非常簡單的baseline方法進(jìn)行比較,從而得出這些方法的實(shí)際價值可能是在于學(xué)習(xí)結(jié)構(gòu)。

Talk·信息

主題:高效和可擴(kuò)展的視覺神經(jīng)網(wǎng)絡(luò)架構(gòu)

嘉賓:FAIR Research Scientist?劉壯

時間:北京時間?9月15日?(周四) 20:00

地點(diǎn):TechBeat人工智能社區(qū)

http://www.techbeat.net/

長按識別二維碼,一鍵預(yù)約TALK!


完整版怎么看?

掃描下方二維碼,或復(fù)制鏈接https://datayi.cn/w/4PKOvNxP瀏覽器,一鍵完成預(yù)約!上線后會在第一時間收到通知哦


Talk·介紹

卷積網(wǎng)絡(luò)和其他神經(jīng)架構(gòu)在計算機(jī)視覺上的成功應(yīng)用是過去十年AI革命的關(guān)鍵。讓視覺模型變"小"和變"大"都有很強(qiáng)的需求。小模型代表了對于高效性(Efficiency)的需求,因?yàn)橐曈X識別系統(tǒng)經(jīng)常是要部署到邊緣設(shè)備;大模型則強(qiáng)調(diào)了對于可擴(kuò)展性(Scalability)的需求--可擴(kuò)展性意味著模型能夠利用巨量計算和數(shù)據(jù)來達(dá)到越來越高的準(zhǔn)確度。在這兩個方向的研究都產(chǎn)生了很多的成果,提出了很多設(shè)計的技巧,并且對于更好的模型的追求依然沒有止步。同時,這個領(lǐng)域非??焖俚倪M(jìn)展也有時讓究竟是什么機(jī)制促使了某些方法非常有效變得模糊。

具體分享提綱如下:

  1. 設(shè)計符合直覺的算法讓卷積網(wǎng)絡(luò)的推理更加高效和靈活;

  2. 通過研究baseline方法來分析一些方法成功的背后原因。

首先我們介紹一種在圖像分割任務(wù)上讓模型更好地做到"任意時刻"推理的框架。接著我們來考察模型剪枝方法的有效性,將它們與一種非常簡單的baseline方法進(jìn)行比較,從而得出這些方法的實(shí)際價值可能是在于學(xué)習(xí)結(jié)構(gòu)。最后,我們討論最近將卷積網(wǎng)絡(luò)和Transformer進(jìn)行比較的工作:我們通過將Transformer中的設(shè)計技巧融入到傳統(tǒng)卷積網(wǎng)絡(luò)中,來探究自注意力模塊是否是Transformer強(qiáng)大可擴(kuò)展性最重要的原因。


Talk·預(yù)習(xí)資料

  1. https://arxiv.org/abs/2104.00749

  2. https://arxiv.org/abs/1810.05270

  3. https://arxiv.org/abs/2201.03545

  4. https://www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-205.html

Talk·提問交流

通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!

方式 ①

在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

Image

你的每一次貢獻(xiàn),我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!

方式 ②

在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Image
快來提問啦!


Talk·嘉賓介紹

Image
劉壯

FAIR Research Scientist

劉壯,目前在Meta AI的FAIR團(tuán)隊(duì)擔(dān)任Research Scientist,博士畢業(yè)于加州大學(xué)伯克利分校計算機(jī)系。研究興趣為深度學(xué)習(xí),計算機(jī)視覺和表征學(xué)習(xí)等。提出過知名神經(jīng)網(wǎng)絡(luò)模型架構(gòu)DenseNet, ConvNeXt等。曾在Intel Labs、Adobe Research、FAIR和康奈爾大學(xué)進(jìn)行研究訪問或者實(shí)習(xí)。2017年本科畢業(yè)于清華大學(xué)姚班。獲得過CVPR最佳論文獎,NeurIPS Workshop最佳論文獎,Snap Research Fellowship等獎項(xiàng)。

個人主頁:

https://liuzhuang13.github.io/


?長按識別二維碼,一鍵預(yù)約TALK!


-The End-

關(guān)于TechBeat人工智能社區(qū)

TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長。 期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級打怪的根據(jù)地!

更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk預(yù)告 | FAIR研究科學(xué)家劉壯:高效和可擴(kuò)展的視覺神經(jīng)網(wǎng)絡(luò)架構(gòu)的評論 (共 條)

分享到微博請遵守國家法律
湟源县| 云林县| 五河县| 徐州市| 宿州市| 克拉玛依市| 巴彦县| 察雅县| 仁寿县| 曲沃县| 平江县| 洛浦县| 当阳市| 寿阳县| 福建省| 册亨县| 大厂| 呼伦贝尔市| 昌邑市| 彭州市| 报价| 冀州市| 大石桥市| 凉城县| 句容市| 郓城县| 东乡县| 桓台县| 微山县| 军事| 台东县| 广东省| 丹寨县| 宁陕县| 贡嘎县| 那坡县| 南靖县| 黑山县| 新竹县| 嵩明县| 高唐县|