有三ai深度學(xué)習(xí)之模型設(shè)計(jì)經(jīng)典網(wǎng)絡(luò)篇
后來人們發(fā)現(xiàn)隱藏層疊得越多,網(wǎng)絡(luò)的性能就越好。例如,在一個(gè)圖片識(shí)別的公共測試集上,2012年AlexNet共8層,錯(cuò)誤率為16.4%,2014年VGG共19層,錯(cuò)誤率為7.3%,2014年GoogleNet共22層,錯(cuò)誤率6.7%,2015年Residual Net有152層,錯(cuò)誤率降到了3.57%。因此,現(xiàn)在的網(wǎng)絡(luò)都是越疊越高,這種疊了很多層的神經(jīng)網(wǎng)絡(luò)就稱為“深度學(xué)習(xí)”。
標(biāo)簽: