【草履蟲(chóng)都直呼能看懂!】計(jì)算機(jī)博士把CNN卷積神經(jīng)網(wǎng)絡(luò)給徹底講清楚了?。?人工智

?
1.什么是卷積-1 P1 - 02:14
?
?
1.什么是卷積-1 P1 - 03:29
?以mnist數(shù)據(jù)集為例
有多少條線就有多少參數(shù)量

?
1.什么是卷積-1 P1 - 05:31
?感受野:局部相關(guān)性

?
1.什么是卷積-1 P1 - 06:44
?
?
1.什么是卷積-1 P1 - 09:02
?
?
1.什么是卷積-1 P1 - 10:36
?784條連接線->9條
只考慮到局部相關(guān)的位置屬性

?
2.什么是卷積-2 P2 - 00:05
?
?
2.什么是卷積-2 P2 - 02:45
?
?
2.什么是卷積-2 P2 - 04:41
??
2.什么是卷積-2 P2 - 06:43
??
3.卷積神經(jīng)網(wǎng)絡(luò)-1 P3 - 00:25
?
?
3.卷積神經(jīng)網(wǎng)絡(luò)-1 P3 - 04:49
?多個(gè)卷積核,不同的觀察角度

?
3.卷積神經(jīng)網(wǎng)絡(luò)-1 P3 - 06:34
??
3.卷積神經(jīng)網(wǎng)絡(luò)-1 P3 - 07:01
?
?
4.卷積神經(jīng)網(wǎng)絡(luò)-2 P4 - 00:07
?
?
4.卷積神經(jīng)網(wǎng)絡(luò)-2 P4 - 04:05
??
4.卷積神經(jīng)網(wǎng)絡(luò)-2 P4 - 07:30
?拿到一張圖,能夠?qū)矸e運(yùn)算的參數(shù)數(shù)量推測(cè)出來(lái),說(shuō)明對(duì)卷積運(yùn)算有比較好的理解

?
4.卷積神經(jīng)網(wǎng)絡(luò)-2 P4 - 08:55
?
特征不斷提取的過(guò)程
?
5.卷積神經(jīng)網(wǎng)絡(luò)-3 P5 - 00:02
?
?
5.卷積神經(jīng)網(wǎng)絡(luò)-3 P5 - 04:15
?
?
5.卷積神經(jīng)網(wǎng)絡(luò)-3 P5 - 06:09
?通道數(shù)和輸入不匹配,發(fā)生錯(cuò)誤

?
6.池化層與采樣 P6 - 00:38
?

注意stride對(duì)特征圖大小的影響
?
6.池化層與采樣 P6 - 05:09
?
?
6.池化層與采樣 P6 - 06:17
?
?
6.池化層與采樣 P6 - 07:15
?
?
6.池化層與采樣 P6 - 08:14
?
?
6.池化層與采樣 P6 - 09:47
?
?
7.BatchNorm-1 P7 - 00:19
?
快捷方便穩(wěn)定
?
7.BatchNorm-1 P7 - 02:58
?
?
7.BatchNorm-1 P7 - 05:41
?四種,取決于在哪個(gè)維度做normalize

?
8.BatchNorm-2 P8 - 00:04
?
?
8.BatchNorm-2 P8 - 02:59
?
?
8.BatchNorm-2 P8 - 05:30
?
兩個(gè)參數(shù)會(huì)自動(dòng)更新
?
8.BatchNorm-2 P8 - 06:43
?

?
8.BatchNorm-2 P8 - 08:59
??
8.BatchNorm-2 P8 - 10:12
?
?
9.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-1 P9 - 01:33
?

?
9.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-1 P9 - 03:37
??
9.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-1 P9 - 04:44
?
?
10.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-2 P10 - 00:50
?小型卷積核

?
10.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-2 P10 - 02:14
?圖片大小不變,通道減少

?
10.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-2 P10 - 04:13
?同一層可以使用多個(gè)不同類型卷積核

?
10.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-2 P10 - 07:18
?
?
10.經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-2 P10 - 08:21
??
11.ResNet與DenseNet-1 P11 - 00:59
??
11.ResNet與DenseNet-1 P11 - 02:47
??
11.ResNet與DenseNet-1 P11 - 04:39
?
參數(shù)少了,顯存占用減少,堆疊更深層的網(wǎng)絡(luò)結(jié)構(gòu)成為可能
?
11.ResNet與DenseNet-1 P11 - 07:39
?
?
11.ResNet與DenseNet-1 P11 - 10:02
?
?
12.ResNet與DenseNet-2 P12 - 00:57
?
?
12.ResNet與DenseNet-2 P12 - 02:16
?VGG計(jì)算量大,性能也不如inception和resnet

?
12.ResNet與DenseNet-2 P12 - 05:03
?
?
12.ResNet與DenseNet-2 P12 - 08:30
?思路拓展:中間的每一層都有可能和前面的每一層接觸
?
12.ResNet與DenseNet-2 P12 - 09:00
??
13.nn.Module模塊-1 P13 - 00:09
?是所有網(wǎng)絡(luò)層次類的父類
?
13.nn.Module模塊-1 P13 - 00:41
?
?
13.nn.Module模塊-1 P13 - 01:34
?
?
13.nn.Module模塊-1 P13 - 02:16
?
?
13.nn.Module模塊-1 P13 - 03:43
?
?
13.nn.Module模塊-1 P13 - 06:36
?
?
13.nn.Module模塊-1 P13 - 07:34
?

?
14.nn.Module模塊-2 P14 - 00:01
?
?
14.nn.Module模塊-2 P14 - 01:18
?
?
14.nn.Module模塊-2 P14 - 02:25
?
?
14.nn.Module模塊-2 P14 - 03:11
?
?
14.nn.Module模塊-2 P14 - 05:41
?
?
15.數(shù)據(jù)增強(qiáng) P15 - 00:22
?
?
15.數(shù)據(jù)增強(qiáng) P15 - 00:36
??
15.數(shù)據(jù)增強(qiáng) P15 - 01:26
??
15.數(shù)據(jù)增強(qiáng) P15 - 04:36
?
?
15.數(shù)據(jù)增強(qiáng) P15 - 05:42
??
15.數(shù)據(jù)增強(qiáng) P15 - 07:17
?兩種方式:1、-15度到15度旋轉(zhuǎn) 2、隨機(jī)的在[]中選擇一個(gè)角度進(jìn)行選擇

?
15.數(shù)據(jù)增強(qiáng) P15 - 09:02
?
?
15.數(shù)據(jù)增強(qiáng) P15 - 09:27
?
?
15.數(shù)據(jù)增強(qiáng) P15 - 11:21
?標(biāo)簽: