如何結(jié)合匿名函數(shù)與分段函數(shù)實(shí)現(xiàn)飽和函數(shù)?
% 匿名函數(shù) % https://zhidao.baidu.com/question/2080108157746414228.html
% 分段函數(shù) % https://blog.csdn.net/weixin_44463313/article/details/120113345
% case1;
sat=@(t)(-1.*(t<-1)+t*(t>=-1& t<=1)+1.*(t>1));
sat(-0.2)
%?case2;
k0=2;
sat=@(t)(-1.*(t<-1/k0)+k0.*t*(t>=-1/k0 & t<=1/k0)+1.*(t>1/k0));
sat(0.2)
卷積神經(jīng)網(wǎng)絡(luò)的七條核心知識(shí)
0)卷積神經(jīng)網(wǎng)絡(luò)由哪幾部分組成?卷積神經(jīng)網(wǎng)絡(luò)在視覺(jué)上具有較大的應(yīng)用,卷積神經(jīng)網(wǎng)絡(luò)分為卷積層、池化層和全連接層。
1)什么是卷積核,卷積核的作用是什么?其中卷積核是一種數(shù)字矩陣,不同的卷積核用來(lái)提取特征,不同的卷積核可以提取不同的特征,位于不同深度的卷積核提取的也不同。正是因?yàn)榫矸e核再圖像內(nèi)滑動(dòng)提取特征的性質(zhì),一整張圖像使用一個(gè)卷積核,使得卷積神經(jīng)網(wǎng)絡(luò)具有參數(shù)共享的特性,也就減少了計(jì)算量。
2)什么是卷積層?不同卷積層的作用是什么?標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)的每層執(zhí)行的是激活函數(shù)的輸入輸出操作,卷積神經(jīng)網(wǎng)絡(luò)的每層卷積層是執(zhí)行卷積操作。一般來(lái)說(shuō)卷積層的第一層可以提取不同方向的紋理,第二層可以提取顏色等信息,更深層次的神經(jīng)網(wǎng)絡(luò)可以提取不同性質(zhì)的組合狀態(tài)。
3)怎樣解決卷積的過(guò)程中會(huì)使圖像變小問(wèn)題?可以通過(guò)padding的方法先擴(kuò)充圖像再卷積,這樣使得輸出圖像大小保持不變。padding方法還可以解決卷積過(guò)程中邊緣像素卷積次數(shù)少的問(wèn)題。
4)什么是池化層?池化層的作用是什么?池化層在卷積層后面,可以使卷積后的特征得到強(qiáng)化。池化層分為兩種,max pooling和average pooling,池化層的作用是將明顯的特征進(jìn)一步提取。
5)什么是全連接層?全連接層是卷積神經(jīng)網(wǎng)絡(luò)最后的部分,通常是全連接神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),起到分類的作用。全連接層通常連接softmax分類器用來(lái)分類。
6)經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型有哪些?inception模型是將不同的卷積核形成的輸出放在一起,讓神經(jīng)網(wǎng)絡(luò)自主判斷哪種卷積核起作用。GoogloNet就是使用inception模型建立的卷積神經(jīng)網(wǎng)絡(luò)。經(jīng)典的LeNet-5網(wǎng)絡(luò)、AlexNet和VGG-16在整體結(jié)構(gòu)上都差不多,都由卷積層、池化層和全連接層組成,差別在于深度不同。殘差網(wǎng)絡(luò)中有跳躍式連接,因此殘差網(wǎng)絡(luò)可以將神經(jīng)網(wǎng)絡(luò)訓(xùn)練的很深,在保證良好性能的同時(shí)并且可以有效解決梯度爆炸和梯度消失的等問(wèn)題。
————————————————
版權(quán)聲明:本文為CSDN博主「工科pai」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/weixin_45653050/article/details/104669862