論文閱讀2.1 Orthogonal CNN
2021-04-02 13:10 作者:克萊登大學(xué)宅學(xué)博士 | 我要投稿
CNN的卷積過程可以變化成兩種形式

(a)相當(dāng)于展開X,K的每一行都是一個(gè)通道的卷積核。
(b)先將input拉成一個(gè)長條,將K展開成(Coutput,Cinput)形式K,OCNN通過對K操作,實(shí)現(xiàn)矩陣K的正交化。

通過對K進(jìn)行正交化的操作,在不增加很多參數(shù)和計(jì)算量的情況下,減少特征冗余。
所以我們希望矩陣K能夠?qū)崿F(xiàn):

行正交化:

Ir0的意思是

列正交化

另外kernel orthogonal regularization是orthogonal convolution的必要條件
kernel orthogonal regularization:

推導(dǎo)過程在補(bǔ)充材料里,下次看看吧
參考:https://blog.csdn.net/MTandHJ/article/details/105716261
???????????Wang J ,? Chen Y ,? Chakraborty R , et al. Orthogonal Convolutional Neural Networks[J].? 2019.
標(biāo)簽: