【硬核科普】6分鐘了解對(duì)比學(xué)習(xí)(Contrast Learning)

- 對(duì)比學(xué)習(xí):通過對(duì)比數(shù)據(jù)對(duì)的“相似”或“不同”以獲取數(shù)據(jù)的高階信息
- Positive Pairs(圖片間的一種關(guān)系):由同一張?jiān)紙D片擴(kuò)增而來的圖片
- Native Paris:由不同的圖片擴(kuò)增的來的圖片
對(duì)比學(xué)習(xí)的3個(gè)步驟:Data Augmentation(數(shù)據(jù)擴(kuò)增)——Encoding(丟進(jìn)卷積神經(jīng)網(wǎng)絡(luò)中)——Loss minimization(損失最小化)
1.Data Augmentation
可以通過裁剪、調(diào)整大小、顏色失真、灰度
把一張?jiān)瓐D擴(kuò)增兩次就形成了一個(gè)數(shù)據(jù)對(duì)(Positive Pairs/Native Paris)

2.Encoding
是把Image裝換為Vector Representation(向量表示)

3.Loss Minimization
評(píng)價(jià)相似性:利用向量夾角的cos值加上交叉熵,因?yàn)橹苯欠秶鷥?nèi),夾角越大,cos值越小\
Loss Minimization=Cosine similarity+Cross-entropy

標(biāo)簽: