做醫(yī)學(xué)圖像分割,但是樣本量很小咋辦,元學(xué)習(xí)數(shù)據(jù)增強(qiáng)幫你忙
自采樣 Meta SAM:?
SSM-SAM:一種用于小樣本醫(yī)學(xué)圖像分割的自采樣Meta SAM框架,引入三個(gè)關(guān)鍵設(shè)計(jì): 在線快速梯度下降優(yōu)化器、自采樣模塊、定制注意力解碼器,在腹部CT和MRI數(shù)據(jù)集的小樣本分割上性能表現(xiàn)出色,單位: 東京工業(yè)大學(xué),華中科技大學(xué),UC Irvine
雖然分割一切模型(SAM)在通用圖像的語(yǔ)義分割方面表現(xiàn)出色,但在應(yīng)用于醫(yī)學(xué)圖像時(shí),其性能顯著下降,這主要是由于其訓(xùn)練數(shù)據(jù)集中醫(yī)學(xué)圖像的表示不足。盡管如此,由于醫(yī)學(xué)圖像中常見(jiàn)的長(zhǎng)尾問(wèn)題,收集普遍適用的綜合數(shù)據(jù)集和訓(xùn)練模型尤其具有挑戰(zhàn)性。為了解決這一差距,本文提出一種用于小樣本醫(yī)學(xué)圖像分割的自采樣元 SAM(SSM-SAM) 框架。我們的創(chuàng)新在于個(gè)關(guān)鍵模塊的設(shè)計(jì): 1)在線快速梯度下降優(yōu)化器,由元學(xué)習(xí)器進(jìn)一步優(yōu)化確??焖?、穩(wěn)健地適應(yīng)新任務(wù)。 2)自采樣模塊,旨在提供對(duì)齊的視覺(jué)提示以改善注意力分配; 3) 一個(gè)強(qiáng)大的基于注意力的解碼器,專為醫(yī)學(xué)小樣本學(xué)習(xí)而設(shè)計(jì),以捕獲不同切片之間的關(guān)系。對(duì)流行的腹部 CT 數(shù)據(jù)集和 MRI數(shù)據(jù)集進(jìn)行的大量實(shí)驗(yàn)表明,所提出的方法在小樣本分割方面比最先進(jìn)的方法取得了顯著改進(jìn),在 DSC 方面平均提高了 10.21% 和 1.80%,分別。 總之,我們提出了一種在交互式圖像分割中快速在線適應(yīng)的新穎方法,只需0.83 分鐘即可適應(yīng)新器官。 代碼一經(jīng)接受即可在 GitHub 上公開(kāi)發(fā)布









論文:https://arxiv.org/abs/2308.16466
加技術(shù)交流群掌握最新校招面試題和真實(shí)提升項(xiàng)目:加我微信 Lh1141755859 作者:
關(guān)注公眾號(hào) CV算法小屋 了解更多aigc大語(yǔ)言模型信息??