條件GAN (cGAN) Atrous卷積(AC) 帶有權重塊的通道注意力(CAW)。
論文提出了一種基於深度對抗學習的超音波影像乳腺腫瘤分割分類方法(cGAN AC CAW),論文雖然是2019年提出的,但他提出了使用GAN進行分割的方法在當時來說卻是一個非常新奇的想法,該論文基本上把所有當時能夠整合的技術全部進行了集成,並且還取得了很好的效果,所以是非常值得我們一讀的,此外論文還提出了具有典型對抗損失的SSIM和l1範數損失作為損失函數。
生成器網路包含一個編碼器部分:由七個卷積層(En1到En7)和一個解碼器:七個反捲積層(Dn1到Dn7)組成。
在En3和En4之間插入一個atrous卷積塊。膨脹率1、6和9,內核大小3×3,步長2。
在En7和Dn1之間還有一個帶有通道加權(CAW)區塊的通道注意力層。
CAW區塊是通道注意模組(DAN)和通道加權區塊(SENet)的集合,它增加了生成器網路最高層級特徵的表示能力。
它是一個卷積層的序列。
鑑別器的輸入是影像和標記腫瘤區域的二值遮罩的拼接。
鑑別器的輸出是一個10×10矩陣,其值從0.0(完全假的)到1.0(真實的)不等。
生成器G的損失函數包括三個項:對抗性損失(二元交叉熵損失)、促進學習過程的l1 -範數和改善分割掩碼邊界形狀的SSIM損失:
其中z是隨機變數。鑑別器D的損失函數為:
將每一張圖像輸入經過訓練的生成網絡,獲得腫瘤邊界,然後從該邊界計算13個統計特徵: fractal dimension, lacunarity, convex hull, convexity, circularity, area, perimeter, centroid, minor and major axis length, smoothness, Hu moments (6) and central moments (order 3 and below)
採用窮舉特徵選擇(Exhaustive feature selection),演算法來選擇最優的特徵集。 EFS演算法表明, fractal dimension, lacunarity, convex hull, centroid是最優的4個特徵。
這些選擇的特徵被輸入到一個隨機森林分類器,然後訓練該分類器來區分良性和惡性腫瘤。
資料集包含影像中包含的150個惡性腫瘤和100個良性腫瘤。為了訓練的模型,將資料集隨機分為訓練集(70%)、驗證集(10%)和測試集(20%)。
該模型(cGAN AC CAW)在所有指標上都優於其他模型。其Dice和IoU得分分別為93.76%和88.82%。
論文模型的IoU和Dice與FCN、SegNet、ERFNet和U-Net等分割頭的箱線圖比較。
此模型對Dice係數的取值範圍為88% ~ 94%,對IoU的取值範圍為80% ~ 89%,而其他深度分割方法FCN 、SegNet、ERFNet和U-Net的取值範圍較大。
分割結果如上圖所示,SegNet和ERFNet產生的結果最差,有大量的假陰性區域(紅色),以及一些假陽性區域(綠色)。
而U-Net, DCGAN, cGAN提供了很好的分割,論文提出的模型提供了更精確的乳腺腫瘤邊界分割。
所提出的乳房腫瘤分類方法優於[9],總準確率達85%。
以上是論文推薦:基於深度對抗學習的超音波影像乳房腫瘤分割與分類的詳細內容。更多資訊請關注PHP中文網其他相關文章!