unet-lits-2d-pipeline肝臟腫瘤分2次訓(xùn)練
ABSTRACT
通過使用級(jí)聯(lián),緊密連接的2D U-Net和基于Tversky系數(shù)的損失函數(shù),我們的框架實(shí)現(xiàn)了非常好的形狀提取,具有很高的檢測靈敏度,并且在發(fā)布時(shí)具有競爭性得分。此外,在我們的Tversky-loss 允許調(diào)整超參數(shù)來調(diào)整網(wǎng)絡(luò)。以獲得更高的靈敏度或魯棒性。
INTRODUCTION
我們評(píng)估使用深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)Tiramisu和U-Net,并進(jìn)行標(biāo)準(zhǔn)的數(shù)據(jù)預(yù)處理和數(shù)據(jù)增強(qiáng),而無需進(jìn)行任何復(fù)雜的后處理,可以取得什么結(jié)果。
完整的流水線類似于[7]中提出的級(jí)聯(lián)方法,其中作者建議使用U-Net級(jí)聯(lián)(以及基于條件隨機(jī)字段的其他后續(xù)后處理步驟)。在我們的肝臟分割案例中,訓(xùn)練了一個(gè)標(biāo)準(zhǔn)的U-Net以減少總體訓(xùn)練時(shí)間,而在病變分割中,對上述提拉米蘇進(jìn)行了從零開始的訓(xùn)練(無轉(zhuǎn)移學(xué)習(xí)),并使用了Tversky損失函數(shù),以改進(jìn)基于簡單Dice的損失函數(shù)
DATASET AND PREPROCESSING
從130個(gè)訓(xùn)練掃描中,我們選擇了25個(gè)掃描用于訓(xùn)練期間的驗(yàn)證目的,而選擇105個(gè)用于實(shí)際訓(xùn)練。
HU值[-100,400],以去除空氣和骨骼狀結(jié)構(gòu)以獲得更均勻的背景。然后通過減去訓(xùn)練集均值來標(biāo)準(zhǔn)化體素值,并通過除以訓(xùn)練集標(biāo)準(zhǔn)差來進(jìn)行標(biāo)準(zhǔn)化。在最后一步中,從NIfTI標(biāo)頭中提取了仿射矩陣,以將每個(gè)體積旋轉(zhuǎn)到相同位置,從而使學(xué)習(xí)更加輕松
METHOD
如前所述,病變分割管線包括兩個(gè)不同的網(wǎng)絡(luò):U-Net從給定的體積切片中分割肝臟,而提拉米蘇托則分割出病變。通過用肝臟mask掩蓋病變區(qū)域,我們有效地減少了肝外區(qū)域的假陽性數(shù)。
3.1. U-Net architecture
我們的U-Net在 maxpool 之前通過兩個(gè)卷積層(same padding)和一個(gè)ReLU激活層來實(shí)現(xiàn),以使U分支向下移動(dòng)。這些塊總共重復(fù)了四次。我們從32channel 和恒定的3×3卷積核尺寸開始。在每個(gè)卷積最大合并塊之后,過濾器的數(shù)量增加一倍。在ReLU激活層之后以0.2的速率進(jìn)行濾除。以相同的方式實(shí)現(xiàn)執(zhí)行轉(zhuǎn)置卷積以重構(gòu)分割圖像的上采樣分支。總共大約有個(gè)網(wǎng)絡(luò)參數(shù)。
3.2. Tiramisu architecture
提拉米蘇的實(shí)現(xiàn)方法與原始論文中所述的一樣,在特征提取分支中有4個(gè)denseblocks 分別包含4,5,6和7層,以及具有8個(gè) densely connected層的 1個(gè) final bottleneck denseblock。每個(gè)密集塊的growth rate為12,后接maxpool,初始channel為32。在每個(gè)密集塊后面接一個(gè)執(zhí)行概率為0.2的Dropout,然后上采樣。使用ReLU激活函數(shù),并在卷積層中添加的L2正則化。卷積大小為3×3,前接BN。參數(shù)數(shù)量為
,約是標(biāo)準(zhǔn)U-Net的1/4。
3.3. Liver segmentation training
使用Adam在GTX 1070 GPU上以50個(gè)周期進(jìn)行了訓(xùn)練,批次大小為5,初始化使用何凱明法,bce loss和10-5的學(xué)習(xí)率,每15個(gè)周期學(xué)習(xí)率減少一半。沒有使用數(shù)據(jù)增強(qiáng)。
3.4. Lesion segmentation training
使用Adam優(yōu)化方法和基于Tversky系數(shù)(throughsimple negation)的tversky loss,訓(xùn)練35個(gè)時(shí)期。
對于loss,設(shè)置。我們對β假陽性預(yù)測的懲罰更高,因?yàn)樵诓贿M(jìn)行轉(zhuǎn)移學(xué)習(xí)的情況下訓(xùn)練提拉米蘇,簡單的wbc loss或dice loss顯示網(wǎng)絡(luò)很容易出現(xiàn)β假陽性率。選擇初始學(xué)習(xí)速率
,每10個(gè)周期減半。batch size為5,進(jìn)行了數(shù)據(jù)增強(qiáng)(微小旋轉(zhuǎn)和平移以及縮放)。肝臟大小為224
4. EXPERIMENT AND RESULTS
每次肝分割后,僅選擇最大的連通區(qū)域作為最終肝掩膜。
5. DISCUSSION
有一些方法可以提高分割功能:
(1)我們錯(cuò)過了肝臟邊界處的大部分非常大和/或病變的部位(見圖1),盡管這可能是通過病變分割網(wǎng)絡(luò)檢測到的,但被掩蓋了。因此,增加對肝臟分割網(wǎng)絡(luò)的訓(xùn)練力度將使我們能夠更好地改善當(dāng)前的病變(和肝臟)分割結(jié)果。我們試圖通過各向同性地?cái)U(kuò)張肝臟面罩來對抗這種效果(圖1),但這只會(huì)使最終結(jié)果惡化,因?yàn)橐氲募訇栃砸哂趧h除假陽性的數(shù)量

(2)即使我們當(dāng)前使用Tversky loss,主要的誤差源仍是假陽性預(yù)測。更高的懲罰,更高的網(wǎng)絡(luò)集成度和更正則化(例如,更高的Dropout率或更復(fù)雜的數(shù)據(jù)增強(qiáng))將理想地增加ROC曲線下的面積并提供更好的總體評(píng)分。
此外,在提拉米蘇的基礎(chǔ)上訓(xùn)練肝臟分割網(wǎng)絡(luò),并將其用作權(quán)重初始化可能會(huì)幫助網(wǎng)絡(luò)更快地收斂并獲得更好的結(jié)果。
最后,[7]和[14]表明良好的后處理(例如3D條件隨機(jī)場和具有附加手工功能的隨機(jī)森林)可以改善結(jié)果。我們認(rèn)為這是值得探討這些數(shù)據(jù)的途徑。同樣,僅在逐個(gè)2Dslice的基礎(chǔ)上執(zhí)行分段。 [15]通過使用半3D方法顯示出優(yōu)異的結(jié)果,方法是在神經(jīng)網(wǎng)絡(luò)的分割過程中包括附加的上層和/或下層切片,以合并更多的空間信息。
Abstract
對于基于U-Net的模型,提出了一種新的程序來改善肝臟和病變的分割。我們的方法擴(kuò)展了標(biāo)準(zhǔn)分割流程,通過將分割erro附加到主訓(xùn)練設(shè)置中,以得到更高的召回率或減少嘈雜的假陽性預(yù)測。這使模型能夠找到可以解釋先前錯(cuò)誤的特征。dice提高了2個(gè)點(diǎn)。

Introduction
我們提出了一種新穎的流水線,通過在后續(xù)訓(xùn)練步驟中將分割erro作為新的訓(xùn)練遮罩來可靠地提高網(wǎng)絡(luò)分割性能。
通過挖掘蒙版消除分割錯(cuò)誤
基本設(shè)置:通過單個(gè)前向通道以最小的計(jì)算負(fù)擔(dān)即可生成訓(xùn)練數(shù)據(jù)的分割mask。然后,根據(jù)分割錯(cuò)誤情況,將這些遮罩與原始地面真實(shí)圖像進(jìn)行比較,以確定每個(gè)像素/體素的新訓(xùn)練類別:True Negative,False Positive,False Negative,True Positive.與具有兩個(gè)類的二進(jìn)制情況相比,這提供了四個(gè)目標(biāo)類。然后,我們將四個(gè)單層輸出通道作為錯(cuò)誤預(yù)測層附加到輸出層。這不會(huì)引入相關(guān)的新參數(shù),但會(huì)確保在微調(diào)之前保留所有先前學(xué)習(xí)的權(quán)重。最后,對新的掩模進(jìn)行再訓(xùn)練。由于初始預(yù)訓(xùn)練,收斂速度更快。
損失函數(shù)的相關(guān)性:損失的選擇將再培訓(xùn)分為兩個(gè)等價(jià)部分設(shè)置。通常經(jīng)過訓(xùn)練后,大部分預(yù)測像素為true positive or negative
A pixel-weighted cross-entropy loss (pwce)[U-Net]向高頻目標(biāo)提供最高的學(xué)習(xí)信號(hào)。由于我們對真陽性/真陰性預(yù)測的不平衡度很高,對錯(cuò)誤掩碼的再培訓(xùn)主要是加強(qiáng)這些預(yù)測,同時(shí)減少噪聲誤報(bào)。然后將重新訓(xùn)練的、現(xiàn)在是多類的錯(cuò)誤情況預(yù)測分組為真陽性/假陰性預(yù)測和真陰性/假陽性預(yù)測,以生成最終的新二進(jìn)制分割掩碼
A dice-coefficient based loss為代表性不足的類注入了更強(qiáng)的學(xué)習(xí)信號(hào),以實(shí)現(xiàn)更高的假陰/陽性像素的恢復(fù)。在這里,主要的興趣在于解釋模糊的特征,同時(shí)保留關(guān)鍵的特征,所以真陽性錯(cuò)誤掩碼類被替換成了地面真相分割掩碼。這使得網(wǎng)絡(luò)可以將產(chǎn)生假陽性的屬性轉(zhuǎn)移到相應(yīng)的輸出通道,并恢復(fù)假陰性預(yù)測的生成器.最終的分割直接取自真陽性輸出通道。
這兩種損失都可以提高性能。但是,對于所有后續(xù)結(jié)果,都使用基于dice的損失,因?yàn)樗梢蕴峁┥愿叩母倪M(jìn)。
3 Application to Liver and Lesion Segmentation and Conclusion
Network Architecture:我們通過評(píng)估不同架構(gòu)上的dice得分來研究我們的方法在肝臟和病變分割中的性能:(i)級(jí)聯(lián)2D [2],它分別訓(xùn)練用于肝和病變分割的2D分割網(wǎng)絡(luò),(ii)級(jí)聯(lián)3D,與2D的設(shè)置相同;(iii)組合級(jí)聯(lián)2D [13],它可以在同時(shí)設(shè)置的情況下,針對肝和病變分別訓(xùn)練分割網(wǎng)絡(luò)。所有網(wǎng)絡(luò)都使用通用擴(kuò)展,例如多切片輸入[5],批處理歸一化[7]或殘差塊[6]。在應(yīng)用擴(kuò)展之前,對每個(gè)管道進(jìn)行了收斂訓(xùn)練,以確保我們不會(huì)延長訓(xùn)練過程。最初的訓(xùn)練是使用pwce損失和肝臟的距離變換權(quán)重圖(請參閱[10]),以及基于pwce損失Lpwce除以平滑骰子得分Ldice來進(jìn)行的損失(例如參見[4])。
LiTS dataset:在訓(xùn)練之前,在執(zhí)行歸一化之前,數(shù)據(jù)將綁定到[-100,600] HU。進(jìn)行評(píng)估時(shí),僅使用最大的連接組件來生成最終的肝臟分割。
Results:在訓(xùn)練過程中加入經(jīng)過挖掘訓(xùn)練的掩碼,特別有利于驗(yàn)證性能。這根源于拆分程序,因?yàn)橛?xùn)練集和驗(yàn)證集都是從同一個(gè)樣本集中抽取的。由于不同的來源對數(shù)據(jù)集的貢獻(xiàn)[1],測試集樣本因此與訓(xùn)練集的差異更大。因此,新挖掘的特征在驗(yàn)證集上的表現(xiàn)力更強(qiáng)。
ABSTRACT
我們提出了一種新的程序,以改善基于U-Net的模型的CT掃描中的肝臟和病變段。我們的方法擴(kuò)展了標(biāo)準(zhǔn)的細(xì)分渠道,將重點(diǎn)放在更高的目標(biāo)召回率或降低嘈雜的假陽性預(yù)測上,從而提高了整體細(xì)分效果。為了實(shí)現(xiàn)這一目標(biāo),我們將分段錯(cuò)誤包含在新的學(xué)習(xí)過程中,該過程附加到主培訓(xùn)設(shè)置中,從而使模型能夠找到可以解釋先前錯(cuò)誤的特征。我們在語義上不同的體系結(jié)構(gòu)上進(jìn)行評(píng)估:級(jí)聯(lián)的二維和三維以及用于多任務(wù)分割的組合學(xué)習(xí)設(shè)置。肝臟和病變分割數(shù)據(jù)由肝臟腫瘤分割挑戰(zhàn)(LiTS)提供,dice得分最多增加2個(gè)點(diǎn)。
INTRODUCTION
我們提出了一種新穎的流水線,可通過在訓(xùn)練后步驟中加入分段錯(cuò)誤作為新的訓(xùn)練遮罩,從而可靠地提高網(wǎng)絡(luò)分段性能。尤其適用于三維數(shù)據(jù),這在許多醫(yī)學(xué)分割任務(wù)中很常見。
因此,我們建議在一個(gè)獨(dú)立于主訓(xùn)練的設(shè)置中使用分割錯(cuò)誤類型。 利用所學(xué)網(wǎng)絡(luò)的分割錯(cuò)誤,我們附加了一個(gè)具有特定損失函數(shù)的二次訓(xùn)練過程,以提供一個(gè)框架,幫助網(wǎng)絡(luò)解釋掉自己的分割錯(cuò)誤,從而提升分割性能(定性印象見圖1)。之前的工作s.a.[8]已經(jīng)證明了解釋掉不希望的屬性的好處。 這意味著我們的方法不受架構(gòu)和數(shù)據(jù)選擇的影響,可以在不需要重新運(yùn)行完整設(shè)置的情況下提高性能。
參考鏈接:
True Positive, True Negative, False Positive, False Negative概念區(qū)分