文章學(xué)習(xí)38“LOW DOSE CT DENOISING”

以下文章paper和code連接在GitHub上。從方法上來說,低劑量CT去噪可以大致的分為三大類,第一類是針對(duì)CT重建之前的正弦域數(shù)據(jù)進(jìn)行操作;第二類是針對(duì)CT重建之后的圖像來進(jìn)行圖像去噪;最后一類是在正弦域與圖像域相互轉(zhuǎn)化的迭代算法。

一、正弦域去噪

CT正弦圖表示來自徑向視圖的衰減線積分,并且是 CT 掃描中的原始投影數(shù)據(jù)。正弦圖也是一種二維信號(hào),正弦域去噪方法多是傳統(tǒng)濾波技術(shù),比如說使用非線性各向異性擴(kuò)散濾波器來平滑數(shù)據(jù)噪聲,采用自適應(yīng)修剪平均濾波器來減少條紋偽影,雙邊濾波,非平穩(wěn)濾波器等。但這些方法大都需要犧牲分辨率,所以需要配合正弦域插值進(jìn)行。

在正弦域中完成了去噪之后就可以用FBP進(jìn)行CT重建轉(zhuǎn)化到圖像域。

二、迭代算法

迭代重建本身和FBP一樣是CT重建算法,其可分為兩類代數(shù)迭代重建和統(tǒng)計(jì)迭代重建。代數(shù)迭代重建是將圖像重建問題轉(zhuǎn)化為求解線性方程組,經(jīng)典的代數(shù)迭代算法有:代數(shù)重建技術(shù)(ART),聯(lián)合代數(shù)重建技術(shù)(SART),聯(lián)合迭代重建技術(shù)(SIRT)[1,2,3,4]。統(tǒng)計(jì)迭代算法根據(jù)投影數(shù)據(jù)的噪聲統(tǒng)計(jì)模型和圖像先驗(yàn)分布構(gòu)建目標(biāo)函數(shù),然后通過最優(yōu)化方法得到重建后的圖像,常用的統(tǒng)計(jì)迭代算法有懲罰加權(quán)最小二乘法和最大后驗(yàn)算法。

迭代重建的去噪算法通過估計(jì)最大后驗(yàn)概率(Maximum A Posteriori, MAP)達(dá)到去除投影域噪聲,這種基于MAP的濾波算法根據(jù)投影數(shù)據(jù)的統(tǒng)計(jì)分布和理想投影圖像的先驗(yàn)信息建立目標(biāo)函數(shù),目標(biāo)函數(shù)包括兩項(xiàng)數(shù)據(jù)保真度和懲罰項(xiàng)。

將綜合投影與探測(cè)器采集的實(shí)際測(cè)量值進(jìn)行比較檢驗(yàn),兩者之間的差異代表了當(dāng)前估計(jì)需要校正的誤差,并對(duì)當(dāng)前估計(jì)得到的圖像進(jìn)行校正。再將校正后的圖像帶入模型進(jìn)行下次綜合投影模擬,并與實(shí)際測(cè)量值再次進(jìn)行檢驗(yàn)和校正。通過如此的反復(fù)迭代計(jì)算,對(duì)圖像信息進(jìn)行不斷地檢驗(yàn)和修正,直到誤差降到最低。

三、圖像域去噪

圖像域的去噪方法就和自然圖像去噪一致了,可以分成兩大類基于模型的去噪和基于判別的去噪方法?;谀P偷娜ピ敕椒ň褪莻鹘y(tǒng)機(jī)器學(xué)習(xí)領(lǐng)域的去噪方法,比如說利用圖像自相似性的BM3D和NL-Means,利用稀疏空間的K-SVD等。Ma等[5]提出一種新的非局部降噪算法來對(duì)低劑量CT圖像進(jìn)行處理,把非局部算法與正常劑量掃描獲得的重建圖像相結(jié)合,降噪效果顯著。Chen等[6]提出一種快速字典學(xué)習(xí)的方法處理腹部的腫瘤圖像,該算法將稀疏字典學(xué)習(xí)理論與銳化濾波共同作用,在提高圖像質(zhì)量的同時(shí)還增強(qiáng)了對(duì)腫瘤特征的識(shí)別作用。Lauzier等[7]提出先驗(yàn)圖像約束的壓縮感知(Prior Image Constrained Compressed Sensing。PICCS)統(tǒng)計(jì)特性算法并用來減少輻射劑量,該方法在低劑量、高分辨率的實(shí)際臨床情況中有普遍應(yīng)用。

但上述基于模型的優(yōu)化方法在性能和時(shí)間上都不理想,又由于深度學(xué)習(xí)的發(fā)展,基于判別的去噪方法得到了廣泛的研究。尤其是16年AAPM大賽公開了大量的CT數(shù)據(jù)之后,深度學(xué)習(xí)領(lǐng)域出來了一批又一批的LDCT去噪by deeplearning。

3.1 Low-dose CT denoising with convolutional neural network[8]

第一篇有代表性的用深度學(xué)習(xí)方法進(jìn)行LDCT去噪的作品,是ISBI 2016年川大的,網(wǎng)絡(luò)非常的簡(jiǎn)單,文中也沒有給網(wǎng)絡(luò)結(jié)構(gòu)圖,就是一個(gè)三層的卷積加ReLU,這篇文章發(fā)表的時(shí)候AAPM比賽還未發(fā)出,所以數(shù)據(jù)集不同。

文章現(xiàn)在來看沒有什么創(chuàng)新的地方,但當(dāng)時(shí)把深度學(xué)習(xí)引入了LDCT去噪,隨即一些LDCT去噪的比賽和文章相繼發(fā)出。

3.2 A deep convolutional neural network using directional wavelets for low-dose X-ray CT reconstruction(KASIT-Net)[9]

本文是AAPM比賽的第二名,相比于上一篇中的純卷積層的連接本文使用了resnet的結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)如下圖。首先將輸入圖像通過小波變換分成4個(gè)level,channel分別是8,4,2,1,然后將這4個(gè)融合成15個(gè)channel輸入到proposed network中。

proposed network和SRGAN的生成器結(jié)構(gòu)類似,首先經(jīng)過三個(gè)卷積層,然后輸入到6個(gè)module中,每個(gè)module是由3個(gè)連續(xù)的conv+relu+bn和skip layer組成,每個(gè)module的輸出都連接到網(wǎng)絡(luò)的最后,讓梯度更好的反傳,加速end 2 end的訓(xùn)練。

網(wǎng)絡(luò)采用SGD進(jìn)行優(yōu)化,訓(xùn)練patch設(shè)置為55*55,mse作為loss函數(shù)??偟脕碚f本文的網(wǎng)絡(luò)結(jié)構(gòu)在16年時(shí)是很先進(jìn)的,結(jié)果也很好,一直是后來LDCT去噪作品的baseline。

3.3 Low-Dose CT with a Residual Encoder-Decoder Convolutional Neural Network (RED-CNN)[10]

這篇就是LDCT廣泛使用的baseline了,數(shù)據(jù)集自此之后也普遍的開始使用AAPM數(shù)據(jù)集。本文的主要思想和2016年NIPS的RED基本一致,網(wǎng)絡(luò)采用AE的結(jié)構(gòu),先用卷積層進(jìn)行編碼,再用反卷積層進(jìn)行解碼,中間通過skip結(jié)構(gòu)連接,如下圖所示。

文章寫法很有期刊的味道,實(shí)驗(yàn)設(shè)計(jì)繁多細(xì)致,算法上沒有很大的創(chuàng)新,但很實(shí)用,網(wǎng)絡(luò)消耗和性能共同考慮,上面兩篇文章都是本文的baseline,實(shí)驗(yàn)結(jié)果如下表:

3.4?Sharpness-Aware Low-Dose CT Denoising Using Conditional Generative Adversarial Network?[11]

在單獨(dú)的卷積之后就出現(xiàn)了大批的對(duì)抗學(xué)習(xí)訓(xùn)練LDCT進(jìn)行去噪,本文也是比較典型的GAN for LDCT,在2018年美國醫(yī)學(xué)影像信息大會(huì)(SIIM)上發(fā)表的文章。整體網(wǎng)絡(luò)結(jié)構(gòu)如下,三個(gè)子網(wǎng)絡(luò)構(gòu)成:生成網(wǎng)絡(luò)、判別網(wǎng)絡(luò)和銳度檢測(cè)網(wǎng)絡(luò)。

相比較普通的GAN,本文多了一個(gè)銳度檢測(cè)網(wǎng)絡(luò),本身生成器的loss是L1,銳度檢測(cè)網(wǎng)絡(luò)的loss是L2,再加上GAN本身的對(duì)抗損失,整個(gè)loss就為:

生成器部分是U-Net結(jié)構(gòu),判別器是pix2pix的PatchGAN。

3.5 Low Dose CT Image Denoising Using a Generative Adversarial Network with Wasserstein Distance and Perceptual Loss?(TMI 2018)[12]

這篇文章就是WGAN的一個(gè)應(yīng)用,2018 IEEE TRANSACTIONS ON MEDICAL IMAGING的文章,文章模型總體結(jié)構(gòu)如下:作者應(yīng)該是受到SRGAN的影響,將VGG的損失函數(shù)帶到了網(wǎng)絡(luò)里,不純粹的使用MSE,而是利用WGAN的內(nèi)在損失和VGG進(jìn)行訓(xùn)練。

為了保證生成器部分能夠產(chǎn)生高劑量CT,作者增加了感知損失來限制,就是上述模型里的part2,一般的去噪模型在這里都是用的MSE,但MSE的效果并不好,可能會(huì)產(chǎn)生模糊的圖像并導(dǎo)致細(xì)節(jié)失真或丟失,所以作者嘗試了特征空間中定義的loss函數(shù):

其中φ是特征提取器,whd是特征空間的寬、高、深度,本文中采用了VGG-19作為特征提取器,所以感知loss是

整體結(jié)構(gòu)就如上圖所示,part1生成器部分8個(gè)卷積層的CNN用于進(jìn)行CT圖像的重建;part2感知損失結(jié)構(gòu)用預(yù)訓(xùn)練好的VGG-19將生成器生成的圖像G(z)和ground truth(x)喂到VGG里用于特征提取,然后根據(jù)上式更新生成器的權(quán)重;part3判別器網(wǎng)絡(luò),結(jié)構(gòu)如下圖所示,6個(gè)卷積層,3*3的卷積核,最后一層沒有sigmoid。

3.6 Structurally-sensitive Multi-scale Deep Neural Network for Low-Dose CT Denoising

作者同上,文章創(chuàng)新點(diǎn)有三:第一就是3DCNN,生成器部分的,好處就是“ can integrate spatial information to enhance the image quality and yield 3D volumetric results for better diagnosis.”;第二個(gè)創(chuàng)新點(diǎn)是loss,作者采用了L1損失和結(jié)構(gòu)敏感性損失相結(jié)合的loss形式,to capture local anatomical structures while reducing background noise.;第三個(gè)創(chuàng)新點(diǎn)就是實(shí)驗(yàn)部分對(duì)收斂速度和去噪結(jié)果進(jìn)行對(duì)比。下圖是網(wǎng)絡(luò)結(jié)構(gòu),

網(wǎng)絡(luò)由三部分組成,part1生成器由8個(gè)3D卷積組成,奇數(shù)層卷積核是3*3*1,偶數(shù)層是3*3*3,切割成80*80*11的patch,每個(gè)卷積層之后加relu激活、part2結(jié)構(gòu)敏感性損失網(wǎng)絡(luò)也是3d、part3判別器,判別器部分使用的是2D卷積,filter依次是64、64、128、128、256、256的6個(gè)卷積層,卷積核是3*3。

作者討論了使用3d信息的原因。在實(shí)際應(yīng)用上,我們得到的CT本就是三維圖像,醫(yī)生觀診所用也是三維圖像,3D-CT圖像的相鄰橫截面切片表現(xiàn)出強(qiáng)烈的空間相關(guān)性,其可以保存比基于2D的模型更多的矢狀和冠狀方向的信息。

作者在文中對(duì)比了幾種不同的loss,比如L2loss,它可以有效的抑制背景噪聲,但是去噪結(jié)果不自然而且會(huì)模糊化,L1可以很有效的抑制掉高斯白噪聲,但LDCT里不止是高斯噪聲,所以針對(duì)LDCT效果不好。下一個(gè)loss是結(jié)構(gòu)損失,目的是讓生成器產(chǎn)生和HDCT更加相似的圖像,所以這里用的是SSIM,這里的損失就是第三項(xiàng),分析下,SSIM是一個(gè)[0,1]的數(shù)值,越大表示去噪效果越好,MS_SSIM是SSIM的乘積范圍也被限制在[0,1],切SSIM越大,該值也會(huì)越大,LSL是1減掉MS_SSIM,那么就會(huì)隨著MS的增大而減小,但會(huì)一直控制在[0,1],就可以像訓(xùn)練其他loss一樣來訓(xùn)練。

3.7 3-D Convolutional Encoder-Decoder Network forLow-Dose CT via Transfer Learning From a 2-D Trained Network(TMI 2018)[13]

本文的主題網(wǎng)絡(luò)也是GAN結(jié)構(gòu),但文章重點(diǎn)不是這個(gè),而是2D-3D的轉(zhuǎn)換。文章中提出了兩個(gè)網(wǎng)絡(luò)結(jié)構(gòu),2-D如下:

作者認(rèn)為針對(duì)于CT這種空間性較強(qiáng)的數(shù)據(jù)3D的處理更能獲得空間信息,所以將2-D的結(jié)構(gòu)轉(zhuǎn)換為3-D,如下。但是3-D的網(wǎng)絡(luò)消耗太大,所以作者使用了transfer learning,在上圖的2D網(wǎng)絡(luò)中訓(xùn)練好,將參數(shù)遷移到三維中,transfer 的方法如下:

上式中B是三維空間,H是2-D處理,初始化時(shí)2-d參數(shù)轉(zhuǎn)移到3-D中,而后對(duì)三維空間進(jìn)行優(yōu)化,本文與RED-CNN和W-GAN進(jìn)行了對(duì)比,結(jié)果如下:

3.8 SIPID: A deep learning framework for sinogram interpolation and image denoising in low-dose CT reconstruction.(ISBI 2019)[14]

3.1-3.7的方法均是CT的后處理,在圖像域的操作,本文結(jié)合正弦域和圖像域一起進(jìn)行處理。實(shí)際上就是在CT未成為圖像之前的投影數(shù)據(jù)上先進(jìn)行一個(gè)正弦圖插值(用超分辨網(wǎng)絡(luò)),而后投影數(shù)據(jù)開始轉(zhuǎn)化為CT值,采用FBP。

FBP是目前最廣泛的CT重建方法,其原理是中心切片定理:對(duì)投影的一維傅立葉變換等效于對(duì)原圖像進(jìn)行二維的傅立葉變換。所以可以根據(jù)投影數(shù)據(jù)得到原始的CT值。

稀疏域的源數(shù)據(jù)和經(jīng)過插值的數(shù)據(jù)都經(jīng)過FBP之后concat一起輸入到去噪的網(wǎng)絡(luò)中,去噪網(wǎng)絡(luò)采用上一篇paper里的residual U-net。整個(gè)網(wǎng)絡(luò)思想如下,目標(biāo)函數(shù)是:

網(wǎng)絡(luò)端到端的進(jìn)行訓(xùn)練,loss是:

References

[1]. Feeman T G. Algebraic reconstruction techniques [J]. The Mathematics of Medical Imaging, 2010, 101-114.

[2] Jiang M, Wang G. Convergence of the simultaneous algebraic reconstruction technique(SART) [J]. IEEE Trans. Image Process, 2003,12 (8): 957-961.

[3] Andersen A, Kak A. Simultaneous algebraic reconstruction technique (SART): a superior implementation of the ART algorithm [J]. Ultrasonic imaging, 1984, 6 (1): 81-94.

[4] Thomas M. Benson, Jens Gregor. Modified simultaneous iterative reconstruction technique for faster parallel computation[C]. IEEE Nuclear Science Symposium Conference Record, 2005,2715-2718.

[5] Ma J H,Huang J,F(xiàn)eng Q,et a1.Low—dose computed tomography image restoration using previous normal—dose SCan [J].Medical Physics,201 1,38(10):5713-5731.

[6] Chen Y,Yin X,Shi L,et a1.Improving abdomen ttlnlor low-dose CT images using a fast dictionary learning based processing[J].Physics in Medicine and Biology,20 1 3,58(16):5803.

[7] Lauzier P T,Chert G H.Characterization of statistical prior image constrained compressed sensing(PICCS):II.Application to dose reduction [J].Medical Physics,2013,40(40):021902.

[8] H. Chen, Y. Zhang, W. Zhang, P. Liao, K. Li, J. Zhou, and G. Wang,“Low-dose CT via convolutional neural network,” Biomed. Opt. Express 8(2), 679-694 (2017).

[9] E. Kang, J. Min, and J.C. Ye, “A deep convolutional neural network using directional wavelets for low-dose X-ray CT reconstruction,”arXiv:1610.09736 (2016).

[10] H. Chen et al., "Low-dose CT with a residual encoder-decoder convolutional neural network", IEEE Trans. Image Process., vol. 36, no. 12, pp. 2524-2535, Dec. 2017.

[11] Xin Yi,?Paul Babyn:Sharpness-Aware Low-Dose CT Denoising Using Conditional Generative Adversarial Network.?J. Digital Imaging31(5):?655-669?(2018)

[12] Qingsong Yang,?Pingkun Yan,?Yanbo Zhang,?Hengyong Yu,?Yongyi Shi,?Xuanqin Mou,?Mannudeep K. Kalra,?Yi Zhang,?Ling Sun,?Ge Wang:Low-Dose CT Image Denoising Using a Generative Adversarial Network With Wasserstein Distance and Perceptual Loss.?IEEE Trans. Med. Imaging?37(6):?1348-1357?(2018)

[13] Hongming Shan, Yi Zhang, Qingsong Yang, Uwe Kruger, Mannudeep K. Kalra, Ling Sun, Wenxiang Cong, Ge Wang: Correction for "3D Convolutional Encoder-Decoder Network for Low-Dose CT via Transfer Learning From a 2D Trained Network". IEEE Trans. Med. Imaging 37(12): 2750 (2018)

[14] Huizhuo Yuan, Jinzhu Jia, Zhanxing Zhu: SIPID: A deep learning framework for sinogram interpolation and image denoising in low-dose CT reconstruction. ISBI 2018: 1521-1524

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容