CT圖像肺結(jié)節(jié)識(shí)別算法調(diào)研 — CNN篇

深度學(xué)習(xí)方法


  • 單圖識(shí)別

方法簡(jiǎn)介

類(lèi)同于MINST圖像的識(shí)別,將CT圖像分解為64x64大小的圖像,根據(jù)醫(yī)生標(biāo)注,若圖像塊中包含結(jié)節(jié)的中心點(diǎn)(centroid),則認(rèn)為有結(jié)節(jié),否則就沒(méi)有。

Model

單圖識(shí)別
  • Input layer:

64x64 images
標(biāo)準(zhǔn)化,取值范圍0~1。原始圖像的范圍為 -1024 ~ 3072(有超出部分則取值為3072)

  • Layer 1:5x5 convolutional:

2x2 max pooling
24 feature map

  • Layer 2:3x3 convolutional:

2x2 max pooling
32 feature map

  • Layer 3:3x3 convolutional:

2x2 max pooling
48 feature map

  • Output layer, full connected:

16 neurons input
2 neurons output

  • 多圖識(shí)別

方法簡(jiǎn)介

對(duì)于肺結(jié)節(jié)的識(shí)別來(lái)說(shuō),結(jié)節(jié)在單張CT圖像中是一個(gè)圓形,而真實(shí)世界中,結(jié)節(jié)可以認(rèn)為是三維立體的類(lèi)球體,所以如果可以用三維圖形來(lái)識(shí)別,應(yīng)該會(huì)提高識(shí)別的準(zhǔn)確率。

Model

多圖識(shí)別
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容