高分辨率遙感圖像理解讀書筆記(1)——遙感圖像前背景分割1

最近準(zhǔn)備做遙感圖像處理,之前完全沒有基礎(chǔ)【捂臉】

師兄推薦我看這本書,做一做讀書筆記幫助自己捋一捋思路吧


【參考文獻(xiàn)】:高分辨率遙感圖像理解.孫顯等 科學(xué)出版社||統(tǒng)計學(xué)習(xí)方法.李航 清華大學(xué)出版社

【簡介】:第二章 特征信息表達(dá)主要介紹的是一些對圖像處理的概論算法;第三章 統(tǒng)計學(xué)習(xí)模型主要介紹的是一些模型;第四章開始是遙感圖像處理算法的實例,所以主要是對第四章開始仔細(xì)做筆記。因為之前真的沒有基礎(chǔ)。。。所以只能對這些方法產(chǎn)生一些感性的認(rèn)識,梳理個大體意思,以后用到再鉆研吧。


【正文】

精細(xì)化目標(biāo)檢測包括:遙感圖像前背景分割,精細(xì)化遙感目標(biāo)分割,精細(xì)化遙感目標(biāo)識別三個步驟。本節(jié)主要涉及第一個步驟——

圖像前背景分割基本上是一個圖像像素標(biāo)號分類問題,簡單的來說就是把前景目標(biāo)像素標(biāo)識為1,背景標(biāo)識為0的過程。

前景和背景

本書主要介紹了兩種分割算法:基于圖割模型的交互式分割(需要人工標(biāo)注少量種子點)以及基于高斯混合模型的自動分割(不需要人工標(biāo)注)


1、基于圖割模型的遙感圖像交互式分割

主要思想是通過用戶來對圖像背景和目標(biāo)做統(tǒng)一標(biāo)記,再對其他像素根據(jù)其與object和background兩類像素的相似度決定歸屬于哪一類,最后得到二值圖像。此種方法的學(xué)習(xí)需要首先理解幾個基礎(chǔ)概念:

【貝葉斯模型】

公式中,事件Bi的概率為P(Bi),事件Bi已發(fā)生條件下事件A的概率為P(A│Bi),事件A發(fā)生條件下事件Bi的概率為P(Bi│A)。

貝葉斯理論中常見的術(shù)語:

Pr(A)是A的先驗概率或邊緣概率。之所以稱為"先驗"是因為它不考慮任何B方面的因素。

Pr(A|B)是已知B發(fā)生后A的條件概率,也由于得自B的取值而被稱作A的后驗概率

Pr(B|A)是已知A發(fā)生后B的條件概率,也由于得自A的取值而被稱作B的后驗概率。

Pr(B)是B的先驗概率或邊緣概率,也作標(biāo)準(zhǔn)化常量(normalized constant)

參考來源:http://blog.csdn.net/u014791046/article/details/50053367

【交互式圖像分割】

操作方式是用鼠標(biāo)在圖像中標(biāo)出少量目標(biāo)和背景種子點,分割操作的時候?qū)⒛繕?biāo)種子像素集合記為I_obj,背景像素集合記為I_bck,分別構(gòu)建目標(biāo)和背景的模型M(I_obj)和M(I_bck)。

建立全局標(biāo)記場W*最大化一個后驗概率? W* = argmax P(W|I),其中

后驗概率公式——①

Di為該點單元勢能,也就是分為不同種類時(把點標(biāo)記為Wi)的損失,主要計算方法是鄰域N(i)內(nèi)特征的統(tǒng)計模型和M(Wi)之間的某種距離。Vij相鄰位置i,j的能量,平滑項,用于懲罰不連續(xù)的標(biāo)記。λ表示平滑項的權(quán)重

Di一般只在N(i)中計算,Vij也只涉及相鄰位置i,j,將上式簡化為

簡化的后驗概率公式

也就是求E1的最小化能量,以及平滑項能量最小,獲取分割最優(yōu)解。

【texton特征】

紋理分類的一大類方法是基于texton的方法,具體的方法是先提取特征點的局部特征,然后聚類形成texton;之后對于每幅圖求出統(tǒng)計直方圖作為最后的特征,之后用knn或者svm分類。

texton方法中,經(jīng)常采用一組不同類型、方向、尺度的濾波器與圖像做卷積獲得紋理特征。每個點對不同濾波器的濾波相應(yīng)連接在一起組成一個多維的特征向量。

【fisher判別方法】

在應(yīng)用多元統(tǒng)計方法解決分類問題時,問題之一就是維數(shù)問題。在低維空間里解析上或計算上行得通的方法,在高維空間里往往行不通。因此,降低維數(shù)有時就成為處理實際問題的關(guān)鍵。

可以考慮把d維空間的樣本投影到一條直線上,形成一維空間,這在數(shù)學(xué)上是容易辦到的。然而,即使樣本在d維空間里形成若干緊湊的相互分得開的集群,若把它們投影到一條任意的直線上,也可能使幾類樣本混在一起而變得無法識別。但在一般情況下,總可以找到某個方向,使在這個方向的直線上,樣本的投影能分開得最好。問題是如何根據(jù)實際情況找到這條最好的、最易于分類的投影線。這就是Fisher法則所要解決的基本問題。

Fisher法則是基于方差分析的思想建立的線性分類方法。意義在于若兩類樣本在該特征上的響應(yīng)均值差別較大、散步程度較小則更適合于分類。最大相應(yīng)特征通常擁有較大信息量,fisher準(zhǔn)則選取出來的特征通常具有較好的區(qū)分能力。

【前/背景統(tǒng)計模型】

為了獲得目標(biāo)和背景的統(tǒng)計模型,可以對特征向量進(jìn)行k-means聚類,聚類中心就相當(dāng)于紋理基元(Texton),一個好的K值選擇應(yīng)該能把I_obj和I_bck中的點分到不同聚類中。

隨后對于每個聚類依次賦值1~K,將圖像I的每個像素標(biāo)記為特征向量對應(yīng)的聚類號,則I被映射到K值的標(biāo)記圖I_texton上。將I_texton中的目標(biāo)和種子點的直方圖作為前/背景統(tǒng)計模型。

【基于圖割模型的交互式分割方法】

基于圖割模型的交互式分割方法流程

可以看到截至目前,已經(jīng)建立了前景和背景的先驗統(tǒng)計模型。接下來就是對整個圖像區(qū)域進(jìn)行逐個像素分類,以最大化后驗概率。

【圖像分割模型】

利用后驗概率公式——①建立圖像的分割模型。Di為單元勢能,定義為鄰域N(i)內(nèi)特征的統(tǒng)計模型和M(Wi)之間的某種距離。用I_texton在鄰域M(Wi)內(nèi)的直方圖表示鄰域內(nèi)的統(tǒng)計特征,則Di就是M(Wi)和hist(M(Wi))。

為了獲得最優(yōu)分割,需要最小化全局能量公式①。對于此公式的求解可以利用圖割模型求最小割。這是一個迭代過程,獲得初始分割結(jié)果后,可以重新選取種子點,對分割結(jié)果進(jìn)行再編輯,從而更新Di,再求最小割以顯著改善分割結(jié)果。


2、基于高斯混合模型的遙感圖像目標(biāo)自動分割


結(jié)合高斯混合模型的假設(shè)/驗證分割方法流程

該方法首先自動尋找目標(biāo)存在的候選位置,然后利用圖像局部GMM模型和平滑性先驗建立分割代價函數(shù),并基于待處理圖像的局部彩色GMM模型估計,完成目標(biāo)前景和背景的分離;同時還可以根據(jù)候選區(qū)域輪廓提取出目標(biāo)的外形特征,進(jìn)一步驗證候選位置是否存在目標(biāo)。

【高斯混合分布模型GMM】

GMM是一種較常使用的先驗?zāi)P?。簡單地說,任意形狀的概率分布都可以用多個高斯分布去近似。

對圖像背景建立高斯模型的原理及過程:圖像灰度直方圖反映的是圖像中某個灰度值出現(xiàn)的頻次,也可以認(rèn)為是圖像灰度概率密度的估計。如果圖像所包含的目標(biāo)區(qū)域和背景區(qū)域相比比較大,且背景區(qū)域和目標(biāo)區(qū)域在灰度上有一定的差異,那么該圖像的灰度直方圖呈現(xiàn)雙峰-谷形狀,其中一個峰對應(yīng)于目標(biāo),另一個峰對應(yīng)于背景的中心灰度。對于復(fù)雜的圖像,尤其是醫(yī)學(xué)圖像,一般是多峰的。通過將直方圖的多峰特性看作是多個高斯分布的疊加,可以解決圖像的分割問題。

混合高斯模型(GMM)就是指對樣本的概率密度分布進(jìn)行估計,而估計采用的模型(訓(xùn)練模型)是幾個高斯模型的加權(quán)和(具體是幾個要在模型訓(xùn)練前建立好)。每個高斯模型就代表了一個類(一個Cluster)。對樣本中的數(shù)據(jù)分別在幾個高斯模型上投影,就會分別得到在各個類上的概率。然后我們可以選取概率最大的類所為判決結(jié)果。

一般用來做參數(shù)估計的時候,我們都是通過對待求變量進(jìn)行求導(dǎo)來求極值,在上式中,log函數(shù)中又有求和,你想用求導(dǎo)的方法算的話方程組將會非常復(fù)雜,沒有閉合解??梢圆捎玫那蠼夥椒ㄊ荅M算法

參考來源:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html

【連通域】

連通區(qū)域(Connected Component)一般是指圖像中具有相同像素值且位置相鄰的前景像素點組成的圖像區(qū)域

【局部色彩的GMM模型構(gòu)建】

統(tǒng)計待處理圖像的灰度和色彩特征,采用連通域分割方法獲取所有可能存在目標(biāo)的L個候選區(qū)域,對候選區(qū)域根據(jù)目標(biāo)特性,在其周圍擴(kuò)展一定像素寬度得到圖像I,則I =(z1....zn),其中zi為像素i的色彩RGB向量。

為了得到目標(biāo)區(qū)域的輪廓信息,對于區(qū)域采用基于分割能量函數(shù)最小化的算法對每個像素賦予標(biāo)記ai∈{目標(biāo)(=1),非目標(biāo)(=0)},得到標(biāo)記圖像A=(a1....an),其中標(biāo)記為1的所有像素集合為前景目標(biāo),余下標(biāo)記為0 的為背景非目標(biāo)集合

1)前背景的色彩GMM模型

色彩模型的建立

實際上得到高斯混合分布的后驗?zāi)P?,也就是?quán)重參數(shù)不同的k個高斯分布之和

其中前景和背景色彩模型參數(shù)分別為α為0/1時,k個高斯分布的π、μ、協(xié)方差矩陣取值。為了得到前景和背景區(qū)域GMM的初始參數(shù),使用二叉樹顏色聚類算法得到GMM的初始參數(shù),然后特征向量函數(shù)把集合分成兩個葉節(jié)點,隨后根據(jù)協(xié)方差矩陣特征值挑選下一個待分類的集合,循環(huán)直至所有像素被分裂為K個集合為止。

最后每個集合對應(yīng)一個單一的高斯分布,這個單一高斯分布的參數(shù)由集合內(nèi)像素顏色值統(tǒng)計得到,高斯分布權(quán)重為區(qū)域像素數(shù)占圖像總像素數(shù)的比例。

2)分割能量函數(shù)

根據(jù)貝葉斯理論,對圖像I進(jìn)行二元分割的過程本質(zhì)上是對后驗概率P(A| I)的最大化的過程,A為標(biāo)記圖像,即尋求標(biāo)記圖像A*:A* =argmax{P(A| I)}

基于前面高斯混合模型的描述,定義分割代價函數(shù):E(A_l) =E1(A_l) + λE2(A_l);其中A_l為分割得到的結(jié)果,標(biāo)記圖像;E1(A_l)為一階勢能函數(shù),為單點像素的能量函數(shù),

E1(A_l)為一階勢能函數(shù)

E2(A_l)為二階勢能函數(shù),為相鄰像素之間的能量函數(shù),為了分割出的區(qū)域更加連續(xù)完整,為平滑項

【圖割模型】

無向圖的割:去掉一些邊使原圖不再連通,使去掉的邊最少(代價函數(shù)最小)的問題即為圖的最小割問題。(連通:從v_i到v_j有路徑;連通圖:任意兩點有路徑;強(qiáng)連通圖:任意兩點來去都有路徑)

Graph cuts是一種十分有用和流行的能量優(yōu)化算法,圖論中的圖(graph):一個圖G定義為一個有序?qū)Γ╒,G),記為G=(V,G),其中(1) V是一個非空集合,稱為頂點集,其元素稱為頂點;(2) E是由V中的點組成的無序點對構(gòu)成的集合,稱為邊集,其元素稱為邊。

圖割模型

此處的Graph和普通的Graph稍有不同。

普通的圖由頂點和邊構(gòu)成,如果邊的有方向的,這樣的圖被則稱為有向圖,否則為無向圖,且邊是有權(quán)值的,不同的邊可以有不同的權(quán)值,分別代表不同的物理意義。

Graph Cuts是在普通圖的基礎(chǔ)上多了2個頂點,這2個頂點分別用符號”S”和”T”表示,統(tǒng)稱為終端頂點。其它所有的頂點都必須和這2個頂點相連形成邊集合中的一部分。所以Graph Cuts中有兩種頂點,也有兩種邊。

第一種頂點和邊是:第一種普通頂點對應(yīng)于圖像中的每個像素。每兩個鄰域頂點(對應(yīng)于圖像中每兩個鄰域像素)的連接就是一條邊。這種邊也叫n-links。

第二種頂點和邊是:除圖像像素外,還有另外兩個終端頂點,叫S和T。每個普通頂點和這2個終端頂點之間都有連接,組成第二種邊。這種邊也叫t-links。

Graph Cut中的Cut是指這樣一個邊的集合,很顯然這些邊集合包括了上面2種邊,該集合中所有邊的斷開會導(dǎo)致殘留“S”和“T”圖的分開,所以就稱為“割”。如果一個割,它的邊的所有權(quán)值之和最小,那么這個就稱為最小割,也就是圖割的結(jié)果。

最大流量最小割算法就可以用來獲得s-t圖的最小割,這個最小割把圖的頂點劃分為兩個不相交的子集S和T,其中s?∈S,t∈?T和S∪T=V?。

最小割


權(quán)值

t-link的權(quán)重由顏色能量項E1(A_1)來設(shè)置,代表像素屬于0/1的d概率,n-link全總根據(jù)平滑項E2(A_1)來設(shè)置。

t-link權(quán)重的計算方式

使用圖割方法將能量函數(shù)最小化之后,得到新的前景背景結(jié)果,在進(jìn)行下一次能量函數(shù)最小化之前,需要從新圖像中重新估計GMM模型參數(shù)。用EM算法求解,也是一個最大似然參數(shù)估計問題。

【EM算法】

統(tǒng)計學(xué)中,最大期望(EM)算法是在概率(probabilistic)模型中尋找參數(shù)最大似然估計或者最大后驗估計的算法,其中概率模型依賴于無法觀測的隱藏變量(Latent Variable)。

可以有一些比較形象的比喻說法把這個算法講清楚。比如說食堂的大師傅炒了一份菜,要等分成兩份給兩個人吃,顯然沒有必要拿來天平一點的精確的去稱分量,最簡單的辦法是先隨意的把菜分到兩個碗中,然后觀察是否一樣多,把比較多的那一份取出一點放到另一個碗中,這個過程一直迭代地執(zhí)行下去,直到大家看不出兩個碗所容納的菜有什么分量上的不同為止。

EM算法就是這樣,假設(shè)我們估計知道A和B兩個參數(shù),在開始狀態(tài)下二者都是未知的,并且知道了A的信息就可以得到B的信息,反過來知道了B也就得到了A。可以考慮首先賦予A某種初值,以此得到B的估計值,然后從B的當(dāng)前值出發(fā),重新估計A的取值,這個過程一直持續(xù)到收斂為止。

主要包括三個步驟

1、明確隱變量以及完全數(shù)據(jù)的對數(shù)似然函數(shù)

2、E步:確定Q函數(shù)(函數(shù)在Y和當(dāng)前參數(shù)A_i的情況下對隱變量Z的條件概率分布P(Z|Y,A_i)的期望為Q函數(shù))Q(A,A_i) =E [ log P(Z|Y,A) | Y, A_i]

3、M步:求解Q對A的極大值,即A_(i+1) =argmax( Q(A,A_i) )

【GMM模型的EM算法】

輸入:觀測值y1...y以及高斯混合分布模型?????? 輸出:模型參數(shù)

1、取初始值(對結(jié)果影響很大)開始迭代。

2、E步:計算k模型對觀測數(shù)據(jù)yi的響應(yīng)度

3、計算新一輪模型參數(shù)

4、重復(fù)2/3步直到收斂

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

友情鏈接更多精彩內(nèi)容