EM 算法是一種重要的解決含有隱變量問(wèn)題的參數(shù)估計(jì)方法
算法釋義
EM算法 是用來(lái)解決含有隱變量的概率模型參數(shù)的極大似然估計(jì),或者叫極大后驗(yàn)概率估計(jì)。它是一種迭代算法,每次迭代由兩步組成:E 步,求期望,M 步,求極大。
算法步驟
輸入:觀測(cè)變量數(shù)據(jù) Y,隱變量數(shù)據(jù) Z,聯(lián)合分布 P(Y, Z | θ),條件分布 P(Z | Y, θ)
輸出:模型參數(shù) θ(T)
(1) 初始化模型參數(shù):θ(0)
(2) 迭代求解,直至收斂,t = 0,1,...,T:
a. E步,求期望:
b. M步,求極大:
EM 算法的導(dǎo)出
極大似然估計(jì)的目標(biāo)是極大化觀測(cè)數(shù)據(jù) Y 關(guān)于參數(shù) θ 的似然函數(shù),對(duì)其取對(duì)數(shù),那么就是要極大化對(duì)數(shù)似然函數(shù),即極大化 L(θ) :
如果存在某一輪迭代的中間值 θ(t),則:
我們把不等式右邊的這個(gè)函數(shù)成為 B(θ, θ(t)) 函數(shù),那么顯然 B(θ, θ(t)) 是 L(θ) 的一個(gè)下界,換句話說(shuō),如果 θ 盡可能使 B(θ, θ(t)) 增大,那么 L(θ) 也會(huì)增大,所以下面極大化 B(θ, θ(t)):
EM 算法是不斷求解下界的極大化逼近求解對(duì)數(shù)似然函數(shù)極大化的算法,因此 EM 算法不能保證找到全局最優(yōu)解。
EM 算法的收斂性
pass
參考資料
《統(tǒng)計(jì)學(xué)習(xí)方法》,李航