深入淺出最大似然估計(jì)(Maximum Likelihood Estimation)

最大似然估計(jì)是利用已知的樣本的結(jié)果,在使用某個(gè)模型的基礎(chǔ)上,反推最有可能導(dǎo)致這樣結(jié)果的模型參數(shù)值。

深入淺出最大似然估計(jì)

例子1:抽球

舉個(gè)通俗的例子:假設(shè)一個(gè)袋子裝有白球與紅球,比例未知,現(xiàn)在抽取10次(每次抽完都放回,保證事件獨(dú)立性),假設(shè)抽到了7次白球和3次紅球,在此數(shù)據(jù)樣本條件下,可以采用最大似然估計(jì)法求解袋子中白球的比例(最大似然估計(jì)是一種“模型已定,參數(shù)未知”的方法)。當(dāng)然,這種數(shù)據(jù)情況下很明顯,白球的比例是70%,但如何通過理論的方法得到這個(gè)答案呢?一些復(fù)雜的條件下,是很難通過直觀的方式獲得答案的,這時(shí)候理論分析就尤為重要了,這也是學(xué)者們?yōu)楹我岢鲎畲笏迫还烙?jì)的原因。我們可以定義從袋子中抽取白球和紅球的概率如下:

x1為第一次采樣,x2為第二次采樣,f為模型, theta為模型參數(shù)

其中theta是未知的,因此,我們定義似然L為:

L為似然的符號(hào)

兩邊取ln,取ln是為了將右邊的乘號(hào)變?yōu)榧犹?hào),方便求導(dǎo)。

兩邊取ln的結(jié)果,左邊的通常稱之為對(duì)數(shù)似然。
這是平均對(duì)數(shù)似然

最大似然估計(jì)的過程,就是找一個(gè)合適的theta,使得平均對(duì)數(shù)似然的值為最大。因此,可以得到以下公式:

最大似然估計(jì)的公式

這里討論的是2次采樣的情況,當(dāng)然也可以拓展到多次采樣的情況:

最大似然估計(jì)的公式(n次采樣)

我們定義M為模型(也就是之前公式中的f),表示抽到白球的概率為theta,而抽到紅球的概率為(1-theta),因此10次抽取抽到白球7次的概率可以表示為:

10次抽取抽到白球7次的概率

將其描述為平均似然可得:

10次抽取抽到白球7次的平均對(duì)數(shù)似然,抽球的情況比較簡(jiǎn)單,可以直接用平均似然來求解

那么最大似然就是找到一個(gè)合適的theta,獲得最大的平均似然。因此我們可以對(duì)平均似然的公式對(duì)theta求導(dǎo),并另導(dǎo)數(shù)為0。

求導(dǎo)過程

由此可得,當(dāng)抽取白球的概率為0.7時(shí),最可能產(chǎn)生10次抽取抽到白球7次的事件。

例子2:正態(tài)分布

假如有一組采樣值(x1,...,xn),我們知道其服從正態(tài)分布,且標(biāo)準(zhǔn)差已知。當(dāng)這個(gè)正態(tài)分布的期望為多少時(shí),產(chǎn)生這個(gè)采樣數(shù)據(jù)的概率為最大?

這個(gè)例子中正態(tài)分布就是模型M,而期望就是前文提到的theta。

似然
正態(tài)分布的公式,當(dāng)?shù)谝粎?shù)(期望)為0,第二參數(shù)(方差)為1時(shí),分布為標(biāo)準(zhǔn)正態(tài)分布
似然值
對(duì)上式求導(dǎo)可得


綜上所述,可得求解最大似然估計(jì)的一般過程為:

1. 寫出似然函數(shù);

2. 如果無法直接求導(dǎo)的話,對(duì)似然函數(shù)取對(duì)數(shù);

3. 求導(dǎo)數(shù) ;

4. 求解模型中參數(shù)的最優(yōu)值。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 轉(zhuǎn)載 http://blog.csdn.net/zouxy09 EM算法是一種迭代算法,用于含有隱含變量的概率模型...
    Jlan閱讀 2,242評(píng)論 1 13
  • 轉(zhuǎn)載自最大似然估計(jì)(通俗易懂) 一、例子1 最大似然估計(jì)是建立在這樣的思想上:已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的概率最...
    ShaderJoy閱讀 1,207評(píng)論 0 2
  • 前面的文章主要從理論的角度介紹了自然語(yǔ)言人機(jī)對(duì)話系統(tǒng)所可能涉及到的多個(gè)領(lǐng)域的經(jīng)典模型和基礎(chǔ)知識(shí)。這篇文章,甚至之后...
    我偏笑_NSNirvana閱讀 14,397評(píng)論 2 64
  • 本文轉(zhuǎn)自 劉未鵬的博客! 概率論只不過是把常識(shí)用數(shù)學(xué)公式表達(dá)了出來。 記得讀本科的時(shí)候,最喜歡到城里的計(jì)算機(jī)書店里...
    Bioquan閱讀 4,986評(píng)論 1 29
  • 早上開心的事就是 睡醒的時(shí)候 看到你昨天晚上回我的 我來不及看到的內(nèi)容 ???
    雞腿飯先生閱讀 280評(píng)論 0 0

友情鏈接更多精彩內(nèi)容