大師兄的貝葉斯網(wǎng)絡(luò)學習筆記(三十):貝葉斯網(wǎng)絡(luò)(四)

大師兄的貝葉斯網(wǎng)絡(luò)學習筆記(二十九):貝葉斯網(wǎng)絡(luò)(三)
大師兄的貝葉斯網(wǎng)絡(luò)學習筆記(三十一):貝葉斯網(wǎng)絡(luò)(五)

三、單參數(shù)貝葉斯估計

2. 貝葉斯估計的計算
  • 考慮投擲圖釘問題1:
  • 由于沒有關(guān)于投擲圖釘?shù)南闰炛R,所以假設(shè)先驗分布是貝塔分布B[0,0]
  • 于是,a_h=a_t=0,而m_k=2,m_t=4
  • 下一次投擲圖釘?shù)玫筋^朝上的概率為:\frac_{2+0}{6+0}=\frac{2}{6}
  • 考慮投擲圖釘問題2:
  • 由于知道投擲正常硬幣正面朝上的概率為1/2,而且問題所涉及的硬幣應(yīng)該是正常硬幣,但又不能完全排除它是魔術(shù)硬幣的可能性
  • 所以假設(shè)先驗分布是貝塔分布B[100,100]
  • 于是a_h=a_t=100,而m_h=2,m_t=4
  • 根據(jù)貝葉斯估計,下一次投得硬幣正面朝上的概率為\frac{2+100}{6+200}\approx \frac{1}{2},這里樣本量m=6很小,先驗知識占主導作用。
  • 另一方面,如果假設(shè)共投擲硬幣6萬次,得到2萬次正面朝上,4萬次反面朝上,即m_h=20000,m_t=40000,那么下一次投幣正面朝上的概率是\frac{20000+100}{60000+200}\approx \frac{2}{6}
3. 共軛分布族
  • 再看公式p(\theta|D) \propto p(\theta)L(\theta|D)
  • 它的右邊是先驗概率分布p(\theta)和似然函數(shù)L(\theta|d)的乘積。
  • 在i.i.d假設(shè)下,L(\theta|D)是二項似然函數(shù),上面p(\theta)來自貝塔分布族。
  • 這是因為貝塔分布族是二項似然函數(shù)的共軛分布族(conjugate family),即如果先驗分布p(\theta)是貝塔分布,那么后驗分布p(\theta)|D)也是貝塔分布。
  • 這使得貝葉斯估計的計算簡單易行。
  • 事實上,如果假設(shè)p(\theta|D)來自另一分布族,比如正態(tài)分布,那么貝葉斯估計計算起來就要困難得多。
  • 另外,共軛分布族的使用也使得我們可以清楚地了解到貝葉斯估計是怎樣把先驗知識與觀測數(shù)據(jù)結(jié)合到一起。
  • 假設(shè)p(\theta|D)為貝塔分布B[a_h,a_t]實際上就是做如下假設(shè):
  • 先驗知識相當于一組包含a_h哥頭朝上和a_t個尾朝上的樣本的虛擬數(shù)據(jù)(imaginary data)。
  • 貝葉斯估計把這些虛擬數(shù)據(jù)和實際觀測所得到的數(shù)據(jù)放到一起,得到一組由m_h+a_h個頭朝上和m_t+a_t個尾朝上的樣本所組成的數(shù)據(jù),于是p(\theta|D)是B[m_h+a_h,m_t+a_t]。
4. 順序?qū)W習與批量學習
  • 機器學習有兩種模式,即順序?qū)W習批量學習。
  • 順序?qū)W習(sequential learning)指一個一個地處理數(shù)據(jù)樣本,每處理一個樣本就更新一次參數(shù),而且更新是在當前參數(shù)值的基礎(chǔ)上進行的。
  • 批量學習(batch learning)則指同時處理所有數(shù)據(jù),一次性得到參數(shù)估計。在處理完當前數(shù)據(jù)之后的一段時間內(nèi),如果有新的數(shù)據(jù)出現(xiàn),就把新老數(shù)據(jù)混合在一起,重新進行參數(shù)估計,這個過程完全不依賴以前的估計。
  • 貝葉斯估計既可以用于順序?qū)W習,也可以用于批量學習,而最大似然估計只能用于批量學習。
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容