概念=未知目標函數(shù)
樣本集大小
“不可知PLA可學習”
二分類問題,0-1損失函數(shù)(0-1 loss function)
泛化誤差(generalization error)也稱期望損失(expected loss)
經(jīng)驗誤差(empirical error)也稱經(jīng)驗損失(empirical?loss)
由于數(shù)據(jù)集D是獨立同分布的采樣,因此
的經(jīng)驗誤差期望等于其泛化誤差,帶入霍夫丁不等式(Hoeffding Inequality)
上面說到期望就是平均數(shù)隨樣本趨于無窮的極限,那么這句話是什么意思呢?
我們還是以上面的擲骰子為例子:
如果我們擲了無數(shù)次的骰子,然后將其中的點數(shù)進行相加,然后除以他們擲骰子的次數(shù)得到均值,這個有無數(shù)次樣本得出的均值就趨向于期望。
個人理解:均值為多個隨機變量的和再除以個數(shù),相當于還是一個隨機變量,當數(shù)量足夠多的時候,這個隨機變量會收斂,這個收斂的值為期望
,
泛化誤差上界(generalization error bound)
聯(lián)合約束(Union Bound)
,
對分(dichotomy)
增長函數(shù)(growth function),max表示最大
打散(shattering),N個樣本點的集合 能 被H給打碎,或者說H 能 打碎N個樣本點的集合
突破點(break point),N個樣本點的集合 不能 被H給打碎
vc維(VC?Dimension),max表示最大
一個數(shù)據(jù)點呈圓形分布的凸集,這時找不到任何突破點(break point),此時vc維趨于無窮。

如果一個集合被
打碎,那么它也能被
打碎,因為
中包含
所有在
上不重復(fù)的函數(shù)。
此外,如果一個集合被
打碎,集合
也將被
打碎,因為對
中的所有函數(shù),
都包含另外一個函數(shù),它僅在
上的輸出和前一個函數(shù)不同。

遞歸:大雄在房里,用時光電視看著未來的情況。電視畫面中的那個時候,他正在用時光電視,看著未來的情況。電視畫面中的那個時候,他正在用時光電視,看著未來的情況……
當的時候,
基于vc維得到的泛化邊界(model complexity)


對于不同的學習任務(wù)(分類,回歸,..)使用不同的損失函數(shù)(loss function)才能正確的解答。
X的樣本數(shù)量為N
打散(shattering)就是我們給它任何一種ooxx組合
,都要能夠做到
也就是一條直線正確分類。
只要
可以求逆就能求出與之相對應(yīng)的
,全部的
種組合都可以使用這種做法。