1,虛擬機(jī)安裝Ubuntu20.10 磁盤選項(xiàng)選擇nvme, 開機(jī)會更快 2, 更換清華源sudo cp /etc/apt/source.list /etc/apt/sour...
1,虛擬機(jī)安裝Ubuntu20.10 磁盤選項(xiàng)選擇nvme, 開機(jī)會更快 2, 更換清華源sudo cp /etc/apt/source.list /etc/apt/sour...
貝葉斯決策輪: ??對分類任務(wù)來說,在所有相關(guān)概率都已知的理想情形下,貝葉斯決策論考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標(biāo)記。??假設(shè)有N種可能的類別標(biāo)記,即,是將一...
Lagrange優(yōu)化問題: ??標(biāo)準(zhǔn)形式的優(yōu)化問題(原問題):?? ?? 其中,自變量。設(shè)問題的定義域是非空集合,優(yōu)化問題的最優(yōu)值為。則問題的Lagrange函數(shù):??其...
原理: ??每次按照下降的方向進(jìn)行計(jì)算,屬于貪心的算法。 算法(就最小二乘法討論): ??若訓(xùn)練集:??訓(xùn)練函數(shù):??參數(shù)向量:??損失函數(shù):??梯度:????? gradi...
神經(jīng)元模型: ??,其中為權(quán)值,為閾值通過激活函數(shù)處理產(chǎn)生的輸出(或)。 感知機(jī): ??感知機(jī)由兩層神經(jīng)元組成,輸入層和輸出層,感知機(jī)只有一層功能神經(jīng)元,學(xué)習(xí)能力有限,只能學(xué)...
信息熵 ??熵是接收的每條消息中包含的信息的平均量,被稱為信息熵、信源熵、平均自信息量,為不確定性的量度。簡而言之,越是確定的事,信息熵小,而越不確定的事信息熵越大。??隨機(jī)...
基本流程: ??略 劃分選擇: ??“信息熵”是度量樣本集合純度最常用的一項(xiàng)指標(biāo)????“信息增益”是度量某個屬性對劃分的增益????表示該屬性的權(quán)重值 剪枝處理: ??剪枝...
關(guān)于別的 本來想寫完上周寫的詩人張稹的故事,但上周提筆的時候可以說是神情恍惚,胡寫一氣。本周就不接著上周的內(nèi)容寫了,寫點(diǎn)其他的,寫一些無用的東西。至于張稹的故事,我打算還是在...
快更??
線性模型基本形式: ??一般形式:??向量形式: 線性回歸: 最小二乘法: ??最小二乘法就是試圖找到一條直線,使所有樣本到直線的歐式距離只和最小,求解和使 ???????? 最小化...
機(jī)器學(xué)習(xí)誤差: 訓(xùn)練誤差或者經(jīng)驗(yàn)誤差:學(xué)習(xí)器在訓(xùn)練集上的誤差 泛化誤差:在新樣本上的誤差 評估方法: 留出法:直接將數(shù)據(jù)集分為互斥的集合,一個作為訓(xùn)練集一個作為測...
基本形式: ??一般形式:??向量形式: 線性回歸: 最小二乘法: ??最小二乘法就是試圖找到一條直線,使所有樣本到直線的歐式距離只和最小,求解和使 ???????? 最小化...
??多分類學(xué)習(xí)的基本思路是“拆解法”,即將多分類任務(wù)拆為若干個二分類任務(wù)求解。最經(jīng)典的拆分策略有三種:??“一對一”(OvO):將N個類別兩兩配對,兩個其中一個作為正例,另一...
??若訓(xùn)練樣例數(shù)正例和反例的差別很大,則會對學(xué)習(xí)過程造成困擾。例如998個反例,2個正例,那么學(xué)習(xí)方法只需永遠(yuǎn)將測試新樣本設(shè)為反例,那么就會99.8%的精度,但是這樣是沒有價...
有幸在簡書上看到一篇文章——讀博就是一次肖申克的救贖,陷于迷茫的讀研學(xué)習(xí)起步的我對于《肖申克的救贖》這個書名格外好奇,因?yàn)槲乙餐瑯有枰融H,同樣也只有我自己才能救得了我自...
寫得真特么好??
為了紀(jì)念我有贊了今天打開簡書發(fā)現(xiàn)我收獲了我漫長簡書寫作生涯的第一個贊。為了紀(jì)念我有贊了,我決定再寫一篇文章。 文章就講講今天發(fā)生了什么事情好了。 今天我去陪我對象了。我對象是一個女研究生,在...
今天打開簡書發(fā)現(xiàn)我收獲了我漫長簡書寫作生涯的第一個贊。為了紀(jì)念我有贊了,我決定再寫一篇文章。 文章就講講今天發(fā)生了什么事情好了。 今天我去陪我對象了。我對象是一個女研究生,在...