最簡單的神經網絡 準備訓練數據 隨機生成50個數據,用作訓練數據 最簡單的神經網絡擬合,y=ax+b,所有設置y為 不過,為了符合實際情況,可用適當增加一些噪聲。 繪制x,y...
python3.9更新 版本:3.9.1日期:2021.1.1作者:Lukasz Langapython3.9發(fā)布于2020.10.5,這里做與python3.8的比較 總結...
概率圖模型 概率圖模型(Probabilistic Graphic Model),能夠很好地挖掘潛在的內容。 概率圖中地節(jié)點分為隱含節(jié)點和觀測節(jié)點,邊分為有向邊和無向邊。從概...
聚類算法評估 假設沒有外部標簽數據,我們怎么評價不同聚類算法的優(yōu)劣? 非監(jiān)督學習往往沒有標注數據,這是模型,算法的設計直接影響最終的輸出和模型的性能。為了評估不同的聚類算法,...
設定輸出層神經元的數量 輸出層神經元的數量與訓練集樣本的類別數相關。不清楚類別數,盡可能多設置節(jié)點數。分類過細可適當減少輸出節(jié)點,減少從未更新權值的死節(jié)點。 設計輸出層節(jié)點的...
高斯混合模型計算 初始隨機設置各參數的值,然后重復迭代下面的步驟,直至收斂 根據當前的參數,計算每個點由某各分模型生成的概率 使用步驟2計算出來的概率,來改進每個模型的均值,...
K均值缺點 需要人工預先設置K值,而且該值與真實的數據分布未必吻合 K值只能收斂到局部最優(yōu),效果受到初始值影響較大 容易受到噪聲影響 樣本點被劃分到單一的類里面 高斯混合模型...
K均值算法 K均值聚類的核心目標是將給定的數據集劃分成K個簇,并給出每個數據對應的簇中心點。 數據預處理,包括但不限于歸一化,離群點處理等 隨機選擇K個簇中心,我們記為 定義...
非監(jiān)督學習 給機器輸入大量的特征數據,并期望機器通過學習找到數據中存在的共性特征或結構,亦或數據之間的關聯(lián)。比如說,視頻網站根據用戶的觀看行為進行分組,采取不同的推薦策略。這...
線性判別分析 線性判別分析(Linear Discriminant Analysis,LDA)是一種監(jiān)督學習算法,常常用于數據降維。LDA是為分類問題服務的,因此需要先找到一...
降維 用一個低維度的向量表示原來高維度的特征,避免維度災難。 降維方法 主成分分析 線性判別分析 等距映射 局部線性嵌入 拉普拉斯特征映射 局部保留投影 PCA最大方差理論 ...
邏輯回歸 邏輯回歸,是最常見最基礎的模型。 邏輯回歸與線性回歸 邏輯回歸處理的是分類問題,線性回歸處理回歸問題。兩者都是采用極大似然估計對訓練樣本建模,線性回歸使用最小二乘法...
訓練誤差為0的SVM分類器一定存在嗎 理論上,存在一組參數以及使得SVM訓練誤差為0,但是這個參數不一定是滿足SVM條件的一個解,在實際訓練SVM模型時,會加入一個松弛變量,...
隊列 隊列的特性是先進先出。每次數據出去只能的隊列的頭部,每次數據進來只能加在隊列的尾部。隊列實現一般有兩種方式,線性隊列,鏈表隊列。 鏈表隊列 鏈表隊列的實現可以參考單向鏈...
決策樹 決策樹自上而下,對樣本數據進行樹形分類的過程。決策樹由結點和有向邊組成。結點又分內部結點和葉結點。每個內部結點表示一個特征或屬性,葉子結點表示類別。從頂部開始,所有樣...
支持向量機 支持向量機(Support Vector Machine,SVM)是眾多監(jiān)督學習方法中十分出色的一種。svm中廣為流傳的魔鬼與天使的故事。 在空間中線性可分的兩類...