4.9 更多關于k近鄰算法的思考 K近鄰算法是解決分類問題,天然可以解決多分類問題。不僅如此,思想簡單,效果強大。使用K近鄰算法還可以解決回歸問...
4.8 scikit-learn中的Scaler 上節(jié)講了數(shù)據(jù)歸一化,但是真正用到機器學習算法中的時候,一個注意事項就是,之前將原始數(shù)據(jù)集拆分成...
4.6網(wǎng)格搜索與k近鄰算法中更多的超參數(shù) 關于網(wǎng)格搜索,sklearn為我們提供了一個方法,叫Grid Search在使用它之前,我們首先要定義...
數(shù)據(jù)歸一化 Feature Scaling 首先我們開看一下為什么要進行數(shù)據(jù)歸一化。我們使用前邊說道的腫瘤的例子: 那么這兩個樣本的距離是多少呢...
4.5 超參數(shù) 超參數(shù)就是指在運行機器學習算法之前,需要指定的參數(shù)。 模型參數(shù):算法過程中學習的參數(shù)。 KNN算法沒有模型參數(shù),k是典型的超參數(shù)...
4.1 K近鄰算法 思想極度簡單 應用數(shù)學知識少 可以解釋機器學習算法使用過程中的很多細節(jié)問題 更完整的刻畫機器學習的應用流程 ??K近鄰算法的...
3.9 Numpy中的比較和Fancy Indexing Fancy Indexing 運行結果為:array([ 0, 1, 2, 3,...
4.2 scikit-learn中的機器學習算法的封裝 新建文件夾myscript,創(chuàng)建KNN.py 在jupyter中調(diào)用封裝好的knn方法,...
4.3訓練數(shù)據(jù)集、測試數(shù)據(jù)集 1.判斷機器學習算法的性能 測試我們的算法 train_test_split 將原始數(shù)據(jù)集拆分成兩部分,一部分是訓...