4.9 更多關(guān)于k近鄰算法的思考 K近鄰算法是解決分類問題,天然可以解決多分類問題。不僅如此,思想簡(jiǎn)單,效果強(qiáng)大。使用K近鄰算法還可以解決回歸問...
4.8 scikit-learn中的Scaler 上節(jié)講了數(shù)據(jù)歸一化,但是真正用到機(jī)器學(xué)習(xí)算法中的時(shí)候,一個(gè)注意事項(xiàng)就是,之前將原始數(shù)據(jù)集拆分成...
4.6網(wǎng)格搜索與k近鄰算法中更多的超參數(shù) 關(guān)于網(wǎng)格搜索,sklearn為我們提供了一個(gè)方法,叫Grid Search在使用它之前,我們首先要定義...
數(shù)據(jù)歸一化 Feature Scaling 首先我們開看一下為什么要進(jìn)行數(shù)據(jù)歸一化。我們使用前邊說道的腫瘤的例子: 那么這兩個(gè)樣本的距離是多少呢...
4.5 超參數(shù) 超參數(shù)就是指在運(yùn)行機(jī)器學(xué)習(xí)算法之前,需要指定的參數(shù)。 模型參數(shù):算法過程中學(xué)習(xí)的參數(shù)。 KNN算法沒有模型參數(shù),k是典型的超參數(shù)...
4.1 K近鄰算法 思想極度簡(jiǎn)單 應(yīng)用數(shù)學(xué)知識(shí)少 可以解釋機(jī)器學(xué)習(xí)算法使用過程中的很多細(xì)節(jié)問題 更完整的刻畫機(jī)器學(xué)習(xí)的應(yīng)用流程 ??K近鄰算法的...
3.9 Numpy中的比較和Fancy Indexing Fancy Indexing 運(yùn)行結(jié)果為:array([ 0, 1, 2, 3,...
4.2 scikit-learn中的機(jī)器學(xué)習(xí)算法的封裝 新建文件夾myscript,創(chuàng)建KNN.py 在jupyter中調(diào)用封裝好的knn方法,...
4.3訓(xùn)練數(shù)據(jù)集、測(cè)試數(shù)據(jù)集 1.判斷機(jī)器學(xué)習(xí)算法的性能 測(cè)試我們的算法 train_test_split 將原始數(shù)據(jù)集拆分成兩部分,一部分是訓(xùn)...