cs231n學(xué)習(xí)之KNN(1)

前言

本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請(qǐng)附出處http://www.itdecent.cn/p/ea566512b04f

KNN

原理

K近鄰(K-nearest neighbor) 是一種基本的分類(lèi)和回歸的算法,在cs231中只介紹了分類(lèi)算法。KNN分類(lèi)算法的思想:給定一批帶標(biāo)簽的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),在對(duì)未知標(biāo)簽的數(shù)據(jù)進(jìn)行分類(lèi)時(shí),根據(jù)其K個(gè)最近鄰訓(xùn)練數(shù)據(jù)的標(biāo)簽,采取多數(shù)表決的方法進(jìn)行預(yù)測(cè)。KNN中訓(xùn)練不花時(shí)間,預(yù)測(cè)時(shí)需要采取特定的距離的度量方式來(lái)進(jìn)行最近鄰的尋找,如果待預(yù)測(cè)的樣本很多,其預(yù)測(cè)時(shí)間也會(huì)相應(yīng)的增加。

距離度量

距離度量一般采取Minkowski距離,其公式為:
L_{p}(x_{i},x_{j})=(\sum_{l=1}^{n}|x_{i}^{l}-x_{j}^{l}|^{p})^{1/p}

二維空間中Lp距離.png

  • 當(dāng)p = 2時(shí),就是我們常用的歐式距離;
  • 當(dāng)p = 1時(shí),就是曼哈頓距離;
  • 當(dāng)p=\infty時(shí),該距離就表示為各個(gè)坐標(biāo)系中最大的距離:
    L_{\infty}=max_{l}|x_{i}^{l}-x_{j}^{l}|
    當(dāng)然,還有許多距離,比如遙感應(yīng)用中的光譜角距離,這里就不一一介紹了。

K值的選擇

  • 如果K值很?。ㄗ钚?),這種預(yù)測(cè)只在一個(gè)很小的領(lǐng)域中進(jìn)行預(yù)測(cè),會(huì)很大程度的依賴近鄰點(diǎn),這在深度學(xué)習(xí)中表現(xiàn)就是容易過(guò)擬合,K值太小模型太復(fù)雜;
  • 如果K值很大(最大為訓(xùn)練集的數(shù)目),這是不可取的,忽略了大量有用的信息,容易預(yù)測(cè)錯(cuò)誤,模型過(guò)于簡(jiǎn)單。
    所以K值需要精心調(diào)節(jié)選取。
  • 在cs231實(shí)驗(yàn)中,采用了X折交叉驗(yàn)證的方法來(lái)選擇K值;



    其做法是將訓(xùn)練集切成X份,每次拿一份來(lái)驗(yàn)證,剩下的X-1份組成新的訓(xùn)練集,這樣就會(huì)存在X組不同的情況,然后再選擇幾個(gè)K值(比如1,3,5,7,9等);通過(guò)計(jì)算每一個(gè)K值下X組不同情況下的驗(yàn)證集的精度的均值,來(lái)尋找最優(yōu)的K值。

cs231實(shí)驗(yàn)

cs231實(shí)驗(yàn)中選擇的數(shù)據(jù)為cifar10數(shù)據(jù)。

距離矩陣計(jì)算

實(shí)驗(yàn)中介紹了計(jì)算距離矩陣的幾種方法,two-loop,one-loop, no-loop(該方法采取矩陣向量的操作),這里只介紹no-loop的代碼:

        X_test_2 = np.square(X).sum(axis = 1)
        X_train_2 = np.square(self.X_train).sum(axis = 1)
        dists = np.sqrt(-2*np.dot(X,self.X_train.T)+X_train_2+np.matrix(X_test_2).T)###(5000,) and (500,1) broadcast
#         print(dists.shape)

        # *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****
        return np.array(dists)

注意:這里采取的numpy中加法的broadcast機(jī)制

Two loop version took 146.657845 seconds
One loop version took 89.948750 seconds
No loop version took 1.911102 seconds

no-loop計(jì)算距離矩陣的效率明顯高于loop!

KNN預(yù)測(cè)

def predict_labels(self, dists, k=1):
    num_test = dists.shape[0]
    y_pred = np.zeros(num_test)
    for i in range(num_test):
        closest_y = []
        closest_y = self.y_train[np.argsort(dists[i,:])[:k]]# 排序
        if np.shape(np.shape(closest_y))[0] !=1: 
                closest_y=np.squeeze(closest_y)       
         y_pred[i] = np.argmax(np.bincount(closest_y)) # 計(jì)數(shù)找出次數(shù)最多的標(biāo)簽
        return y_pred

交叉驗(yàn)證

num_folds = 5
X_train_folds = np.array_split(X_train,num_folds)
y_train_folds = np.array_split(y_train,num_folds)
for k in k_choices:#find the best k-value
    for i in range(num_folds):
        X_train_cv = np.vstack(X_train_folds[:i]+X_train_folds[i+1:])
        X_test_cv = X_train_folds[i]

        y_train_cv = np.hstack(y_train_folds[:i]+y_train_folds[i+1:])  
        y_test_cv = y_train_folds[i]
#         print(y_train_cv)

        classifier.train(X_train_cv, y_train_cv)
        dists_cv = classifier.compute_distances_no_loops(X_test_cv)
 
        y_test_cv_pred = classifier.predict_labels(dists_cv, k)
        num_correct = np.sum(y_test_cv_pred == y_test_cv)
        accuracy = float(num_correct) / y_test_cv.shape[0]
#         print(accuracy)
        k_to_accuracies[k].append(accuracy)

參考

cs231課件
.

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容