day11-SVM

今天學(xué)習(xí)了SVM的基本思想

通過(guò)代碼實(shí)現(xiàn)認(rèn)識(shí)了SVM,并舉例用sklearn中的SVC庫(kù)函數(shù)來(lái)實(shí)現(xiàn)人臉識(shí)別,用SVR預(yù)測(cè)波士頓地區(qū)的房?jī)r(jià)。

代碼實(shí)現(xiàn)鏈接如下:SVM算法思想

其中用SVR預(yù)測(cè)波士頓地區(qū)房?jī)r(jià)的代碼如下:

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.svm import SVR
from sklearn.metrics import r2_score,mean_squared_error,mean_absolute_error
import numpy as np

boston =load_boston()
#print(boston.DESCR)
x=boston.data
y=boston.target

x_train,x_test,y_train,y_test =train_test_split(x,y,test_size =0.25,random_state=42)

#訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)標(biāo)準(zhǔn)化
scale =StandardScaler()
x_train =scale.fit_transform(x_train)
x_test =scale.transform(x_test)
y_train =scale.fit_transform(y_train.reshape(-1,1))
y_test =scale.transform(y_test.reshape(-1,1))

#線性核函數(shù)配置支持向量機(jī)
linear_svr =SVR(kernel ='linear')
#訓(xùn)練
linear_svr.fit(x_train,y_train.ravel())
#預(yù)測(cè),保存預(yù)測(cè)結(jié)果
linearpredict =linear_svr.predict(x_test)
#模型評(píng)估
print("默認(rèn)評(píng)估值為:",linear_svr.score(x_test,y_test))
print("R_squared值為:",r2_score(y_test,linear_svr_v_predict))
print("均方誤差為:",mean_squared_error(scale.inverse_transform(y_test),scale.inverse_transform(linear_svr_v_predict)))
print("平均絕對(duì)誤差為:",mean_absolute_error(scale.inverse_transform(y_test),scale.inverse_transform(linearpredict)))
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容