SVM

話說樣本分隔80/20比90/10的效果還要好哎,模型擬合不太好的原因估計(jì)是解釋變量之間存在共線性,這時(shí)就想到還能干什么,就是做了廣義線性模型,支持向量機(jī)就可以直接得出結(jié)論了嘛,挖坑.JPG

sigmoid

sigmoid.9
tune

tune.9
poly

poly.9
rbf

rbf.9
general linear model

95%CI,優(yōu)勢比
VIF
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 就像是開方等等操作,我們不需要親自實(shí)現(xiàn)SVM優(yōu)化算法,只需要調(diào)用成熟的高級優(yōu)化的算法即可。 標(biāo)準(zhǔn)線性分類器,無核函...
    天際神游閱讀 1,042評論 0 0
  • http://blog.csdn.net/szlcw1/article/details/52259668 1. S...
    GoDeep閱讀 1,171評論 0 1
  • libsvm支持向量機(jī)C-SVM和NU-Svm的區(qū)別 c-svc和 nu-svc本質(zhì)差不多 c-svc中c的范圍是...
    AI_Finance閱讀 6,057評論 0 1
  • 不是每個(gè)樣本點(diǎn)都有松弛因子,只有離群的樣本才有懲罰因子 首先隨機(jī)生成一些數(shù)據(jù) 選用線性SVM分類器并進(jìn)行數(shù)據(jù) 用支...
    袁一帆閱讀 2,341評論 0 50
  • SVM系列開篇,翻譯自:https://www.reddit.com/r/MachineLearning/comm...
    Queen〇fLaponia閱讀 771評論 0 3

友情鏈接更多精彩內(nèi)容