邏輯回歸總結

1)目的:將數(shù)據(jù)進行二分類
2)前提:假設數(shù)據(jù)符合伯努利分布
3)模型:sigmoid函數(shù)
4)損失函數(shù):極大似然函數(shù) (為什么要用極大似然函數(shù))
5)求解:梯度下降方法(其他優(yōu)化方法)
6)多分類問題
7)優(yōu)點
8)缺點
9)gbdt+lr(lr本身無法篩選特征)

?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

  • 1、面試:一句話解釋邏輯回歸 LR是一種用于分類問題的對數(shù)線性判別式模型,由條件概率表示,其形式為參數(shù)化的邏輯斯蒂...
    0過把火0閱讀 331評論 0 0
  • 作者:狗皮膏藥鏈接:https://zhuanlan.zhihu.com/p/58434325來源:知乎 SVM:...
    孫有涵閱讀 3,752評論 0 0
  • 機器學習是做NLP和計算機視覺這類應用算法的基礎,雖然現(xiàn)在深度學習模型大行其道,但是懂一些傳統(tǒng)算法的原理和它們之間...
    城市中迷途小書童閱讀 1,185評論 0 11
  • 1. RF, GBDT 的區(qū)別; GBDT,XGboost 的區(qū)別 GBDT在訓練每棵樹時候只能串行,不能并行,在...
    sylvainwang閱讀 3,388評論 0 50
  • “時間留不住,只好用心面對必然消失的每一刻?!眳堑缭凇稌r間管理幸福學》的序文中說。是啊,也許這是讓生命寬度加大的...
    心如美玉閱讀 647評論 0 0

友情鏈接更多精彩內(nèi)容