1)目的:將數(shù)據(jù)進行二分類
2)前提:假設數(shù)據(jù)符合伯努利分布
3)模型:sigmoid函數(shù)
4)損失函數(shù):極大似然函數(shù) (為什么要用極大似然函數(shù))
5)求解:梯度下降方法(其他優(yōu)化方法)
6)多分類問題
7)優(yōu)點
8)缺點
9)gbdt+lr(lr本身無法篩選特征)
邏輯回歸總結
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
相關閱讀更多精彩內(nèi)容
- 機器學習是做NLP和計算機視覺這類應用算法的基礎,雖然現(xiàn)在深度學習模型大行其道,但是懂一些傳統(tǒng)算法的原理和它們之間...
- 1. RF, GBDT 的區(qū)別; GBDT,XGboost 的區(qū)別 GBDT在訓練每棵樹時候只能串行,不能并行,在...