峰終律是諾獎(jiǎng)得主卡尼曼研究發(fā)現(xiàn)的一種有趣現(xiàn)象,一起看看能帶來(lái)哪些啟示。 2002年諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)獲獎(jiǎng)?wù)?,心理學(xué)家丹尼爾·卡納曼(Daniel K...
經(jīng)濟(jì)學(xué)中有全部成本和貨幣成本兩個(gè)概念,對(duì)人們做決策是有啟發(fā)意義的。 最近在看《薛兆豐經(jīng)濟(jì)學(xué)講義》,里面提到成本的概念,即 成本就是放棄了的最大代...
無(wú)論求學(xué)、自學(xué)還是工作,都不可避免要掌握抽象的概念,進(jìn)行抽象思考。但是大腦不喜歡抽象的事物,大腦傾向于選擇具體的事物。怎么辦?我們不妨求助于認(rèn)知...
在讀張五?!段嵋猹?dú)憐才》一書(shū)思考的方法這一章節(jié)時(shí),發(fā)現(xiàn)他偷思的例子,挺有啟發(fā)。 張五常大學(xué)念書(shū)時(shí)從不缺課,不是為了考試,而是要學(xué)習(xí)老師的思考方法...
XGBoost是經(jīng)典的提升樹(shù)學(xué)習(xí)框架,其配套論文和PPT分享也相當(dāng)經(jīng)典,本文簡(jiǎn)單梳理其思路,原文見(jiàn)XGBoost原理簡(jiǎn)介。 整體思路 和一般提升...
Linear/Logistic/Softmax Regression是常見(jiàn)的機(jī)器學(xué)習(xí)模型,且都是廣義線性模型的一種,有諸多相似點(diǎn),詳細(xì)對(duì)比之。原...
關(guān)于經(jīng)典決策樹(shù)算法ID3、C4.5及CART樹(shù)的部分細(xì)節(jié)梳理。 決策樹(shù) 決策樹(shù)可以從兩個(gè)視角理解。 If-Then規(guī)則的集合 定義在特征空間與類...
損失函數(shù)(Loss Function)用來(lái)估量模型的預(yù)測(cè)值 與真實(shí)值 的不一致程度。這里做一個(gè)簡(jiǎn)單梳理,以備忘。 回歸問(wèn)題 常見(jiàn)的回歸問(wèn)題損...
Pandas是Python數(shù)據(jù)科學(xué)生態(tài)中重要的基礎(chǔ)成員,功能強(qiáng)大,用法靈活,簡(jiǎn)單記錄之。更佳閱讀體驗(yàn)可移步Pandas核心概述。 數(shù)據(jù)結(jié)構(gòu) 兩種...