今天才發(fā)現(xiàn)kaggle的Discussion和Kernel內(nèi)容區(qū)別還挺大的。我原來一直在Kernel中找解決方案。其實(shí)很多都在Discussio...
投稿
今天才發(fā)現(xiàn)kaggle的Discussion和Kernel內(nèi)容區(qū)別還挺大的。我原來一直在Kernel中找解決方案。其實(shí)很多都在Discussio...
常用的時(shí)間序列數(shù)據(jù)的分析兩類: ·趨勢分解法 簡介:將時(shí)間序列分解為趨勢、周期、隨機(jī)三部分,并對(duì)前兩個(gè)部分使用曲線進(jìn)行擬合 ...
這篇文章背后的思路實(shí)際上是這樣的: DNN(或者說 MLP)其實(shí)就是堆起來的廣義線性模型(比如 logistic,但也有其他激活函數(shù))。它能夠自...
樹回歸:可以對(duì)復(fù)雜和非線性的數(shù)據(jù)進(jìn)行建模;適用數(shù)值型和標(biāo)稱型數(shù)據(jù)。1、 CART:classification and regression ...
零、特征工程(數(shù)據(jù)-特征-模型) 1、數(shù)據(jù)特征處理 * 數(shù)據(jù)選擇 /清洗 /采樣 * 數(shù)據(jù)型 / 類別型 /日期型 / 文本型特征處理 * 組合...
stateful LSTM的特點(diǎn)是,在處理過一個(gè)batch的訓(xùn)練數(shù)據(jù)后,其內(nèi)部狀態(tài)(記憶)會(huì)被作為下一個(gè)batch的訓(xùn)練數(shù)據(jù)的初始狀態(tài)。狀態(tài)LS...
Research Blog: Harness the Power of Machine Learning in Your Browser wit...
LSTM(Long Short-Term Memory)是長短期記憶網(wǎng)絡(luò),是一種時(shí)間遞歸神經(jīng)網(wǎng)絡(luò),適合用來處理時(shí)間序列數(shù)據(jù),在時(shí)間序列的預(yù)測問題...
論文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal...