特征工程是指將數(shù)據(jù)轉(zhuǎn)化為能更好地表示潛在問題的特征,從而提高機(jī)器學(xué)習(xí)性能。主要分為如下幾點(diǎn): 數(shù)據(jù)理解 數(shù)據(jù)清洗 特征構(gòu)造 特征選擇 類別不平衡...
數(shù)據(jù)的探索性分析 探索性數(shù)據(jù)分析(Exploratory Data Analysis,EDA)是指對(duì)已有數(shù)據(jù)在盡量少的先驗(yàn)假設(shè)下通過作圖、制表、...
圖像分類案例2 Kaggle上的狗品種識(shí)別(ImageNet Dogs) 在本節(jié)中,我們將解決Kaggle競賽中的犬種識(shí)別挑戰(zhàn),比賽的網(wǎng)址是ht...
目標(biāo)檢測基礎(chǔ) 目標(biāo)檢測和邊界框 邊界框 錨框 目標(biāo)檢測算法通常會(huì)在輸入圖像中采樣大量的區(qū)域,然后判斷這些區(qū)域中是否包含我們感興趣的目標(biāo),并調(diào)整區(qū)...
文本分類 文本情感分類數(shù)據(jù)集 使用循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行情感分類 使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行情感分類文本分類是自然語言處理的一個(gè)常見任務(wù),它把一段不定長的文...
優(yōu)化算法進(jìn)階 介紹更高級(jí)的優(yōu)化算法 Momentum epoch 20, x1 -0.943467, x2 -0.000073 可以看到,同一位...
批量歸一化(BatchNormalization) 對(duì)輸入的標(biāo)準(zhǔn)化(淺層模型) 處理后的任意一個(gè)特征在數(shù)據(jù)集中所有樣本上的均值為0、標(biāo)準(zhǔn)差為1。...
機(jī)器翻譯和數(shù)據(jù)集 機(jī)器翻譯(MT):將一段文本從一種語言自動(dòng)翻譯為另一種語言,用神經(jīng)網(wǎng)絡(luò)解決這個(gè)問題通常稱為神經(jīng)機(jī)器翻譯(NMT)。 主要特征:...
卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 本節(jié)我們介紹卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)概念,主要是卷積層和池化層,并解釋填充、步幅、輸入通道和輸出通道的含義。 二維卷積層 本節(jié)介紹的...