介紹 RNN(Recurrent Nueral Network, 循環(huán)神經(jīng)網(wǎng)絡(luò)),自然語言處理常用的一種神經(jīng)網(wǎng)絡(luò)類型。因為它的輸入和輸出(通常為時間序列)是可變長的,詳細(xì)介紹...
介紹 RNN(Recurrent Nueral Network, 循環(huán)神經(jīng)網(wǎng)絡(luò)),自然語言處理常用的一種神經(jīng)網(wǎng)絡(luò)類型。因為它的輸入和輸出(通常為時間序列)是可變長的,詳細(xì)介紹...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第19篇,介紹了數(shù)據(jù)前處理的方法—特征選擇和特征轉(zhuǎn)換。 為什么需要特征選擇 特征選擇之所以重要,有兩個原因,一個源...
概要:在產(chǎn)品交付的每個階段,需要設(shè)計好每個階段的環(huán)境、人員配置和決策卡點。其中,在每個決策上,為了保證質(zhì)量和進(jìn)度,需要對技術(shù)的可實現(xiàn)性和功能的友好性進(jìn)行充分思考,實現(xiàn)兩者的互...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第18篇,介紹了數(shù)據(jù)前處理的方法—特征縮放。 特征縮放(Feature Scaling)特征縮放是對數(shù)據(jù)特征進(jìn)行前處...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第17篇,介紹了什么是聚類(2),介紹軟聚類(高斯混合聚類模型)。 正態(tài)分布回顧軟聚類牽扯到一個非常有趣的概率學(xué)知識...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第16篇,介紹了什么是聚類(1),介紹K-均值、單鏈路聚類和基于密度的聚類三種。 K-均值(K-Means)K-均值...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第15篇,介紹了什么是非監(jiān)督學(xué)習(xí)和聚類。 非監(jiān)督學(xué)習(xí)非監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種方法,而且非常重要,因為現(xiàn)實生活中,我...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第14篇,介紹了監(jiān)督學(xué)習(xí)中的集成學(xué)習(xí)。 什么是集成學(xué)習(xí)如果我們要對郵件進(jìn)行判斷,是否屬于垃圾郵件。首先,我們有一大堆...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第12篇,介紹了監(jiān)督學(xué)習(xí)中的貝葉斯學(xué)習(xí)模型(3)。 聯(lián)合分布在現(xiàn)實生活中,我們會對關(guān)聯(lián)的幾個隨機(jī)變量感興趣。例如,一...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第12篇,介紹了監(jiān)督學(xué)習(xí)中的貝葉斯學(xué)習(xí)模型(2)。 在貝葉斯學(xué)習(xí)模型(1)中,介紹了貝葉斯規(guī)則(定理)。這里進(jìn)一步地...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第11篇,介紹了監(jiān)督學(xué)習(xí)中的貝葉斯學(xué)習(xí)模型(1)。 樸素貝葉斯樸素貝葉斯是一個分類模型,如下圖所示,有正反兩類樣本數(shù)...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第10篇,介紹了監(jiān)督學(xué)習(xí)中的支持向量機(jī)。 支持向量機(jī)支持向量機(jī)是一種分類模型,它是在給定的有兩個類別的數(shù)據(jù)集下,尋找...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第9篇,介紹了監(jiān)督學(xué)習(xí)中的Logistic回歸。 Logistic回歸 Logistic回歸雖然帶有回歸兩字,但它...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第8篇,介紹了監(jiān)督學(xué)習(xí)中的感知器。 感知器感知器如下圖所示。 是輸入,它們分別乘以一個權(quán)重后相加,然后與一個閾值相比...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第7篇,介紹了監(jiān)督學(xué)習(xí)中的K近鄰模型。 K近鄰 K近鄰模型理解起來非常簡單。假設(shè)我們已經(jīng)知道下面地圖中紅點、藍(lán)點和綠...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第6篇,介紹了監(jiān)督學(xué)習(xí)中的決策樹模型。 決策樹 決策樹是監(jiān)督學(xué)習(xí)中的分類模型的一種。關(guān)于分類模型,我們先了解下面的的...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第5篇,介紹了監(jiān)督學(xué)習(xí)中的線性回歸模型。 線性回歸回歸這一個概念,在百度百科的解釋是“發(fā)生倒退或表現(xiàn)倒退;常指趨于接...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第4篇,介紹了什么是監(jiān)督學(xué)習(xí)。 監(jiān)督學(xué)習(xí)(Supervised Learning) 監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種分類,“...
本文來自之前在Udacity上自學(xué)機(jī)器學(xué)習(xí)的系列筆記。這是第3篇,介紹了模型的誤差類型、誤差的由來、找到模型適合的參數(shù)、以及避免欠擬合和過擬合的方法。 1.診斷誤差 1.1....
微信公眾號里的編輯器里是不能直接輸入數(shù)學(xué)公式,那么如何實現(xiàn)數(shù)學(xué)公式的輸入呢? 有效的辦法就是先使用數(shù)學(xué)公式編輯器生成需要的數(shù)學(xué)公式,然后再把數(shù)學(xué)公式截圖,通過插入圖片的方式放...