1.模仿模板 2.PS 3.形狀+透明度 4.不能太多字,可以邏輯提煉,但是排版好看也是可以的 5.搜索引擎找思路 6.素材(網(wǎng)站+以前的模板) 7.LOGO+矢量圖 8.細(xì)...
1.模仿模板 2.PS 3.形狀+透明度 4.不能太多字,可以邏輯提煉,但是排版好看也是可以的 5.搜索引擎找思路 6.素材(網(wǎng)站+以前的模板) 7.LOGO+矢量圖 8.細(xì)...
3.2標(biāo)識(shí)符和關(guān)鍵字 3.2.1 分隔符 分號(hào):實(shí)現(xiàn)對(duì)語(yǔ)句的分隔,每個(gè)Java語(yǔ)句都會(huì)使用分號(hào)作為語(yǔ)句的間隔,因此每個(gè)Java語(yǔ)句必須使用分號(hào)作為結(jié)尾,Java程序允許一行書(shū)...
@zzj_619f course里的吳恩達(dá)老師的machine learning課
異常檢測(cè)(Anomaly Detection)1.問(wèn)題的動(dòng)機(jī) 異常檢測(cè)(Anomaly detection)問(wèn)題是機(jī)器學(xué)習(xí)算法的一個(gè)常見(jiàn)應(yīng)用。這種算法的一個(gè)有趣之處在于:它雖然主要用于非監(jiān)督學(xué)習(xí)問(wèn)題,但從某些角度看,它又...
@zzj_619f coursa上吳恩達(dá)老師的machine learning授課PPT
異常檢測(cè)(Anomaly Detection)1.問(wèn)題的動(dòng)機(jī) 異常檢測(cè)(Anomaly detection)問(wèn)題是機(jī)器學(xué)習(xí)算法的一個(gè)常見(jiàn)應(yīng)用。這種算法的一個(gè)有趣之處在于:它雖然主要用于非監(jiān)督學(xué)習(xí)問(wèn)題,但從某些角度看,它又...
PRML第一章《緒論》本章一共七個(gè)小章節(jié)1.1從一個(gè)例子多項(xiàng)式曲線擬合1.2講解了概率論基礎(chǔ),分為6個(gè)小章節(jié),包括概率密度、期望與協(xié)方差、貝葉斯概率、高斯分布、重新考察曲線擬...
PRML第一章《緒論》本章一共七個(gè)小章節(jié)1.1從一個(gè)例子多項(xiàng)式曲線擬合1.2講解了概率論基礎(chǔ),分為6個(gè)小章節(jié),包括概率密度、期望與協(xié)方差、貝葉斯概率、高斯分布、重新考察曲線擬...
從概率的角度看多項(xiàng)式曲線擬合。 我們要假定:給定的值,對(duì)應(yīng)的值服從高斯分布,分布的均值為: 我們現(xiàn)在使用訓(xùn)練數(shù)據(jù){},通過(guò)最大似然方法,來(lái)決定參數(shù)和的值,似然函數(shù)為: 通過(guò)略...
其中參數(shù):被叫做均值,被叫做方差,方差的平方根,由給定,叫作標(biāo)準(zhǔn)差,方差的倒數(shù),叫作精度。 ?根據(jù)上式,我們可以得到: ?并且很容易證明高斯分布式高度歸一化的,因此: 因此式...
1.大型數(shù)據(jù)集的學(xué)習(xí) 處理大數(shù)據(jù)集的算法近年來(lái)機(jī)器學(xué)習(xí)技術(shù)的發(fā)展歸因于我們有極其龐大的數(shù)據(jù)用來(lái)訓(xùn)練我們的算法。處理如此海量數(shù)據(jù)的算法?我們?yōu)槭裁匆么蟮挠?xùn)練集呢? 我們已經(jīng)知...
1.問(wèn)題的動(dòng)機(jī) 異常檢測(cè)(Anomaly detection)問(wèn)題是機(jī)器學(xué)習(xí)算法的一個(gè)常見(jiàn)應(yīng)用。這種算法的一個(gè)有趣之處在于:它雖然主要用于非監(jiān)督學(xué)習(xí)問(wèn)題,但從某些角度看,它又...
1.無(wú)監(jiān)督學(xué)習(xí):簡(jiǎn)介 聚類(lèi)算法:第一個(gè)無(wú)監(jiān)督學(xué)習(xí)算法(無(wú)標(biāo)簽的數(shù)據(jù)) 什么是無(wú)監(jiān)督學(xué)習(xí)呢?對(duì)比:監(jiān)督學(xué)習(xí)問(wèn)題指的是,我們有一系列標(biāo)簽,然后用假設(shè)函數(shù)去擬合它,作為對(duì)比,在無(wú)監(jiān)...
1.優(yōu)化目標(biāo) 在監(jiān)督學(xué)習(xí)中,很多監(jiān)督學(xué)習(xí)算法的性能都非常相似,所以經(jīng)常要考慮的東西,不是選擇算法,而是更多的去考慮,你構(gòu)建這些算法時(shí)所使用的數(shù)據(jù)量,這就體現(xiàn)了你使用這些算法的...
1.決定下一步做什么 到目前為止,我們已經(jīng)介紹了許多不同的學(xué)習(xí)算法,如果你一直跟著這些視頻的進(jìn)度學(xué)習(xí),你會(huì)發(fā)現(xiàn)自己已經(jīng)不知不覺(jué)地成為一個(gè)了解許多先進(jìn)機(jī)器學(xué)習(xí)技術(shù)的專(zhuān)家了。 然...
其實(shí)我很少看電視劇,但是這部片子口碑極佳,慕名而看,頗有感觸,對(duì)人性又有了多維度的理解。 故事概況: 片中主角丁元英,一個(gè)像神似鬼一樣的人物。思維縝密,對(duì)復(fù)雜事物判斷精準(zhǔn),似...
1.代價(jià)函數(shù) 神經(jīng)網(wǎng)絡(luò)在分類(lèi)問(wèn)題中的應(yīng)用:兩種分類(lèi)問(wèn)題:第一種是二元分類(lèi);這里的y只能是0或1,在這種情況下,我們會(huì)有且僅有一個(gè)輸出單元。K:輸出層的單元數(shù)目。第二種是多類(lèi)別...
1.非線性假設(shè) 我們之前學(xué)的,無(wú)論是線性回歸還是邏輯回歸都有這樣一個(gè)缺點(diǎn),即:當(dāng)特征太多時(shí),計(jì)算的負(fù)荷會(huì)非常大。 下面是一個(gè)例子: 如果n是原始特征的個(gè)數(shù),事實(shí)上二次項(xiàng)的個(gè)數(shù)...
1.分類(lèi)問(wèn)題 如果我們要預(yù)測(cè)的變量y是一個(gè)離散情況下的分類(lèi)問(wèn)題,比如判斷郵件是否是垃圾郵件。就要使用logistic回歸算法:最廣泛使用的算法之一。如果之前的線性回歸是一個(gè)預(yù)...
第一課:什么是人臉識(shí)別 卷積神經(jīng)網(wǎng)絡(luò)的重要應(yīng)用:將從人臉識(shí)別開(kāi)始,之后講神經(jīng)風(fēng)格遷移 百度林元慶人臉識(shí)別系統(tǒng)。人臉識(shí)別和活體檢測(cè)。后者表明你是一個(gè)活人,事實(shí)上,活體檢測(cè)可以使...
上周最后一課 你已經(jīng)學(xué)了對(duì)象檢測(cè)算法的大部分零件了,接下來(lái),我們把所有的零件組合到一起,構(gòu)成YOLO檢測(cè)算法。 首先:構(gòu)建訓(xùn)練集創(chuàng)建一個(gè)y向量3x3x2x8,要構(gòu)造訓(xùn)練集,你...