開篇 接觸TensorFlow也差不多一年多,因?yàn)檎撐牡膶?shí)驗(yàn)需要,中間間間斷斷的學(xué)習(xí),東西或多或少會(huì)有所遺忘,所以著手開始寫這一系列博客,希望能夠堅(jiān)持,磨煉技術(shù),也為9月份的...
在機(jī)器學(xué)習(xí)任務(wù)中,我們經(jīng)常會(huì)遇到這種困擾:數(shù)據(jù)不平衡問(wèn)題。 數(shù)據(jù)不平衡問(wèn)題主要存在于有監(jiān)督機(jī)器學(xué)習(xí)任務(wù)中。當(dāng)遇到不平衡數(shù)據(jù)時(shí),以總體分類準(zhǔn)確率為學(xué)習(xí)目標(biāo)的傳統(tǒng)分類算法會(huì)過(guò)多地...
優(yōu)先隊(duì)列(priority queue)普通的隊(duì)列是一種先進(jìn)先出的數(shù)據(jù)結(jié)構(gòu),元素在隊(duì)列尾追加,而從隊(duì)列頭刪除。在優(yōu)先隊(duì)列中,元素被賦予優(yōu)先級(jí)。當(dāng)訪問(wèn)元素時(shí),具有最高優(yōu)先級(jí)的元...
開篇 python基本數(shù)據(jù)結(jié)構(gòu)重點(diǎn)講這些數(shù)據(jù)結(jié)構(gòu)的特點(diǎn),怎么使用這些數(shù)據(jù)結(jié)構(gòu),不講具體實(shí)現(xiàn),作者認(rèn)為學(xué)習(xí)實(shí)現(xiàn)這些數(shù)據(jù)結(jié)構(gòu)最好的還是c/cpp,當(dāng)我們使用python的時(shí)候,我...
Leetcode_206 反轉(zhuǎn)鏈表 Leetcode_203 刪除鏈表中指定的元素 Leetcode_24 鏈表元素兩兩交換 Leetcode_237 刪除指定節(jié)點(diǎn)
1、*args和**kwargs是什么意思? 答:args表示可變參數(shù)(variadic arguments),它允許你傳入0個(gè)或任意個(gè)無(wú)名參數(shù),這些參數(shù)在函數(shù)調(diào)用時(shí)自動(dòng)組裝...
最近為了找實(shí)習(xí)開始做一些練手的編程,剛好在復(fù)習(xí)深度學(xué)習(xí)基礎(chǔ)的時(shí)候,遇到了吳恩達(dá)和李宏毅兩位大神,講課講得好真的很重要,廢話不多說(shuō),下面開始我們的第一份編程練習(xí)。首先我們要實(shí)現(xiàn)...
你或許可以輕松的使用tensorflow等深度學(xué)習(xí)框架構(gòu)建一個(gè)你想要的深度學(xué)習(xí)模型,但是在訓(xùn)練的過(guò)程中總是會(huì)出現(xiàn)一些這樣那樣的問(wèn)題,那么下面就讓我介紹一些常出現(xiàn)的問(wèn)題和解決的...
兩種情況下梯度消失經(jīng)常出現(xiàn),一是在深層網(wǎng)絡(luò)中,二是采用了不合適的損失函數(shù),比如sigmoid。梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值太大的情況下,下面分別從這兩個(gè)角度分析梯...
開篇 Ok,今天我們講一下關(guān)于熵的一些問(wèn)題,我們這邊主要講的就是信息熵,因?yàn)槲覀儥C(jī)器學(xué)習(xí)算法中用到最多的就是信息熵了,那么什么是信息熵呢?先簡(jiǎn)單理解一下熵為什么要這么定義。h...
初學(xué)者可能一直比較困惑邏輯回歸的定義為什么是那樣的,明明是分類模型為什么又要叫回歸?其實(shí)邏輯回歸和概率生成模型在數(shù)學(xué)形式上是統(tǒng)一的,下面是關(guān)于邏輯回歸定義形式的數(shù)學(xué)推導(dǎo) 上面...