blankRow?可以的,brbrbrbr……
簡書Markdown語法 - 小記這段時間看簡書文章,自己也開始做筆記,記錄自己的一些學(xué)習(xí)內(nèi)容。剛開始也沒多在意排版,就隨便排版寫,寫完一兩篇文章,當(dāng)自己以游客的角度去看自己寫的文章時,才發(fā)現(xiàn)自己文章的排版是...
blankRow?可以的,brbrbrbr……
簡書Markdown語法 - 小記這段時間看簡書文章,自己也開始做筆記,記錄自己的一些學(xué)習(xí)內(nèi)容。剛開始也沒多在意排版,就隨便排版寫,寫完一兩篇文章,當(dāng)自己以游客的角度去看自己寫的文章時,才發(fā)現(xiàn)自己文章的排版是...
空行怎么輸入
簡書Markdown語法 - 小記這段時間看簡書文章,自己也開始做筆記,記錄自己的一些學(xué)習(xí)內(nèi)容。剛開始也沒多在意排版,就隨便排版寫,寫完一兩篇文章,當(dāng)自己以游客的角度去看自己寫的文章時,才發(fā)現(xiàn)自己文章的排版是...
關(guān)于藝術(shù),還是孟實(shí)老師講的好。
如何高人一等地討論文藝如果要觀察螞蟻的行動路線,你不能跟在螞蟻后面,而要從上面俯視。了解全局,你需要跳出去,用更高維度的視角來審視。要討論文藝,你不能蜷縮在文藝圈。 600萬年前,我們的祖先和猩猩...
TensorFlow從0到N專題入口 當(dāng)看到本篇時,根據(jù)TensorFlow官方標(biāo)準(zhǔn)《Deep MNIST for Experts》,你已經(jīng)達(dá)到Expert Level,要恭...
TensorFlow從0到N專題入口 當(dāng)看到本篇時,根據(jù)TensorFlow官方標(biāo)準(zhǔn)《Deep MNIST for Experts》,你已經(jīng)達(dá)到Expert Level,要恭...
大家好,我叫張拳石,UCLA博士后。目前在朱松純老師的實(shí)驗(yàn)室,帶領(lǐng)一個團(tuán)隊(duì),做explainable AI方向。本文的題目有些大,這篇短文中,我只簡單談?wù)剛€人對deep le...
快更新啊!
TensorFlow從1到2 - 3 - 深度學(xué)習(xí)革命的開端:卷積神經(jīng)網(wǎng)絡(luò)TensorFlow從0到N專題入口 關(guān)于全連接神經(jīng)網(wǎng)絡(luò)(Full Connected Neural Network,F(xiàn)C)的討論已經(jīng)說的不少了,本篇將要介紹的是,從2006...
暗戀:半江瑟瑟半江紅題記:暗戀,就像“一道殘陽鋪水中,半江瑟瑟半江紅”。瑟的是行為,紅的是內(nèi)心。外在克制隱忍,內(nèi)心熱烈如火。 那天,你紅著臉告訴我,你喜歡上班里的一個女生,我的心臟第一次為你而加...
TensorFlow從0到1系列回顧 上一篇Hello, TensorFlow!中的代碼還未解釋,本篇介紹TensorFlow核心編程的幾個基本概念后,那些Python代碼就...
TensorFlow從0到1系列回顧 到目前為止,我們已經(jīng)研究了梯度下降算法、人工神經(jīng)網(wǎng)絡(luò)以及反向傳播算法,他們各自肩負(fù)重任: 梯度下降算法:機(jī)器自學(xué)習(xí)的算法框架; 人工神經(jīng)...
TensorFlow從0到1系列回顧 前面的14 交叉熵?fù)p失函數(shù)——防止學(xué)習(xí)緩慢和15 重新思考神經(jīng)網(wǎng)絡(luò)初始化從學(xué)習(xí)緩慢問題入手,嘗試改進(jìn)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)。本篇討論過擬合問題,...
前言 最近在理清一些很必要的也很基礎(chǔ)的東西,記錄一下,結(jié)合網(wǎng)上和文獻(xiàn),自己也有些易化使之更輕松理解,如有錯誤,請不吝賜教,多謝! Bootstrap(自助法) Bootstr...
使用sklearn進(jìn)行集成學(xué)習(xí)——理論 系列 《使用sklearn進(jìn)行集成學(xué)習(xí)——理論》 《使用sklearn進(jìn)行集成學(xué)習(xí)——實(shí)踐》 目錄 1 前言 2 集成學(xué)習(xí)是什么? 3...
Gradient boosting is one of the most powerful techniques for building predictive models...