數(shù)學(xué)里面有所謂公理之說,就是無須證明的定理,在公理之外,其他的所有定理都可以通過這些公理推導(dǎo)出來?;蛘哒f,所有定理的證明,最終都會歸結(jié)到這些公理上來。最近我發(fā)現(xiàn),人生中,也有...
想起來《高效能人士的七個(gè)習(xí)慣》中的一句話,它說,責(zé)任感的單詞為什么是responsablility,因?yàn)樗淼氖悄隳芊駌esponse的能力。從中文上看,責(zé)任這個(gè)詞比較難懂...
最近工作中遇到一件挺失望的事,我們項(xiàng)目的開發(fā)工作主要是由成都的開發(fā)團(tuán)隊(duì)負(fù)責(zé)的,最近開發(fā)團(tuán)隊(duì)有一名成員離職了,之前他一直是負(fù)責(zé)為每個(gè)版本代碼生成新的svn鏈接,以及一部分系統(tǒng)邏...
每個(gè)人在工作中都難免會有領(lǐng)導(dǎo),在大公司中,領(lǐng)導(dǎo)對你的評價(jià)往往還是決定你績效的關(guān)鍵因素。如果我們拋開上下級關(guān)系,僅僅從人的理性的角度來看,別人對你的評價(jià)會取決于什么?顯然首先他...
這段時(shí)間在閱讀史蒂芬·柯維的《高效能人士的七個(gè)習(xí)慣》,讀到了其中“要事第一”這個(gè)習(xí)慣,覺得是到目前這本書里最具實(shí)操性的一個(gè)原則。“要是第一”的意思是,在我們的眾多的工作中,...
我所在的公司是一家很看重執(zhí)行力的企業(yè),無論是大小領(lǐng)導(dǎo),都常常在工作郵件和對外演說中強(qiáng)調(diào)“執(zhí)行力”是公司的一大特點(diǎn)。而我的父親常常說我的行動力很強(qiáng),所以每當(dāng)我聽到領(lǐng)導(dǎo)說要重視執(zhí)...
上文談到在做一個(gè)項(xiàng)目的過程中面臨是將新老模型融合優(yōu)化還是各自平行優(yōu)化的問題。其實(shí)當(dāng)時(shí)在面臨這個(gè)選擇的時(shí)候,我們離達(dá)到業(yè)務(wù)指標(biāo)的截止日期還有一定的時(shí)間,這也是我當(dāng)時(shí)支持分開開發(fā)...
這是技術(shù)思考的第一篇文章,來談?wù)剬ιa(chǎn)上的舊模型優(yōu)化時(shí)的技術(shù)路線選擇問題。 前段時(shí)間在工作中遇到了這樣一個(gè)問題,某項(xiàng)目現(xiàn)在線上有一個(gè)老模型,為了提升準(zhǔn)確率,我們要開發(fā)一個(gè)新模...
這一章主要是講深度學(xué)習(xí),首先介紹了卷積神經(jīng)網(wǎng)絡(luò)的概念。在之前的章節(jié)中我們的神經(jīng)網(wǎng)絡(luò)每一層的每一個(gè)神經(jīng)元都是和前面一層的所有神經(jīng)元相連,這樣的結(jié)構(gòu)叫全連接層,這樣也使得我們的網(wǎng)...
Chapter 4看了一下感覺可能幫助理解的作用比較大,不涉及太多重要概念,因此就先略過了,先記Chapter 5 這一章其實(shí)也比較簡單,主要就是講為什么深度網(wǎng)絡(luò)比較難訓(xùn)練。...
提升學(xué)習(xí)速率 交叉熵?fù)p失函數(shù)的好處:損失函數(shù)對權(quán)重的偏導(dǎo)中不包含sigma的導(dǎo)數(shù)項(xiàng)(可抵消),所以不會引起學(xué)習(xí)速度過慢的問題 神經(jīng)元的飽和問題:當(dāng)z(也就是神經(jīng)元的加權(quán)輸入和...
Chap2 反向轉(zhuǎn)播算法的目的是計(jì)算成本函數(shù)對于權(quán)重和偏置的偏導(dǎo)數(shù)。 反向傳播的兩個(gè)前提假設(shè): 1. 成本函數(shù)可以寫成每個(gè)樣本成本的平均形式,因?yàn)榉聪騻鞑?shí)際上是先計(jì)算針對每...
最近開始看Michael Nilson的Neural Network and Deep Learning,這位老兄最初是做量子物理研究的,后來轉(zhuǎn)向了科普工作,寫了很多科學(xué)普及...
最近在復(fù)習(xí)排序算法的知識,寫下來加強(qiáng)記憶。 1. 冒泡排序 這好像是被認(rèn)為最基本最簡單的排序方法。為什么叫冒泡呢?因?yàn)榘凑者@種排序方法,最小值會像一個(gè)氣泡一樣一點(diǎn)點(diǎn)的浮上來。...