近日,偷得半刻閑暇,觀火山小視頻,燦友皆曬歲月變遷,容顏易老,諸多感慨,遂收集舊照,制作之,與眾友人分享。以詩(shī)為證! 一晃就老了, 不惑在路上。 鬢角已染霜, 顏容變滄桑。
IP屬地:廣東
最近開(kāi)始看Michael Nilson的Neural Network and Deep Learning,這位老兄最初是做量子物理研究的,后來(lái)轉(zhuǎn)向了科普工作,寫(xiě)了很多科學(xué)普及...
提升學(xué)習(xí)速率 交叉熵?fù)p失函數(shù)的好處:損失函數(shù)對(duì)權(quán)重的偏導(dǎo)中不包含sigma的導(dǎo)數(shù)項(xiàng)(可抵消),所以不會(huì)引起學(xué)習(xí)速度過(guò)慢的問(wèn)題 神經(jīng)元的飽和問(wèn)題:當(dāng)z(也就是神經(jīng)元的加權(quán)輸入和...
Chap2 反向轉(zhuǎn)播算法的目的是計(jì)算成本函數(shù)對(duì)于權(quán)重和偏置的偏導(dǎo)數(shù)。 反向傳播的兩個(gè)前提假設(shè): 1. 成本函數(shù)可以寫(xiě)成每個(gè)樣本成本的平均形式,因?yàn)榉聪騻鞑?shí)際上是先計(jì)算針對(duì)每...
最近又再看專(zhuān)業(yè)相關(guān)的論文,其中很多都用到了假設(shè)檢驗(yàn)的方法,感覺(jué)自己對(duì)這方面知識(shí)的記憶還不是很深刻,所以都寫(xiě)下來(lái),以幫助記憶。 1. 假設(shè)檢驗(yàn)問(wèn)題的來(lái)源 這兩天主要看的論文是關(guān)...