加一,所以一年前我就放棄簡書了……
被鎖文最近連續(xù)好幾篇文章,發(fā)布到簡書上被鎖定了,看了簡書的鎖定說明,沒搞清楚為什么被鎖。 簡書的一些規(guī)則奇奇怪怪的,不明確指出原因,搞個模棱兩可的說明,讓用戶自己去申訴。當你去申訴...
1. L1 Loss: 令,忽略求和及系數(shù),則有,其導(dǎo)數(shù)為隨機梯度下降法更新權(quán)重為:其中是學(xué)習率。由此可知,不管預(yù)測值和真實值的差值大小如何變化,反向傳播時其梯度不變。除非調(diào)...
論文地址:https://arxiv.org/abs/2207.01600[https://arxiv.org/abs/2207.01600] 論文解讀地址:Transfor...
關(guān)于連通域的尋找和分割。在python中有兩個庫的函數(shù)可以使用,一個是scikit-image庫中的measure文件,另一個是opencv中的connectedCompon...
2022年春節(jié)之前的最后一篇博客啦今年一定要虎虎生威 前兩天刷完了《開端》,真的很好看啊,真不愧是我從大學(xué)就開始喜歡的作家寫的小說。年底主要是對今年OCR工作的各種指標的測試...
本次實踐一共在兩個網(wǎng)絡(luò)上進行實驗,一個是基于VGG-backbone的CRNN模型,一個是基于DenseNet-backbone的文字識別模型。結(jié)論先行:其中在VGG的網(wǎng)絡(luò)上...
梯度剪裁源碼地址以及函數(shù)的說明 函數(shù)源碼[https://pytorch.org/docs/stable/_modules/torch/nn/utils/clip_grad....
在以前讀書的時候,機器學(xué)習中就提到對于離散的特征往往采用獨熱編碼對特征進行預(yù)處理。但是從機器學(xué)習的角度來看,one-hot 編碼并不是一種良好的分類變量編碼方法。 one-h...
論文概述 傳統(tǒng)結(jié)構(gòu)化剪枝往往分為三步走,訓(xùn)練-剪枝-finetune。 剪枝方面默認的常識是: 從一個大的、過參數(shù)化的模型開始訓(xùn)練是有必要的,因為這樣的模型具有很強的表示和優(yōu)...
論文主要想要證明,少量的數(shù)據(jù)在訓(xùn)練文字識別模型上也可以達到仿真數(shù)據(jù)的精度;通過實驗驗證了自己的分析,以及提出了常用可行的數(shù)據(jù)增廣手段以及自監(jiān)督和半監(jiān)督的學(xué)習策略來提升實驗效果...