數(shù)組的變形 數(shù)組的變形也是一類非常有用的操作。 數(shù)組變形最靈活的實(shí)現(xiàn)方式是通過 reshape() 函數(shù)來(lái)實(shí)現(xiàn)。例如,如果你希望將數(shù)字 1~9 放入一個(gè)3×3 的矩陣中,可以...
數(shù)組的變形 數(shù)組的變形也是一類非常有用的操作。 數(shù)組變形最靈活的實(shí)現(xiàn)方式是通過 reshape() 函數(shù)來(lái)實(shí)現(xiàn)。例如,如果你希望將數(shù)字 1~9 放入一個(gè)3×3 的矩陣中,可以...
Numpy、Pandas、Matplotlib Numpy (Pandas的內(nèi)核是Numpy的) 。 有一個(gè)高維數(shù)組的數(shù)據(jù)類型,基于這種數(shù)組,我們可以做各種各樣的數(shù)學(xué)運(yùn)算,運(yùn)...
@張燕梟 好的謝謝
概率論與數(shù)理統(tǒng)計(jì)總結(jié)歷史尋根概率論的前世今生 人類所有的知識(shí)來(lái)源都與生活息息相關(guān)的的并非是憑空捏造的,數(shù)學(xué)知識(shí)更是如此與其說數(shù)學(xué)是一門科學(xué)反倒不如說數(shù)學(xué)是生活經(jīng)驗(yàn)的積累的升華,因?yàn)閿?shù)學(xué)不像其他的...
2012年美國(guó)通用電氣提出工業(yè)互聯(lián)網(wǎng)的概念,隨后美國(guó)五家科技領(lǐng)頭企業(yè)聯(lián)手組建工業(yè)互聯(lián)網(wǎng)聯(lián)盟,眾多科技企業(yè)紛紛加入此聯(lián)盟。2013年制造業(yè)大國(guó)德國(guó)為了不落美國(guó)下風(fēng)提出了“工業(yè)4...
筆記本電腦壞了,又要重新安裝python,用Anaconda安裝GPU版pytorch時(shí),CUDA的版本和pytorch的版本都能夠?qū)ι?,可是就是不行,仔?xì)想一下可能是 py...
YOLOv3與YOLOv2和YOLOv1相比最大的改善就是對(duì)boundingbox進(jìn)行了跨尺度預(yù)測(cè)(Prediction Across Scales),提高YOLO模型對(duì)不同...
本文是我對(duì)YOLO算法的細(xì)節(jié)理解總結(jié),本文的閱讀前提是已讀過YOLO相關(guān)論文,文中不會(huì)談及YOLO的發(fā)展過程,不會(huì)與其他對(duì)象檢測(cè)算法進(jìn)行對(duì)比,也不會(huì)介紹YOLO9000相關(guān)的...
論文YOLO9000:Better, Faster, Stronger總共分為兩大部分Better、Faster部分是對(duì)YOLOv1的諸多改善即YOLOv2 Stronger...
YOLOv2相對(duì)v1版本,在繼續(xù)保持處理速度的基礎(chǔ)上,從預(yù)測(cè)更準(zhǔn)確(Better),速度更快(Faster),識(shí)別對(duì)象更多(Stronger)這三個(gè)方面進(jìn)行了改進(jìn)。其中識(shí)別更...
YOLO 全稱You Only Look Once,屬于目標(biāo)檢測(cè)算法的One-Stage算法,One-Stage和Two-Stage算法的區(qū)別在于算法的過程中有沒有進(jìn)行Reg...
本文對(duì)運(yùn)用深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行目標(biāo)檢測(cè)(object detection)的 tow-stage兩階段法的思想用自己的理解做一個(gè)總結(jié),本人新手一個(gè)理解可能有錯(cuò)誤或者不完...
簡(jiǎn)單介紹 yolov3和retinaNet的愛恨情仇,如果看過retinaNet論文可以發(fā)現(xiàn),論文作者在對(duì)比圖中沒有畫出yolov2的對(duì)比展示圖,可能是因?yàn)閥olov2的時(shí)間...
本文寫作參考經(jīng)典論文 Batch Normalization: Accelerating Deep Network Training by Reducing Internal...
Google Colab是谷歌開發(fā)的云端Jupyter,提供免費(fèi)的GPU,TPU使用,GPU型號(hào)是T4,支持PyTorch和Tensorflow框架雖然對(duì)那些資深A(yù)I從業(yè)者...
一.Colab簡(jiǎn)介 https://colab.research.google.com/notebooks/welcome.ipynb偶然間接觸到Colab,發(fā)現(xiàn)它居然支持G...
因?yàn)楸救薌PU顯存不夠就可憐的2G 實(shí)在hold不住ResNet 的參數(shù)量只好將 殘差模塊只弄兩個(gè)卷積核,而且batch_size也修改為1只進(jìn)行代碼測(cè)試 - 。 -,聽說C...
任何事物的從無(wú)到有在到完善都是一個(gè)推陳出新的過程,也是一個(gè)問題接著一個(gè)問題解決的過程,卷積神經(jīng)網(wǎng)絡(luò)也不例外,了解卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展歷史有助于我們從整體上把握卷積神經(jīng)網(wǎng)絡(luò),從而...
Lenet5是Yann LeCun發(fā)明卷積神經(jīng)網(wǎng)絡(luò),當(dāng)時(shí)這個(gè)網(wǎng)絡(luò)是用來(lái)做數(shù)字識(shí)別的,Yann LeCun用這個(gè)卷積神經(jīng)網(wǎng)絡(luò)將識(shí)別準(zhǔn)確率提高到了99%,將其應(yīng)用與數(shù)字識(shí)別,當(dāng)時(shí)...