這倆貨都會返回模型的子模塊,但其行為大不相同,經(jīng)常會被搞混。本文將區(qū)分二者的功能。連帶著區(qū)分其各自對應(yīng)的 named_modules 和 named_children。 Mo...
這倆貨都會返回模型的子模塊,但其行為大不相同,經(jīng)常會被搞混。本文將區(qū)分二者的功能。連帶著區(qū)分其各自對應(yīng)的 named_modules 和 named_children。 Mo...
Python 中的 logging 一直是我的知識盲區(qū),今天看代碼的過程中再次遇到,雖然和代碼主體功能沒有什么關(guān)系,但不想再繞過這塊,遂花了一點(diǎn)時(shí)間學(xué)習(xí)了一下 logging...
今天看代碼,學(xué)習(xí)了一種圖像分割領(lǐng)域使用的損失函數(shù)(目標(biāo)檢測領(lǐng)域也會用,但這里只介紹圖像分割):OhemCELoss,這里記錄一下。 函數(shù)名 Online hard examp...
原理 訓(xùn)練神經(jīng)網(wǎng)絡(luò)的一個(gè)重要 trick 是 warm up,它被廣泛應(yīng)用在各種模型的訓(xùn)練中。它的命名大概是類比了我們參加體育鍛煉前的熱身運(yùn)動。warm up 通過操作訓(xùn)練初...
本文主要討論 I/O 密集型任務(wù),多線程自然適用于這個(gè)應(yīng)用場景,因?yàn)樗旧硎菫楦呒壍?CPU 密集型任務(wù)而設(shè)計(jì)的。然而多線程有很多明顯的缺點(diǎn),本文將通過簡單的例子說明這一點(diǎn)...
本算法目的是計(jì)算 。當(dāng) 很大時(shí),按常規(guī)算法從頭到尾乘下去非常消耗計(jì)算資源,算法的時(shí)間復(fù)雜度為 ,而本算法可以將時(shí)間復(fù)雜度降為 。 這個(gè)問題可以這樣想:如果將 轉(zhuǎn)換為 ,那...
前幾天研究了傳統(tǒng)的美顏算法,了解到雙邊濾波(bilateral filtering)。在看懂原理后,為加深理解,抽時(shí)間用 pytorch 重新造了個(gè)輪子。雖然效率肯定比不上 ...