[CV]吳恩達深度學(xué)習(xí)筆記

1.為什么使用卷積核

① 參數(shù)共享

減少參數(shù)量

②稀疏連接

提高抽取特征的健壯性


2、網(wǎng)絡(luò)的平移不變性是基于卷積核而具有的特性

3、 1 × 1 卷積的作用是對通道數(shù)進行降維或者升維。如果使用 n × n 卷積(此時的 n 不等于 1) 且不使用 padding 的話,則可以用來對寬度和高度進行降維

4、池化層可以用來對寬度和高度進行降維(此時需要不使用 padding)

5、Inception 通過對輸入應(yīng)用 1 × 1 卷積、3 × 3 卷積、5 × 5 卷積,然后將它們的輸出進行拼接,如此就可以讓網(wǎng)絡(luò)來決定使用哪些卷積核組合,這樣就可以減少人工選擇卷積核的工作。同時為了方便不同大小的卷積核的輸出進行拼接,需要對卷積核的輸入進行 padding

6、使用遷移學(xué)習(xí)的時候,既可以凍結(jié)所有的隱藏層,只訓(xùn)練輸出層,也可以凍結(jié)前面的隱藏層,只訓(xùn)練后面的幾層,也可以不凍結(jié)隱藏層。具體的選擇主要看訓(xùn)練集的數(shù)據(jù)量,數(shù)據(jù)量越大,需要凍結(jié)的層數(shù)就越小

7、交并比(IOU) = \frac{A\cap B}{A\cup B} ,目的是為了評價對象定位算法是否精準,也可以用于判斷兩個邊界框是否相似

8、非極大值抑制指的是對于同一個類別的方框中,如果有 IoU 大于閾值的,則保留概率最大的方框,而其他方框則拋棄掉

例如某個類別對應(yīng)的方框中,假設(shè)有 6 個方框,按照概率從小到大分別是 A、B、C、D、E、F,然后分別計算 A、B、C、D、E 跟 F 的 IoU

① 如果 B 和 D 跟 F 的 IoU 超過閾值則將它們放棄掉,并保留 F 。

② 如果 A、C、E 跟 F 的 IoU 不超過閾值,則用 F 跟 A、C 計算 IoU,并重復(fù) ① 和 ② 的操作

最后保留剩下來的方框

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容