這周工作上還是繼續(xù)分析利用視覺來進行目標對準的方案,上周的二維碼方案效果比較差,這周在尺寸上做文章,主要根據(jù)距離的不同,分析不同的定位標示,要在這個距離上能比較容易的在圖片上分析特定的標示出來,才能計算出偏差的角度和距離。把距離分成了三段,80cm~50cm、20cm和10cm,80~50之間考慮用兩端的大的嵌套黑白框進行定位和校準,用嵌套黑白框的原因是能用opencv的輪廓分析圈定出我們設定的標示,既可以根據(jù)圖像中心和視角中心的差異算出尺寸,也可以根據(jù)兩邊的尺寸差異算出相對角度。當機器人距離為20cm時改用中心的嵌套結構,10cm的時候改用最中心的框。理論上隨著距離的接近,一個像素的誤差從幾厘米到幾毫米。精度問題解決了,后面還有兩個問題,一個是運動過程中圖像不清楚的問題。另外一個是隨著距離接近,對機器人的移動距離控制也要求精確,這兩個問題都比較難以處理,后續(xù)繼續(xù)考慮。
udacity的課還是繼續(xù)跟道路上的交通指示牌識別問題作斗爭,增加了L2的regularization和dropout,validation accuracy到了99%,而test accuracy到了96%,感覺指標應該不錯了。于是做了一些可視化的工作就提交了。其實我覺得還有兩方面的工作可以做,一個是圖像的歸一化,另外一個通過各種噪聲和旋轉增加training data。偷懶了。要是被打回來還得加。
deeplearning看完了第六章,主要講深度網(wǎng)絡的一些基本的架構,包括輸出層、損失函數(shù)、隱藏層的基本設計思路,以及后向傳播的各種算法。希望自己能在反向傳播算法比較一下caffee和tensorflow。
女兒和兒子的期末考試都結束了,放假了,一個要去上海迪士尼,另外一個上圍棋課。
什么時間去看星球大戰(zhàn)外傳 俠盜一號呢?
拖延癥嚴重,下周要看完一篇論文啊。