關(guān)于簡(jiǎn)單目標(biāo)識(shí)別與意圖分析的機(jī)器學(xué)習(xí)實(shí)戰(zhàn)研究(第五節(jié) 透視變換)

????????這邊剛剛解決了一個(gè)連線算法問(wèn)題,同學(xué)階段性匯報(bào)回來(lái),說(shuō)老師讓他將在空中看坦克群的視角方向考慮進(jìn)去,也就是說(shuō)在不同視角下看同一類型的坦克要盡量保證一樣,這樣在訓(xùn)練數(shù)據(jù)的時(shí)候也能降低誤差,值得一提的是,他的老師肯定了我連線算法的可行性,可以作為一個(gè)創(chuàng)新點(diǎn)來(lái)匯報(bào)。

????????我仔細(xì)一尋思,老師說(shuō)的沒錯(cuò),在空中偵查坦克的視角是隨機(jī)的,這一點(diǎn)不解決確實(shí)會(huì)影坦克意圖的判別,怎樣解決呢?看來(lái)還是要從圖片處理的角度入手,我發(fā)現(xiàn)在多種圖片體系變換中,透視變換是指利用透視中心、像點(diǎn)、目標(biāo)點(diǎn)三點(diǎn)共線的條件,按透視旋轉(zhuǎn)定律使透視面繞透視軸旋轉(zhuǎn)某一角度,破壞原有的投影光束,仍能保持透視面上投影幾何圖形不變的變換??磥?lái)只要實(shí)現(xiàn)了透視變換就可以解決不同視角問(wèn)題。

????????在Python中可以先用numpy庫(kù)將圖片轉(zhuǎn)換為矩陣格式,而后使用opencv對(duì)矩陣進(jìn)行透視變換,最后重新生成圖片,這樣得到的圖片就是被拉伸到統(tǒng)一視角下的狀態(tài),其實(shí)際做法是在目標(biāo)圖片中首先通過(guò)模板匹配大致找到目標(biāo),然后在目標(biāo)周圍確定四個(gè)點(diǎn)(這些點(diǎn)要距離目標(biāo)稍遠(yuǎn)一些,否則會(huì)造成透視變換之后的目標(biāo)再次匹配時(shí)出現(xiàn)找不到目標(biāo)的情況),而后將這四個(gè)點(diǎn)以及四點(diǎn)連線中間的所有像素點(diǎn)一起拉伸到同一平面,即可完成透視變換。

根據(jù)上述思路,直接上代碼:

tpl ="D://PythonPicTemplate/binarization/tankTemplate3.jpg"

target = "D://PythonPicTemplate/binarization/tanks4.jpg"?

tpl = Img_read(tpl)?

target = Img_read(target)?

###透視變換?

methods = []?

for o in range(0,num):?

? ? methods.append(cv.TM_CCORR_NORMED)?

th, tw = tpl.shape[:2]?

rows, cols = target.shape[:2]?

i =0?

tl0 = []?

br0 = []?

for md in methods:?

? ? #print(md)?

? ? result = cv.matchTemplate(target, tpl, md)?

? ? min_val, max_val, min_loc, max_loc = cv.minMaxLoc(result)?

? ? if md == cv.TM_SQDIFF_NORMED:?

? ? ? ? tl0.append(min_loc)?

? ? else:?

? ? ? ? tl0.append(max_loc)?

? ? br0.append((tl0[i][0]+tw, tl0[i][1]+th))? ?

? ? cv.rectangle(target, tl0[i], br0[i], (0, 0, 255),2)?

? ? i += 1?

tl2 = []?

tl3 = []?

tl4 = []?

for q in tl0:?

? ? tl3.append(q[0] - tw)?

? ? tl4.append(q[1] - th)?

for p in br0:?

? ? tl3.append(p[0])?

? ? tl4.append(p[1])?

min_x = min(tl3)?

min_y = min(tl4)?

max_x = max(tl3)?

max_y = max(tl4)?

tl2.append([min_x - 2 * tw,min_y - 2 * th])?

tl2.append([min_x - 2 * tw,max_y + 2 * th])?

tl2.append([max_x + 2 * tw,min_y - 2 * th])?

tl2.append([max_x + 2 * tw,max_y + 2 * th])?

# 原圖中已經(jīng)識(shí)別的四個(gè)角點(diǎn)?

pts1 = np.float32(tl2)?

# 變換后分別在左上、右上、左下、右下四個(gè)點(diǎn)?

#pts2 = np.float32([[0, 0],[0, 500], [500, 0],[500, 500]])?

pts2 = np.float32([[0, 0],[0, cols], [rows, 0],[rows, cols]])?

#rows, cols?

# 生成透視變換矩陣?

M = cv.getPerspectiveTransform(pts1, pts2)?

# 進(jìn)行透視變換?

dst = cv.warpPerspective(target, M, (rows, cols))?

cv.namedWindow("match-PerspectiveTransformation", cv.WINDOW_NORMAL)?

cv.imshow("match-PerspectiveTransformation", dst)?

結(jié)果如下圖所示:

透視變換前
透視變換后

代碼已上傳至GitHub及Gitee,歡迎star,歡迎討論:

GitHub:https://github.com/wangwei39120157028/Machine_Learning_research_on_simple_target_recognition_and_intention_analysis

Gitee:https://gitee.com/wwy2018/Machine_Learning_research_on_simple_target_recognition_and_intention_analysis/settings

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容