有許多用于特征檢測(cè)和提取的算法,我們將會(huì)對(duì)其中大部分進(jìn)行介紹。OpenCV最常使用的特征檢測(cè)和提取算法有:
- Harris:該算法用于檢測(cè)角點(diǎn);
- SIFT:該算法用于檢測(cè)斑點(diǎn);
- SURF:該算法用于檢測(cè)角點(diǎn);
- FAST:該算法用于檢測(cè)角點(diǎn);
- BRIEF:該算法用于檢測(cè)斑點(diǎn);
- ORB:該算法代表帶方向的FAST算法與具有旋轉(zhuǎn)不變性的BRIEF算法;
通過(guò)以下方法進(jìn)行特征匹配:
- 暴力(Brute-Force)匹配法;
- 基于FLANN匹配法;
- 可以采用單應(yīng)性進(jìn)行空間驗(yàn)證。
特征提取算法比較
- 計(jì)算速度: ORB>>SURF>>SIFT(各差一個(gè)量級(jí))
- 旋轉(zhuǎn)魯棒性: SURF>ORB~SIFT(表示差不多)
- 模糊魯棒性: SURF>ORB~SIFT
- 尺度變換魯棒性: SURF>SIFT>ORB(ORB并不具備尺度變換性)
基本概念
特征向量
用于表示和量化圖像的數(shù)字列表,簡(jiǎn)單理解成將圖片轉(zhuǎn)化為一個(gè)數(shù)字列表表示。特征向量中用來(lái)描述圖片的各種屬性的向量稱(chēng)為特征矢量。
特征描述符(特征描述子)Descriptor
參考
是一種算法和方法,輸入1個(gè)圖像,返回多個(gè)特征向量(主要用來(lái)處理圖像的局部,往往會(huì)把多個(gè)特征向量組成一個(gè)一維的向量)。主要用于圖像匹配(視覺(jué)檢測(cè)),匹配圖像中的物品。
SIFT特征算法與DoG尺度空間
SIFT論文
原理
opencv官網(wǎng)解釋
實(shí)質(zhì)是在不同的尺度空間上查找關(guān)鍵點(diǎn)(特征點(diǎn)),并計(jì)算出關(guān)鍵點(diǎn)的方向。SIFT所查找到的關(guān)鍵點(diǎn)是一些十分突出,不會(huì)因光照,仿射變換和噪音等因素而變化的點(diǎn),如角點(diǎn)、邊緣點(diǎn)、暗區(qū)的亮點(diǎn)及亮區(qū)的暗點(diǎn)等。
SIFT
尺度不變特征轉(zhuǎn)換(Scale-invariant feature transform或SIFT)是一種電腦視覺(jué)的算法用來(lái)偵測(cè)與描述影像中的局部性特征,它在空間尺度中尋找極值點(diǎn),并提取出其位置、尺度、旋轉(zhuǎn)不變量。
其應(yīng)用范圍包含物體辨識(shí)、機(jī)器人地圖感知與導(dǎo)航、影像縫合、3D模型建立、手勢(shì)辨識(shí)、影像追蹤和動(dòng)作比對(duì)。
尺度空間
對(duì)現(xiàn)實(shí)中物體的描述一定要在一個(gè)十分重要的前提下進(jìn)行,這個(gè)前提就是對(duì)自然界建模時(shí)的尺度。當(dāng)用一個(gè)機(jī)器視覺(jué)系統(tǒng)分析未知場(chǎng)景時(shí),計(jì)算機(jī)沒(méi)有辦法預(yù)先知道圖像中物體的尺度,因此我們需要同時(shí)考慮圖像在多尺度下的描述,獲知感興趣物體的最佳尺度。圖像的尺度空間表達(dá)指的是圖像的所有尺度下的描述。





SIFT算法分解為如下四步:
- 尺度空間極值檢測(cè):搜索所有尺度上的圖像位置。通過(guò)高斯微分函數(shù)來(lái)識(shí)別潛在的對(duì)于尺度和旋轉(zhuǎn)不變的興趣點(diǎn)。
- 關(guān)鍵點(diǎn)定位:在每個(gè)候選的位置上,通過(guò)一個(gè)擬合精細(xì)的模型來(lái)確定位置和尺度。關(guān)鍵點(diǎn)的選擇依據(jù)于它們的穩(wěn)定程度。
- 方向確定:基于圖像局部的梯度方向,分配給每個(gè)關(guān)鍵點(diǎn)位置一個(gè)或多個(gè)方向。所有后面的對(duì)圖像數(shù)據(jù)的操作都相對(duì)于關(guān)鍵點(diǎn)的方向、尺度和位置進(jìn)行變換,從而提供對(duì)于這些變換的不變性。
- 關(guān)鍵點(diǎn)描述:在每個(gè)關(guān)鍵點(diǎn)周?chē)泥徲騼?nèi),在選定的尺度上測(cè)量圖像局部的梯度。這些梯度被變換成一種表示,這種表示允許比較大的局部形狀的變形和光照變化。
sift = cv2.xfeatures2d.SIFT_create()
'''
SIFT_create([, nfeatures[, nOctaveLayers[, contrastThreshold[, edgeThreshold[, sigma]]]]]) -> retval
. @param nfeatures The number of best features to retain. The features are ranked by their scores
. (measured in SIFT algorithm as the local contrast)
.
. @param nOctaveLayers The number of layers in each octave. 3 is the value used in D. Lowe paper. The
. number of octaves is computed automatically from the image resolution.
.
. @param contrastThreshold The contrast threshold used to filter out weak features in semi-uniform
. (low-contrast) regions. The larger the threshold, the less features are produced by the detector.
.
. @param edgeThreshold The threshold used to filter out edge-like features. Note that the its meaning
. is different from the contrastThreshold, i.e. the larger the edgeThreshold, the less features are
. filtered out (more features are retained).
.
. @param sigma The sigma of the Gaussian applied to the input image at the octave \#0. If your image
. is captured with a weak camera with soft lenses, you might want to reduce the number.
'''
keypoints, descriptor = sift.detectAndCompute(img_gray, None)
'''
detectAndCompute(image, mask[, descriptors[, useProvidedKeypoints]]) -> keypoints, descriptors
. Detects keypoints and computes the descriptors
算法分成了兩步,第一步特征提取,第二步計(jì)算描述符
'''
'''
keypoints數(shù)據(jù)結(jié)構(gòu)
pt, 坐標(biāo)
size, 特征直徑
angle, 特征方向
response, 特征強(qiáng)度
octave,該特征在金字塔的第幾層被找到
class_id
'''
KeyPoint數(shù)據(jù)結(jié)構(gòu)解析
img = cv2.imread('laugh.jpg')
img_large = cv2.imread('laugh_large.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
gray_large = cv2.cvtColor(img_large, cv2.COLOR_BGR2GRAY)
sift = cv2.xfeatures2d.SIFT_create()
keypoints, descriptor = sift.detectAndCompute(gray, None)
keypoints2, descriptor2 = sift.detectAndCompute(gray_large, None)
img = cv2.drawKeypoints(image=img, outImage=img, keypoints=keypoints, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS,
color=(0, 0, 255))
img_large = cv2.drawKeypoints(image=img_large, outImage=img_large, keypoints=keypoints2,
flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS,
color=(0, 0, 255))
cv2.imshow('sift', img)
cv2.imshow('sift_large', img_large)

SURF算法和Fast Hessian矩陣
SURF論文
原理
opencv官網(wǎng)解釋
SURF是SIFT的加速版,它善于處理具有模糊和旋轉(zhuǎn)的圖像,但是不善于處理視角變化和光照變化。在SIFT中使用DoG對(duì)LoG進(jìn)行近似,而在SURF中使用盒子濾波器對(duì)LoG進(jìn)行近似,這樣就可以使用積分圖像了(計(jì)算圖像中某個(gè)窗口內(nèi)所有像素和時(shí),計(jì)算量的大小與窗口大小無(wú)關(guān))??傊?,SURF最大的特點(diǎn)在于采用了Haar特征以及積分圖像的概念,大大加快了程序的運(yùn)行效率。
surf = cv2.xfeatures2d.SURF_create(hessian_threshold)
# hessian_threshold 保留的特征值越少,越強(qiáng)大的特征值才會(huì)被保留,需要根據(jù)具體圖像進(jìn)行調(diào)整
img = cv2.imread("laugh.jpg")
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
alg = cv2.xfeatures2d.SURF_create(10000)
keypoints, descriptor = alg.detectAndCompute(gray, None)
img = cv2.drawKeypoints(img, keypoints, img, (0, 0, 255), cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
cv2.imshow('hessian_10000', img)


注意事項(xiàng)
因?yàn)閷?zhuān)利原因,OpenCV3.3開(kāi)始不再免費(fèi)開(kāi)放SIFT\SURF,需要免費(fèi)的請(qǐng)使用ORB算法
ORB特征算法
ORB算法綜合了FAST角點(diǎn)檢測(cè)算法和BRIEFF描述符。
FAST特征檢測(cè)
算法原理
opencv官方文檔
FAST只是一種特征點(diǎn)檢測(cè)算法,并不涉及特征點(diǎn)的特征描述。
fast = cv2.FastFeatureDetector_create(threshold=10)
img = cv2.imread("laugh.jpg", 0)
fast = cv2.FastFeatureDetector_create()
keypoints = fast.detect(img, None)
img = cv2.drawKeypoints(img, keypoints, None, (0, 0, 255))
BRIEF特征描述符
論文
opencv官方文檔
中文版
Brief是Binary Robust Independent Elementary Features的縮寫(xiě)。這個(gè)特征描述子是由EPFL的Calonder在ECCV2010上提出的。主要思路就是在特征點(diǎn)附近隨機(jī)選取若干點(diǎn)對(duì),將這些點(diǎn)對(duì)的灰度值的大小,組合成一個(gè)二進(jìn)制串,并將這個(gè)二進(jìn)制串作為該特征點(diǎn)的特征描述子。文章同樣提到,在此之前,需要選取合適的gaussian kernel對(duì)圖像做平滑處理。
缺點(diǎn)
1:不具備旋轉(zhuǎn)不變性。
2:對(duì)噪聲敏感
3:不具備尺度不變性。
img = cv2.imread("laugh.jpg", 0)
# Initiate FAST detector
star = cv2.xfeatures2d.StarDetector_create()
# Initiate BRIEF extractor
brief = cv2.xfeatures2d.BriefDescriptorExtractor_create()
# find the keypoints with STAR
kp = star.detect(img, None)
# compute the descriptors with BRIEF
kp, des = brief.compute(img, kp)
print(brief.descriptorSize())
print(des.shape)
ORB
ORB采用了FAST作為特征點(diǎn)檢測(cè)算子,特征點(diǎn)的主方向是通過(guò)矩(moment)計(jì)算而來(lái)解決了BRIEF不具備旋轉(zhuǎn)不變性的問(wèn)題。
ORB還做了這樣的改進(jìn),不再使用pixel-pair,而是使用9×9的patch-pair,也就是說(shuō),對(duì)比patch的像素值之和,解決了BRIEF對(duì)噪聲敏感的問(wèn)題。
關(guān)于計(jì)算速度:
ORB是sift的100倍,是surf的10倍。
import cv2
img = cv2.imread("A.jpg", 0)
orb = cv2.ORB_create()
kp, des = orb.detectAndCompute(img, None)
# len(kp) : 485
# des.shape: (485, 32)

附:相關(guān)知識(shí)
特征提取方法
直方圖
對(duì)圖片數(shù)據(jù)、特征分布的一種統(tǒng)計(jì)
對(duì)數(shù)據(jù)空間(bin)進(jìn)行量化
聚類(lèi)
Kmeans
顏色特征
- 量化顏色直方圖,適用于均勻分布的顏色空間,如RGB,HSV等。
統(tǒng)計(jì)落在量化單元上的像素?cái)?shù)量,bin內(nèi)的像素由bin中心的顏色代表 - 聚類(lèi)顏色直方圖,適用于非均勻分布的顏色空間,如Lab等
幾何特征
邊緣:尺度問(wèn)題->不同的標(biāo)準(zhǔn)差捕捉到不同尺度的邊緣
斑點(diǎn) Blob:二階高斯導(dǎo)數(shù)濾波LoG

LoG圖找零點(diǎn)就是邊緣

LoG圖找極值點(diǎn)就是斑點(diǎn)

DoG:LoG近似于2個(gè)不同尺度的高斯差分,計(jì)算量大大減小

關(guān)鍵點(diǎn)(keypoint):不同視角圖片之間的映射,圖片配準(zhǔn)、拼接、運(yùn)動(dòng)跟蹤、物體識(shí)別、機(jī)器人導(dǎo)航、3D重建
紋理特征
- HOG方向梯度直方圖
- LBP局部二值模式
-
Gabor濾波器組:多尺度多方向。原理:頻域中是加窗傅里葉變換,時(shí)域中是一個(gè)高斯核和正弦平面波的乘積
三尺度、八方向
局部特征
SIFT\SURF
