opencvpython識別
『壹』 OpenCV-python教程:38.FAST角點檢測演算法
理論
我們看到了一些特徵檢測演算法,他們很多都不錯,但是從實時應用的角度看,他們都不夠快,一個最好的例子是SLAM(同步定位與地圖創建)移動機器人沒有足夠的計算能力。
作為解決方案,FAST(加速切片測試特徵)演算法被提出,Edward Rosten和Tom Drummond 2006年在他們的論文「Machine learning for high-speed corner detection」提出,並在2010年最後修訂,演算法的基本大意如下:
使用FAST進行特徵檢測
1.選擇一個圖像里的像素p用來識別是不是一個興趣點,它的強度是Ip
2.選擇一個合適的閾值t
3.在要測試的像素周圍找16個像素的圓
4.現在如果存在一個在圓內(16像素的)的n個連續像素集合,他們都比Ip + t要亮,或者都比Ip - t 要暗(用白虛線顯示),那p就是角, n取12。
5.用一個高速測試來排除大量非角。這個測試只檢查1,9,5和13位置的像素(首先1和9會測試是否他們太亮或者太暗,如果是,再檢查5和13)。如果p是角,那麼至少3個都比Ip+t要亮或者比Ip-t要暗,如果不是這樣,那麼p不可能是角。這個檢測器展現了高性能,但是有幾個缺陷:
·當n< 12時不能拒絕很多備選點
·像素的選擇不是可選的,因為它的效率依賴問題和角的分布。
·高速測試的結果被丟棄了
·會檢測出多個愛挨在一起的特徵
機器學習角點檢測
1.選擇一組圖像進行訓練(最好從目標應用范圍內)
2.運行FAST演算法來對每個圖像進行特徵點查找
3.對每個特徵點,存下周圍的16個像素作為向量。所有圖像做完以後得到特徵向量P。
4.這16個像素里的每個像素(設為x)可以有下面的三個狀態:
5.根據這些狀態,特徵向量P被分成3個子集,Pd, Ps, Pb.
6.定義個新的布爾變數Kp,如果p是角就是真反之為假。
7.使用ID3演算法(決策樹分類)來查詢每個子集,對於每個true類用變數Kp,它選擇x來得出一個備選像素是否是角的信息。
8.對所有子集迭代直到為0
9.創建的決策樹用來對其他圖形做fast檢測
非極大值抑制
在臨近位置檢測多個興趣點是另一個問題,可以使用非極大值抑制來解決。
1.計算一個分數函數,V是所有檢測到的特徵點,V是p和16個圍著的像素值得絕對差。
2.計算兩個相鄰關鍵點的V值
3.丟掉V值低的那個
總結:
它比其他存在的角點演算法要快幾倍
但是它對高噪點情況來說不健壯,依賴閾值
OpenCV里的FAST特徵檢測
它和其他OpenCV里的特徵檢測類似,如果你願意,你可以指定閾值,是否使用非極大值抑制,要用的鄰居等。
對於鄰居,定義了三個標志位, cv2.FAST_FEATURE_DETECTOR_TYPE_5_8, cv2.FAST_FEATURE_DETECTOR_TYPE_7_12和cv2.FAST_FEATURE_DETECTOR_TYPE_9_16.
看結果,第一個圖像顯示了使用了非極大值抑制的FAST,第二個是沒有使用非極大值抑制的。
END
『貳』 如何使用python和opencv實現人眼識別
程序實現思路如下:
利用級聯分類器檢測出人臉區域,再在人臉區域中檢測出眼睛的區域,檢測出眼睛的區域之後,用跟蹤演算法咔嚓眼睛降低運算量,避免每一幀都去檢測眼睛。
代碼如下:
代碼中用到的級聯分類器初始化XML下載:
[cpp]view plain
//OpenCV版本3.0.0
//交流QQ2487872782
2016-8-4註:很報歉,此代碼目前不能公開發表在博客上,已經刪除,希望大家能理解!
代碼運行結果如下圖所示:
上圖是無眼鏡的情況!
說明一下:這段代碼只實現了一隻眼睛的檢測,如果要實現兩隻眼睛也不能,說下思路吧,上面代碼中的eyes[0]代表檢測到的第一隻眼睛,其實eyes[1]中還存儲了第二隻眼睛的區域哦!
-------------------------------------------
歡迎大家加入圖像識別技術交流群:271891601,另外,特別歡迎成都從事圖像識別工作的朋友交流,我的QQ號2487872782
『叄』 Python OpenCV 霍夫(Hough Transform)直線變換檢測原理,圖像處理第 33 篇博客
霍夫變換(Hough Transform)是圖像處理領域中,從圖像中識別幾何形狀的基本方法之一。主要識別具有某些相同特徵的幾何形狀,例如直線,圓形,本篇博客的目標就是從黑白圖像中識別出直線。
翻閱霍夫直線變換的原理時候,橡皮擦覺得原理部分需要先略過,否則很容易在這個地方陷進去,但是問題來了,這個原理略過了,直接應用函數,裡面有些參數竟然看不懂。例如極坐標,角度掃描范圍,這種函數就屬於繞不過去的知識點了,所以本文轉移方向,死磕原理,下面的博文將語無倫次的為你展示如何學習原理知識。
因為數學知識的貧乏,所以在學習階段會涉及到很多基礎概念的學習,一起來吧。
首先找到相對官方的資料,打開該 地址
下面是一個數學小白對原理的學習經驗。
教材說:眾所周知,一條直線在圖像二維空間可由兩個變數表示。
抱歉,小白還真不知道……即使學習過,這些年也早已經還給老師了。
一開始難道要學習笛卡爾坐標系,不,你低估小白的能力了,我第一個查詢的是 θ 讀作 西塔 ,是一個希臘字母。
什麼是笛卡爾坐標系?
這個比較簡單,直角坐標系。
斜率和截距
斜率,亦稱「角系數」,表示一條直線相對於橫坐標軸的傾斜程度。
一條直線與某平面直角坐標系橫坐標軸正半軸方向的夾角的正切值即該直線相對於該坐標系的斜率。
如果直線與 x 軸互相垂直,直角的正切直無窮大,故此直線不存在斜率。
對於一次函數 y=kx+b , k 就是該函數圖像的斜率。
在學習的時候,也學到如下內容:
截距:對 x 的截距就是 y=0 時, x 的值,對 y 的截距就是 x=0 時, y 的值,
截距就是直線與坐標軸的交點的橫(縱)坐標。 x 截距為 a , y 截距 b ,截距式就是: x/a+y/b=1(a≠0且b≠0) 。
斜率:對於任意函數上任意一點,其斜率等於其切線與 x 軸正方向所成的角,即 k=tanα 。 ax+by+c=0中,k=-a/b 。
什麼是極坐標系?
關於極坐標系,打開 網路 學習一下即可。
重點學到下面這個結論就行:
找資料的時候,發現一個解釋的比較清楚的 博客 ,後續可以繼續學習使用。
繼續閱讀資料,看到如下所示的圖,這個圖也出現在了很多解釋原理的博客裡面,但是圖下面寫了一句話
在這里直接蒙掉了,怎麼就表示成極坐標系了?上面這個公式依舊是笛卡爾坐標系表示直線的方式呀,只是把 k 和 b 的值給替換掉了。
為何是這樣的,具體原因可以參照下圖。
<center>chou 圖</center>
繼續尋找關於霍夫變換的資料,找到一個新的概念 霍夫空間 。
在笛卡爾坐標系中,一條直線可以用公式 表示,其中 k 和 b 是參數,表示的是斜率和截距。
接下來將方程改寫為 ,這時就建立了一個基於 k - b 的笛卡爾坐標系。
此時這個新的方程在 k - b 坐標系也有一個新的直線。
你可以在紙上畫出這兩個方程對應的線和點,如下圖所示即可。
<center>chou 圖</center>
新的 k - b 坐標系就叫做霍夫空間,這時得到一個結論,圖像空間 x - y 中的點 對應了 霍夫空間 k - b 中的一條直線 ,即圖像空間的點與霍夫空間的直線發生了對應關系。
如果在圖像空間 x - y 中在增加一個點 ,那相應的該點在霍夫空間也會產生相同的點與線的對應關系,並且 A 點與 B 點產生的直線會在霍夫空間相交於一個點。而這個點的坐標值 就是直線 AB 的參數。
如果到這里你掌握了,這個性質就為我們解決直線檢測提供了方法,只需要把圖像空間的直線對應到霍夫空間的點,然後統計交點就可以達到目的,例如圖像空間中有 3 條直線,那對應到霍夫空間就會有 3 個峰值點。
遍歷圖像空間中的所有點,將點轉換到霍夫空間,形成大量直線,然後統計出直線交會的點,每個點的坐標都是圖像空間直線方程參數,這時就能得到圖像空間的直線了。
上述的內容沒有問題,但是存在一種情況是,當直線趨近於垂直時,斜率 k 會趨近於無窮大,這時就沒有辦法轉換了,解決辦法是使用法線來表示直線。
上文提及的斜截式如下:
通過第二個公式,可以得到下述公式:
此時,我們可以帶入一些數值進行轉換。
圖像空間有如下的幾個點:
轉換後的函數,都可以在霍夫空間 θ - ρ (橫坐標是 θ ,縱坐標是 ρ )進行表示。
原理這時就比較清晰了:
除了一些數學知識以外,經典的博客我們也有必要記錄一下,方便後面學習的時候,進行復盤。
本部分用於記錄本文中提及的相關數學原理,後續還要逐步埋坑。
今天涉及了一點點數學知識,能力限制,大家一起學習,有錯誤的地方,可以在評論區指出,不勝感激。
希望今天的 1 個小時(今天內容有點多,不一定可以看完),你有所收獲,我們下篇博客見~
相關閱讀
技術專欄
逗趣程序員
『肆』 目標跟蹤(5)使用 Opencv 和 Python 進行對象跟蹤
在本教程中,我們將學習如何基於 Opencv 和 Python 實現對象跟蹤。
首先必須明確目標檢測和目標跟蹤有什麼區別:
我們將首先討論對象檢測,然後討論如何將對象跟蹤應用於檢測。
可能有不同的應用,例如,計算某個區域有多少人,檢查傳送帶上有多少物體通過,或者計算高速公路上的車輛。
當然,看過本教程後,您會很容易地想到數以千計的想法應用於現實生活或可能應用於工業。
在本教程中,我們將使用 3 個文件:
首先我們需要調用highway.mp4文件並創建一個mask:
正如您在示例代碼中看到的,我們還使用了 函數,該函數返回背景比率(background ratio),然後創建mask。
mask可視化結果:
但是,如您所見,圖像中有很多噪點。因此,讓我們通過刪除所有較小的元素來改進提取,並將我們的注意力集中在大於某個面積的對象上。
使用 OpenCV 的cv2.drawContours函數繪制輪廓,我們得到了這個結果。
就本教程而言,分析整個窗口並不重要。我們只對計算在某個點通過的所有車輛感興趣,因此,我們必須定義一個感興趣的區域 ROI 並僅在該區域應用mask。
結果可視化如下:
函數 cv2. 是在開始時添加的,沒有定義參數,現在讓我們看看如何進一步改進我們的結果。history是第一個參數,在這種情況下,它設置為 100,因為相機是固定的。varThreshold改為 40,因為該值越低,誤報的可能性就越大。在這種情況下,我們只對較大的對象感興趣。
在繼續處理矩形之前,我們對圖像進行了進一步的清理。為此,閾值函數就派上用場了。從我們的mask開始,我們告訴它我們只想顯示白色或黑色值,因此通過編寫254, 255,只會考慮 254 和 255 之間的值。
然後我們將找到的對象的坐標插入到 if 條件中並繪制矩形
這是最終結果:
我們現在只需導入和集成跟蹤功能。
一旦創建了對象,我們必須獲取邊界框的每個位置並將它們插入到單個數組中。
通過在屏幕上顯示結果,您可以看到所有通過 ROI 的通道是如何被識別的,以及它們的位置是如何插入到特定的數組中的。顯然,識別的摩托車越多,我們的數組就越大。
現在讓我們將帶有位置的數組傳遞給tracker.update()。我們將再次獲得一個包含位置的數組,但此外,將為每個對象分配一個唯一的 ID。
從代碼中可以看出,我們可以使用 for 循環分析所有內容。此時我們只需要繪制矩形並顯示車輛 ID。
在圖像中,您可以看到結果
main.py
從視頻中也可以看到,我們已經獲得了我們在本教程開始時設置的結果。
但是,您必須將其視為練習或起點,因為關於這個主題有很多話要說,而本教程的目的只是讓您了解對象跟蹤的原理。
如果你想將 Object Tracking 集成到你的項目中,你應該使用更可靠和先進的對象檢測方法,以及跟蹤方法。
完整代碼地址:私信「333」直接獲取或者「鏈接」
『伍』 opencv用c++還是python好
python更好。
opencv內置支持的主要語言為python和c++,如果你用戶不是特別大)(比如10000次以上的人臉識別每秒),一般python就綽綽有餘了。當然如果是安卓客戶端的話,還是c++或java方便點,如果是後台或者樹莓派之類的,python就更方便。
這里有個python的例子。
opencv 3.3+已經內置了人臉識別功能。
可以很輕松的完成相關畢業設計。
使用OpenCV提供的預先訓練的深度學習面部檢測器模型,可快速,准確的進行人臉識別。
Python優點:
學習難易:Python與C++對比是一門易於學習的語言所以很適合作為第一門語言來學習編程。
可視化調試:Matplotlib進行結果可視化這方法,與C++的窗體調試比起來那是好了很多啊。
『陸』 OpenCV Python 系列教程4 - OpenCV 圖像處理(上)
學習目標:
OpenCV 中有 150 多種色彩空間轉化的方法,這里只討論兩種:
HSV的色相范圍為[0,179],飽和度范圍為[0,255],值范圍為[0,255]。不同的軟體使用不同的規模。如果要比較 OpenCV 值和它們,你需要標准化這些范圍。
HSV 和 HLV 解釋
運行結果:該段程序的作用是檢測藍色目標,同理可以檢測其他顏色的目標
結果中存在一定的噪音,之後的章節將會去掉它
這是物體跟蹤中最簡單的方法。一旦你學會了等高線的函數,你可以做很多事情,比如找到這個物體的質心,用它來跟蹤這個物體,僅僅通過在相機前移動你的手來畫圖表,還有很多其他有趣的事情。
菜鳥教程 在線 HSV-> BGR 轉換
比如要找出綠色的 HSV 值,可以使用上面的程序,得到的值取一個上下界。如上面的取下界 [H-10, 100, 100],上界 [H+10, 255, 255]
或者使用其他工具如 GIMP
學習目標:
對圖像進行閾值處理,算是一種最簡單的圖像分割方法,基於圖像與背景之間的灰度差異,此項分割是基於像素級的分割
threshold(src, thresh, maxval, type[, dst]) -> retval, dst
計算圖像小區域的閾值。所以我們對同一幅圖像的不同區域得到不同的閾值,這給我們在不同光照下的圖像提供了更好的結果。
三個特殊的輸入參數和一個輸出參數
adaptiveThreshold(src, maxValue, adaptiveMethod, thresholdType, blockSize, C[, dst]) -> dst
opencv-threshold-python
OpenCV 圖片集
本節原文
學習目標:
OpenCV 提供兩種變換函數: cv2.warpAffine 和 cv2.warpPerspective
cv2.resize() 完成縮放
文檔說明
運行結果
說明 : cv2.INTER_LINEAR 方法比 cv2.INTER_CUBIC 還慢,好像與官方文檔說的不一致? 有待驗證。
速度比較: INTER_CUBIC > INTER_NEAREST > INTER_LINEAR > INTER_AREA > INTER_LANCZOS4
改變圖像的位置,創建一個 np.float32 類型的變換矩陣,
warpAffine(src, M, dsize[, dst[, flags[, borderMode[, borderValue]]]]) -> dst
運行結果:
旋轉角度( )是通過一個變換矩陣變換的:
OpenCV 提供的是可調旋轉中心的縮放旋轉,這樣你可以在任何你喜歡的位置旋轉。修正後的變換矩陣為
這里
OpenCV 提供了 cv2.getRotationMatrix2D 控制
cv2.getRotationMatrix2D(center, angle, scale) → retval
運行結果
cv2.getAffineTransform(src, dst) → retval
函數關系:
egin{bmatrix} x'_i y'_i end{bmatrix}egin{bmatrix} x'_i y'_i end{bmatrix} =
其中
運行結果:圖上的點便於觀察,兩圖中的紅點是相互對應的
透視變換需要一個 3x3 變換矩陣。轉換之後直線仍然保持筆直,要找到這個變換矩陣,需要輸入圖像上的 4 個點和輸出圖像上的對應點。在這 4 個點中,有 3 個不應該共線。通過 cv2.getPerspectiveTransform 計算得到變換矩陣,得到的矩陣 cv2.warpPerspective 變換得到最終結果。
本節原文
平滑處理(smoothing)也稱模糊處理(bluring),是一種簡單且使用頻率很高的圖像處理方法。平滑處理的用途:常見是用來 減少圖像上的噪點或失真 。在涉及到降低圖像解析度時,平滑處理是很好用的方法。
圖像濾波:盡量保留圖像細節特徵的條件下對目標圖像的雜訊進行抑制,其處理效果的好壞將直接影響到後續圖像處理和分析的有效性和可靠性。
消除圖像中的雜訊成分叫做圖像的平滑化或濾波操作。信號或圖像的能量大部分集中在幅度譜的低頻和中頻段,在高頻段,有用的信息會被雜訊淹沒。因此一個能降低高頻成分幅度的濾波器就能夠減弱雜訊的影響。
濾波的目的:抽出對象的特徵作為圖像識別的特徵模式;為適應圖像處理的要求,消除圖像數字化時混入的雜訊。
濾波處理的要求:不能損壞圖像的輪廓及邊緣等重要信息;圖像清晰視覺效果好。
平滑濾波是低頻增強的空間濾波技術,目的:模糊和消除噪音。
空間域的平滑濾波一般採用簡單平均法,即求鄰近像元點的平均亮度值。鄰域的大小與平滑的效果直接相關,鄰域越大平滑效果越好,但是鄰域過大,平滑也會使邊緣信息的損失的越大,從而使輸出圖像變得模糊。因此需要選擇合適的鄰域。
濾波器:一個包含加權系數的窗口,利用濾波器平滑處理圖像時,把這個窗口放在圖像上,透過這個窗口來看我們得到的圖像。
線性濾波器:用於剔除輸入信號中不想要的頻率或者從許多頻率中選擇一個想要的頻率。
低通濾波器、高通濾波器、帶通濾波器、帶阻濾波器、全通濾波器、陷波濾波器
boxFilter(src, ddepth, ksize[, dst[, anchor[, normalize[, borderType]]]]) -> dst
均值濾波是方框濾波歸一化後的特殊情況。歸一化就是要把處理的量縮放到一個范圍內如 (0,1),以便統一處理和直觀量化。非歸一化的方框濾波用於計算每個像素鄰近內的積分特性,比如密集光流演算法中用到的圖像倒數的協方差矩陣。
運行結果:
均值濾波是典型的線性濾波演算法,主要方法為鄰域平均法,即用一片圖像區域的各個像素的均值來代替原圖像中的各個像素值。一般需要在圖像上對目標像素給出一個模板(內核),該模板包括了其周圍的臨近像素(比如以目標像素為中心的周圍8(3x3-1)個像素,構成一個濾波模板,即 去掉目標像素本身 )。再用模板中的全體像素的平均值來代替原來像素值。即對待處理的當前像素點(x,y),選擇一個模板,該模板由其近鄰的若干像素組成,求模板中所有像素的均值,再把該均值賦予當前像素點(x,y),作為處理後圖像在該點上的灰度個g(x,y),即個g(x,y)=1/m ∑f(x,y) ,其中m為該模板中包含當前像素在內的像素總個數。
均值濾波本身存在著固有的缺陷,即它不能很好地保護圖像細節,在圖像去噪的同時也破壞了圖像的細節部分,從而使圖像變得模糊,不能很好地去除雜訊點。
cv2.blur(src, ksize[, dst[, anchor[, borderType]]]) → dst
結果:
高斯濾波:線性濾波,可以消除高斯雜訊,廣泛應用於圖像處理的減噪過程。高斯濾波就是對整幅圖像進行加權平均的過程,每一個像素點的值,都由其本身和鄰域內的其他像素值經過 加權平均 後得到。高斯濾波的具體操作是:用一個模板(或稱卷積、掩模)掃描圖像中的每一個像素,用模板確定的鄰域內像素的加權平均灰度值去替代模板中心像素點的值。
高斯濾波有用但是效率不高。
高斯模糊技術生成的圖像,其視覺效果就像是經過一個半透明屏幕在觀察圖像,這與鏡頭焦外成像效果散景以及普通照明陰影中的效果都明顯不同。高斯平滑也用於計算機視覺演算法中的預先處理階段,以增強圖像在不同比例大小下的圖像效果(參見尺度空間表示以及尺度空間實現)。從數學的角度來看,圖像的高斯模糊過程就是圖像與正態分布做卷積。由於正態分布又叫作高斯分布,所以這項技術就叫作高斯模糊。
高斯濾波器是一類根據高斯函數的形狀來選擇權值的線性平滑濾波器。 高斯平滑濾波器對於抑制服從正態分布的雜訊非常有效。
一維零均值高斯函數為: 高斯分布參數 決定了高斯函數的寬度。
高斯雜訊的產生
GaussianBlur(src, ksize, sigmaX[, dst[, sigmaY[, borderType]]]) -> dst
線性濾波容易構造,並且易於從頻率響應的角度來進行分析。
許多情況,使用近鄰像素的非線性濾波會得到更好的結果。比如在雜訊是散粒雜訊而不是高斯雜訊,即圖像偶爾會出現很大值的時候,用高斯濾波器進行圖像模糊時,雜訊像素不會被消除,而是轉化為更為柔和但仍然可見的散粒。
中值濾波(Median filter)是一種典型的非線性濾波技術,基本思想是用像素點鄰域灰度值的中值來代替該像素點的灰度值,該方法在去除脈沖雜訊、椒鹽雜訊『椒鹽雜訊又稱脈沖雜訊,它隨機改變一些像素值,是由圖像感測器,傳輸信道,解碼處理等產生的黑白相間的亮暗點雜訊。椒鹽雜訊往往由圖像切割引起。』的同時又能保留圖像邊緣細節,
中值濾波是基於排序統計理論的一種能有效抑制雜訊的非線性信號處理技術,其基本原理是把數字圖像或數字序列中一點的值用該點的一個鄰域中各點值的中值代替,讓周圍的像素值接近的真實值,從而消除孤立的雜訊點,對於 斑點雜訊(speckle noise)和椒鹽雜訊(salt-and-pepper noise) 來說尤其有用,因為它不依賴於鄰域內那些與典型值差別很大的值。中值濾波器在處理連續圖像窗函數時與線性濾波器的工作方式類似,但濾波過程卻不再是加權運算。
中值濾波在一定的條件下可以克服常見線性濾波器如最小均方濾波、方框濾波器、均值濾波等帶來的圖像細節模糊,而且對濾除脈沖干擾及圖像掃描雜訊非常有效,也常用於保護邊緣信息, 保存邊緣的特性使它在不希望出現邊緣模糊的場合也很有用,是非常經典的平滑雜訊處理方法。
與均值濾波比較:
說明:中值濾波在一定條件下,可以克服線性濾波器(如均值濾波等)所帶來的圖像細節模糊,而且對濾除脈沖干擾即圖像掃描雜訊最為有效。在實際運算過程中並不需要圖像的統計特性,也給計算帶來不少方便。 但是對一些細節多,特別是線、尖頂等細節多的圖像不宜採用中值濾波。
雙邊濾波(Bilateral filter)是一種非線性的濾波方法,是結合 圖像的空間鄰近度和像素值相似度 的一種折衷處理,同時考慮空域信息和灰度相似性,達到保邊去噪的目的。具有簡單、非迭代、局部的特點。
雙邊濾波器的好處是可以做邊緣保存(edge preserving),一般過去用的維納濾波或者高斯濾波去降噪,都會較明顯地模糊邊緣,對於高頻細節的保護效果並不明顯。雙邊濾波器顧名思義比高斯濾波多了一個高斯方差 sigma-d ,它是基於空間分布的高斯濾波函數,所以在邊緣附近,離的較遠的像素不會太多影響到邊緣上的像素值,這樣就保證了邊緣附近像素值的保存。 但是由於保存了過多的高頻信息,對於彩色圖像里的高頻雜訊,雙邊濾波器不能夠干凈的濾掉,只能夠對於低頻信息進行較好的濾波。
運行結果
學習目標:
形態變換是基於圖像形狀的一些簡單操作。它通常在二進制圖像上執行。
膨脹與腐蝕實現的功能
侵蝕的基本思想就像土壤侵蝕一樣,它會侵蝕前景物體的邊界(總是試圖保持前景為白色)。那它是做什麼的?內核在圖像中滑動(如在2D卷積中)。只有當內核下的所有像素都是 1 時,原始圖像中的像素( 1 或 0 )才會被視為 1 ,否則它將被侵蝕(變為零)
erode(src, kernel[, dst[, anchor[, iterations[, borderType[, borderValue]]]]]) -> dst
與腐蝕的操作相反。如果內核下的至少一個像素為「1」,則像素元素為「1」。因此它增加了圖像中的白色區域或前景對象的大小增加。通常,在去除噪音的情況下,侵蝕之後是擴張。因為,侵蝕會消除白雜訊,但它也會縮小我們的物體。所以我們擴大它。由於噪音消失了,它們不會再回來,但我們的物體區域會增加。它也可用於連接對象的破碎部分
『柒』 OpenCV-Python系列八:提取圖像輪廓
當你完成圖像分割之後,圖像輪廓檢測往往可以進一步篩選你要的目標,OpenCV中可以使用cv2.findContours來得到輪廓。
補充 :
再不少場景中,找輪廓的最小外接矩形是基本需求,opencv中minAreaRect得到的是一個帶有旋轉角度信息的rect,可以使用cv2.boxPoints(rect)來將其轉為矩形的四個頂點坐標(浮點類型).你也可以使用cv2.polylines來繪制這樣的輪廓信息
注意findContours參數的變化,在opencv4中,返回值只有contours和hierarchy ,這一點與opencv3中不同。對與輪廓的層級結構,比較難用,雖然可以通過輪廓的層級結構來進行索引你需要的輪廓,不過對於大部分機器視覺應用場景,二值化的結果有時候很難預料,單單通過這種層級關系索引,非常容易出錯。所以,只找最外部結構的 cv2.RETR_EXTERNAL 是不是真香呢?
處理cv2.approxPolyDP()外,你也可以使用cv2.convexHull來求輪廓的近似凸包,其中凸形狀內部--任意兩點連線都在該形狀內部。
clockwise :默認為False,即輪廓為逆時針方向進行排列;
returnPoints :設置為False會返回與凸包上對應的輪廓的點索引值,設置為True,則會返回凸包上的點坐標集,默認為True
對於opencv-python的提取圖像輪廓部分有問題歡迎留言, Have Fun With OpenCV-Python, 下期見。
『捌』 OpenCV+Python特徵提取演算法與圖像描述符之SIFT / SURF / ORB
演算法效果比較博文
用於表示和量化圖像的數字列表,簡單理解成將圖片轉化為一個數字列表表示。特徵向量中用來描述圖片的各種屬性的向量稱為特徵矢量。
參考
是一種演算法和方法,輸入1個圖像,返回多個特徵向量(主要用來處理圖像的局部,往往會把多個特徵向量組成一個一維的向量)。主要用於圖像匹配(視覺檢測),匹配圖像中的物品。
SIFT論文
原理
opencv官網解釋
實質是在不同的尺度空間上查找關鍵點(特徵點),並計算出關鍵點的方向。SIFT所查找到的關鍵點是一些十分突出,不會因光照,仿射變換和噪音等因素而變化的點,如角點、邊緣點、暗區的亮點及亮區的暗點等。
尺度不變特徵轉換(Scale-invariant feature transform或SIFT)是一種電腦視覺的演算法用來偵測與描述影像中的局部性特徵,它在空間尺度中尋找極值點,並提取出其位置、尺度、旋轉不變數。
其應用范圍包含物體辨識、機器人地圖感知與導航、影像縫合、3D模型建立、手勢辨識、影像追蹤和動作比對。
對現實中物體的描述一定要在一個十分重要的前提下進行,這個前提就是對自然界建模時的尺度。當用一個機器視覺系統分析未知場景時,計算機沒有辦法預先知道圖像中物體的尺度,因此我們需要同時考慮圖像在多尺度下的描述,獲知感興趣物體的最佳尺度。圖像的尺度空間表達指的是圖像的所有尺度下的描述。
KeyPoint數據結構解析
SURF論文
原理
opencv官網解釋
SURF是SIFT的加速版,它善於處理具有模糊和旋轉的圖像,但是不善於處理視角變化和光照變化。在SIFT中使用DoG對LoG進行近似,而在SURF中使用盒子濾波器對LoG進行近似,這樣就可以使用積分圖像了(計算圖像中某個窗口內所有像素和時,計算量的大小與窗口大小無關)。總之,SURF最大的特點在於採用了Haar特徵以及積分圖像的概念,大大加快了程序的運行效率。
因為專利原因,OpenCV3.3開始不再免費開放SIFT\SURF,需要免費的請使用ORB演算法
ORB演算法綜合了FAST角點檢測演算法和BRIEFF描述符。
演算法原理
opencv官方文檔
FAST只是一種特徵點檢測演算法,並不涉及特徵點的特徵描述。
論文
opencv官方文檔
中文版
Brief是Binary Robust Independent Elementary Features的縮寫。這個特徵描述子是由EPFL的Calonder在ECCV2010上提出的。主要思路就是在特徵點附近隨機選取若干點對,將這些點對的灰度值的大小,組合成一個二進制串,並將這個二進制串作為該特徵點的特徵描述子。文章同樣提到,在此之前,需要選取合適的gaussian kernel對圖像做平滑處理。
1:不具備旋轉不變性。
2:對雜訊敏感
3:不具備尺度不變性。
ORB論文
OpenCV官方文檔
ORB採用了FAST作為特徵點檢測運算元,特徵點的主方向是通過矩(moment)計算而來解決了BRIEF不具備旋轉不變性的問題。
ORB還做了這樣的改進,不再使用pixel-pair,而是使用9×9的patch-pair,也就是說,對比patch的像素值之和,解決了BRIEF對雜訊敏感的問題。
關於計算速度:
ORB是sift的100倍,是surf的10倍。
對圖片數據、特徵分布的一種統計
對數據空間(bin)進行量化
Kmeans
邊緣:尺度問題->不同的標准差 捕捉到不同尺度的邊緣
斑點 Blob:二階高斯導數濾波LoG
關鍵點(keypoint):不同視角圖片之間的映射,圖片配准、拼接、運動跟蹤、物體識別、機器人導航、3D重建
SIFT\SURF
『玖』 opencv-python簡單使用--識別滑動驗證碼缺口
以上是需要是別的圖片缺口,來自某東登錄。
opencv是計算機視覺。
1、 imread :讀取圖片
imread(image_path, flag) :
images_path :圖片路徑,找不到不報錯
flag :
1/cv2.IMREAD_COLOR :彩色圖片,圖片透明性會被忽略,默認參數
0/cv2.IMREAD_GRAYSCALE :灰色圖片
-1/cv2.IMREAD_UNCHANGED :包括其alpha通道
2、 imwrite
imwrite(img_path_name,img)
img_path_name :保存的文件名
img :文件對象
3、 cvtColor
cvtColor(img,code)
img : 圖像對象
code :
cv2.COLOR_RGB2GRAY : RGB轉換到灰度模式
cv2.COLOR_RGB2HSV : RGB轉換到HSV模式(hue,saturation,Value)
4、 matchTemplate
matchTemplate(img_path, bg_path, cv2.TM_CCOEFF_NORMED)
img_path :對比圖片
bg_path :背景圖片
cv2.TM_CCOEFF_NORMED
『拾』 Python視覺識別--OpenCV開閉操作\分水嶺演算法(九)
閉操作:
1、圖像形態學的重要操作之一,基於膨脹與腐蝕操作組合形成的
2、主要是應用在二值圖像分析中,灰度圖像也可以
3、開操作=膨脹+腐蝕,輸入圖像+結構元素
開操作:
1、圖像形態學的重要操作之一,基於膨脹與腐蝕操作組合形成的
2、主要是應用在二值圖像分析中,灰度圖像也可以
3、開操作=腐蝕+膨脹,輸入圖像+結構元素
開操作與閉操作的區別是:膨脹與腐蝕的順序
開操作作用:消除圖像中小的干擾區域
閉操作作用:填充小的封閉區域