詳解opencv去除背景算法的方法比較

最近做opencv項目時,使用膚色分割的方法檢測目標物體時,背景帶來的幹擾非常讓人頭痛。於是先將背景分割出去,將影響降低甚至消除。由於初次接觸opencv,敘述不當的地方還請指正。

背景減除法

(以下文字原文來源於https://docs.opencv.org/3.4.7/d8/d38/tutorial_bgsegm_bg_subtraction.html)
背景減除法是很多基於視覺的應用的一個主要預處理步驟。例如使用一個靜止的攝像頭拍攝進出房間的人數,或是交通攝像頭捕獲車輛信息等。在以上的例子中,首先你需要單獨把人和交通工具提取出來。從技術上來說,你需要從靜止的背景中提取移動前景目標。

通常情況下,我們的背景往往是未知的,因此需要通過一定的方法得到視頻背景,然後用新的圖像減去背景圖片即可。

在opencv中提供瞭幾種背景減除的方法:

(1)BackgroundSubtractorMOG

這是基於高斯混合模型的算法,混合模型表示瞭觀測數據在總體中的概率分佈,高斯分佈即正態分佈,正態分佈如下圖:
(圖片來源於網絡)

正態分佈

而高斯混合模型就是使用高斯分佈的混合模型,由於高斯分佈具有良好的數學性質和計算性能,它的概率分佈遵循高斯分佈。

cv2.bgsegm.createBackgroundSubtractorMOG()使用時可以不用傳入參數

import cv2

cap = cv2.VideoCapture(0)
fgbg = cv2.bgsegm.createBackgroundSubtractorMOG()
se = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))

while cap.isOpened():
    ret, frame = cap.read()
    
    # 用於計算前景掩模
    fgmask = fgbg.apply(frame)
    _, binary = cv2.threshold(fgmask, 215, 255, cv2.THRESH_BINARY)
    binary = cv2.morphologyEx(binary, cv2.MORPH_OPEN, se)
    res = cv2.bitwise_and(frame, frame, mask=binary)
    cv2.imshow("res", res)

    if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
        break

cap.release()
cv2.destroyAllWindows()

運行結果:

(2)BackgroundSubtractorMOG2

它是改進的高斯混合模型,為各個參數設置瞭一些合適的值。

import cv2

cap = cv2.VideoCapture(0)
fgbg = cv2.createBackgroundSubtractorMOG2()
se = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))

while cap.isOpened():
    ret, frame = cap.read()
    fgmask = fgbg.apply(frame)
    _, binary = cv2.threshold(fgmask, 215, 255, cv2.THRESH_BINARY)
    binary = cv2.morphologyEx(binary, cv2.MORPH_OPEN, se)
    backImage = fgbg.getBackgroundImage()
    res = cv2.bitwise_and(frame, frame, mask=binary)
    cv2.imshow("backImage", backImage)
    cv2.imshow("res", res)
    
    if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
        break

cap.release()
cv2.destroyAllWindows()

運行結果:

(3)BackgroundSubtractorGMG

GMG:Geometric Multigid,幾何多重網格。它默認使用前120幀圖像進行建模,使用貝葉斯推斷方法判斷可能的前景物體。

import cv2

cap = cv2.VideoCapture(0)
fgbg = cv2.bgsegm.createBackgroundSubtractorGMG()
se = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))

while cap.isOpened():
    ret, frame = cap.read()
    fgmask = fgbg.apply(frame)
    _, binary = cv2.threshold(fgmask, 215, 255, cv2.THRESH_BINARY)
    binary = cv2.morphologyEx(binary, cv2.MORPH_OPEN, se)
    res = cv2.bitwise_and(frame, frame, mask=binary)
    cv2.imshow("res", res)
    
    if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
        break

cap.release()
cv2.destroyAllWindows()

運行結果:

以上這三種方法對於檢測運動物體行之有效,但如果檢測靜態物體就不適合瞭。

幀差法

在可以確定背景時采用幀差法,此方法不僅可以用於動態目標檢測,也能檢測靜態目標。
幀差法需要一個變量來檢測當前是第幾幀。即通過後面的幀減去第一幀得到所需前景。

import cv2

cap = cv2.VideoCapture(0)
frameNum = 0

while cap.isOpened():
    ret, frame = cap.read()
    frameNum += 1
    tmp = frame.copy()
    
    if frameNum == 1:
    	bgFrame = cv2.cvtColor(tmp, cv2.COLOR_BGR2GRAY)
    elif frameNum > 1:
    	foreFrame = cv2.cvtColor(tmp, cv2.COLOR_BGR2GRAY)
    	foreFrame = cv2.absdiff(foreFrame, bgFrame)
    	_, thresh = cv2.threshold(foreFrame, 30, 255, cv2.THRESH_BINARY)
    	gaussian = cv2.GaussianBlur(thresh, (3, 3), 0)
    	cv2.imshow('gaussian', foreFrame)

	if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
    break

cap.release()
cv2.destroyAllWindows()

運行結果:

上述除瞭使用濾波的方法,也可以直接用cv2.subtract()進行圖像減法運算。

 到此這篇關於詳解opencv去除背景算法的方法比較的文章就介紹到這瞭,更多相關opencv去除背景算法內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: