基於OpenCV的攝像頭測距的實現示例

前言

去年暑假參加瞭一個比賽,比賽內容中需要確定目標的位置 本來想全用圖像完成的,最後發現不是很符合要求。比完賽之後,就忙別的事瞭。直到現在突然想試試攝像頭測距。就來瞭

在這裡插入圖片描述

一、測距原理

攝像頭單目測距原理及實現

空間的深度或距離等數據的攝像頭。

人的眼睛長在頭部的前方,兩隻眼的視野范圍重疊,兩眼同時看某一物體時,產生的視覺稱為雙眼視覺。

雙眼視覺的優點是可以彌補單眼視野中的盲區缺損,擴大視野,並產生立體視覺。

在這裡插入圖片描述

f為攝像頭的焦距,c為鏡頭光心

模型的主要依據公式為f/d=h/H,設物體所在平面與相機平面的距離為d,物體實際高度為H,在傳感器上的高度為h
根據這個模型,我們就能求出目標物體與我們的攝像頭平面的距離。

分兩種情況,但是這兩種情況的條件都是假設實際物體與攝像機所在平面平行。

一種是當物體主線段過光心的情況,這種情況是最容易計算的, 即 h=sqrt ((橫坐標之差*Dx)2+(縱坐標之差*Dy)2), Dx為每個像素的寬度,Dy為每個像素的高度,

二、代碼

1.引入庫

代碼如下(示例):

import cv2
from cvzone.HandTrackingModule import HandDetector
import math
import numpy as np
import cvzone

2.讀入數據

調用電腦攝像頭,或者外接別的攝像頭也可以
調用 cvzone 自帶的手部檢測器

cap = cv2.VideoCapture(0)
cap.set(3, 1280)
cap.set(4, 720)
detector = HandDetector(detectionCon=0.8, maxHands=1)

編寫函數,轉化為距離循環打印顯示

while True:
    success, img = cap.read()
    hands = detector.findHands(img, draw=False)

    if hands:
        lmList = hands[0]['lmList']
        x, y, w, h = hands[0]['bbox']
        x1, y1 = lmList[5]
        x2, y2 = lmList[17]

        distance = int(math.sqrt((y2 - y1) ** 2 + (x2 - x1) ** 2))
        A, B, C = coff
        distanceCM = A * distance ** 2 + B * distance + C

        print(distanceCM, distance)

        cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 255), 3)
        cvzone.putTextRect(img, f'{int(distanceCM)} cm', (x+5, y-10))

    cv2.imshow("Image", img)
    cv2.waitKey(1)

完整代碼

import cv2
from cvzone.HandTrackingModule import HandDetector
import math
import numpy as np
import cvzone

cap = cv2.VideoCapture(0)
cap.set(3, 1280)
cap.set(4, 720)

# Hand Detector
detector = HandDetector(detectionCon=0.8, maxHands=1)

# Find Function
# x is the raw distance y is the value in cm
x = [300, 245, 200, 170, 145, 130, 112, 103, 93, 87, 80, 75, 70, 67, 62, 59, 57]
y = [20, 25, 30, 35, 40, 45, 50, 55, 60, 65, 70, 75, 80, 85, 90, 95, 100]
coff = np.polyfit(x, y, 2)  # y = Ax^2 + Bx + C

while True:
    success, img = cap.read()
    hands = detector.findHands(img, draw=False)

    if hands:
        lmList = hands[0]['lmList']
        x, y, w, h = hands[0]['bbox']
        x1, y1 = lmList[5]
        x2, y2 = lmList[17]

        distance = int(math.sqrt((y2 - y1) ** 2 + (x2 - x1) ** 2))
        A, B, C = coff
        distanceCM = A * distance ** 2 + B * distance + C

        print(distanceCM, distance)

        cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 3)
        cvzone.putTextRect(img, f'{int(distanceCM)} cm', (x+5, y-10))

    cv2.imshow("Image", img)
    cv2.waitKey(1)

效果圖:

在這裡插入圖片描述

總結

通過簡單的幾行代碼,就可以實現視頻測距。我是以手為檢測目標測距,當然你也可以,調用別的分類檢測器,搭配目標檢測網絡實現各種物體的檢測 測距。(建議備一個,高清的攝像頭。)
本項目的視頻測距的 誤差 大概在±2cm左右。

到此這篇關於基於OpenCV的攝像頭測距的實現示例的文章就介紹到這瞭,更多相關OpenCV攝像頭測距內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: