Python使用UDP實現720p視頻傳輸的操作
1. 項目背景
視頻傳輸: 在一臺電腦上播放視頻(捕捉攝像頭畫面),同局域網內另一臺電腦上實時播放,盡量不卡頓。
先放最後的照片,和用gif展示一下視頻效果。
傳輸視頻可以采取圖片或者流的形式,本文采取傳輸圖片的形式,在1s之內顯示多張圖片從而形成連續的視頻畫面。
經費有限,所有實驗均基於筆記本電腦。
使用的視頻源是本機攝像頭,以及進擊的巨人720p資源。
2. 解決方案
1. 使用Python的Socket,使用opencv捕捉攝像頭/視頻的畫面。
2. 原始的圖片很大(720p的大小是1920*1080*3),整圖就算壓縮成jpg格式其大小也非常大。而UDP最大隻能傳輸65535字節大小的數據區,故對圖片進行分塊,分塊過後的數據壓縮成jpg格式,並對圖片分塊數據進行編號。
3. 實驗檢測表明,本文實驗環境發送端不需要使用發送隊列,基本上新生成的幀很快就能被socket傳輸掉。
4. 接收端使用多線程接收,每個線程是一個socket,接收過後的數據存儲於數據片池。
5. 接收端另開一個線程,用於反復從數據片池 讀取數據片,根據數據片的編號更新幕佈,這裡幕佈是專門用於圖像顯示的一個數組,其維度是720p(1920*1080*3)。更新過後的結果暫存於圖片池
6. 主線程反復從圖片池讀取圖片,並顯示。
3. 實現細節
3.1 TCP/UDP的選擇
為瞭實現低延遲,毫無疑問選取無連接的UDP傳輸。
3.2 圖片分片算法
這裡其實也談不上什麼算法,就是將圖片水平分割。這種做法的好處在於,分割後圖片的編號可以和區域一一對應。本文沒有探索更為復雜的圖片分片算法。
經過處理,圖片變為一個個分片,如下:
對上述圖片進行編號,很顯然可以編號0,1,2,3,對於任意分塊(例如2)在圖像數組中對應的區域是frame[2*piece_size:(2+1)*piece_size],其中piece_size表示一片數據的大小。
這種對應關系方便解壓後的圖像還原操作。
3.3 JPG壓縮
這其實是個很小的技術點,因為使用的壓縮算法都是現成的。但是值得一提的是,JPG的壓縮率是真的高,在實驗數據上實現瞭10-20倍的壓縮率。
使用瞭多線程壓縮,壓縮完過後,更新對應的桶,這裡的桶實際上就是數據片。
由主線程Main Thread反復從桶裡取數據片(t1),每取1片發送一次,然後再取下一片(t2),直到所有桶都被取瞭一次(例子中有10片)。
至此,一張圖片的分片數據被全部取完,於是開始統計一些FPS相關信息。
3.4 接收隊列
接收端開瞭10個線程用於異步socket接收數據片。
為瞭保證接收端產生絲滑的視頻效果,使用接收隊列是個不錯的選擇。本文使用瞭2個隊列的設計。實現數據接收的二級緩沖。示意圖如下:
這樣一來,視頻效果明顯絲滑瞭很多。
4. 遇到的坑及解決辦法
4.1. Windows防火墻
巨坑,最好都關瞭。
4.2. 路由器網絡頻段
同一臺路由器的5G和2.4G頻段有時候不能互相ping通,要確保兩個電腦連接在同一頻段上。
4.3. Wifi配置
如果上述設置都對瞭,但是還是ping不通。將wifi連接設置成專用網絡,也許就能解決問題。
4.4. 硬件瓶頸
個人PC的性能是較大瓶頸,尤其是單機測驗的時候(本地兩個終端,一個發送、一個接收),CPU使用率分分鐘到100%。聽某個技術大哥說要使用GPU壓縮。
用兩臺電腦,一臺接收一臺發送之後,效果要好很多。
4.5. OpenCV讀取攝像頭大坑
由於攝像頭驅動的關系,在我的電腦上需要設置以下兩個變量,才能成功啟用外置的720p攝像頭。
os.environ["OPENCV_VIDEOIO_DEBUG"] = "1" os.environ["OPENCV_VIDEOIO_PRIORITY_MSMF"] = "0"
即使如此,如果不做額外的設置,讀出來的圖片將是480p的(看起來很像是720p被壓縮過後的)。所以如果要傳輸真·720p,還需要設置讀出的圖像大小,如下:
self.stream = cv2.VideoCapture(1) # 讀取第一個外置攝像頭 self.stream.set(cv2.CAP_PROP_FRAME_WIDTH, 1280) # float self.stream.set(cv2.CAP_PROP_FRAME_HEIGHT, 720) # float
4.6. Socket卡頓
不知道是不是我寫的有問題,感覺多線程的socket會爭搶資源(發送和接收的線程間,對應5.1節功能),造成接收端的畫面顯示將變得卡頓。
5. 尚未Bug Free的功能
5.1 使用TCP回傳幀率信息
為瞭計算網絡時延,采取類似伽利略測光速的方法。從數據包打包之前,到對方收到數據包之後,再將這個數據回傳到發送方。
這樣就不存在兩臺機器時間差校準的問題。
該算法的大致流程如下圖所示。
這種計算方式應該是自己的實驗環境下比較準確的方法瞭。
時延信息的反饋不需要特別快(比如200-500ms發送一次),所以使用TCP技術
其實TCP和UDP在使用Python編程的時候代碼差距可以說極小…
但是!!!
自己目前在實現信息回傳的時候,會莫名卡頓起來。
接收端建立回傳的socket之後,甚至還沒傳輸數據,整個程序運行起來就變得非常卡頓,這個讓我比較苦惱,目前正在找bug.
5.2 擁塞控制 (流量控制)的算法
這部分的思想是流量控制,感謝評論區指正。
5.1節如果一並回傳接收端隊列狀態信息。如果接收端隊列太滿,說明來不及處理視頻幀瞭,從而對發送端的發送速度進行控制,才是“擁塞控制”
這個本來是想著和5.1綜合起來用的,已經寫好瞭,但是還沒能真正展現價值,設計是否合理也值得商榷。
控制的是發送端的發送頻率,從而實現接收端的流暢播放
思想和TCP的擁塞控制一樣慢增長,快下降。如果接收端的隊列一直處於較空的狀態,則表明還有一定的性能剩餘,此時可以緩慢加快發送的頻率;如果檢測到接收端隊列中數據較多,表明發送速度太快來不及顯示,這時候就大幅下降發送的頻率。
這個擁塞控制的算法基於幾個假設:
1.網絡情況良好,丟包率比較低;
2接收端電腦的性能足夠高,來得及處理解包、顯示圖像。
如果5.1能夠正確實現,則應該根據網絡時延的大小來控制發送的頻率。
6. 總結
這個項目是一周的時間內完成的,目前還有點bug。小組內的成員分別在不同技術方向上進行瞭探索,收獲都還挺大的。這篇博客就當一個項目總結吧,寫的難免有紕漏之處。
github地址:https://github.com/820fans/UDP-Video-Transfer
以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。如有錯誤或未考慮完全的地方,望不吝賜教。
推薦閱讀:
- 如何使用Python的OpenCV庫處理圖像和視頻
- C++ OpenCV實現抖音"藍線挑戰"特效
- python 基於opencv操作攝像頭
- python通過opencv調用攝像頭操作實例分析
- Python+OpenCV讀寫視頻的方法詳解