python實現求純色彩圖像的邊框
本文實例為大傢分享瞭python實現求純色彩圖像的邊框,供大傢參考,具體內容如下
先上效果圖,這裡顯示有點色差, 實際數值是純色的, 而不是混色的.
放大局部細節看是這樣的
原圖是下面這樣的
這個算法最大的特點是保留原始像素的數值, 而不是把邊框統一變成白色.
實現的算法也超級簡單. 就是有點慢. 考慮到我這個應用場景對性能要求不高, 比人快就行. 人工是它的幾百倍. 所以也就無所謂啦.
測試結果一張1080*1920的圖用時3秒, 如果換成c語言估計0.5秒左右.
算法原理, 每次4個田子形像素逐行掃描. 發現4個像素不一致的就輸出到結果圖上. 否則就是輸出0.
代碼如下.
# # demo.py # 識別單張圖片 # import argparse import os import numpy as np import time from modeling.deeplab import * from dataloaders import custom_transforms as tr from PIL import Image from torchvision import transforms from dataloaders.utils import * from torchvision.utils import make_grid, save_image,to_image import matplotlib matplotlib.use('TkAgg') import matplotlib.pyplot as plt def main(): im = Image.open("test_border.png") npimg = np.array(im) # 這個圖片是1維的索引圖. # chwimg = npimg.transpose(2,0,1) # HWC 變成 CHW 格式的矩陣 print(npimg.shape) h,w,c = npimg.shape src = np.sum(npimg,axis=2) # 這裡測試用, 先把3通道的合成瞭一個通道的, 實際使用的時候也是1通道的. print(src.shape) borderimg = np.zeros(src.shape) #默認都輸出瞭0 後面就不用輸出0瞭. # 修補bug, 解決邊框線會丟失的問題. borderimg[0,:]=src[0,:] borderimg[:,0]=src[:,0] borderimg[-1,:]=src[-1,:] borderimg[:,-1]=src[:,-1] t1= time.time() for x in range(0,h-1,1): for y in range(0,w-1,1): # point = src[x,y] # if(point>0): # print(point) if not (src[x,y] == src[x+1,y] == src[x,y+1] == src[x+1,y+1]): # 發現4個像素不一致的就輸出到結果圖上. borderimg[x,y] = src[x,y] borderimg[x+1,y] = src[x+1,y] borderimg[x,y+1] = src[x,y+1] borderimg[x+1,y+1] = src[x+1,y+1] t2= time.time() print("耗時",t2-t1) plt.figure() plt.title('display') plt.imshow(src) plt.show( ) plt.imshow(borderimg) plt.show( ) print("start test get image border ...") if __name__ == "__main__": main() else: main()
以上就是本文的全部內容,希望對大傢的學習有所幫助,也希望大傢多多支持WalkonNet。
推薦閱讀:
- None Found