python實現求純色彩圖像的邊框

本文實例為大傢分享瞭python實現求純色彩圖像的邊框,供大傢參考,具體內容如下

先上效果圖,這裡顯示有點色差, 實際數值是純色的, 而不是混色的.

放大局部細節看是這樣的

原圖是下面這樣的

這個算法最大的特點是保留原始像素的數值, 而不是把邊框統一變成白色.
實現的算法也超級簡單. 就是有點慢. 考慮到我這個應用場景對性能要求不高, 比人快就行. 人工是它的幾百倍. 所以也就無所謂啦.
測試結果一張1080*1920的圖用時3秒, 如果換成c語言估計0.5秒左右.

算法原理, 每次4個田子形像素逐行掃描. 發現4個像素不一致的就輸出到結果圖上. 否則就是輸出0.

代碼如下.

#
# demo.py
# 識別單張圖片
#
import argparse
import os 
import numpy as np
import time

from modeling.deeplab import *
from dataloaders import custom_transforms as tr
from PIL import Image
from torchvision import transforms
from dataloaders.utils import  *
from torchvision.utils import make_grid, save_image,to_image

import matplotlib
matplotlib.use('TkAgg')
import matplotlib.pyplot as plt

def main():
    im = Image.open("test_border.png")
    npimg = np.array(im) # 這個圖片是1維的索引圖. 
    # chwimg = npimg.transpose(2,0,1) # HWC 變成 CHW 格式的矩陣
    print(npimg.shape)
    h,w,c = npimg.shape

    src = np.sum(npimg,axis=2) # 這裡測試用, 先把3通道的合成瞭一個通道的, 實際使用的時候也是1通道的.
    print(src.shape)
    borderimg = np.zeros(src.shape) #默認都輸出瞭0 後面就不用輸出0瞭.
    # 修補bug, 解決邊框線會丟失的問題.
    borderimg[0,:]=src[0,:]
    borderimg[:,0]=src[:,0]
    borderimg[-1,:]=src[-1,:]
    borderimg[:,-1]=src[:,-1]
   
    t1= time.time()
    for x in range(0,h-1,1): 
        for y in range(0,w-1,1):
            # point = src[x,y]
            # if(point>0):
                # print(point)
            if not (src[x,y] == src[x+1,y] == src[x,y+1] == src[x+1,y+1]): # 發現4個像素不一致的就輸出到結果圖上.
                borderimg[x,y] = src[x,y]
                borderimg[x+1,y] = src[x+1,y]
                borderimg[x,y+1] = src[x,y+1]
                borderimg[x+1,y+1] = src[x+1,y+1]
    t2= time.time()
    print("耗時",t2-t1)

    plt.figure()
    plt.title('display') 
    plt.imshow(src) 
    plt.show( )

    plt.imshow(borderimg) 
    plt.show( )

    print("start test get image border ...")

if __name__ == "__main__":
    main()
else:
    main()

以上就是本文的全部內容,希望對大傢的學習有所幫助,也希望大傢多多支持WalkonNet。