亲宝软件园·资讯

展开

opencv 截取圆形区域

粒子白 人气:0

一、先进行剪切操作

圆形区域占图片可能不多,多余的部分不要。
看下图。

只要纽扣电池内部和少许的边缘部分,其余黑色背景部分不需要。
先沿着纽扣电池的边缘剪切出来感兴趣的区域。
有2个方法,用寻找轮廓外接圆的方法,或者基尔霍夫圆的方法。
在这里以轮廓外接圆方法为例。
代码如下:

import cv2
import numpy as np

image = cv2.imread('F:\Siamese-pytorch-master\datasets\images_background\quebian_Hander/20220724-112303-336.jpg')
image=cv2.resize(image,(800,600))#缩放一下
img=cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)# 灰度图
# 二值化  这个位置要注意二值化和反二值化,看你原图是什么样子的底色
# ret , thresh = cv2.threshold(img, 230, 255, cv2.THRESH_BINARY_INV)
# ret , thresh = cv2.threshold(img,127,255,cv2.THRESH_BINARY | cv2.THRESH_OTSU)
ret , thresh = cv2.threshold(img,127,255,cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)
contours, hierarchy = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
dot=[]  # 用来保存所有轮廓返回的坐标点。
for c in contours:
    # 找到边界坐标
    min_list=[] # 保存单个轮廓的信息,x,y,w,h,area。 x,y 为起始点坐标
    x, y, w, h = cv2.boundingRect(c)  # 计算点集最外面的矩形边界
    min_list.append(x)
    min_list.append(y)
    min_list.append(w)
    min_list.append(h)
    min_list.append(w*h) # 把轮廓面积也添加到 dot 中
    dot.append(min_list)

# 找出最大矩形的 x,y,w,h,area
max_area=dot[0][4] # 把第一个矩形面积当作最大矩形面积
for inlist in dot:
    area=inlist[4]
    if area >= max_area:
        x=inlist[0]
        y=inlist[1]
        w=inlist[2]
        h=inlist[3]
        max_area=area
# 在原图上画出最大的矩形  这部分实际上是对边缘再扩展一下,避免剪切的圆不够完整
print(x,y,w,h)
if y>=60:
    new_w=60
elif y>=50:
    new_w=50
elif y>=40:
    new_w=40
elif y>=30:
    new_w=30
elif y>=20:
    new_w=20
elif y>=10:
    new_w=10

x0=x-int(new_w/2)
y0=y-int(new_w/2)
w=w+new_w
h=h+new_w
print(x0,y0,w,h)
# cv2.rectangle(image, (x0, y0), (x + w, y + h), (0, 255, 0), 1)

crop = image[y0:y0+h, x0:x0+w]
cv2.imshow('crop',crop)
cv2.imwrite("crop.jpg",crop)
cv2.waitKey(0)
cv2.destroyWindow()

代码执行以后可以看下剪切效果。大致如下。

以上代码是单张图片。
执行一下代码可以批量处理图片。
注意:如果你的代码报错,注意下二值化的这行代码,是THRESH_BINARY_INV还是THRESH_BINARY。

# -*- coding:utf-8 -*-
# from re import X
import cv2
import numpy as np

from glob import glob
import os

img_path = glob("F:\Siamese-pytorch-master\datasets\images_background\character01/*.jpg")
path_save = "F:\Siamese-pytorch-master\datasets\images_background\quebian_Hander/"


for i,file in enumerate(img_path):
    name = os.path.join(path_save, "%d.jpg"%i)
    image = cv2.imread(file)
    print(file,i)
    image=cv2.resize(image,(800,600))
    img=cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    img = cv2.bilateralFilter(img,9,75,75)
    ret , thresh = cv2.threshold(img,127,255,cv2.THRESH_BINARY | cv2.THRESH_OTSU)
    contours, hierarchy = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    
    dot=[]  # 用来保存所有轮廓返回的坐标点。
    for c in contours:
        # 找到边界坐标
        min_list=[] # 保存单个轮廓的信息,x,y,w,h,area。 x,y 为起始点坐标
        x, y, w, h = cv2.boundingRect(c)  # 计算点集最外面的矩形边界
        min_list.append(x)
        min_list.append(y)
        min_list.append(w)
        min_list.append(h)
        min_list.append(w*h) # 把轮廓面积也添加到 dot 中
        dot.append(min_list)

# 找出最大矩形的 x,y,w,h,area
    max_area=dot[0][4] # 把第一个矩形面积当作最大矩形面积
    for inlist in dot:
        area=inlist[4]
        if area >= max_area:
            x=inlist[0]
            y=inlist[1]
            w=inlist[2]
            h=inlist[3]
            max_area=area
# 在原图上画出最大的矩形
    print(x,y,w,h)
    if y>=60:
        new_w=60
    elif y>=50:
        new_w=50
    elif y>=40:
        new_w=40
    elif y>=30:
        new_w=30
    elif y>=20:
        new_w=20
    elif y>=10:
        new_w=10
    elif y>=5:
        new_w=5
    else:
        new_w=0

    x0=x-int(new_w/2)
    y0=y-int(new_w/2)
    w=w+new_w
    h=h+new_w
    print(x0,y0,w,h)
    # cv2.rectangle(image, (x0, y0), (x0 + w , y0 + h), (0, 255, 0), 1)
    crop = image[y0:y0+h, x0:x0+w]
    cv2.imwrite(name,crop)


批量以后效果类似下图。基本上裁减掉了不需要的部分。

二、去除背景

执行以下代码。

import cv2
import numpy as np
from glob import glob
import os
 

img_path = glob("F:\DEMO_CODE\demo\ML\qieyuan/*.jpg")
path_save = "F:\DEMO_CODE\demo\ML\qieyuan/"

for i,file in enumerate(img_path):
    name = os.path.join(path_save, "%d.jpg"%i)
    image = cv2.imread(file)
    gray = cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
    _, binary = cv2.threshold(gray,0,255,cv2.THRESH_BINARY | cv2.THRESH_OTSU)
    contours, _ = cv2.findContours(binary,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)
    for cont in contours:
        (x, y), radius = cv2.minEnclosingCircle(cont)
        if radius>200:
            ming=cv2.circle(image,(int(x),int(y)),int(radius), (0, 0, 255), 2)
            print("radius is ")
            print(radius)
            print((x, y))   
            roi = np.zeros(image.shape[:2], np.uint8)
            roi = cv2.circle(roi,(int(x),int(y)), int(radius), 255, cv2.FILLED)
            mask = np.ones_like(image) * 255
            mask = cv2.bitwise_and(mask, image, mask=roi) + cv2.bitwise_and(mask, mask, mask=~roi)
            cv2.imwrite(name,mask)
            print(i,name)

效果如下:

不要的部分就变成白色了

总结

卷积神经网络的不一定需要图片预处理,有时候预处理反而得到不好的结果。但是也可以尝试一下,也许结果更好。

加载全部内容

相关教程
猜你喜欢
用户评论