

清华大学 机械工程系, 北京 100084
收稿日期:2018-11-21
基金项目:国家重点研发计划(2017YFB1301700)
作者简介:陈璐(1995-), 女, 硕士研究生
通信作者:关立文, 研究员, E-mail:guanlw@tsinghua.edu.cn
摘要:在机器人自动钻铆系统中,高精度的圆孔视觉测量技术对制孔的定位精度和质量检测具有重要作用。为了提高钻铆基准孔和连接孔几何参数的视觉检测精度,该文首先基于Canny算子获取像素级边缘点集,实现圆孔中心坐标的粗定位;其次提取待测圆孔所在的感兴趣区域,利用4个Zernike正交矩准确推导了三灰度过渡模型的边缘参数;然后通过判断边缘参数和阈值的关系,计算圆孔边缘点的亚像素坐标;最后根据最小二乘原理实现圆孔中心坐标和半径的高精度检测。仿真结果表明,该算法的圆心坐标相对误差在0.01像素范围内,半径的相对误差精度为0.1像素。稳定性和抗噪性实验表明,该算法适应于不同尺寸的圆孔,并且对噪声的敏感程度较低。因此,该算法有效提高了钻铆圆孔参数的检测精度,在机器人钻铆视觉测量系统中具有重要意义。
关键词:亚像素边缘检测Zernike视觉测量机器人钻铆
Subpixel drilling and riveting circular hole detection method based on an improved Zernike moment
CHEN Lu, GUAN Liwen


Department of Mechanical Engineering, Tsinghua University, Beijing 100084, China
Abstract: Robotic drilling and riveting systems use visualization to precisely position the workpiece and for quality assurance. This paper describes a multi-step method to improve the visual detection accuracy of the reference and connection holes. A pixel-level edge point set based on the Canny operator is used first for coarse positioning of the circular hole. The edge parameters of the three-grey transition model are accurately derived using four Zernike orthogonal moments for the region of interest around the hole to be detected. Then, the relationships between the edge parameters and thresholds is used to calculate the subpixel coordinates of the edge points. A least squares analysis is then used to detect the center location and hole radius. Simulations show that the error in the center coordinates is approximately 0.01 pixels and that of the radius is 0.1 pixels, which is higher detection accuracy than the traditional algorithm. The system works for various size holes and is less sensitive to noise. Thus, this method effectively improves the detection precision of circular holes, which is important in robotic drilling and riveting visual measurement systems.
Key words: subpixel edge detectionZernikevisual measurementrobotic drilling and riveting
在航空工业中,装配连接孔的质量对飞机安全性和使用寿命有至关重要的影响[1-2]。随着航空数字化制造的不断发展,视觉测量技术在机器人自动钻铆系统中得到广泛应用,一方面通过检测基准孔的偏差进行位置补偿,提高机器人制孔的位置精度[3-4];另一方面能够替代传统的手工测量方式,实现连接孔的高效实时检测[5]。
边缘检测作为圆孔视觉测量过程的核心技术[6],直接影响了圆孔的在线检测精度。目前,常用的像素级边缘检测算法包括一阶微分方法中的Sobel算子、Prewitt算子及Roberts算子[7]等和二阶微分方法中的Laplacian算子及Canny算子[8]等。但是,传统像素级检测算子的定位精度已不能满足数字化制造中高精度测量的要求。因此,国内外****在像素细分的理论基础上,不断深入地开展了亚像素边缘检测算法的研究。其中,矩方法相比拟合法和插值法具有对噪声不敏感和效率高等优点[9],因此得到了广泛关注。Lyvers [10]等提出了利用计算空间矩的方法提取边缘,通过理想阶跃边缘模型的空间矩计算边缘参数。Ghosal [11]等首次提出了利用Zernike正交矩(Zernike orthogonal moment, ZOM)来进行边缘检测,该算法只需要3个Zernike矩就可计算出边缘参数,提高了边缘检测的效率。李金泉等[12]通过考虑模板效应改进了传统的Zernike算法,细化了图像提取的边缘。高世一等[13]在Ghosal算法中模板的基础上,计算了模板系数并推导了边缘参数的表达式,进而提高了边缘检测的精度。张晓林等[14]利用几何信息,仅通过Zernike零阶矩获得亚像素边缘,减少了坐标点的计算量。传统Zernike算法在理想阶跃模型的基础上进行亚像素边缘检测,然而实际的检测目标和背景的交界边缘处存在过渡区,理想阶跃边缘模型与实际的边缘灰度分布存在误差。通过分析边缘的灰度过渡区,国内外****建立了边缘的三灰度过渡模型[15-16],推导了边缘参数的原理误差补偿函数。这些研究在利用三灰度过渡模型进行边缘参数推导过程中仍然采用了理想阶跃模型的参数计算公式,虽然通过原理误差补偿的方式获取了实际的参数,但是增加了计算成本。
在综合分析边缘检测相关文献的基础上,本文采用像素级粗定位和亚像素级精定位相结合的方式,准确推导了三灰度过渡模型的边缘参数,优化了边缘检测灰度阈值的条件,提出了一种基于改进Zernike矩的亚像素钻铆圆孔检测算法。仿真和实验的对比表明,本文算法比传统算法具有更高的检测精度,适应于不同尺寸的钻铆圆孔检测,并且对噪声的敏感程度较低,在机器人钻铆视觉测量系统中具有重要的应用意义。
1 Zernike矩边缘检测原理Teague根据Zernike正交实值多项式,定义了灰度图像n阶m次的Zernike矩[17]:
${G_{nm}} = \frac{{n + 1}}{\pi }\iint\limits_{{x^2} + {y^2} \leqslant 1} {f\left( {x,y} \right)V_{nm}^ * \left( {\rho ,\theta } \right){\text{d}}x{\text{d}}y}.$ | (1) |
${G_{nm}} = \sum\limits_x {\sum\limits_y {f\left( {x,y} \right)V_{nm}^ * \left( {\rho ,\theta } \right)} } .$ | (2) |
${G_{nm}} = {G'_{nm}}{{\text{e}}^{ - {\text{j}}m\alpha }}.$ | (3) |
Ghosal [11]算法建立了理想的边缘阶跃模型,如图 1所示,h为图像中背景的灰度值,t为背景与目标之间的阶跃灰度,在单位圆中,L为目标的边缘线,d为原点到边缘线的距离,α为d与x轴的夹角。
![]() |
图 1 Zernike矩原理图 |
图选项 |
该算法在计算模板的基础上,利用3个积分核函数推导了图像的ZOM模板系数,移动模板与待检图像进行卷积运算,得到图像的ZOM和边缘参数,根据边缘参数的阈值条件判断该像素点是否为边缘点。在考虑计算模板放大效应[12]的基础上,检测得到的边缘点坐标(xm, ym)修正公式为
$\left[ {\begin{array}{*{20}{c}}{{x_m}}\\{{y_m}}\end{array}} \right] = \left[ {\begin{array}{*{20}{c}}{{x_{\rm{e}}}}\\{{y_{\rm{e}}}}\end{array}} \right] + \frac{{Nd}}{2}\left[ {\begin{array}{*{20}{c}}{\cos \alpha }\\{\sin \alpha }\end{array}} \right].$ | (4) |
2 改进的亚像素边缘检测模型2.1 理想阶跃模型的修正Ghosal算法基于边缘的理想阶跃模型推导了亚像素坐标的公式,实际中由于非理想的离散采样和光学系统衍射效应的限制[18],在待检测的圆孔边缘附近存在过渡区,即图像的灰度值从背景逐渐变为圆孔。为了描述与实际过渡区相符的灰度,国内外****建立了边缘的三灰度过渡模型[15-16],如图 2所示,虚线代表边缘的理想阶跃模型,实线代表三灰度过渡模型,其中h是背景灰度值,h+Δt是过渡区灰度值,(h+t)是目标灰度值,d1和d2分别是中心与过渡区左右界限的距离。其中,d1和d2的距离差为a,即模板中每个像素的距离,本文采用模板7×7,因此a=2/7。
![]() |
图 2 三灰度模型示意图 |
图选项 |
根据图 2所示的亚像素边缘检测三灰度模型,推导各个ZOM的表达式,本文计算了旋转后的4个ZOM,分别如式(5)—(8)所示。
$\begin{array}{*{20}{c}}{{G_{00}} = \Delta t\left[ {{d_2}\sqrt {1 - d_2^2} + {{\sin }^{ - 1}}\left( {{d_2}} \right) - } \right.}\\{\left. {{d_1}\sqrt {1 - d_1^2} - {{\sin }^{ - 1}}\left( {{d_1}} \right)} \right] + }\\{t\left[ {\frac{{\rm{ \mathsf{ π} }}}{2} - {d_2}\sqrt {1 - d_2^2} - {{\sin }^{ - 1}}\left( {{d_2}} \right)} \right] + h{\rm{ \mathsf{ π} ,}}}\end{array}$ | (5) |
$\begin{array}{*{20}{c}}{{G_{11}} = \frac{2}{3}\Delta t\left[ {{{\left( {1 - d_1^2} \right)}^{\frac{3}{2}}} - {{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}}} \right] + }\\{\frac{2}{3}t{{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}},}\end{array}$ | (6) |
$\begin{array}{*{20}{c}}{{G_{20}} = \frac{2}{3}\Delta t\left[ {{d_1}{{\left( {1 - d_1^2} \right)}^{\frac{3}{2}}} + {d_2}{{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}}} \right] + }\\{\frac{2}{3}t{d_2}{{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}},}\end{array}$ | (7) |
$\begin{array}{*{20}{c}}{{G_{31}} = \frac{2}{3}\Delta t\left[ {{{\left( {1 - d_1^2} \right)}^{\frac{3}{2}}} - {{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}}} \right] + }\\{\frac{4}{5}\Delta t{{\left( {1 - d_2^2} \right)}^{\frac{5}{2}}} - \frac{4}{5}\Delta t{{\left( {1 - d_1^2} \right)}^{\frac{5}{2}}} + }\\{\frac{2}{{15}}t{{\left( {1 - d_2^2} \right)}^{\frac{5}{2}}}\left( {6d_2^2 - 1} \right).}\end{array}$ | (8) |
$\begin{array}{*{20}{c}}{{G_{n1}} = \cos \left( {{\alpha _{n1}}} \right){\mathop{\rm Re}\nolimits} \left[ {{{G'}_{n1}}} \right] + \sin \left( {{\alpha _{n1}}} \right){\mathop{\rm Im}\nolimits} \left[ {{{G'}_{n1}}} \right] + }\\{\left( {\sin \left( {{\alpha _{n1}}} \right){\mathop{\rm Re}\nolimits} \left[ {{{G'}_{n1}}} \right] - \cos \left( {{\alpha _{n1}}} \right){\mathop{\rm Im}\nolimits} \left[ {{{G'}_{n1}}} \right]} \right){\rm{i}}{\rm{.}}}\end{array}$ | (9) |
$\sin \left( {{\alpha _{n1}}} \right){\mathop{\rm Re}\nolimits} \left[ {{{G'}_{n1}}} \right] - \cos \left( {{\alpha _{n1}}} \right){\mathop{\rm Im}\nolimits} \left[ {{{G'}_{n1}}} \right] = 0.$ | (10) |
${\alpha _{n1}} = {\tan ^{ - 1}}\left( {\frac{{{\mathop{\rm Im}\nolimits} \left[ {{{G'}_{n1}}} \right]}}{{{\mathop{\rm Re}\nolimits} \left[ {{{G'}_{n1}}} \right]}}} \right).$ | (11) |
$\left\{ \begin{array}{l}{d_1} = \frac{{6{G_{20}} - 3a{G_{11}} + \sqrt { - 6G_{11}^2 - 30{G_{31}}{G_{11}} + 36G_{20}^2 + 9G_{11}^2{a^2}} }}{{6{G_{11}}}},\\t = \frac{{\frac{3}{2}{G_{11}} - \Delta t\left[ {{{\left( {1 - d_1^2} \right)}^{\frac{3}{2}}} - {{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}}} \right]}}{{{{\left( {1 - d_2^2} \right)}^{\frac{3}{2}}}}},\\\Delta t = \frac{{3\left( {{d_2}{G_{11}} - {G_{20}}} \right)}}{{2a{{\left( {1 - d_1^2} \right)}^{\frac{3}{2}}}}},\\{d_2} = {d_1} + a.\end{array} \right.$ | (12) |
$d = {d_2} - \frac{{\Delta t}}{t}\left( {{d_2} - {d_1}} \right).$ | (13) |
2.2 相对灰度阈值条件的优化传统Ghosal算法的边缘点由边缘参数d和t确定,其阈值条件为
$t \ge {t_{\rm{z}}} \cap d \le {d_{\rm{z}}}.$ | (14) |
3 钻铆圆孔的亚像素检测方法在改进的Zernike矩亚像素边缘模型的基础上,本文提出了钻铆圆孔的亚像素检测方法。飞机部件的钻铆连接孔大多为排孔或群孔,为了减少亚像素定位的计算量,提高边缘检测效率,本文首先采用Canny算子进行圆孔边缘的像素级粗定位,快速获得边缘点坐标信息,生成像素级边缘点集;其次提取待测圆孔所在的感兴趣区域(region of interest,ROI);然后基于改进的Zernike矩亚像素边缘模型对圆孔边缘进行精定位,获得准确的边缘点亚像素坐标;最后由于视觉测量中圆孔的成像为椭圆孔[20],根据最小二乘原理建立椭圆参数的优化目标函数,采用Levenberg-Marquardt非线性优化算法求解钻铆圆孔的中心点亚像素坐标和半径参数,从而实现了基准孔的定位和连接孔的参数在线测量。其算法流程图如图 3所示。
![]() |
图 3 本文的亚像素钻铆圆孔检测方法流程图 |
图选项 |
本文将该方法的主要步骤概述如下:
步骤1?将工业相机拍摄的原始待检图像进行灰度化处理,采用Gauss滤波消除噪声影响,以实现待检图像的预处理。
步骤2?计算各像素点的梯度幅值与方向,通过Canny算子实现图像中圆孔的粗定位,得到像素级边缘点集{D},计算图像中心坐标(x0, y0)及圆半径r0;以(2r0+m)为边长提取ROI,其中m为某一较小的常数。
步骤3?分别计算Zernike矩的7×7模板系数M00、M11、M20、M31[13],将其与{D}中的边缘点卷积运算得到G00、G11、G20、G31;与此同时,在ROI中采用Otsu自适应算法优化相对灰度的阈值tz。
步骤4?选取坐标点集{D}中的第i个边缘点Di,根据改进的亚像素检测模型求解其相应的边缘参数di、ti和αi。
步骤5?判断Di的边缘参数是否满足阈值条件ti≥tz∩di≤dz,若不满足则剔除Di并检测下一个边缘点;若满足则进一步判断‖Di-Dis‖≤ε是否成立,不成立则剔除坐标超差的边缘点,其中ε取0.5,满足条件时根据式(15)计算其亚像素坐标Dis(xis, yis)并保存至点集{Ds}。
$\left[ {\begin{array}{*{20}{c}}{{x_{i{\rm{s}}}}}\\{{y_{i{\rm{s}}}}}\end{array}} \right] = \left[ {\begin{array}{*{20}{c}}{{x_0}}\\{{y_0}}\end{array}} \right] + \frac{{N{d_i}}}{2}\left[ {\begin{array}{*{20}{c}}{\cos {\alpha _i}}\\{\sin {\alpha _i}}\end{array}} \right].$ | (15) |
$\begin{array}{*{20}{c}}{T = \sum\limits_{is = 1}^n {\left( {{T_1}x_{i{\rm{s}}}^2 + {T_2}{x_{i{\rm{s}}}}{y_{i{\rm{s}}}} + } \right.} }\\{{{\left. {{T_3}y_{i{\rm{s}}}^2 + {T_4}{x_{i{\rm{s}}}} + {T_5}{y_{i{\rm{s}}}} + 1} \right)}^2}.}\end{array}$ | (16) |
![]() |
图 4 待检测圆孔的仿真图 |
图选项 |
表 1和2分别为图 4a和图 4b的检测仿真数据,记录了仿真图中圆形的边缘点坐标、圆心坐标和半径。通过对比分析检测数据和相应理想数据的误差,传统算法的边缘点相对误差小于0.5像素,圆心坐标的相对误差在0.02像素范围内,半径的相对误差在0.2像素内;本文算法的边缘点相对误差小于0.25像素,圆心坐标的相对误差在0.01像素范围内,半径的相对误差在0.1像素内。因此,本文算法的边缘点亚像素坐标、圆心坐标和半径的偏差比传统Zernike算法相应参数的偏差小。此外,传统Zernike算法和本文算法的计算时间大致相同,说明在不增加计算时间成本的基础上,本文算法具有更高的检测精度。
表 1 图 4a仿真数据记录表
坐标类型 | 图像理想数据 | 传统Zernike算法 | 本文算法 | ||
坐标数据 | 相对误差 | 坐标数据 | 相对误差 | ||
边缘点坐标/像素 | (13, 49) | (13.084, 49.099) | (0.084, 0.099) | (13.046, 49.084) | (0.046, 0.084) |
(35, 6) | (34.955, 5.739) | (-0.045, -0.261) | (34.985, 5.843) | (-0.015, -0.157) | |
(45, 52) | (44.866, 52.171) | (-0.134, 0.171) | (44.935, 52.087) | (-0.065, 0.087) | |
(41, 8) | (40.896, 7.713) | (-0.104, -0.287) | (40.932, 7.795) | (-0.068, -0.205) | |
(17, 10) | (17.134, 9.829) | (0.134, -0.171) | (17.065, 9.913) | (0.065, -0.087) | |
(56, 36) | (55.506, 35.946) | (-0.494, -0.054) | (55.788, 35.961) | (-0.212, -0.039) | |
圆心坐标/像素 | (31, 31) | (31.014, 31.015) | (0.014, 0.015) | (31.007, 11.008) | (0.007, 0.008) |
半径/像素 | 25 | 25.127 | -0.127 | 25.070 | 0.070 |
计算时间/ms | — | 572 | 539 |
表选项
表 2 图 4b仿真数据记录表
坐标类型 | 图像理想数据 | 传统Zernike算法 | 本文算法 | ||
坐标数据 | 相对误差 | 坐标数据 | 相对误差 | ||
边缘点坐标/像素 | (70, 10) | (69.916, 9.797) | (-0.084, -0.203) | (69.973, 9.844) | (-0.027, -0.156) |
(16, 22) | (16.171, 21.866) | (0.171, -0.134) | (16.088, 21.934) | (0.088, -0.066) | |
(81, 85) | (80.866, 85.170) | (-0.134, 0.170) | (80.935, 85.087) | (-0.065, 0.087) | |
(17, 81) | (17.120, 81.111) | (0.120, 0.111) | (17.076, 81.101) | (0.076, 0.101) | |
(32, 92) | (32.084, 92.204) | (0.084, 0.204) | (32.026, 92.153) | (0.026, 0.153) | |
(64, 94) | (63.896, 94.287) | (-0.104, 0.287) | (63.932, 94.205) | (-0.068, 0.205) | |
圆心坐标/像素 | (51, 51) | (51.009, 51.009) | (0.009, 0.009) | (51.005, 51.005) | (0.005, 0.005) |
半径/像素 | 45 | 45.094 | 0.094 | 45.037 | 0.037 |
计算时间/ms | — | 580 | 552 |
表选项
4.2 实验测试为验证本文算法的稳定性和抗噪性,搭建了视觉检测实验装置,由200万像素的工业相机(感光尺寸为1/2.7英寸)、工业相机支架、环形光源、电脑和铝合金试验件构成,如图 5所示。图 6a和6b分别是平面和曲面试验件,其中平面试验件的尺寸为100 mm×100 mm,曲面试验件的尺寸为70 mm×40 mm,试验件上预制了不同尺寸的待检测圆孔,由于待钻铆的航空部件曲率较小,则曲面试验件设计了较大的曲率半径。通过相机和像素当量的标定得到,在该条件下像素当量为每像素0.17 mm,据此计算圆孔的实际中心坐标和半径参数。
![]() |
图 5 实验装置图 |
图选项 |
![]() |
图 6 试验件的示意图 |
图选项 |
第1组实验为算法的稳定性测试,由于飞机部件上待钻铆的连接孔具有不同的尺寸,因此需要测试本文算法对不同连接孔的检测精度稳定性。根据最小二乘法拟合圆后,较难对比出Zernike算法改进前后的效果,因此本文从对比改进和传统Zernike算法的边缘点提取图。如图 7—8中的方框所示,传统Zernike算法虽然可以检测出圆孔的边缘轮廓,但是与本文算法相比出现了断裂,丢失了一些关键边缘点信息,降低了亚像素边缘检测的精度。相比传统Zernike算法,本文算法对不同尺寸的圆孔具有较稳定的提取精度。
![]() |
图 7 平面试验件上不同尺寸圆孔的边缘点提取图 |
图选项 |
![]() |
图 8 曲面试验件上不同尺寸圆孔的边缘点提取图 |
图选项 |
第2组实验为该算法的抗噪性测试,由于算法在图像预处理阶段采用了Gauss滤波,因此本文主要针对椒盐噪声进行测试,通过加入不同密度的椒盐噪声,对比亚像素检测的不同圆孔参数,其中椒盐噪声的密度是指噪声所占当前图像全部像素的百分比。以相同理想尺寸的圆孔3和7为例,圆心坐标x、y和圆孔半径r的误差定义为有噪声影响和无噪声的相应参数差值。对于在椒盐噪声的影响下平面试验件,r的误差在0.03 mm范围内,x或y的误差小于0.015 mm,如图 9所示。对于曲面试验件,r的误差在0.03 mm范围内,x的误差小于0.04 mm,y的误差小于0.02 mm,如图 10所示。因此,本文算法适用于平面或曲面待检测部件,对于一般的视觉测量环境具有较稳定的抗噪能力和检测精度。
![]() |
图 9 椒盐密度对平面试验件圆孔参数的影响 |
图选项 |
![]() |
图 10 椒盐密度对曲面试验件圆孔参数的影响 |
图选项 |
5 结论在机器人钻铆视觉测量系统中,针对钻铆圆孔检测精度难以满足高精度检测要求的问题,本文在Zernike矩边缘检测原理的基础上,推导了准确的亚像素边缘参数,从而改进了三灰度边缘过渡模型;通过Otsu算法优化了边缘检测的相对灰度阈值,并提出了一种基于改进Zernike矩的亚像素钻铆圆孔检测方法。仿真结果表明,相比传统Zernike算法,在相同计算效率的前提下,本文算法对钻铆圆孔的中心坐标和半径参数具有更高的检测精度;平面和曲面试验件的检测结果说明对于不同尺寸的钻铆圆孔,本文算法具有较稳定的提取精度,而且检测的圆孔参数对椒盐噪声的敏感程度较低,能够适用于一般的视觉测量环境,满足机器人钻铆过程中快速和高精度的钻铆圆孔检测要求,在机器人钻铆视觉测量系统中具有广阔的应用前景。
参考文献
[1] | APARECIDO EGUTI C C, TRABASSO L G. Design of a robotic orbital driller for assembling aircraft structures[J]. Mechatronics, 2014, 24(5): 533-545. DOI:10.1016/j.mechatronics.2014.06.007 |
[2] | ZHAN Q. Hand-eye calibration and positioning for a robot drilling system[J]. International Journal of Advanced Manufacturing Technology, 2012, 61(5-8): 691-701. DOI:10.1007/s00170-011-3741-4 |
[3] | ZHU W, MEI B, YAN G, et al. Measurement error analysis and accuracy enhancement of 2D vision system for robotic drilling[J]. Robotics & Computer Integrated Manufacturing, 2014, 30(2): 160-171. |
[4] | MEI B, ZHU W, YAN G, et al. A new elliptic contour extraction method for reference hole detection in robotic drilling[J]. Pattern Analysis and Applications, 2015, 18(3): 695-712. |
[5] | 毕运波, 徐超, 樊新田, 等. 基于视觉测量的沉头孔垂直度检测方法[J]. 浙江大学学报(工学版), 2017, 51(2): 312-318. BI Y B, XU C, FAN X T, et al. Method of countersink perpendicularity detection using vision measurement[J]. Journal of Zhejiang University (Engineering Science), 2017, 51(2): 312-318. (in Chinese) |
[6] | 李欣, 刘美秀, 刘迪. 复杂背景下高层建筑钢结构板孔心影像坐标量测[J]. 武汉大学学报(工学版), 2016, 49(1): 143-147. LI X, LIU M X, LIU D. Measurement of image coordinates of hole center in steel structure plate under complex background[J]. Engineering Journal of Wuhan University, 2016, 49(1): 143-147. (in Chinese) |
[7] | KAUR J, AGRAWAL S, VIG R. A comparative analysis of thresholding and edge detection segmentation techniques[J]. International Journal of Computer Applications, 2012, 39(15): 29-34. DOI:10.5120/4898-7432 |
[8] | DING K, XIAO L, WENG G. Active contours driven by region-scalable fitting and optimized Laplacian of Gaussian energy for image segmentation[J]. Signal Processing, 2017, 134: 224-233. DOI:10.1016/j.sigpro.2016.12.021 |
[9] | DA F, ZHANG H. Sub-pixel edge detection based on an improved moment[J]. Image & Vision Computing, 2010, 28(12): 1645-1658. |
[10] | LYVERS E P, MITCHELL O R, AKEY M L, et al. Subpixel measurements using a moment-based edge operator[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1989, 11(12): 1293-1309. |
[11] | GHOSAL S, MEHROTRA R. Orthogonal moment operators for subpixel edge detection[J]. Pattern Recognition, 1993, 26(2): 295-306. DOI:10.1016/0031-3203(93)90038-X |
[12] | 李金泉, 王建伟, 陈善本, 等. 一种改进的Zernike正交矩亚像素边缘检测算法[J]. 光学技术, 2003, 29(4): 500-503. LI J Q, WANG J W, CHEN S B, et al. Improved algorithm of subpixel edge detection using Zernike orthogonal moments[J]. Optical Technique, 2003, 29(4): 500-503. DOI:10.3321/j.issn:1002-1582.2003.04.036 (in Chinese) |
[13] | 高世一, 赵明扬, 张雷, 等. 基于Zernike正交矩的图像亚像素边缘检测算法改进[J]. 自动化学报, 2008, 34(9): 1163-1168. GAO S Y, ZHAO M Y, ZHANG L, et al. Improved algorithm about subpixel edge detection of image based on Zernike orthogonal moments[J]. Acta Automatica Sinica, 2008, 34(9): 1163-1168. (in Chinese) |
[14] | 张晓林, 周哲海, 王晓玲, 等. 基于改进Zernike方法实现圆形边缘亚像素检测[J]. 计算机工程与应用, 2015, 51(20): 157-161. ZHANG X L, ZHOU Z H, WANG X L, et al. Realizing circular subpixel edge detection based on improved Zernike method[J]. Computer Engineering and Applications, 2015, 51(20): 157-161. DOI:10.3778/j.issn.1002-8331.1310-0138 (in Chinese) |
[15] | CUI J, HUO J, YANG M. The high precision positioning algorithm of circular landmark center in visual measurement[J]. Optik-International Journal for Light and Electron Optics, 2014, 125(21): 6570-6575. DOI:10.1016/j.ijleo.2014.08.042 |
[16] | YANG H, PEI L. Fast algorithm of subpixel edge detection based on Zernike moments[J]. Application Research of Computers, 2011, 3(11): 1236-1240. |
[17] | 崔继文, 谭久彬. 基于Zernike矩的亚像素边缘定位算法[J]. 光学技术, 2005, 31(5): 779-782. CUI J W, TAN J B. Algorithm for edge subpixel location based on Zernike moment[J]. Optical Technique, 2005, 31(5): 779-782. DOI:10.3321/j.issn:1002-1582.2005.05.015 (in Chinese) |
[18] | Teague M R. Image analysis via the general theory of moments[J]. Journal of the Optical Society of America, 1980, 70(8): 920-930. DOI:10.1364/JOSA.70.000920 |
[19] | OTSU N. A threshold selection method from gray-level histograms[J]. IEEE Transactions on Systems, Man and Cybernetics, 1979, 9(1): 62-66. DOI:10.1109/TSMC.1979.4310076 |
[20] | ALVAREZ L, SALGADO A, SáNCHEZ J. Robust detection and ordering of ellipses on a calibration pattern[J]. Pattern Recognition & Image Analysis, 2007, 17(4): 508. |