文献综述
1 背景介绍
机器视觉是以计算机视觉为基础,结合多门现代科学技术,实现在工业检测中对空间物体尺寸测量和定位的一门技术[1]。通过图像传感器对空间物体的三维坐标进行检测,计算物体的大小、移动状态、形状等特征。因其具有快速性、可重复性、智能化、非接触、现场抗干扰能力强等优点,而被广泛地应用在航天航海、医疗检测、军事装备、自动化控制、目标检测与识别等领域中。
1.1 位姿测量的概念
实现目标的自动检测与位姿参数的解算是机器视觉的一个重要环节[2][2]。位姿测量实际上是测量空间中两个坐标系的相对旋转量和相对位移量[3][3]。其中“位”指位置,即两个坐标系的相对位移,“姿”指姿态,即相对旋转量。求解空间中某个物体的位姿就是求解物体坐标系和选择的参考坐标系之间的变换关系[4][4]。而求解变换关系就是要确定物体坐标系和参考坐标系的三个相对位置坐标和三个相对旋转角度,即位姿参数的求解就是物体六自由度的求解。
1.2 单目视觉的概念及研究现状
根据使用的视觉成像设备台数的不同,视觉测量方法可以分为单目视觉、双目视觉(立体视觉)和多目视觉(全方位视觉)。单目视觉就是仅利用一台视觉成像设备采集图像,对目标的几何尺寸、位姿等信息进行测量的方法。它不仅无需解决双目视觉中的两摄像机间的最优距离(基线长度)和特征点匹配的问题,也不会像全方位视觉传感器那样产生很大的畸变[5]。单目视觉结构简单、相机标定方便,同时避免立体视觉中的视场小、立体匹配难等不足,在像机安装、视场调整、像机参数标定等方面也有较大的优势,因而近年来研究比较活跃。
基于单目视觉的位姿测量通常需要己知被测目标的模型。根据几何特征不同可以分为点、直线和高级几何特征3类不同的目标模型[6]。基于点特征的模型是目前研究的热点,确定摄像机与被测目标间的相对姿态[7]。基于直线的模型对遮挡鲁棒性强、特征提取准确[8],而基于高级几何特征的单目视觉定位方法研究较少。
1.3 项目背景简述
随着工业自动化的普及,传送带已经成为现代工业不可或缺的工具。实际生产中,为了实现自动化生产或质量检测,需要对传送带上产品的位置进行实时监测。识别工件的位姿是机器人生产线的一个非常重要的问题,通常对目标的空间定位采用双目视觉的识别方法,这种识别方法对相机精度要求较高,系统硬件成本高,图像处理算法较为复杂。一般的单目视觉无法识别物体的位置和姿态信息,但对于生产线传送带上的视觉系统,由于已经知道传送带的相关环境信息,因此可以进行单目视觉位姿识别。本项目拟开发一套以单目视觉为基础的生产线传送带上工件位置和姿态识别的工件位姿测量系统。以实验室中已配备的相应硬件为背景,工业相机固定安装,可获取高清像素的RGB通道图像,与生产线传送带的相对位置不变,需要设计单目视觉位姿识别算法,并实现采用单目相机进行工件的位姿识别的软件。
2 国内外研究现状
单目视觉采用一台视觉成像设备,以小孔成像和透视镜投影等为理论基础,测量物体的几何尺寸、位姿等参数,常见于工业机器人手眼测量系统和移动机器人变焦测距视觉系统等。针对单目视觉测量方法,国内外进行了大量的研究,按照测量方法增加的约束条件可总结为以下两种:
(1)相机的成像约束:利用可调焦的相机,通过调整焦距获取成像位置的约束条件。主要包括聚焦法和离焦法:聚焦法[9]调整摄像机的焦距使物体处于聚焦位置,得到景深,主要问题是找到准确的聚焦点;离焦法[10][10]不需要物体处于聚焦位置,通过标定出的离焦模型计算景深,测量效率更高,主要问题是准确标定离焦模型。这类方法对相机的聚焦标定有较高要求,实际中较难实现。
(2)特征点空间约束[11]:先标定目标特征点之间的相对关系,然后根据成像理论计算特征点的空间坐标,再利用特征点和被测点的位置关系计算被测点的空间坐标。该方法测量空间大、精度高、可现场测量,被广泛应用于实际工程。主要包括:几何相似法测量、激光辅助测距、结构光测量、几何形状约束法测量等方法。
2.1 聚焦法及离焦法
聚焦法要求焦距可连续变化,因此硬件复杂且昂贵、处理速度慢,像机偏离聚焦位置也会带来测量误差。而离焦法避免因寻求精确的聚焦位置而降低测量效率的问题,但离焦模型的准备标定成为主要瓶颈。
祝世平[12]等设计了一种新的能量谱-熵函数图像聚焦锋利性测度评价函数,并设计了一种新的单目视觉测量方法,即将单目视觉测量方法中的离焦法模型和聚焦法模型融合起来形成新的测量模型,进行聚焦位置的测量。实验验证了算法的可行性,实验结果证明了算法的稳定性和可靠性。
2.2 结构光法
结构光是一种主动式三维测量技术,用激光作为光源产生点、线、面等可控制的结构光,由CCD像机拍摄图像,通过算法获取结构光所携带的被测物体的3D信息。其具有无接触、检测速度快、数据量丰富等优势,但因视场范围受限,无法应用在移动平台上。
周平[13]等设计实现了利用线激光、单台成像设备、中心透视投影模型与激光面约束模型的激光线单目视觉测量方法。使用三维位置信息已知的标准阶梯块作为激光面约束的标定模块。利用计算机实时控制的摄像头对目标进行扫描,连续拍摄得到序列图像,实时提取激光线上的像点坐标,通过建立的基于中心透视投影和激光面约束的数学模型将2维坐标转化为3维坐标,再以点云的形式重建目标,实现三维自动测量。实际的检测系统的测量精度可达到0.1~0.05mm。
2.3 几何图像约束法
针对某些特殊形状(如圆面、圆柱等特定形体,或在目标上绘制螺旋线等特定形状标志,或设置特定分布形式的合作标志)的被测目标,利用其几何形状的约束条件,只需单目视觉的单张相片就能确定目标的空间三维姿态。
基于在物距与焦距之比远大于1时成像模型可用平行投影近似,于起峰[14][14]等利用空间特殊形状目标的几何先验知识,提出从单站经纬仪等光测设备获取图像确定火箭等空间目标三维姿态的方法,避免了多站图像的立体匹配。
2.4 激光辅助测距法
激光测距仪辅助测量法[15][15]。通过增加激光测距仪、光电经纬测角仪等辅助设备得到像机与目标的相对距离信息,再对目标位置进行求解。但无法保证辅助设备能够实时对准被测物体而获得有效数据。
庄严[16]等研究分析了结构化的室内环境中自主移动机器人的同时定位和地图重建问题。基于激光和视觉传感器模型的不同,分别使用加权的最小二乘拟合法和非局部最大抑制法提取二维水平方向上的环境特征和垂直物体的边缘。针对自主移动机器人在缺少已知地图的室内环境中的自主导航任务,提出同时进行扩展 Kalman 滤波定位和重建具有不确定性描述的二维几何地图的具体方法。通过对应用于SmartROB-2的自动移动机器人所获得的实验结果和数据的分析讨论,论证了所提出方法的可行性和实用性。
2.5 基于已知特征的位姿估计问题
利用体目标上多个已知特征,如点[17,18]、线[19][19]、面,在得到这些特征的像面坐标与空间对应关系后,通过计算可以确定像机坐标系与空间坐标系之间的相对位姿关系,实现求解目标的位姿。这种方法需要体目标的一些先验信息,而且无法测量点目标。
张小虎[20]等提出了一种基于直线特征的位姿估计算法。引入了共面方程误差,在三维空间场景中从距离方面规划了目标函数,使用不同的优化策略来确定最佳的旋转与平移。实验证明了该算法对噪声的鲁棒性强,能够得到精确的结果。
张子淼[21]等设计实现了一种基于五个特征点的中心透视投影模型的单目视觉位姿测量方法。使用不共面的先验特征点,根据五个特征点在像机坐标系与世界坐标系下的相对位置关系相同来计算五个特征点在像机坐标系下的坐标,求解得到目标的转动角度。同时还构建了一套基于OpenGL图形引擎的数字仿真系统,完成了目标位姿的仿真计算,对算法的定位精度进行了深入的评价。仿真实验结果表明在理想情况,该方法的定位精度达到了±0.01°。
3 存在问题
针对工业流水线传送带上的工件位姿识别问题,双目视觉结构复杂硬件设备成本高,图像处理算法复杂,相比之下单目视觉的优势尤为明显。而不同的单目视觉算法,其适用条件与限制也不尽相同,在应用时更需要灵活结合以满足需要。
传送带是一个理想的平面,相关环境已知,背景简单,单目视觉的算法会相对简单,但工业流水线在位姿识别完成之后还应有工业机器人的抓取等操作,这就要求对识别出来的目标工件位置进行跟踪和反馈,因而对图片响应速度和精度要求较高。
针对不同的目标识别情况,仍需要对单目视觉算法进行相关优化,以满足其对于响应速度和精度等方面的要求。比如目标尺寸已知时,可以利用成像几何关系直接计算位姿参数;尺寸未知时,可以利用共形几何代数计算框架综合考虑2D图像的特征点、特征直线等多种几何特征构建融合的目标函数,通过对其迭代优化求解位姿参数。
参考文献
[1] 迟建男.视觉测量技术[M].北京:机械工业出版社,2011.
[2] 赵连军.基于目标特征的单目视觉位置姿态测量技术研究[D].中国科学院研究生院(光电技术研究所),2014.
[3] 王芳,李航,杨丙乾.基于机器视觉的微工作台位姿三点法测量[J].河南科技大学学报:自然科学版,2008,29(3):17-20.
[4] 伍雪冬. 计算机视觉中摄像机定标及位姿和运动估计方法的研究[D].湖南大学,2005.
[5] 周娜.基于单目视觉的摄像机定位技术研究 [D]. 南京:南京航空航天大学,2007
[6] 秦丽娟.基于直线的视觉定位方法及鲁棒性研究[D].中国科学院沈阳自动化研究所,2007.
[7] 张世杰,曹喜滨,张凡,等.基于特征点的空间目标三维位姿单目视觉确定算法[J].中国科学:信息科学,2010,(4).
[8] 赵汝进,张启衡,左颢睿,等.一种基于直线特征的单目视觉位姿测量方法[J].光电子:激光,2010,(6):894-897.
[9] SUBBARA0 M,GURUMOORTHY N. Depth recovery from blurred edges[C]//Computer Vision and Pattern Recognition, 1988. Proceedings CVPR' 88,Computer Society Conference on. IEEE, 1988:498-503.
[10] ENS J, LAWRENCE P. An investigation of methods for determining depth from focus[J],Pattern Analysis and Machine Intelligence,IEEE Transactions on,1993,15(2):97-108.
[11] TRIGGS B. Camera pose and calibration from 4 or 5 known 3d points[C]//Computer Vision, 1999. The Proceedings of the Seventh IEEE International Conference on. IEEE, 1999, 1:278-284.
[12] J. F. FERREIRA,J. LOBO, DIAS J. Tele-3D-developing a handheld scanner using structured light projection[J]. 3D Data Processing Visualization and Transmission, 2002:788-791.
[13] 周平,王从军,陈鑫. 计算机单目视觉测量系统[J].光电工程,2005,32(12):90-93.
[14] 于起峰, 孙祥一, 邱志强. 从单站光测图像确定空间目标三维姿态[J]. 光学技术, 2002,28 (1):77-80.
[15] 王利军, 李金路, 王勇恒. 基于激光测距与单目测距系统的研究[J]. 中国科技博览, 2012 (9):111-112.
[16] 庄严, 王伟, 王珂, 徐晓东. 移动机器人基于激光测距和单目视觉的室内同时定位和地图构建[J]. 自动化学报, 2005,31 (6):925-933.
[17] 吴福朝, 胡占义 . PnP 问题的线性求解算法 [J]. 软件学报 , 2003,14(3):682-688.
[18] Horaud R, Conio B, Leboulleux O, Lacolle B. An analytic solution for the perspective 4-point problem[J]. Computer Vision, Graphics, and Image Processing, 1989, 47 (1):33-44.
[19] Christy Se, Horaud R. Iterative Pose Computation from Line Correspondences[J].Computer Vision and Image Understanding, 1999,73 (1):137-144.
[20] Zhang X, Sun X, Yuan Y, Zhu Z, Yu Q. ITERATIVE DETERMINATION OF CAMERA POSE FROM LINE FEATURES[C], International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Melbourne, Australia.2012: 81-86.
[21] 张子淼, 王鹏, 孙长库. 单目视觉位姿测量方法及数字仿真[J]. 天津大学学报, 2011,44 (5):440-444.
答辩过程思路清晰,语言流畅,对于时间把握稍显欠缺。文献综述较全面,该生对于问题的背景和需要解决的问题也比较明确,提出的技术路线具有可行性。有几个问题需要学生进一步明确:1.所提出的工件位姿识别算法是否具有通用性;2.工件重叠或多个同时出现如何处理;3.与现有算法相比,改进和创新之处体现在哪里;4.研究计划过于粗略,需要进一步细化。