智能机器人.docx

上传人:小飞机 文档编号:1669486 上传时间:2022-12-13 格式:DOCX 页数:18 大小:157.69KB
返回 下载 相关 举报
智能机器人.docx_第1页
第1页 / 共18页
智能机器人.docx_第2页
第2页 / 共18页
智能机器人.docx_第3页
第3页 / 共18页
智能机器人.docx_第4页
第4页 / 共18页
智能机器人.docx_第5页
第5页 / 共18页
点击查看更多>>
资源描述

《智能机器人.docx》由会员分享,可在线阅读,更多相关《智能机器人.docx(18页珍藏版)》请在三一办公上搜索。

1、创新园地 返回 项目名称:基于机器视觉的追踪机器人项目负责人:徐侨荣 02001108基于机器视觉的追踪机器人一、绪论1.1 引言机器视觉系统是指通过机器视觉产品将被摄取目标图像信号转变成数字化信号,然后由图像处理系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作,即机器视觉就是用机器代替人眼来做测量和判断。目前机器视觉系统是实现仪器设备的精密控制、智能化、自动化的有效途径,堪称现代工业生产的“机器眼睛”。目前如何让机器也拥有人一样的视觉,让机器人更好的服务于人类,以及如何更好的运用机器视觉已经成为当今科学及工业运用领域的前沿技术,已经成为一门内容丰富的综合性学

2、科。随着机器视觉技术的不断发展,未来机器视觉将在人类生活的各个方面将发挥举足轻重的作用,为此发展机器视觉将具有重要的科学价值和意义。基于机器视觉的追踪机器人就是利用TI公司的DSP C6711开发平台和自行设计的硬软件来构建机器视觉开发平台,来开发和运用机器视觉。1.1.1 机器视觉的构成及优点机器视觉由图像采集、图像处理、特征提取及判决和控制四大部分组成,即用图像采集设备来将图像转换成数字格式并传入计算机存储器中,用图像处理的不同的算法来提取对结论有重要影响的图像要素,再由特征提取来识别并量化图像的关键特性,而由判决和控制来做出结论。机器视觉系统的特点是提高生产的柔性和自动化程度。目前机器视

3、觉具有非接触性、连续性、成本效率高、灵活性及具有较宽的光谱响应范围等优点,同时还由于机器视觉系统可以快速获取大量信息,而且易于自动处理,也易于同设计信息以及加工控制信息集成,因此目前机器视觉也是实现计算机集成制造的基础技术。1.2 机器视觉的发展前景虽然当今的机器视觉技术还不是特别的发达,但目前机器视觉已经成为一门内容丰富的综合性学科,它在现代工业、国防、医学、空间技术等领域都有着广泛的运用前景。未来机器视觉不论在图像的采集设备上,还是在图像处理算法上都将会有革命性的突破,同时机器视觉的运用将不仅仅局限于工业领域,而将渗透到人类生活的方方面面。二、系统的硬件设计2.1 硬件设计综述基于机器视觉

4、的追踪机器人是利用机器视觉来完成对已知目标的自主追踪。追踪机器人的系统架构如图1所示:图1 机器视觉硬件架构 如上图所示。追踪机器人系统包括图像采集、图像处理、特征提取和判决控制部分,因而要完成本系统的设计就要包含以下三部分的硬件设计。(1) 图像采集、图像处理硬件设计(2) 追踪机器人的车体结构设计(3) 追踪机器人的驱动控制系统设计即采用图像采集、图像处理硬件来完成图像的采集、图像的分割、目标物体的特征提取、目标物体的方位提取及发送追踪指令;由驱动控制系统来响应图像采集、图像处理硬件所发送的追踪指令,驱动追踪机器人实施追踪;而由追踪车的车体来搭载追踪机器人的所有设备和能源。以上的三部分是按

5、阶段分步完成的,下面将对上述的三部分硬件设计分别给予介绍。2.2 图像采集、图像处理设备通过分析和比较,本系统的图像采集、图像处理设备最终采用的是TI公司的DSP C6711 图像处理开发平台,DSP C6711为TMS320C67xx浮点系列DSP芯片,采用浮点数字信号处理器,支持32位浮点运算, 采用2级Cache,外频为100MHZ150MHZ, 运算速度达到900MFLOPS。图2 DSP C6711 开发平台 2.3 追踪车的驱动模式及架构如图3所示。追踪机器人采用的是两轮驱动模式的万向转动平台,该驱动模式具有转向灵活、低能耗、简化控制及简化设计加工等优点。而追踪车的车体架构采用的是

6、有机玻璃板构建的三层架构设计,这种设计使得在有限的体积下,能尽可能的拓展其承载空间,来搭载DSP C6711开发平台、驱动控制系统及电源。同时简化了设计及加工,外表也较为美观。图3 追踪机器人的车体架构 图4 驱动电路板 2.4 追踪机器人的驱动控制系统设计如图4所示。追踪机器人的驱动控制系统采用AT89S52单片机控制,驱动电路采用桥式驱动电路,拥有PWM脉宽调速功能。同时为了更好的实现驱动控制,驱动控制系统采用遥控和自主双模式。遥控模式用来实现人机交互,加强人对追踪机器人运动状态的控制和速度控制。自主模式用来响应DSP的指令控制,实现自主追踪。目前该电路已经能很好完成预先的设计要求,具有遥

7、控和自主双。模式下能实现灵活的驱动控制和脉宽调速,自主模式下实现灵活的自主追踪。同时其具有驱动功率大、发热量小、能耗低、面积较小、模电和数电分离具有一定的抗干扰能力。2.5 硬件系统的最终构成通过上述三部分硬件的分步设计,构成机器视觉的三大部分已经全部完成,然而在整个系统的运行过程中除了上述设备外,还要一台PC机在系统启动时加载程序。这是由于TI公司的c6711开发平台只是一个学习板,其Flash memory只有128k,而最小的图像处理程序也有300k,显然无法烧写到Flash 里,故不能采用从ROM启动模式,因而本系统采用主机加载启动模式,即系统上电后,从PC机上将程序加载到c6711开

8、发平台的SDRAM上,然后脱机运行。系统的硬件架构如图5:图5 基于机器视觉的追踪机器人的硬件架构 最终基于机器视觉的追踪机器人的总装图如图6:图 基于机器视觉的追踪机器人 三、系统的软件设计3.1 采用彩色图像处理的原因及要求由于彩色系统因其拥有着6700万种颜色,所以可以更好的表现实际存在的各种物体,并且能够提供更多的物体信息。同时由于彩色图像处理所涉及的颜色信息是在图像检索中使用最广泛的底层特征,它和图像中的物体和场景有着紧密联系,与其他底层特征相比,颜色特征对于图像缩放、旋转、遮挡及其他形变有着更强的鲁棒性。也就是说采用彩色图像处理将更易于实现非严格定义背景下的自主追踪。本系统的彩色图

9、像处理目的就是通过颜色分割、提取目标物体、确定目标躯体的方位、实现追踪,通过采用彩色图像处理来减少追踪机器人对追踪背景的要求。但由于彩色图像的数据量比较大,为了满足系统的实时性要求,必须运用或者自行开发运行效率更高的算法,来提高算法的执行效率,缩短执行时间。3.2 彩色图像处理流程本系统的彩色图像处理流程如图所示: 图7 彩色图像处理流程 3.3 颜色分割图像分割是按照具体的运用要求和具体图像的内容将图像分割成一块块区域,目的就是理解图像的内容,提取出我们感兴趣的对象,图像分割是模式识别和图像分析的预处理阶段。在本系统中的图像分割方法是采用聚类分割方法,其假设是图像中组成我们所感兴趣的对象的象

10、素具有相同的颜色。本系统所追踪的目标物体为已知的橙红色乒乓球,系统利用相关性较低的YCrCb颜色模型来进行颜色分割,利用Y值来去除背景中的暗红色干扰。而用Cb值来去除背景中大部分的蓝色背景,再通过Cr来提取目标物体。背景如图8所示,图像分割结果如图9所示。 图8 彩色图像处理的背景图 图9 彩色分割结果 3.4 目标提取方案通过上述的颜色分割后,图像中会出现一系列的图像噪声,为了消除噪声对后期图像处理的影响,本系统采用类膨胀收缩算法来除去大部分的背景干扰,尽管如此,还有成块的背景干扰存在,如果不加以除去,提取的目标方位将产生严重偏差。同时除了上述的噪声外,由于光照的不均匀和背景的不确定,将造成

11、图像在经颜色分割时有一部分的图像将被分离掉并在图像内部出现空洞和断层。如图10所示。即分割的效果将随着光源及背景的改变而改变。图10 光照和背景对图像分割的影响 本系统为了实现在非严格定义背景下的自主追踪,就要减少特征提取算法对光源和背景的灵敏度。由于圆形模板匹配法适用的前提是:背景中不会出现圆形的干扰,图像的边界处不会出现断层。而弧度特征提取算法的前提是:所要提取的目标图像不能在边缘和内部出现断层和空洞。由于这两种算法的前提在本系统中不一定成立,所以在实践的过程中被否定。最终本系统所采用的特征提取算法为基于面积最大假设的快速区域参数提取算法。该算法是采区域标签化的原理,即将目标图像中不同的区

12、域的参数存入相应的数组元素中,该数组元素记录了区域的大小、方位,这个过程相当于把不同的区域打上不同的标号,当图像扫描完成后,查看数组中区域的记录,提取面积最大的区域,默认该区域就是目标区域。该算法是建立在对背景有一定的要求的基础上的,即其建立在目标图像中不会出现比所要提取的目标更大的干扰。该算法虽然对背景有一定的要求,但由于其没有对所要提取的目标图像的边缘和内部有过多的要求,所以对背景和光源变化不是特别敏感,故非常适用于该追踪机器人平台上。.5 快速区域参数提取算法3.5.1 算法的具体实现过程快速区域参数提取算法是通过比较各个区域的面积大小,取出其中面积最大的区域。计算区域的过程是在主程序中

13、建立一个结构数组“find81”, “find”数组的每一个成员都是结构体,其中的元素包含 “rowvalue” 、“istart”、“iend”、“inum”、“ivalue”,分别用来存放该区域的最后一行所处在图像中的行值,该行的起始“i”值,终止的“i”值,区域的象素个数以及“i”值总和。“find”数组的元素个数为81个,那是因为本系统彩色图像的分辨率为 ,即640 列,480 行,而颜色模型采用 YCrCb 的 颜色模型和采用Cr、Cb进行颜色分割,同时由于DSP 一次运算32 位,所以系统扫描每一行图像要运算 次。我们将每次运算所对应的4个相邻的Cr或Cb列称作一个扫描列,则“fi

14、nd”数组中的079的每一个元素都将唯一对应一个扫描列,如图11。图11 数组和图像扫描列的对应关系 在定义完结构数组之后,系统将区域的参数提取出来,并将其存入到相应的结构数组成员中,实现参数提取。3.5.2 快速区域参数提取算法与传统的图像标签化算法的不同之处1) 标签化的方式不同传统的区域标签化算法是在已经二值化的图像中将相邻的象素点打上相同的标号。而本系统的快速区域参数提取算法是从已经二值化的图像中提取区域的参数,如区域的大小、处在图像中的方位及区域最后一行的参数,并将这些参数存入相应的“find”数组,它的原理同区域标签化相同,但方法不同。2) 扫描方式不同传统的区域标签化算法是以象素

15、点为单位进行标签化,而快速区域信息提取算法是以象素行为单位进行区域参数提取,一个象素行可能包含一个或多个象素点。3) 执行的效率更高在传统的区域标签化算法中,由于每一个象素点都要将周围的8个象素点进行扫描,对于每一个区域就意味着要将图像扫描8遍,如果有N个区域,就意味着要将图像扫描 遍。而本系统所采用的快速区域参数提取算法只提取区域参数。其在对图像进行参数提取时,不论图像中有多少个区域,都只要将图像扫描一遍就可以。相比于传统的区域标签化其执行效率将更高。同时由于其不用把图像另作保存,从而减少了对存储空间的要求。 图12 传统的区域标签化 3.5.4 算法总结由于本系统是一个移动的平台,存在背景

16、和关照条件的不稳定性问题,要在这样的不稳定条件下实现对目标物体的追踪,就要求降低算法对背景和关照的敏感性,同时要求算法的实时性要好。通过上述一系列的理论分析、实践和比较,最终本系统采用的是自己设计开发的快速区域参数提取算法。该算法是通过提取区域的参数,通过比较不同的区域,提取其中面积最大的区域,将该区域当成目标区域。虽然该算法对背景的要求比较高,要求背景中不能出现比目标物体更大的同颜色的物体,但该算法在减少了对背景和光源的要求的同时,大大的提高了目标物体提取的速度,即有很好的实时性,因而能很好的满足本系统的追踪要求。3.6 目标物体方位的提取和追踪3.6.1 目标方位的提取在经过上述处理后,要

17、提取目标物体的方位信息,最简单、最快速的方法就是采用矩计算,即求型心法,其通用的方程式如下: 即在目标提取的过程记录目标象素的所在行的“ivalue”值和区域象素个数“inum”,并将“ivalue”和“inum”加到find数组中的“findi.ivalue”和“findi.inum”中,再用 来求得x轴坐标,该 就是目标所在摄像机中的X轴方位信息。目标物体的方位提取如图13所示。其中的黑线是系统提取目标方位后的输出。图13 目标物体的方位提取 图14 目标搜索的原理 3.6.2 追踪目标物体在本系统中,将物体所在摄像机中的方位分成三个区,即左边区、右边区和中间区。当提取目标物体的X 轴方位

18、后,当 值落在左边或右边区域时,追踪机器人将分别向左边和右边转,而当落在中间区域时,系统将根据“findi.inum”的大小来决定向前进还是向后退或者不动。当在摄像机的视角范围内没有发现目标物体时,系统将根据上次是向左转还是向右转来判定是向左边还是向右边搜索目标,其根据的原理如下图14所示。如图此时目标物体在视区的右边,那么如果目标物体运动的速度不是太快,那么目标物体脱离视区的更多的可能性是物体向右边运动,因为如果是向左边运动,那么在其穿过视区的过程中将被再次捕捉到。本系统采用上述的追踪手段,一定程度上使得追踪机器人可以充分的利用万向转动平台和结合上次追踪的结果自主的进行目标搜索,一定程度上克

19、服了视角不够的缺陷。四、总结与展望1) 总结本次设计的最终目的是将该系统做成机器视觉的开发平台,用于图像处理算法和机器视觉运用方面的开发。原本的设计要求是具有遥控和自主双驱动模式,遥控模式下能实现灵活的驱动控制;采用自主模式时,能在严格定义背景的情况下实现对已知的目标物体的追踪。现在系统的软件、硬件及能源供应等各个方面的设计都已经圆满完成,并已经完成组装调试。现在本系统已经实现可以在严格定义背景下对已知目标物体(橙红色的乒乓球)实施自主追踪,圆满的完成了本次设计的要求。同时采用彩色图像处理和快速区域参数提取算法,完成了在非严格定义背景下的自主追踪,扩展了本次设计的内容,在增强了系统的完整性的同

20、时,也极大的提高了系统的实用价值。2) 展望在追踪机器人的设计目的就是要将其作为一个机器视觉的开发平台,目前虽然已经能够实现对已知的目标物体的追踪,但其在硬件上还存在其Flash Memory的存储空间不足,而不能采用ROM启动模式,而只能采用主机加载模式;无法用普通CCD摄像机获得图像的深度信息;不能快速获取全景信息等问题。同样的在软件上,快速区域参数提取算法虽然在一定的程度上能够减少对光照和背景的影响,但并不是对背景没有要求。所以在以后的设计开发上:在硬件上应采用更为实用的图像处理硬件或自行开发图像处理硬件,达到既能满足图像处理的存储空间要求又能获取图像的深度信息,或采用全景视觉来快速获取

21、全景信息。图像处理软件上应在机器视觉和模式识别上采用或设计更好的算法,来进一步减少对背景和光照条件的要求,进一步提高追踪机器人的技术含量和运用价值。在解决上述的硬软件要求后,应有针对性的开发和运用该机器人平台,来提高其实用价值。参考文献【1】 井上诚喜,八木伸行,林正数,中须英辅,三谷公二,奥井诚人.白玉林.实用数字图像处理M.第一版.北京:科学出版社, 2003.【2】 王成新.高级图像处理技术M.第一版. 北京:中国科学技术出版社, 2001.【3】 李方慧,王飞,何佩琨.TMS320C6000系列DSPs原理与运用M.第三版. 北京:电子工业出版社, 2003.【4】 陈华生,张岳新.V

22、isual C+程序设计基础M.第一版.苏州:苏州大学出版社, 2001.【5】 Code Composer Studio Getting Start GuideM.2001.【6】 Imaging Developers kit Getting Started Guide 【7】 IDK Programmers Guide【8】 IDK Users Guide 【9】 IDK Video Device DriversGuide 【10】 Optimizing JPEG on the TMS320C6211 with 2 level Cache 【11】 Code Composer Studio

23、 Tutorial 【12】 郑南宁.计算机视觉与模式识别M. 北京:国防工业出版社, 1998 .【13】 Saeed B.Niku .introduction to Robotics Analysis systems application M. 第一版.北京:电子工业出版社,2004.【14】 罗志强,王耀南.基于DSP的运动目标自动跟踪系统的设计与实现J.光电子技术与信息,2005,18(1):4649.【15】 胡延军,苗春卫,张笈.含噪图像的处理方法与评价J.宇航计测技术, 2005, 25(1):59-63.【16】 姚峰林,詹海英,李元宗.机器视觉中的边缘检测技术研究J.机械工

24、程与自动化, 2005, 3(1):108-110.【17】 周培德,付梦印,张长江.红外图像边缘提取的随机阈值方法J.兵工学报,2005, 26(2):176-180.【18】 张庆英,岳卫宏,肖维红,江霞.基于边界特征的图像二值化方法运用研究J.武汉理工大学学报, 2005, 27(2):55-64.【19】 钟克洪,丁明跃,周成平,周亚安.基于均匀空间的颜色分级方法J.中国图像图形学报, 2004, 9(11):1277-1284.【20】 韩晓微,李彦平,徐心和.基于颜色相似系数的彩色图像分割方法J.沈阳大学学报, 2004, 16(6):14-17.【21】 肖志涛,国澄明,侯正信,于明.图像特征检测算法的分析与研究J.中国图像图形学报, 2004, 9(12):1414-1420.【22】 杨晖,曲秀杰.图像分割方法综述J.电脑开发与运用, 2005, 18(3):21-23.【23】 杨杰,付忠良,阮波.照度不均匀图像的快速自适应灰度修正J.计算机运用,2005, 25(3):588-602.【24】 彭时林.自适应可翻转探测车的机械设计.东南大学学士学位论文,2004年.TOP版权所有东南大学机械工程学院

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号