机器人视觉伺服定位控制与目标抓取ppt课件.ppt

上传人:小飞机 文档编号:1342269 上传时间:2022-11-11 格式:PPT 页数:62 大小:20.98MB
返回 下载 相关 举报
机器人视觉伺服定位控制与目标抓取ppt课件.ppt_第1页
第1页 / 共62页
机器人视觉伺服定位控制与目标抓取ppt课件.ppt_第2页
第2页 / 共62页
机器人视觉伺服定位控制与目标抓取ppt课件.ppt_第3页
第3页 / 共62页
机器人视觉伺服定位控制与目标抓取ppt课件.ppt_第4页
第4页 / 共62页
机器人视觉伺服定位控制与目标抓取ppt课件.ppt_第5页
第5页 / 共62页
点击查看更多>>
资源描述

《机器人视觉伺服定位控制与目标抓取ppt课件.ppt》由会员分享,可在线阅读,更多相关《机器人视觉伺服定位控制与目标抓取ppt课件.ppt(62页珍藏版)》请在三一办公上搜索。

1、机器人视觉伺服定位控制与目标抓取,2017.5,内 容,机器人抓取及其研究现状机器人抓取位姿判别基于视觉伺服的机器人定位控制机器人视觉反馈控制在工业上的应用总 结,机器人抓取面临着挑战 随着机器人技术的发展,机器人越来越多的融入到人的生活和工作环境中,代替人类完成各种作业,这必然要求机器人承担对比工业生产更加复杂的操作务,比如机器人端茶倒水,递送物品,自动拣握工具等等。智机器人代表了机器人发展的尖端技术,在日常生活、医疗、航天等领域具有广泛的用。 一方面,我们希望机器人具备一定自主性学习和自协调能力,且能够通过学习掌握在新环境下操作的技能。 另一面,机器人对物体抓取操作是其自主作业当中经常面临

2、的一个问题,目前传统工业机器人定式的操作方式,限制了机器人抓取的自主性。,机器人抓取操作,一 机器人抓取 VS 人的抓取,对人而言,手不仅能够根据不同形状和不同尺寸的物体采取不同的抓取姿态(如图所示),而且人手抓取过程中,手的位置和方向能根据环境不断地自主调整 。这反映出人抓取过程的自主性与协调性。 然而,对于机器人,则是不同,因为目前绝大多数机器人的操作行为是在定式(标定)工作环境中进行的。改变传统定式的工作方式,攻克机器人灵巧自主抓取问题是当今机器人研究领域的一个难点和热点。,人抓取的特性:灵活自主,一般来说,抓取需要解决的两个基本问题:抓哪里,Where?怎么去抓,How?,一 机器人抓

3、取 VS 人的抓取,解析抓取法,解析法使用动力学评价准则(如: force-closure)来估算抓取的稳定性,然后寻求合适抓取方案,使得这个评价准则达到最优。该方法属于传统的抓取方法,在2000年前占主导地位。,该方法的前提要求:1)精确的机械手动力学模型、目标物理模型; 2)机械手相对与目标物的位势信息。,二 机器人抓取研究现状,首先通过观察学习人的抓取,根据任务约束、然后学习系统产生一种最佳的抓取模式,该方法的核心思想是基于模仿与学习理论 。,经验学习抓取法,该方法的前提要求:1)完整的目标几何模型(2/3D)信息; 2)机器人视觉系统严格标定,已知机械臂动力学模型。,二 机器人抓取研究

4、现状,实例1 3D几何匹配抓取,实例2 3D位势估计抓取,抓取类型一:3D目标抓取,1、一种基于局部随机采样一致性鲁棒几何描述的3D匹配与位势估计抓取方法,该方法在噪声、遮挡环境测试中取得良好抓取效果。,2、综合双目和单目视觉信息、以及物体表面与几何模型实现深度提取、目标区域分割,以及位势估计,该抓取系统在遮挡、光照变化的室内环境中实现了机器人抓取操作,缺点:依赖于物体的3D信息,3D计算复杂。,二 机器人抓取研究现状,机器人单抓取点学习,抓取类型二:2D位置学习抓取,直接从2D图像平面学习获取抓取位置,该方法首先采用人工标记抓取点的合成图像,提取分类图像特征向量,应用机器学习方法来训练抓点。

5、,该方法实施步骤:给定视觉场景 学习模型得出抓取点 计算抓取参数 机器人动力学运动规划。,机器人多抓取点学习,二 机器人抓取研究现状,机器人模仿抓取,人机交互抓取,抓取类型三:高级人工智能学习抓取,模仿抓取:通过观察人抓取目标的姿态,识别出人的抓取方式,进而映射到机器人抓取系统中。,交互抓取:把人的操作嵌入到机器人的控制循环中,对机器人进行交互训练,使得机器人自动产生抓取动作,最终把人的抓取技能传授给机器人 。,二 机器人抓取研究现状,综上抓取方法可知:1) 解析建模抓取法需要对目标进行2D/3D建模,在复杂环境下建模精度难以保证。2) 经验学习抓取法通过学习或模仿人的抓取,在一定程度上克服了

6、解析抓取法建模的固有缺陷。但是,现有学习算法在稀疏样本学习中,算法的学习能力有限,机器人缺乏对新物体抓取的能力。3) 基于解析法和经验法的机器人抓取过程中,手臂的协调与定位都是需要预先标定,而后求取机器人的逆动力学进行控制的。标定除了带来复杂的计算外,同时也限制了机器人应用的拓广。,二 机器人抓取研究现状,三 基于多模特征深度学习的机器人抓取判别,深度学习 2006年多伦多大学Hinton等人在Science杂志上提出,该学习算法避免了特征抽取过程中了人为的干预,同时深度学习解决了传统多层神经网络学习过程局部收敛和过适性问题,深受业内的广泛关注,如括谷歌、百度在内的众多机构成立专门的部门致力于

7、该学习算法的研究。 目前深度学习已经成功用于图像检索,语音识别,自然语言处理等领域,而该算法在机器人视觉领域的应用还处在刚刚起步阶段。,深度学习网络,深度学习简介(插入),人脑视觉机理,神经-中枢-大脑的工作过程,或许是一个不断迭代、不断抽象的过程。人的视觉系统的信息处理是分级的。从低级的V1区提取边缘特征,再到V2区的形状或者目标的部分等,再到更高层,整个目标、目标的行为等。,深度学习简介(插入),关于特征,【通过传感器(例如CMOS)获得数据,然后经过预处理、特征提取、特征选择,再到推理、预测或者识别。】,深度学习简介(插入),特征表示的粒度,学习算法在一个什么粒度上的特征表示,才有能发挥

8、作用?素级特征 结构性,深度学习简介(插入),初级(浅层)特征表示,像素级的特征表示方法没有作用,那怎样的表示才有用呢?复杂图形,往往由一些基本结构组成,比如正交的edges。,深度学习简介(插入),结构性特征表示,小块的图形可以由基本edge构成,更结构化,更复杂,具有概念性的图形如何表示呢?更高层次的特征表示,深度学习简介(插入),需要有多少个特征,我们知道需要层次的特征构建,由浅入深,但每一层该有多少个特征呢?,深度学习简介(插入),Deep Learning的基本思想,假设有一个系统S,它有n层(S1,Sn),输入是I,输出是O,形象地表示为: I =S1=S2=.=Sn = O如果输

9、出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失。,Deep Learning: 需要自动地学习特征,假设有一堆输入I(如一堆图像或文本),假设设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,, Sn。,对于深度学习来说,其思想就是对堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。,深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。因此,“深度模型”是手段,“特征学习”

10、是目的。,深度学习简介(插入),Deep learning训练过程,非监督数据上建立多层神经网络的一个有效方法:1)首先逐层构建单层神经元,这样每次都是训练一个单层网络。2)当所有层训练完后,使用wake-sleep算法进行调优。【使原始表示x向上生成的高级表示r和该高级表示r向下生成的x尽可能一致】,Wake-Sleep算法分为醒(wake)和睡(sleep)两个部分:1)wake阶段:认知过程,通过外界的特征和向上的权重(认知权重)产生每一层的抽象表示(结点状态),并且使用梯度下降修改层间的下行权重(生成权重)。【“如果现实跟我想象的不一样,改变我的权重使得我想象的东西就是这样的”】2)s

11、leep阶段:生成过程,通过顶层表示(醒时学得的概念)和向下权重,生成底层的状态,同时修改层间向上的权重。【“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念”】,深度学习简介(插入),Deep learning训练过程,deep learning训练过程具体如下:1)使用自下上升非监督学习(就是从底层开始,一层一层的往顶层训练): 采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,是和传统神经网络区别最大的部分(这个过程可以看作是feature learning过程);在学习得到第n-1层后,将n-1层的输出作为第n层的

12、输入,训练第n层,由此分别得到各层的参数。2)自顶向下的监督学习(就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调): 基于第一步得到的各层参数进一步fine-tune整个多层模型的参数,这一步是一个有监督训练过程;第一步类似神经网络的随机初始化初值过程,由于DL的第一步不是随机初始化,而是通过学习输入数据的结构得到的,因而这个初值更接近全局最优,从而能够取得更好的效果。,深度学习简介(插入),Deep Learning的常用模型或者方法,AutoEncoder自动编码器 【自动编码器就是一种尽可能复现输入信号的神经网络】,1)给定无标签数据,用非监督学习学习特征:,因为是无标签数

13、据,所以误差的来源就是直接重构后与原输入相比得到。,深度学习简介(插入),Deep Learning的常用模型或者方法,2)通过编码器产生特征,然后训练下一层。这样逐层训练:,将第一层输出的code当成第二层的输入信号,同样最小化重构误差,就会得到第二层的参数,并且得到第二层输入的code,也就是原输入信息的第二个表达了。其他层就同样的方法炮制就行。,AutoEncoder自动编码器 【自动编码器就是一种尽可能复现输入信号的神经网络】,深度学习简介(插入),Deep Learning的常用模型或者方法,3)有监督微调:,到这里,这个AutoEncoder还不能用来分类数据,可以在AutoEnc

14、oder的最顶的编码层添加一个分类器,然后通过标准的多层神经网络的监督训练方法(梯度下降法)去训练。,也就是说,这时候,我们需要将最后层的特征code输入到最后的分类器,通过有标签样本,通过监督学习进行微调,这也分两种,一个是只调整分类器(黑色部分);另一种:通过有标签样本,微调整个系统 。,AutoEncoder自动编码器 【自动编码器就是一种尽可能复现输入信号的神经网络】,深度学习简介(插入),Deep Learning的常用模型或者方法,Sparse AutoEncoder稀疏自动编码器:,Denoising AutoEncoders降噪自动编码器:,深度学习简介(插入),Deep Le

15、arning的常用模型或者方法,将一个信号表示为一组基的线性组合,而且要求只需要较少的几个基就可以将信号表示出来。稀疏编码算法是一种无监督学习方法,它用来寻找一组“超完备”基向量来更高效地表示样本数据。目标函数: Min |I O| + u*(|a1| + |a2| + + |an |),O = a1*1+ a2*2+.+ an*n, i是基,ai是系数,I表示输入,O表示输出。,Sparse Coding稀疏编码,深度学习简介(插入),Deep Learning的常用模型或者方法,比如在图像的Feature Extraction的最底层要做Edge Detector的生成,那么这里的工作就是

16、从Natural Images中randomly选取一些小patch,通过这些patch生成能够描述他们的“基”,也就是右边的8*8=64个basis组成的basis,然后给定一个test patch, 我们可以按照上面的式子通过basis的线性组合得到,而sparse matrix就是a,下图中的a中有64个维度,其中非零项只有3个,故称“sparse”。,Sparse Coding稀疏编码,深度学习简介(插入),Deep Learning的常用模型或者方法,Sparse coding分为两个部分:1)Training阶段: 给定一系列的样本图片x1, x 2, ,我们需要学习得到一组基1,

17、 2, ,也就是字典。 训练过程就是一个重复迭代的过程,交替更改a和使得下面这个目标函数最小。,Sparse Coding稀疏编码,深度学习简介(插入),Deep Learning的常用模型或者方法,2)Coding阶段: 给定一个新的图片x,由上面得到的字典,通过解一个LASSO问题得到稀疏向量a。这个稀疏向量就是这个输入向量x的一个稀疏表达了。,Sparse Coding稀疏编码,深度学习简介(插入),Deep Learning的常用模型或者方法,Restricted Boltzmann Machine (RBM)限制波尔兹曼机Deep Belief Networks深信度网络Convol

18、utional Neural Networks卷积神经网络,三 基于多模特征深度学习的机器人抓取判别,研究目标:给定一幅包含抓取物的场景图,以深度学习构建最优抓取判别模型,获取机器人最优的抓取位置。,为k维图像特征的抽象表达。,深度学习抓取位置判别问题描述,抓取模式g(t)的概率模型:,最优抓取判别模型:,降噪自动编码网络权值初始化,编码输出:,解码输出:,代价函数:,降噪自动编码深度学习过程,三 基于多模特征深度学习的机器人抓取判别,编码器的输出是输入在不失信息量条件下的另一种表示形式,即输出是输入数据的重建。,多模特征深度学习,第n层输出层逻辑输出为:,隐含层输入输出为:,深度网络模型,三

19、 基于多模特征深度学习的机器人抓取判别,多模特征深度学习抓取判别,第一阶段预训练 :使用将噪编码无监督特征学习,初始化隐含层权重W和 偏置参数b。 第二阶段微调训练:采用误差反向传播法微调整个深度参数。,最优抓取判别模型,三 基于多模特征深度学习的机器人抓取判别,三 基于多模特征深度学习的机器人抓取判别,实验图像采集,采用Kinect深度摄像机采集抓取目标的RGB图像和深度图像。,RGB摄像头,3D深度传感器,抓取位置判别实验结果,三 基于多模特征深度学习的机器人抓取判别,针对不同形状,大小、摆放方向的测试目标,抓取判别试验结果如图所示。 判别模型参照人的抓取习惯,即矩形盒抓中间、杯子抓杯柄、

20、盘子抓边缘、工具抓把柄,机器人在面临新的抓取目标时,同样能够实现抓取判别,三 基于多模特征深度学习的机器人抓取判别,机器人抓取定位实验结果,不同物体实验结果,相同物体不同摆放方向实验结果,视觉伺服控制策略,四 基于视觉伺服的机器人定位控制,视觉伺服:把视觉传感信号嵌入到机器人的伺服循环中,通过对视觉特 征的控制,实现对机器人的定位闭环控制。优 越 性:简化了机器人控制系统的设计,伺服任务可灵活定义,控制器 形式多样,更能满足不同场合需求。,视觉伺服控制系统之间映射关系,视觉伺服控制策略,机器人视觉伺服系统的初始状态:机器人工作空间中,机器人末端A远离抓取目标B;在图像空间中,通过控制图像特征A

21、与图像特征B重合,使得机器人接近目标位置。,四 基于视觉伺服的机器人定位控制,视觉伺服控制策略,机器人视觉伺服系统的定位状态:图像空间中,图像特征A与图像特征B已经重合;机器人工作空间中,机器人成功抓取目标。,四 基于视觉伺服的机器人定位控制,基于位置的视觉伺服(PBVS) PBVS是指视觉反馈控制信号直接在3D任务空间中以笛卡尔坐标形式定义,其基本原理是,结合已知的目标几何模型及摄像机模型,在三维笛卡尔坐标系中对目标位姿进行估计,然后控制系统根据机械手当前位姿与估计出的目标位姿之间的差分信息,进行轨迹规划并计算出控制量。,五 机器人视觉伺服研究现状,期望位姿,估计位姿,基于图像的视觉伺服(I

22、BVS) 基于图像的视觉伺服是指误差信号直接用图像特征来定义,无需对目标进行位姿估计,而是直接利用图像特征进行视觉信息反馈控制。基本原理是由图像误差信号计算控制量,再将此控制量变换到机器人运动空间,从而驱动机械手向目标运动。,期望图像特,特征提取,五 机器人视觉伺服研究现状,图像误差:,控 制 律:,目标函数:,无标定视觉伺服控制框架,提出卡尔曼滤波联合神经网络的状态估计方法,六 基于状态估计的机器人无标定视觉伺服,结果分析,特征定位,手眼实验系统,六 基于状态估计的机器人无标定视觉伺服,传统PBVS方法,传统卡尔曼滤波方法,改进方法,特征丢失,特征丢失,六 基于状态估计的机器人无标定视觉伺服

23、,七 自抗扰视觉伺服机器人定位控制,研究目标:,研究一种基于粒子滤波(particle filtering, PF)的双闭环机器人无标定自抗扰视觉伺服控制方法。内循环针对动态雅可比估计问题采用PF的解决方案;外循环采用自抗扰反馈控制方案,并利用扩张状态性观测器实时估计出系统当前时刻的总扰动,在外循环控制中实施动态补偿。,自抗扰手眼协调控制器设计,自抗扰视觉伺服控制框架,机器人手眼协调系统是一个典型的不确定非线性系统,既包括模型的不确定性,又包括参数的不确定性,同时还受由于图像处理等而产生的位置外界干扰因数的影响,把以上不确定性当着为建模动态,可以采用自抗扰控制方法现实机器人定位控制。,七 自抗

24、扰视觉伺服机器人定位控制,双环自抗扰手眼协调控制,基于粒子滤波的双环自抗扰控制机器人视觉伺服,内循环:针对非线性条件下动态雅可比估计问题采用基于PF的解决方案,可更 好地逼近期望“视觉空间-运动空间”非线性映射关系。外循环:采用自抗扰反馈控制方案,并利用扩张状态性观测器实时估计出系统 当前时刻的总扰动,在外循环控制中实施动态补偿。,七 自抗扰视觉伺服机器人定位控制,仿真系统,机器人初始姿态,机器人期望姿态,七 自抗扰视觉伺服机器人定位控制,(a) 图像特征运动轨迹,(d) 末端运动速度,结果分析:机器人末端定位结果,(b) 末端定位运动轨迹,(c) 图像特征误差,七 自抗扰视觉伺服机器人定位控

25、制,八 机器人视觉伺服基本应用,机器人抓取中应用,机器人导航中的应用,飞行器着落中的应用,八 机器人视觉伺服基本应用,机器人手术 中的应用,空间机器人 漂浮物抓取应用,机器人转配 中的应用,八 机器人视觉伺服基本应用,机器人视觉伺服定位实例,视频1,八 机器人视觉伺服基本应用,应用行业: 汽车 抓取及包装 材料加工 装配 ,难点: 工件随机摆放 几何形状复杂 箱体空间较深 抓取容易造成干涉,Bin-Picking特点,九机器人视觉反馈控制在Bin-Picking中的应用,Bin-Picking一般实现步骤,(1)边缘提取,(2)目标匹配,九机器人视觉反馈控制在Bin-Picking中的应用,(

26、3)目标位姿测量(估计),(4)目标抓取,Bin-Picking一般实现,九机器人视觉反馈控制在Bin-Picking中的应用,软件硬件传感器硬件工具单元,Scape第全球一家开发标准化Bin-Picking系统的企业,该系统可以使机械手臂在料箱或托盘箱之中发现,找到并抓取随意放置的零件。通过Scape开发的多种软件模组与识别模式及抓取机构的配合几乎可以应对任何零件抓取的需求,Scape Bin-Picking方案,3D传感器,机器人工具,九机器人视觉反馈控制在Bin-Picking中的应用,视频2,九机器人视觉反馈控制在Bin-Picking中的应用,3D Area Sensor视觉系统就能

27、够智能识别出料箱中散乱的工件。3D Area Sensor是使用1个投影仪和2个相机组成一个区域检测视觉系统,通过投射条纹光,获取一个大范围空间的3D点云数据,获取空间位置信息 。,3D Area Sensor视觉系统的特点:1、一次拍摄就能够实现工件的定位 2、对多个工件位置记忆,实现一拍多抓 3、可以实现多种空间位置信息的获取,FANUC 3D Bin-picking 技术,九机器人视觉反馈控制在Bin-Picking中的应用,视频3,视频4,九机器人视觉反馈控制在Bin-Picking中的应用,机器人视觉技术的诞生和应用,极大地解放了人类劳动力,提高了生产自动化水平,改善了人类生活现状,具有很好的应用前景。机器人视觉系统,逐渐成为工业生产现代化程度当中,一个重要的标志。视觉是实现机器人人工智能的主要途径。要想让机器人获得人的能力,重点是解决机器人视觉系统,因为视觉对人很重要,人类获得讯息90% 以上是依靠眼睛的,那么对于机器人,获得信息来说,也是非常重要。 机器人视觉处理向3D技术跨越 机器人视觉技术:超越传统 颠覆想象,十 总 结,谢 谢!,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号