基于神经网络的智能控制系统.ppt

上传人:小飞机 文档编号:6262618 上传时间:2023-10-11 格式:PPT 页数:39 大小:422.50KB
返回 下载 相关 举报
基于神经网络的智能控制系统.ppt_第1页
第1页 / 共39页
基于神经网络的智能控制系统.ppt_第2页
第2页 / 共39页
基于神经网络的智能控制系统.ppt_第3页
第3页 / 共39页
基于神经网络的智能控制系统.ppt_第4页
第4页 / 共39页
基于神经网络的智能控制系统.ppt_第5页
第5页 / 共39页
点击查看更多>>
资源描述

《基于神经网络的智能控制系统.ppt》由会员分享,可在线阅读,更多相关《基于神经网络的智能控制系统.ppt(39页珍藏版)》请在三一办公上搜索。

1、智能控制理论及其应用,信息学院尤富强,4.4 几种典型的神经网络,按照神经网络的拓扑结构与学习算法相结合的方法可将神经网络的类型分为前馈网络、竞争网络、反馈网络和随机网络四大类。,4.4.1 BP神经网络 1986年,D.E.Rumelhart和J.L.McClelland提出了一种利用误差反向传播训练算法的神经网络,简称BP(Back Propagation)网络,是一种有隐含层的多层前馈网络,系统地解决了多层网络中隐含单元连接权的学习问题。(1)BP算法原理 BP学习算法的基本原理是梯度最速下降法,它的中心思想是调整权值使网络总误差最小。,4.4 几种典型的神经网络,(1)BP算法原理,多

2、层网络运用BP学习算法时,实际上包含了正向和反向传播两个阶段。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望输出,则转入反向传播,将误差信号沿原来的连接通道返回,通过修改各层神经元的权值,使误差信号最小。这种网络没有反馈存在,实际运行仍是单向的,所以不能将其看成是一非线性动力学系统,而只是一种非线性映射关系。具有隐含层BP网络的结构如图4-9所示。,(1)BP算法原理,图4-9 BP网络的结构,4.4 几种典型的神经网络,目标函数:函数为Sigmoid函数:正向推算过程:(1)隐层输出(2)网络输出,4.4

3、 几种典型的神经网络,(1)BP算法原理,(2)BP算法的计算步骤,1)计算一个输出单元活性改变时的误差导数EA,即实际输出与期望输出的差值 2)计算一个单元所接受总输入变化时的误差导数EI,EI实际上等于上述步骤1)的结果乘以一个单元的总输入变化时其输出的变化率,即,4.4 几种典型的神经网络,(2)BP算法的计算步骤,3)计算一个与输出单元联接权值改变时的误差变化率EW 4)为了计算对误差总的影响,把对各输出单元的所有单独影响相加,4.4 几种典型的神经网络,(2)BP算法的计算步骤,运用步骤2)和4),可把一层单元的EA变成前面一层单元的EA,为了得到期望的前面各层的EA,可重复此计算步

4、骤。当得到一个单元的EA后,可用步骤2)和3)来计算作用于它的输入联接上的EW。,4.4 几种典型的神经网络,(3)BP算法的计算机实现流程,1)初始化,对所有权值赋以随机任意小值,并对阈值设定初值;2)给定训练数据集,即提供输入向量 和期望输出;3)计算实际输出,4.4 几种典型的神经网络,(3)BP算法的计算机实现流程,4)调整权值,按误差反向传播方向,从输出节点开始返回到隐层按下式修正权值 其中:5)返回第2)步重复,直至误差满足要求为止。,4.4 几种典型的神经网络,(4)使用BP算法应注意的几个问题,学习速率 的选择非常重要。在设置各训练样本的期望输出分量时,不能设置为1或0,以设置

5、为 0.9或0.1较为适宜。若实际问题给予网络的输入量较大,需做归一化处理,网络的输出也要进行相应的处理。各加权系数的初值以设置为随机数为宜。在学习过程中,应尽量避免落入某些局部最小值点上,引入惯性项有可能使网络避免落入某一局部最小值。,4.4 几种典型的神经网络,(5)BP网络的优缺点,1)BP网络主要优点:只要有足够多的隐含层和隐节点,BP网络可以逼近任意的非线性映射关系;BP网络的学习算法属于全局逼近的方法,因而它具有较好的泛化能力。2)BP网络的主要缺点:收敛速度慢;局部权值;难以确定隐含层和隐节点的个数。,4.4 几种典型的神经网络,(6)典型的BP网络改进算法,1)引入惯性项 输出

6、层的任意神经元 k 在样本p 作用时的加权系数改进公式为 隐含层的任意神经元 i 在样本p 作用时的加权系数改进公式为,4.4 几种典型的神经网络,(6)典型的BP网络改进算法,2)引入动量项 加入的动量项实质上相当于阻尼项收敛性式中,既可表示单个的连接权系数;为 时刻的负梯度:是 时刻的负梯度:为学习速率,;为动量项因子,。,4.4 几种典型的神经网络,4.4 几种典型的神经网络,4.4.2 径向基神经网络 1985年,Powell提出了多变量插值的径向基函数(Radial Basis Function,RBF)方法。径向基函数网络比BP网络需要更多的神经元,但是它能够按时间片来训练网络。径

7、向基网络是一种局部逼近网络,已证明它能以任意精度逼近任一连续函数。,4.4 几种典型的神经网络,4.4.2 径向基神经网络 构成RBF网络的基本思想:用RBF作为隐单元的“基”构成隐含层空间,这样就可将输入矢量直接(即不通过权连接)映射到隐空间。当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参数。,4.4 几种典型的神经网络,4.4.2 径向基神经网络,(1)径向基函数网络模型,RBF网络由两层组成,其结构如图4-10所示。,图4-10 RBF网络的结构,4.4 几种典型的神经网络,4.4.2

8、径向基神经网络,(1)径向基函数网络模型,输入层节点只是传递输入信号到隐含层,隐含层节点由象高斯核函数那样的辐射状作用函数构成,而输出层节点通常是简单的线性函数。隐含层节点中的作用函数(核函数)对输入信号将在局部产生响应。,4.4 几种典型的神经网络,(2)网络输出,RBF网络的输入层到隐含层实现 的非线性映射,径向基网络隐含层节点的作用函数一般取下列几种形式,4.4 几种典型的神经网络,(2)网络输出,最常用的是高斯激活函数 采用高斯基函数,具备如下优点:表示形式简单,即使对于多变量输入也不增加太多的复改性;径向对称;光滑性好,任意阶导数存在;由于该基函数表示简单且解析性好,因而使于进行理论

9、分析。,4.4 几种典型的神经网络,(2)网络输出,最常用的是高斯激活函数 采用高斯基函数,具备如下优点:表示形式简单,即使对于多变量输入也不增加太多的复改性;径向对称;光滑性好,任意阶导数存在;由于该基函数表示简单且解析性好,因而使于进行理论分析。,4.4 几种典型的神经网络,(2)网络输出,考虑到提高网络精度和减少隐含层节点数,也可以将网络激活函数改成多变量正态密度函数 式中,是输入协方差阵的逆。RBF网络的隐含层到输出层实现 的线性映射,即,4.4 几种典型的神经网络,(2)网络输出,式中,是隐含层第 个节点的输出;是输出层第 个节点的输出;是隐含层到输出层的加权系数;是输出层的阀值;是

10、隐含层节点数。,4.4 几种典型的神经网络,(3)RBF网络的学习过程,RBF网络的学习过程分为两个阶段。第一阶段是无教师学习;第二阶段是有教师学习。1)无教师学习阶段(a)给定各隐节点的初始中心向量 和判定停止计算的(b)计算距离(欧氏距离)并求出最小距离的节点;,4.4 几种典型的神经网络,(3)RBF网络的学习过程,(c)调整中心(d)判定聚类质量 对于全部样本 反复进行以上(b),(c)步,直至满足以上条件。,4.4 几种典型的神经网络,(3)RBF网络的学习过程,2)有教师学习阶段 有教师学习也称为有监督学习。当 确定以后,训练由隐含层至输出层之间的权值,由上可知,它是一个线性方程组

11、,则求权值就成为线性优化问题。隐含层至输出层之间的连接权值 学习算法为式中,为高斯函数。,4.4 几种典型的神经网络,(3)RBF网络有关的几个问题,从理论上而言,RBF网络和BP网络一样可近似任何连续非线性函数。已证明RBF网络具有惟一最佳通近的特性,且无局部极小。求RBF网络隐节点的中心向量 和标准化常数 是一个困难的问题。径向基函数,即径向对称函数有多种。(RBF网络虽具有惟一最佳逼近的特性以及无局部极小的优点,但隐节点的中心难求,这是该网络难以广泛应用的原因。RBF网络学习速度很快,适于在线实时控制。,4.4 几种典型的神经网络,4.4.3 Hopfield网络,美国物理学家Hopfi

12、eld在1982年首先提出了一种由非线性元件构成的单层反馈网络系统,称这种单层反馈网络为Hopfield网络。图4-11给出Hopfield网络的一种结构形式。,图4-11 Hopfield网络的结构,4.4 几种典型的神经网络,(1)Hopfield网络模型,Hopfield网络的拓扑结构可看作全连接加权无向图,它是一种网状网络,可分为离散和连续两种类型。离散网络的节点仅取+1和-1(或0和1)两个值,而连续网络取0和1之间任一实数。设此网络含有 个神经元,神经元 的状态 取0或1,各神经元按下列规则随机地、异步地改变状态,4.4 几种典型的神经网络,(1)Hopfield网络模型,Hopf

13、ield网络模型的基本原理:只要由神经元兴奋的算法和联接权系数所决定的神经网络的状态,在适当给定的兴奋模式下尚未达到稳定状态,那么该状态就会一直变化下去,直到预先定义的一个必定减小的能量函数达到极小值时,状态才达到稳定而不再变化。,4.4 几种典型的神经网络,(2)Hopfield网络的联想记忆功能,Hopfield网络的联想记忆过程,从动力学的角度就是非线性动力学系统朝着某个稳定状态运行的过程,这一过程可分为学习和联想两个阶段。在给定样本的条件下,按照Hebb学习规则,调整联接权值,使得存储的样本成为动力学的吸引子,这个过程就是学习阶段。而联想是指在已调整好权值不变的情况下,给出部分不全或受

14、了干扰的信息,按照动力学规则改变神经元的状态,使系统最终变到动力学的吸引子。即指收敛于某一点,或周期性迭代(极限环),或处于混沌状态。,4.4 几种典型的神经网络,(2)Hopfield网络的联想记忆功能,Hopfield网络用于联想记忆的学习算法,本算法取偏流I为零。,1)按照Hebb规则设置权值 2)对未知样本初始化,4.4 几种典型的神经网络,(2)Hopfield网络的联想记忆功能,3)迭代计算 直至节点输出状态不改变时,迭代结束。此时节点的输出状态即为未知输入最佳匹配的样本。4)返回 2)继续迭代。,4.4 几种典型的神经网络,(3)Hopfield网络的的优化计算功能,Hopfie

15、ld网络理论的核心思想认为,网络从高能状态转移到最小能量状态,则达到收敛,获得稳定的解,完成网络功能。Hopfield网络所构成的动力学系统与固体物理学模型自旋玻璃相似,可用二次能量函数来描述系统的状态,系统从高能状态到低能的稳定状态的变化过程,相似于满足约束问题的搜索最优解的过程。,4.4 几种典型的神经网络,(3)Hopfield网络的的优化计算功能,Hopfield网络可用于优化问题的计算。Hopfield网络用于优化问题的计算与用于联想记忆的计算过程是对偶的。在解决优化问题时,权矩阵W已知,目的是求取最大能量正的稳定状态。为此,必须将待优化的问题映射到网络的相应于优化问题可能解的特定组

16、态上,再构造一待优化问题的能量函数,它应和优化问题中的二次型代价函数成正比例。,4.4 几种典型的神经网络,4.4.4 小脑模型关联控制器CMAC网络,1975年,Albus根据神经生理学小脑皮层结构特点,提出了一种小脑模型关联控制器(Cerebellum Model Articulation Controller),简记为CMAC网络。经过多年的研究,其中包括Miller、Tolle、Ersu及Parks等人杰出的工作,目前它已被公认为是一类联想记忆网络(ANN)的重要组成部分。,4.4 几种典型的神经网络,CMAC网络的工作原理,图4-12 CMAC网络的基本原理,4.4 几种典型的神经网络,CMAC网络的工作原理,图4-13 CMAC网络原理结构图,4.4 几种典型的神经网络,CMAC网络的工作原理,CMAC网络是一种通过多种映射实现联想记忆网络,实际上这种映射是一种智能查表技术,它模拟小脑皮层神经系统感受信息,获得并处理信息、存储信息,通过联想利用信息的功能。它能实现无教师学习,不仅学习速度快,而且精度高,可以处理不确定性知识,在机器人的手臂协调控制中有着广阔的应用前景。,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号