人工神经网络第七章.ppt

上传人:小飞机 文档编号:5194596 上传时间:2023-06-13 格式:PPT 页数:72 大小:726.50KB
返回 下载 相关 举报
人工神经网络第七章.ppt_第1页
第1页 / 共72页
人工神经网络第七章.ppt_第2页
第2页 / 共72页
人工神经网络第七章.ppt_第3页
第3页 / 共72页
人工神经网络第七章.ppt_第4页
第4页 / 共72页
人工神经网络第七章.ppt_第5页
第5页 / 共72页
点击查看更多>>
资源描述

《人工神经网络第七章.ppt》由会员分享,可在线阅读,更多相关《人工神经网络第七章.ppt(72页珍藏版)》请在三一办公上搜索。

1、2023/6/13,1,第7章 循环网络,主要内容Hopfield网络实现的自相联存储稳定性分析统计Hopfield网与Boltzmann机基本双联存储器(BAM)的结构与训练几种相联存储网络用Hopfield网解决TSP问题。,2023/6/13,2,第7章 循环网络,重点Hopfield网络实现的自相联存储基本双联存储器的结构与训练。难点稳定性分析用Hopfield网解决TSP问题,2023/6/13,3,第7章 循环网络,7.1 循环网络的组织 7.2 稳定性分析 7.3 统计Hopfield网与Boltzmann机 7.4 双联存储器的结构 7.5 异相联存储 7.6 其它的双联存储器

2、 7.7 Hopfield网用于解决TSP问题,2023/6/13,4,第7章 循环网络,循环网络称为Hopfield网,循环网络对输入信号的处理是一个逐渐“修复”、“加强”的过程。,强烈变化,较弱的变化,不变化,2023/6/13,5,7.1 循环网络的组织,网络结构,2023/6/13,6,7.1 循环网络的组织,联接:神经元之间都是互联的wij,每个神经元都没有到自身的联接wii=0。神经元个数h,输入向量维数n,输出向量维数m。hn,hm,n1,m1。神经元:输入、输出、隐藏状态变化:非同步、同步输入向量:X=(x1,x2,xn)输出向量:O=(o1,o2,om),2023/6/13,

3、7,7.1 循环网络的组织,神经元的网络输入:,阈值函数:oj=,1if netjj,0if netjj,ojif netj=j,2023/6/13,8,最基本的Hopfield网,n=m=h,2023/6/13,9,最基本的Hopfield网,希望网络的联接矩阵存放的是一组这样的样本,在联想过程中实现对信息的“修复”和“加强”,要求:它的输入向量和输出向量是相同的向量,即,X=Y 样本集:S=Y1,Y2,Ys,2023/6/13,10,最基本的Hopfield网,wii=01inW是一个对角线元素为0的对称矩阵:W=Y1T Y1+Y2TY2+YsTYs-W0W是各个样本向量自身的外积的和网络

4、实现的是自相联映射。,权矩阵:wij=,ij,2023/6/13,11,最基本的Hopfield网,2023/6/13,12,2023/6/13,13,由式7一3知,对任意的i和j(ij),所以,W是一个对角线元素为0的对称矩阵。,与前面遇到过的训练方法不同,在这里是根据样本集直接地计算出网络的联接矩阵。显然,这种训练方法效率要高许多。另外,由于W是各个样本向量自身的外积的和,所以,有时称该网络实现的是自相联映射。,2023/6/13,14,最基本的Hopfield网,激活函数:改为S形函数后,系统就成为一个连续系统 多级循环网络除输出向量被反馈到输入层外,其它各层之间的信号传送均执行如下规定

5、:第i-1层神经元的输出经过第i个连接矩阵被送入第i层。一般不考虑越层的信号传送、中间的信号反馈和同层的神经元之间进行信号的直接传送,2023/6/13,15,网络的异步工作方式 网络的异步工作方式是一种串行方式。网络运行时每次只有一个神经元i按下式进行状态的调整计算,其他神经元的状态均保持不变,即,2023/6/13,16,神经元状态的调整次序可以按某种规定的次序进行,也可以随机选定。每次神经元在调整状态时,根据其当前净输入值的正负决定下一时刻的状态,因此其状态可能会发生变化,也可能保持原状。下次调整其他神经元状态时,本次的调整结果即在下一个神经元的净输入中发挥作用。网络的同步工作方式 网络

6、的同步工作方式是一种并行方式,所有神经元同时调整状态,即 xj(t+1)sgnnetj(t)j1,2,n,2023/6/13,17,7.2 稳定性分析,网络的稳定性是与收敛性不同的问题 Cohen和Grossberg1983年:Hopfield网络的稳定性定理 如果Hopfield网络的联接权矩阵是对角线为0的对称矩阵,则它是稳定的 用著名的Lyapunov函数作为Hopfield网络的能量函数 网络的稳定性与吸引子,2023/6/13,18,反馈网络是一种能存储若干个预先设置的稳定点(状态)的网络。运行时,当向该网络作用一个起原始推动作用的初始输入模式后,网络便将其输出反馈回来作为下次的输入

7、。经若干次循环(迭代)之后,在网络结构满足一定条件的前提下,网络最终将会稳定在某一预先设定的稳定点。设X(0)为网络的初始激活向量,它仅在初始瞬间t0时作用于网络,起原始推动作用。X(0)移去之后,网络处于自激状态,即由反馈回来的向量X(1)作为下一次的输入取而代之。反馈网络作为非线性动力学系统,具有丰富的动态特性,如稳定性、有限环状态和混沌(chaos)状态等。,2023/6/13,19,1网络的稳定性 由网络工作状态的分析可知,DHNN网实质上是一个离散的非线性动力学系统。网络从初态X(0)开始,若能经有限次递归后,其状态不再发生变化,即X(t+1)X(t),则称该网络是稳定的,2023/

8、6/13,20,如果网络是稳定的,它可以从任一初态收敛到一个稳态,如图62(a)所示;若网络是不稳定的,由于DHNN网每个节点的状态只有1和-l 两种情况,网络不可能出现无限发散的情况,而只可能出现限幅的自持振荡,这种网络称为有限环网络,图62(b)给出了它的相图。如果网络状态的轨迹在某个确定的范围内变迁,但既不重复也不停止,状态变化为无穷多个,轨迹也不发散到无穷远,这种现象称为混沌,其相图如图62(c)所示。对于DHNN网,由于网络的状态是有限的,因此不可能出现混沌现象。,2023/6/13,21,网络的稳定性与下面将要介绍的能量函数密切相关,利用网络的能量函数可实现优化求解功能。网络的能量

9、函数在网络状态按一定规则变化时,能自动趋向能量的极小点。如果把一个待求解问题的目标函数以网络能量函数的形式表达出来,当能量函数趋于最小时,对应的网络状态就是问题的最优解。网络的初态可视为问题的初始解,而网络从初态向稳态的收敛过程便是优化计算过程,这种寻优搜索是在网络演变 过程中自动完成的。,2023/6/13,22,2吸引子与能量函数 网络达到稳定时的状态X,称为网络的吸引子。一个动力学系统的最终行为是由它的吸引子决定的,吸引子的存在为信息的分布存储记忆和神经优化计算提供了基础。如果把吸引子视为问题的解,那么从初态朝吸引子演变的过程便是求解计算的过程。若把需记忆的样本信息存储于网络不同的吸引子

10、,当输入含有部分记忆信息的样本时,网络的演变过程便是从部分信息寻找全部信息,即联想回忆的过程。,2023/6/13,23,下面给出DHNN网吸引子的定义和定理。定义71 若网络的状态X满足Xf(WX T),则称X为网络的吸引子。能使网络稳定在同一吸引子的所有初态的集合,称为该吸引子的吸引域。下面给出关于吸引域的两个定义。定义72 若Xa是吸引子,对于异步方式,若存在一个调整次序,使网络可以从状态X演变到Xa,则称X弱吸引到Xa;若对于任意调整次序,网络都可以从状态X演变到 Xa,则称X强吸引到Xa。,2023/6/13,24,定义73 若对某些X,有X弱吸引到吸引子Xa,则称这些X的集合为Xa

11、的弱吸引域;若对某些X,有X强吸引到吸引子Xa,则称这些X的集合为Xa的强吸引域。欲使反馈网络具有联想能力,每个吸引子都应该具有一定的吸引域。只有这样,对于带有一定噪声或缺损的初始样本,网络才能经过动态演变而稳定到某一吸引子状态,从而实现正确联想。反馈网络设计的目的就是要使网络能落到期望的稳定点(问题的解)上,并且还要具有尽可能大的吸引域,以增强联想功能。,2023/6/13,25,例62 有一DHNN网,n4,Tj0,jl,2,3,4,向量Xa、Xb和权值矩阵W分别为,检验Xa和Xb是否为网络的吸引子,并考察其是否具有联想记忆能力。,2023/6/13,26,解 本例要求验证吸引子和检查吸引

12、域,下面分两步进行。检验吸引子 由吸引子定义,2023/6/13,27,所以Xa是网络的吸引子,因为XbXa,由吸引子的性质1知,Xb也是网络的吸引子。考察联想记忆能力 设有样本Xl(1,1,1,1)T、X2(1,1,1,1)T、X3(1,1,1,1)T,试考察网络以异步方式工作时两个吸引子对3个样本的吸引能力。令网络初态X(0)X1(1,1,1,1)T。设神经元状态调整次序为1234,有 X(0)(1,1,1,1)TX(1)(1,1,1,1)TXa 可以看出该样本比较接近吸引子Xa,事实上只按异步方式调整了一步,样本X1即收敛于Xa。,2023/6/13,28,令网络初态X(0)X2(1,1

13、,1,1)T。设神经元状态调整次序为1234,有X(0)(1,1,1,1)TX(1)(1,1,1,1)TXb 可以看出样本X2比较接近吸引子Xb,按异步方式调整一步后,样本X2收敛于Xb。令网络初态X(0)X3(1,1,1,1)T,它与两个吸引子的海明距离相等。若设神经元状态调整次序为1234,有 X(0)(1,1,1,1)TX(1)(1,1,1,1)T X(2)(l,1,l,1)TXb,2023/6/13,29,若将神经元状态调整次序改为3412,则有 X(0)=(1,1,1,1)TX(1)(1,1,1,1)TX(2)(1,1,l,1)TXa 从本例可以看出,当网络的异步调整次序一定时,最终

14、稳定于哪个吸引子与其初态有关;而对于确定的初态,网络最终稳定于哪个吸引子与其异步调整次序有关。,2023/6/13,30,定理71 对于DHNN网,若按异步方式调整网络状态,且连接权矩阵W为对称阵,则对于任意初态,网络都最终收敛到一个吸引子。下面通过对能量函数的分析对定理71进行证明。定义网络的能量函数为:,2023/6/13,31,2023/6/13,32,2023/6/13,33,Lyapunov函数能量函数,作为网络的稳定性度量wijoioj:网络的一致性测度。xjoj:神经元的输入和输出的一致性测度。joj:神经元自身的稳定性的测度。,2023/6/13,34,当ANk的状态从ok变成

15、ok,1、ANk是输入神经元,2023/6/13,35,当ANk的状态从ok变成ok,wkk=0,2023/6/13,36,=-(netk-k)ok,ANk状态的变化:ok=(ok-ok)ok=0,=0,ok0,ok=1&ok=0,ok由0变到1,netkk,netk-k0所以,-(netk-k)ok0故0,结论:网络的目标函数总是下降,ok0,ok=0&ok=1,ok由1变到0netkk,netk-k0-(netk-k)ok0故0,2023/6/13,37,当ANk的状态从ok变成ok,2、ANk不是输入神经元,2023/6/13,38,当ANk的状态从ok变成ok,无论ANk的状态是如何变

16、化的,总有 0,2023/6/13,39,7.3 统计Hopfield网与Boltzmann机,统计Hopfield网 在网络运行中,神经元状态与“人工温度”确定的概率相关网络运行模拟金属退火过程,pi:ANi的状态取1的概率neti:ANi所获网络输入;i:ANi的阈值;T:系统的人工温度。,2023/6/13,40,算法 7-1 统计Hopfield网运行算法,1取一个很大的值作为人工温度T的初值;2对网络中每一个神经元ANi,2.1 按照相应式子计算相应的概率pi;2.2 按照均匀分布,在0,1中取一个随机数r;2.3 如果 pir 则使ANi的状态为1,否则使ANi的状态为0;3 逐渐

17、降低温度T,如果温度足够低,则算法结束。否则,重复2,2023/6/13,41,Boltzmann机的训练,Boltzmann机是多级循环网络,是Hopfield网的一种扩展。神经元ANi实际输出状态oi=1的概率为:,T趋近于0时,神经元的状态不再具有随机性,Boltzmann机退化成一般Hopfield网。,2023/6/13,42,Boltzmann机的训练,2023/6/13,43,Boltzmann机的训练,2023/6/13,44,Boltzmann机的训练,Boltzmann机是多级循环网络,是Hopfield网的一种扩展。神经元ANi网络输入为:,T趋近于0时,神经元的状态不再

18、具有随机性,Boltzmann机退化成一般Hopfield网。,2023/6/13,45,Boltzmann机的训练,神经元ANi实际输出状态oi=1的概率为,神经元ANi实际输出状态oi=0的概率为,显然 越大,则 oi 取1的概率越大,2023/6/13,46,Boltzmann机的训练,神经元ANi在运行中状态发生了变化,Boltzmann机的能量函数(一致性函数),2023/6/13,47,Boltzmann机的训练,如果i0,神经元ANi处于状态1的概率就应该越大,否则,神经元ANi处于状态0的概就应该越大。i的值越大,神经元ANi应该处于状态1的概率就应该越大。反之,i的值越小,神

19、经元ANi应该处于状态1的概率就应该越小。从而,oi=1的概率为:,2023/6/13,48,Boltzmann机的训练,处于状态a,b的概率Pa和Pb,对应于oi=1和oi=0,其它的神经元在a,b状态下不变 Pa=pi Pb=(1-pi),当系统的温度较低时,如果EaPb:网络处于较低能量状态的概率较大,2023/6/13,49,Boltzmann机的训练,网络进行足够多次迭代后,处于某状态的概率与此状态下的能量和此时系统的温度有关。由于高温时网络的各个状态出现的概率基本相同,这就给它逃离局部极小点提供了机会。,2023/6/13,50,Boltzmann机的训练,1986年,Hinton

20、和Sejnowski训练方法自由概率Pij-:没有输入时ANi和ANj同时处于激发状态的概率。约束概率Pij+:加上输入后ANi和ANj同时处于激发状态的概率。联接权修改量:wij=(Pij+-Pij-),2023/6/13,51,算法7-2 Boltzmann机训练算法,1计算约束概率 1.1 对样本集中每个样本,执行如下操作:1.1.1 将样本加在网络上(输入向量及其对应的输出向量);1.1.2 让网络寻找平衡;1.1.3 记录下所有神经元的状态;1.2 计算对所有的样本,ANi和ANj的状态同时为1的概率Pij+;,2023/6/13,52,算法7-2 Boltzmann机训练算法,2

21、计算自由概率 2.1 从一个随机状态开始,不加输入、输出,让网络自由运行,并且在运行过程中多次纪录网络的状态;2.2 对所有的ANi和ANj,计算它们的状态同时为1的概率Pij-;3 对权矩阵进行调整wij=(Pij+-Pij-),2023/6/13,53,7.7 Hopfield网解决TSP问题,1985年,J.J.Hopfield和D.W.Tank用循环网求解TSP。试验表明,当城市的个数不超过30时,多可以给出最优解的近似解。而当城市的个数超过30时,最终的结果就不太理想了 设问题中含有n个城市,用n*n个神经元构成网络,2023/6/13,54,应用CHNN网解决优化计算问题 用CHN

22、N网解决优化问题一般需要以下几个步骤:(1)对于特定的问题,要选择一种合适的表示方法,使得神经网络的输出与问题的解相对应;(2)构造网络能量函数,使其最小值对应于问题的最佳解;(3)将能量函数与Lyapunov函数标准形式进行比较,可推出神经网络的权值与偏流的表达式,从而确定了网络的结构;(4)由网络结构建立网络的电子线路并运行,其稳态就是在一定条件下的问题优化解。也可以编程模拟网络的运行方式,在计算机上实现。,2023/6/13,55,TSP问题是一个经典的人工智能难题。对n个城市而言,可能的路径总数为n!2n。随着n的增加,路径数将按指数率急剧增长,即所谓“指数爆炸”。当n值较大时,用传统

23、的数字计算机也无法在有限时间内寻得答案。例如,n50时,即使用每秒1亿次运算速度的巨型计算机按穷举搜索法,也需要51048年时间。即使是n20个城市,也需求解350年。1985年Hopfield和Tank两人用CHNN网络为解决TSP难题开辟了一条崭新的途径,获得了巨大的成功。,2023/6/13,56,其基本思想是把TSP问题映射到CHNN网络中去,并设法用网络能量代表路径总长。这样,当网络的能量随着模拟电子线路状态的变迁,最终收敛于极小值(或最小值)时,问题的较佳解(或最佳解)便随之求得。此外,由于模拟电子线路中的全部元件都是并行工作的,所以求解时间与城市数的多少无关,仅是运算放大器工作所

24、需的微秒级时间,显著地提高了求解速度,充分展示了神经网络的巨大优越性。,2023/6/13,57,1TSP问题描述 为使CHNN网络完成优化计算,必须找到一种合适的表示旅行路线的方法。鉴于TSP的解是n个城市的有序排列,因此可用一个由nn个神经元构成的矩阵(称为换位阵)来描述旅行路线。图7.5给出8城市TSP问题中的一条可能的有效路线的换位阵。,2023/6/13,58,TSP问题描述 为使CHNN网络完成优化计算,必须找到一种合适的表示旅行路线的方法。鉴于TSP的解是n个城市的有序排列,因此可用一个由nn个神经元构成的矩阵(称为换位阵)来描述旅行路线。图给出8城市TSP问题中的一条可能的有效

25、路线的换位阵。,2023/6/13,59,由于每个城市仅能访问一次,因此换位阵中每城市行只允许且必须有一个1,其余元素均为0。为了用神经元的状态表示某城市在某一有效路线中的位置,采用双下标 Yxi,第一个下标x表示城市名,1,2,n;第二个下标i表示该城市在访问路线中的位置,i1,2,n。例如,Y461表示旅途中第6站应访问城市4;若Y460则表示第6 站访问的不是城市4,而是其他某个城市。图78中的换位阵所表示的旅行路线为:425813764,旅行路线总长为d42+d25+d58+d81+d13+d37+d76+d64。,2023/6/13,60,7.7 Hopfield网解决TSP问题,d

26、xy城市X与城市Y之间的距离;vxi城市X的第i个神经元的状态:1城市X在第i个被访问vxi=0城市X不在第i个被访问wxi,yj城市X的第i个神经元到城市Y的第j个神经元的连接权。,2023/6/13,61,7.7 Hopfield网用于解决TSP问题,例如:四个城市X、Y、Z、W,2023/6/13,62,能量函数设计 用CHNN求解TSP问题的关键是构造一个合适的能量函数。TSP问题的能量函数由4部分组成:(1)能量E1城市行约束 当每个城市行中的1不多于一个时,应有第x行的全部元素vxi按顺序两两相乘之和为0,即,从而全部n行的所有元素按顺序两两相乘之和也应为零,即,=0,2023/6

27、/13,63,按此约束可定义能量E1为,式中A为正常数。显然,当E10时可保证对每个城市访问的次数不超过一次。(2)能量E2位置列约束 同理,当每个位置列中的1不多于一个时,应有第i列的全部元素vxi按顺序两两相乘之和为0,即,因此,全部n列的所有元素按顺序两两相乘之和也应为零,即,=0,2023/6/13,64,按此约束可定义能量E2为,式中B为正常数。显然,当E20时就能确保每次访问的城市数不超过一个。(3)能量E3换位阵全局约束 E10和E20只是换位阵有效的必要条件,但不是充分条件。容易看出,当换位阵中各元素均为“0”时,也能满足El0和E20,但这显然是无效的。因此,还需引入第三个约

28、束条件全局约束条件,以确保换位阵中1的数目等于城市数n,即,2023/6/13,65,因此定义能量E 为,式中C为正常数。则E30可保证换位阵中1的数目正好等于n。,2023/6/13,66,(4)能量E4旅行路线长度 同时满足以上3个约束条件只能说明路线是有效的,但不一定是最优的。依题意,在路线有效的前提下,其总长度应最短。为此在能量函数中尚须引入一个能反映路线总长度的分量E4,其定义式要能保证E4随路线总长度的缩短而减小。为设计E4,设任意两城市x与y间的距离为dxy。访问这两个城市有两种途径,从x到y,相应的表达式为 dxy(vxi,vy,i+1);从y到x,则相应的表达式为dyx(vx

29、i,vy,i1)。如果城市x和y在旅行顺序中相邻,则当(vxi,vy,i+1)1时,必有(vxi,vy,i1)0;反之亦然。因此,有dxy(vxi,vy,i1)(vxi,vy,i1dxy。若定义n个城市各种可能的旅行路线长度为,2023/6/13,67,式中D为正常数,当E4最小时旅行路线最短。综合以上4项能量,可得TSP问题的能量函数如下:,(6.30),2023/6/13,68,网络的能量函数,2023/6/13,69,7.7 Hopfield网用于解决TSP问题,联接矩阵 wxi,yj=-Axy(1-ij)Bij(1-xy)C dxy(ji+1+ji-1)1如果i=jij=0如果ij,2

30、023/6/13,70,图给出用CHNN网解决10城市TSP问题的结果。图(a)为最优解,图(b)为较佳解。,2023/6/13,71,按照穷举法,我国31个(尚未计入香港特区)直辖市、省会和自治区首府的巡回路径应有约1.3261032种。我国学者对中国旅行商CTSP(Chinese TSP)问题进行了大量的研究,最新成果已达到15 449km。所得最短巡回路径为17102km。采用Hopfield经典算法,所得到的400个解中最短路径为21 777km。在Hopfield经典算法基础上增加约束条件,最短路径为16262km。在Hopfield经典算法基础上将所有城市分成3部分后,求得最短路径为15 904km。,2023/6/13,72,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号