《神经网络学习》PPT课件.ppt

上传人:牧羊曲112 文档编号:5563526 上传时间:2023-07-28 格式:PPT 页数:51 大小:1,022.50KB
返回 下载 相关 举报
《神经网络学习》PPT课件.ppt_第1页
第1页 / 共51页
《神经网络学习》PPT课件.ppt_第2页
第2页 / 共51页
《神经网络学习》PPT课件.ppt_第3页
第3页 / 共51页
《神经网络学习》PPT课件.ppt_第4页
第4页 / 共51页
《神经网络学习》PPT课件.ppt_第5页
第5页 / 共51页
点击查看更多>>
资源描述

《《神经网络学习》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《神经网络学习》PPT课件.ppt(51页珍藏版)》请在三一办公上搜索。

1、第6.6节 神经网络学习,王庆江计算机科学与技术系,2008-2009学年第1学期,神经网络学习,摘自Talking Nets:An Oral History of Neural Networks封面,2008-2009学年第1学期,神经网络学习,6.6.1 神经网络基础,公元前400年左右,柏拉图和亚里士多德就曾对人类认知、记忆、思维进行过研究;19世纪末,出现了神经元学说;美国生物学家W.James在Physiology一书中提到,“人脑中两个基本单元靠得较近时,一个单元的兴奋会传到另一个单元;20世纪40年代,神经解剖学、神经生理学、神经元的电生理过程等有了突破性进展。,2008-200

2、9学年第1学期,神经网络学习,人脑中神经元(神经细胞)的结构,Nucleus:核 Cell body:细胞体 Dentrite:树突 Axon:轴突,2008-2009学年第1学期,神经网络学习,神经元之间的电信号传递,轴突后部裂出许多分枝,分枝末端有突触,突触与树突连接;轴突中的信号经突触转换为“阻止”或“激活”信号;当神经元的“净输入”超过阈值时,其沿轴突发出信号;改变突触的效能,神经元之间的影响随之改变,学习就发生了。,突触(神经键),2008-2009学年第1学期,神经网络学习,生物神经元的结构,摘自张仰森人工智能原理与应用随书课件,2008-2009学年第1学期,神经网络学习,194

3、3年,W.S.McCulloch和W.A.Pitts合作提出了第一个人工神经元模型(M-P模型);,2008-2009学年第1学期,神经网络学习,M-P神经元模型,树突,加和,细胞体,阈值,轴突,参考:http:/www.doc.ic.ac.uk/nd/surprise_96/journal/vol4/cs11/report.html#What%20is%20a%20Neural%20Network,突触,2008-2009学年第1学期,神经网络学习,1949年,Donala U.Hebb在“The Organization of Behavior”一书中认为学习的过程最终发生在神经元之间的突

4、触部位,突触的连接强度随着突触前后神经元的活动而变化;连接权的学习律正比于突触前后两个神经元的活动状态值的乘积;可假设权是对称的,细胞的互连结构是通过改变彼此的连接权创造出来的。,突触连接强度的可变性是学习和记忆的基础,2008-2009学年第1学期,神经网络学习,Hebb规则,这是神经网络的第1个学习算法;神经元的输出连接权值的调整公式,学习率,净输入,2008-2009学年第1学期,神经网络学习,1957年,Frank Rosenblatt在M-P模型基础上,定义了一个具有单层计算单元的神经网络结构,取名为“感知器”。,2008-2009学年第1学期,神经网络学习,设计一个神经网络模型,除

5、了明确网络的结构、神经元的传输函数(f);还要给出学习算法。学习算法用于得出神经网络中的各个参数。学习算法通常是迭代算法,对应神经网络的演变过程;算法收敛到一个稳定状态时,神经网络的各参数(连接权值、阈值等)就基本不变了;这个过程称为神经网络的学习或训练。,2008-2009学年第1学期,神经网络学习,人工神经网络的两个操作模式,训练模式(training mode)准备大量的有教师指导的(或无教师指导的)的训练样本(即实例),对ANN进行训练,确定ANN的内部参数(甚至结构)。使用模式(using mode)输入一个实际例子,让ANN分析并给出结果。,2008-2009学年第1学期,神经网络

6、学习,“感知器”是怎么训练的呢?,假设每个样本含 n 个属性,用向量(x1,x2,xn)表示;若X 为样本变量,XRn;wij 是 xi 到神经元 j 的连接权值,Wj 是神经元 j 的输入连接的权值向量,即Wj=(w1j,w2j,wnj);先随机设置wij和j,j 是神经元 j 的阈值;不同神经元的参数(包括连接权值和阈值)的学习是相互独立的,故只需给出一个神经元的学习算法。,2008-2009学年第1学期,神经网络学习,神经元 j 的参数怎么学习呢?,样本必须是有教师指导的,即预先知道其分类;输入(x1,x2,xn)时,神经元j的输出应为 dj。对于离散感知器,yj 按下式计算。则wij

7、的调整规则是 wij(t+1)=wij(t)+(dj-yj)xi,为调整步幅系数,0,2008-2009学年第1学期,神经网络学习,“感知器”对线性可分问题具有分类能力若样本空间为Rn,存在n-1维的超平面可将样本分为两类,则称线性可分。,存在至少一组wij和j,使得对应两个子空间的神经元输出分别为0和1。,2008-2009学年第1学期,神经网络学习,例:连接强度W的学习过程(=0.4),验证:(0,1,0)T(1,-1,-1)=-1(0,1,0)T(1,1,-1)=1,2008-2009学年第1学期,神经网络学习,“感知器”无法解决线性不可分问题;1969年,Minsky和Papert指出

8、了“感知器”的这种局限性,例如,“感知器”无法实现“异或”逻辑。,2008-2009学年第1学期,神经网络学习,设输入向量X=(x1,x2),神经元j的输出为:学习逻辑“与”时,有至少存在一组w1j、w2j 和满足上述方程组,即单结点感知器对2输入的逻辑“与”问题有分类能力。,2008-2009学年第1学期,神经网络学习,学习逻辑“异或”时,有不存在任何一组w1j、w2j 和满足上述方程组,即单结点感知器不能对2输入的逻辑“异或”问题求解。,2008-2009学年第1学期,神经网络学习,多层感知器,采用二层或多层感知器;只允许某一层的连接权值可调,因为无法知道网络隐层的神经元的理想输出;要允许

9、各层的连接权值可调,需要用1986年提出的误差反向传播(即BP)学习算法。多层感知器可解决单层感知器无法解决的某些问题,例如,用二层感知器就可解决异或问题。,2008-2009学年第1学期,神经网络学习,70年代,集成电路使计算机快速发展;在“感知器”局限性的困扰下,机器学习的热点由连接主义(即神经网络)转向符号主义;70年代被认为是ANN的研究低潮期,但仍有ANN的一些重要成果出现。72年,芬兰T.Kohonen教授提出了无教师学习网络SOM(Self-Organizing feature Map);76年,美国Grossberg教授提出了ART(Adaptive Resonnance Th

10、eory)。,自组织竞争网络模型,2008-2009学年第1学期,神经网络学习,自组织竞争神经网络模型,生物神经网络中,有侧抑制现象;一个神经元兴奋,通过突触抑制相邻神经元;它越兴奋,对周围神经元的抑制作用越强。抑制现象使神经元之间出现竞争;起初,各神经元都处于(不同程度)兴奋状态,最后“胜者为王”。自组织特征映射(SOM)和自适应共振理论(ART)都属于这类神经网络模型。,2008-2009学年第1学期,神经网络学习,SOM的典型结构,2008-2009学年第1学期,神经网络学习,SOM可实现聚类分析聚类在没有教师指导的情况下,自动寻找样本的属性关系,将相似的样本划归为一类。分类已知各样本的

11、类别,在类别知识(即教师信号)的指导下,形成分类规则,将各样本分到各自的类中。共同点:寻找样本-类的映射函数。,2008-2009学年第1学期,神经网络学习,样本相似度的测量,设 X1 和 X2 是表示两个样本的向量;欧式距离法余弦法(向量夹角法),2008-2009学年第1学期,神经网络学习,SOM中的竞争学习算法,对样本 X 和各神经元的连接权值向量 Wj 规一化寻找获胜的神经元,2008-2009学年第1学期,神经网络学习,SOM中的竞争学习算法,网络输出与权值调整对Wj*(t+1)进行归一化如果足够小则退出;否则衰减,转,2008-2009学年第1学期,神经网络学习,1982年,美国物

12、理学家John J.Hopfield提出了一种全连接神经网络模型(即Hopfield模型);这是一种离散型反馈式神经网络(英缩写DHNN);引入了“能量函数”概念,支持对神经网络运行稳定性进行判定;成功求解旅行商问题(Traveling Salesman Problems)。1984年,他又提出了连续型Hopfield网络(英缩写CHNN)。,2008-2009学年第1学期,神经网络学习,离散型Hopfield神经网络的结构模型,一般有wii=0,wij=wji,2008-2009学年第1学期,神经网络学习,神经元的输出也称神经元的状态;所有神经元的状态构成反馈网络的状态 Y;Y=(y1,y2

13、,yn)网络输入就是网络状态的初始值 Y(0);Y(0)=(x1(0),x2(0),xn(0)由初始状态,网络开始演化。yj(t+1)=f(netj)这里,netj为神经元 j 的净输入,f()为神经元的特性函数(也称作用、传递或转移函数)。,2008-2009学年第1学期,神经网络学习,常见的特性函数,阈值型,S状(如sigmoid函数),分段线性(饱和线性),2008-2009学年第1学期,神经网络学习,对于DHNN,特性函数 f 可以是阈值型也可以是分段线性型净输入netj 的计算,2008-2009学年第1学期,神经网络学习,DHNN的两种学习方式,串行方式(也称异步方式)每次调整,只

14、有一个神经元按其净输入调整输出(即状态),而其他神经元保持状态不变;神经元状态的调整次序可按某种规定次序进行,也可随机选定。并行方式(也称同步方式)每次调整,各神经元都按其净输入调整各自的状态。,2008-2009学年第1学期,神经网络学习,DHNN可能收敛于某个稳定状态,也可能产生振荡构成极限环;在串行方式下,为使网络收敛,W 应为对称阵;在并行方式下,为使网络收敛,W 应为非负定对称阵;保证给定的样本是网络的吸引子,且有一定的吸引域。,参考:朱大奇,史慧.人工神经网络原理及应用.第3章.科学出版社,2006年3月第1版.,2008-2009学年第1学期,神经网络学习,连续型Hopfield

15、神经网络模型该模型可表示为下列的非线性微分方程组:ui 是神经元i的膜电位,Ci 和 Ri 分别是输入电容和电阻,Ii 是电路外的输入电流,wij 是神经元i 到神经元j的连接强度,f(u)是u的非线性函数。,这是一个N输入、N输出的有N组运算放大器的电路,每个运放输出有到各运放输入的反馈通路。,2008-2009学年第1学期,神经网络学习,连续型Hopfield神经网络的神经元模型,Vj 可对应0至1之间的任意实数,2008-2009学年第1学期,神经网络学习,Hopfield网络是一种非线性的动力网络;可通过反复的网络动态迭代来求解问题,这是符号逻辑方法所不具有的特性;在求解某些问题时,其

16、求解方法与人类的求解方法很相似;所求得的解可能不是最佳解,但其求解速度快。,2008-2009学年第1学期,神经网络学习,1986年,MIT出版社(Cambridge)出版了J.L.Rumelhart和D.E.McClelland主编的“Parallel Distributed Processing:Exploration in the Microstructures of Cognition”一书;其中,详细分析了多层前馈网络中的误差反向传播(Error Back Propagation)算法,即BP算法,它很好地解决了感知器局限性问题。,2008-2009学年第1学期,神经网络学习,前馈型

17、神经网络,2008-2009学年第1学期,神经网络学习,BP算法,正向传播从输入层到输出层,逐层计算结点状态;每一层结点的状态只影响下一层结点的状态。如输出层没有得到期望输出(即有误差),转入反向传播过程。反向传播将误差信号沿原路返回,通过修改各层的连接权值,使误差信号递减直到最小。,2008-2009学年第1学期,神经网络学习,BP算法的流程图,初始化,2008-2009学年第1学期,神经网络学习,多层前馈网络中的符号,xi:样本的第 i 个属性yi:输出层神经元 i 的输出di:输出层神经元 i 的期望输出wijk:第i层神经元 j 到第 i+1层神经元 k 的连接权值oij:第 i 层神

18、经元 j 的输出ij:第 i 层神经元 j 的阈值netij:第 i 层神经元 j 的净输入Ni:第 i 层神经元的数目,2008-2009学年第1学期,神经网络学习,BP算法中的前向计算,特征函数必须是有界连续可微的,如sigmoid函数,2008-2009学年第1学期,神经网络学习,BP算法中的反向计算,2008-2009学年第1学期,神经网络学习,BP算法中的反向计算(续),2008-2009学年第1学期,神经网络学习,BP学习算法的特点,特性函数是连续可微的,通过学习可得到超曲面来划分样本空间;对于n层网络结构,学习后可得到n-1个超曲面,组成复合曲面,从而实现复杂的分类任务;缺点:算

19、法的收敛速度慢;依据梯度下降理论修改参数,可能出现局部极小问题。,2008-2009学年第1学期,神经网络学习,其他神经网络模型,BAM双向联想记忆神经网络CMAC小脑神经网络RBF径向基函数神经网络CPN对偶传播神经网络量子神经网络,参考:朱大奇,史慧.人工神经网络原理及应用.科学出版社,2006.3,2008-2009学年第1学期,神经网络学习,小结,人工神经网络是一种并行计算模型;不同于冯诺依曼计算机;但神经网络计算机还没有出现,一般在冯氏计算机上进行串行模拟。人工神经网络中知识是分布存储的;蕴含在连接权值、阈值、网络结构中;神经网络学习不仅是参数学习,还包括结构学习。对人类而言,完全透明,无法理解;,教材P252第2行,“不透明”应为“透明”,2008-2009学年第1学期,神经网络学习,小结(续),人工神经网络有较强的容错性和鲁棒性;对于样本少量错误不敏感。人工神经网络的学习能力有别于符号主义;在符号主义机器学习中,根据样本修改规则,怎么修改由人事先确定;而神经网络的学习从随机初始值开始,在理论上学习结果不依赖初始值,且学习过程无人工干预。,2008-2009学年第1学期,神经网络学习,小结(续),人工神经网络不适合高精度计算;神经网络的鲁棒性与精确计算本身就是矛盾的。人工神经网络的学习还有待研究。目前的学习算法中,使用了过多的经验参数;有些学习算法的收敛速度太慢。,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号