人工神经网络基础知识.ppt

上传人:牧羊曲112 文档编号:5194587 上传时间:2023-06-13 格式:PPT 页数:62 大小:1.55MB
返回 下载 相关 举报
人工神经网络基础知识.ppt_第1页
第1页 / 共62页
人工神经网络基础知识.ppt_第2页
第2页 / 共62页
人工神经网络基础知识.ppt_第3页
第3页 / 共62页
人工神经网络基础知识.ppt_第4页
第4页 / 共62页
人工神经网络基础知识.ppt_第5页
第5页 / 共62页
点击查看更多>>
资源描述

《人工神经网络基础知识.ppt》由会员分享,可在线阅读,更多相关《人工神经网络基础知识.ppt(62页珍藏版)》请在三一办公上搜索。

1、2 人工神经网络基础知识,2.1人工神经网络的生物学基础,人的智能来自于大脑,大脑是由大量的神经细胞或神经元组成的。每个神经元可以看作为一个小的处理单元,这些神经元按照某种方式互相连接起来,构成了大脑内部的生物神经元网络,他们中各神经元之间连接的强弱,按照外部的激励信号作自适应变化,而每个神经元又随着接收到的多个激励信号的综合大小呈现兴奋或抑制状态。据现在的了解,大脑的学习过程就是神经元之间连接强度随外部激励信息做自适应变化的过程,大脑处理信息的结果确由神经元的状态表现出来。显然,神经元是信息处理系统的最小单元。虽然神经元的类型有很多种,但其基本结构相似。,神经元是大脑处理信息的基本单元人脑约

2、由101l-1012个神经元组成,其中,每个神经元约与104-105个神经元通过突触联接,形成极为错纵复杂而且又灵活多变的神经网络神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成,一、生物神经元,生物神经元网络结构,树突是树状的神经纤维接收网络,它将电信号传送到细胞体细胞体对这些输入信号进行整合并进行阈值处理轴突是单根长纤维,它把细胞体的输出信号导向其他神经元一个神经细胞的轴突和另一个神经细胞树突的结合点称为突触,神经元的排列和突触的强度(由复杂的化学过程决定)确立了神经网络的功能。

3、,生物学研究表明一些神经结构是与生俱来的,而其他部分则是在学习的过程中形成的。在学习的过程中,可能会产生一些新的连接,也可能会使以前的一些连接消失。这个过程在生命早期最为显著。,二、突触的信息处理,生物神经元传递信息的过程为多输入、单输出;神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近;当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质;突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。抑制性-神经元虽然接收到其他神经元传递的信息,但没有向外传递信息,该神经元称“抑制性”的;

4、兴奋性-当一个神经元的树突接收的兴奋信息累计超过阈值,该神经元被激活并传递出信息给其他神经元。,三、信息传递功能与特点,具有时空整合能力时间整合各输入脉冲抵达神经元的先后时间不同,一个脉冲引起的突触后电位很小,但随着时间延续,另有脉冲到达,总的突触后电位就增大。空间整合在同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。这种累加求和称空间整合。不可逆性,脉冲只从突触前传到突触后,不逆向传递 神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1150ms之间 信息传递时延和不应期,一般为0.3lms可塑性,突触传递信息的强度是可变的,即具有学习功能 存在学习、遗忘

5、或疲劳(饱和)效应对应突触传递作用增强、减弱和饱和,2、生物神经系统的六个基本特征:1)神经元及其联接;2)神经元之间的联接强度决定信号传递的强弱;3)神经元之间的联接强度是可以随训练改变的;4)信号可以是起刺激作用的,也可以是起抑制作用的;5)一个神经元接受的信号的累积效果决定该神经元的状态;6)每个神经元可以有一个“阈值”。,2.人工神经元模型,人工神经网络是在现代神经生物学研究基础上提出的模拟生物过程以反映人脑某些特性的计算结构。它不是人脑神经系统的真实描写,而只是它的某种抽象、简化和模拟。根据前面对生物神经网络的研究可知,神经元及其突触是神经网络的基本器件。因此,模拟生物神经网络应首先

6、模拟生物神经元。,在人工神经网络中,神经元常被称为“处理单元”。有时从网络的观点出发常把它称为“节点”。人工神经元是对生物神经元的一种形式化描述,它对生物神经元的信息处理过程进行抽象,并用数学语言予以描述;对生物神经元的结构和功能进行模拟,并用模型图予以表达。,目前人们提出的神经元模型已有很多,其中最早提出且影响最大的,是1943年心理学家McCulloch和数学家WPitts在分析总结神经元基本特性的基础上首先提出的MP模型。该模型经过不断改进后,形成目前广泛应用的形式神经元模型。,关于神经元的信息处理机制,该模型在简化的基础上提出以下6点约定进行描述:,(1)每个神经元都是一个多输入单输出

7、的信息处理单元;(2)突触分兴奋性和抑制性两种类型;(3)神经元具有空间整合特性和阈值特性;(4)神经元输入输出间有固定的时滞,主要取决于突触延搁;(5)忽略时间整合作用和不应期;(6)神经元本身是非时变的,即其突触时延和突触强度均为常数。,MP模型:,称为作用函数或激发函数,MP模型,作用函数,求和操作,MP模型,f(x)是作用函数(Activation Function),也称激发函数。MP神经元模型中的作用函数为单位阶跃函数:,其表达式为:,激发函数的基本作用控制输入对输出的激活作用对输入、输出进行函数转换将可能无限域的输入变换成指定的有限范围内的输出,可知当神经元i的输入信号加权和超过

8、阈值时,输出为“1”,即“兴奋”状态;反之输出为“0”,是“抑制”状态。,MP模型,例、实现逻辑函数“与门”(AND gate)运算。1 真,0假,人工神经元的数学模型描述:,第j个神经元,接受多个其它神经元i在t时刻的输入xi(t),引起神经元j的信息输出为yj(t):,式中 wij神经元i到j的突触连接系数,即加权值;j神经元j的阈值;ij输入、输出间的突触时延;f()神经元转移(激活)函数.,为简单起见,将上式中的突触时延取为单位时间,则,式中 netjj单元激活值;netj=,其它各单元对第j个单元的输入,通过加权,按某种运算把输入信号的综合作用整合起来,给出它们的总效果称净输入。净输

9、入整合表达应有多种方式,人们探索到的人脑空间整合方式近似为线性求和。即单元净输入表为,为简便起见,省去式中(t),而且常用向量表示,式中 均为列向量:,若令,至此,人工神经元数学模型可简化为,看到,人工神经元模型较全面表现了前述点约定:()单输入多输出(显见);()用突触的正负体现突触的“兴奋与抑制;()净输入关系net和阈值,表现了空间整合特性和阈值特性;()y(t+1)与x(t)之间的单位时差表现了”突触延搁“;()没有考虑时间整合和不应期;()权系数与时间无关,体现了神经元的”非时变“。,2.3人工神经元转移函数,神经元的各种不同数学模型的主要区别在于采用了不同的转移函数,从而使神经元具

10、有不同的信息处理特性。而神经元的信息处理特性、网络拓补结构和网络学习方式是决定人工神经网络整体性能的三大要素,因此转移函数的研究具有重要意义。神经元的转移函数反映了神经元输出与其激活状态之间的关系,目前提出了多种,最常用的转移函数有以下几种形式。,1 阈值型转移函数 阈值型转移函数采用单位阶跃函数,也称硬限幅函数,用下式定义:,具有这一作用方式的神经元称为阈值型神经元,这是神经元模型中最简单的一种,经典的MP模型就属于此类。,硬限幅函数也可采用符号函数,如图,用下式定义,2 非线性转移函数,常用的是单极性sigmoid函数,简称S函数,函数本身及其导数都连续,处理上十分方便,变化范围是01,如

11、图所示,用下式定义,有时也采用双极性S型函数(双曲正切函数tanh(x)),其变化范围是-11,如图所示。其表达式为,3、线性函数,(1)线性作用函数:输出等于输入,即,(2)饱和线性作用函数,(3)对称饱和线性作用函数,4 概率型转移函数,采用概率型转移函数的神经元模型其输入与输出之间的关系是不确定的,需要用一个随机函数来描述输出状态的概率。如,设神经元输出为1的概率为,式中 T称温度参数。采用这种转移函数的神经元输出状态分布的典型代表是Boltzmann 机。,5、高斯函数,反映出高斯函数的宽度,还有许多转移函数的数学模型,不一一介绍。,2.4人工神经网络模型,大量神经元组成庞大的神经网络

12、,才能实现对复杂信息的处理与存储,并表现出各种优越的特性。神经网络的强大功能与其大规模并行互连、非线性处理以及互连结构的可塑性密切相关。因此必须按一定规则将神经元连接成神经网络,并使网络中各神经元的连接权按一定规则变化。生物神经网络由数以亿计的生物神经元连接而成,而人工神经网络限于物理实现的困难和为了计算简便,是由相对少量的神经元按一定规律构成的网络。,人工神经元网络要显示出人脑的某些的基本特征:(1)分布存储和容错性(2)大规模并行处理(3)自学习、自组织和自适应(4)大量神经元群体行为,表现出复杂非线性系统特性,人们对网络模型做了大量研究,目前人工神经网络的模型很多,已有近百种,可以按照不

13、同的方法进行分类。按网络性能可分-连续性和离散性、确定性和随机性网络;按学习方式可分-有导师和无导师 学习方式网络。常见的分类方法-按网络连接的拓扑结构分类和按网络内部 的信息流向分类。如按网络内部的信息流向分类:前馈(向)型网络和反馈型网络.,网络拓扑结构类型 网络拓扑结构的不同表现为神经元之间连接方式的不同。根据神经元之间的连接方式,可将神经网络结构分为层次型结构和互连型结构两大类。,层次型结构 层次型结构的神经网络将神经元按功能分成若干层,如输入层、中间层(也称为隐层)和输出层,各层顺序相连,如图 所示。,输入层各神经元负责接受来自外界的输入信息,并传递给中间各隐层神经元;隐层是神经网络

14、的内部信息处理层,负责信息变换,根据信息变换能力的需要,隐层可设计为一层或多层;,最后一个隐层传递到输出层各神经元的信息经进一步处理后即完成一次从输入到输出的信息处理,由输出层向外界(如执行机构或显示设备)输出信息处理结果。,层次型网络结构有3种典型的结构形式。(1)单纯层次型网络结构,神经元分层排列,各层神经元接受前一层输入并输出到下一层,层内神经元自身以及神经元之间不存在连接通路。,单纯层次型网络结构,(2)层内有互连的层次型网络结构,这种结构的特点是在同一层内引入神经元间的侧向作用,使得能同时激活的神经元个数可控,以实现各层神经元的自组织。,(3)输出层到输入层有连接的层次型网络结构,输

15、出层到输入层有连接路径,其输入层神经元既可接受输入,也具有信息处理功能。,互连型结构 对于互连型网络结构,网络中任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的互连程度将互连型网络结构细分为全互连型网络、局部互连型网络、稀疏连接型网络3种情况。(1)全互连型网络,每个节点均与所有其他节点连接。,(2)局部互连型网络,(3)稀疏连接型网络节点只与少数相距较远的节点相连。,每个节点只与其邻近的节点有连接。,网络信息流向类型 从神经网络内部信息传递方向来分,可分为两种类型:前馈型网络和反馈型网络。1 前馈型网络 单纯前馈型网络的结构特点前述的分层网络完全相同,,前馈是因网络信息处理的方向

16、是从输入层到各隐层再到输出层逐层进行而得名。,从信息处理能力看,网络中的节点可分两种:一种是输入节点,只负责从外界引入信息后向前传递给第一隐层;另一种是具有处理能力的节点,包括各隐层和输出层节点。,前馈型网络中一层的输出是下一层的输人,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。,前馈(向)网络特点:(1)层次关系清楚每个神经元只与前一层神经元相连;隐层可多层.(2)反馈关系基本前馈网络无反馈关系;隐层自身互联,形成同层神经元之间横向抑制机制,大多自组织竞争型网络都采用此种;输出到输入层有反馈.对复杂图形的顺序选择和识别字符需要此类网络;

17、(3)属有导师学习型网络(输出值-教师信号-误差-实现权值自适应)(4)属于非线性映射网络,当提到具有单层计算神经元的网络时,指的应是一个两层前馈网络(输入层和输出层),当提到具有单隐层的网络时,指的应是一个三层前馈网络(输入层、隐层和输出层)。,2 反馈型网络反馈网络是指其信息流向的特点。在反馈网络中所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。,一般来说:互连型网络结构 属于反馈型网络,上面介绍的分类方法、结构形式和信息流向只是对目前常见的网络结构的概括和抽象。实际应用的神经网络可能同时兼有其中一种或几种形式。,例如,从连接形式看,层次型网络中可能出现

18、局部的互连;从信息流向看,前馈网络中可能出现局部反馈。,综合来看,前述的网络模型可分别称为:前馈层次型、前馈层内互连型、输入输出有反馈的前馈层次型反馈全互连型和反馈局部互连型。,反馈网络特点:(1)反馈关系 全互联网络;局部互联网络.(2)属于无导师学习网络(3)属于非线性动力学系统网络,前馈层次型,前馈层内互连型,输入输出有反馈的前馈层次型,反馈全互连型,反馈局部互连型,神经网络的拓扑结构是决定神经网络特性的第二大要素。,神经网络的开发工作分两个阶段:学习阶段(期):也称自适应期或设计期,通过学习样本或其他方法训练权矩阵;工作阶段(期):各连接权成熟(不再改变),求解实际问题,单元状态变迁,

19、以求达到稳态解.,人工神经网络连接权的确定通常有两种方法根据具体要求,直接计算,如Hopfield网络作优化计算通过学习得到的。大多数人工神经网络都采用这种方法,学习是改变各神经元连接权值的有效方法,也是体现人工神经网络智能特性最主要的标志。离开了学习,神经网络就失去了诱人的自适应、自组织能力,学习方法是人工神经网络研究中的核心问题,2.5人工神经网络的学习,人类具有学习能力,人类的知识和智慧是在不断的学习与实践中逐渐形成和发展起来的。学习可定义为:“根据与环境的相互作用而发生的行为改变,其结果导致对外界刺激产生反应的新模式的建立”。,学习过程离不开训练,学习过程就是一种经过训练而使个体在行为

20、上产生较为持久改变的过程.例如,游泳等体育技能的学习需要反复的训练才能提高,数学等理论知识的掌握需要通过大量的习题进行练习.一般来说,学习效果随着训练量的增加而提高,这就是学习的进步.,网络的运行一般分为学习(训练)和工作两个阶段。学习的目的是为了从训练数据中提取隐含的知识和规律,并存储于网络中供工作阶段使用。,学习的神经机制,涉及神经元如何分布、处理和存储信息等。这样的问题单用行为研究是不能回答的,必须把研究深入到细胞和分子水平。每一种心理功能,如记忆与思想,均归因于神经细胞组群的活动。大脑中,功能性的神经元连接、突触的形成是关键,医学研究表明:神经元之间的突触联系,其基本部分是先天就有的,

21、但其他部分是由于学习过程中频繁地给予刺激而成长起来的。突触的形成、稳定与修饰等均与刺激有关,随外界给予的刺激性质不同,能形成和改变神经元的突触联系。,神经网络的全体连接权值可用一个矩阵W表示,其整体内容反映了神经网络对于所解决问题的知识存储,神经网络能够通过对样本的学习训练,不断改变网络的连接权值以及拓扑结构,以使网络的输出不断地接近期望输出。这一过程称为神经网络的学习或训练,其本质是对可变权值的动态调整。,把修正权值的算法称为学习规则(学习算法等)。对单个处理单元,无论采用哪种学习规则进行调整,其算法都十分简单。但当大量处理单元集体进行权值调整时,网络就呈现出“智能”特性,其中有意义的信息就

22、分布地存储在调整后的权值矩阵W中。,神经网络具有学习功能是其最主要的特征之一,各种学习算法的研究在ANN理论与实践发展过程中起着重要作用.,人工神经网络的学习和计算机的机器学习有类似的分类,一类有导师学习(从例子中学习),一类无导师学习,还有一类为死记式学习。在ANN中,学习规则是修正权的一个算法,以获得满意的系统性能。现有的学习规则大体上可分为以下几类:,(1)有导师学习规则(纠错规则)依赖关于输出节点的外部反馈来改变权系数,使实际结点的输出与外部的期望输出相一致,即有导师学习规则。从方法上看,基于或等效于梯度下降方法,通过在局部最大改善的方向上,按照小步逐次进行修正,力图达到表示函数功能问

23、题的全局解,但不能保证得到全局最优解,同时还要求有大量的训练样本,因而收敛速度变慢。此外,这种规则对样本的表示次序变化比较敏感。,(2)无导师学习规则 学习表现为自适应于输入空间的检测规则。该规则的关键在于调整参数以反映观察事件的分布,即是将事件空间分类成输入活动区域,并有选择地对这些区域响应。,(3)死记式学习(相关规则)仅根据连接之间的激活水平改变权系数。常用于自联想网络,执行特殊记忆状态的死记式学习。,现在将要分别介绍常用的、基本的学习规则。可以认为,一个神经元是一个自适应单元,其权值可以根据它所接受的输入信号、它的输出信号以及对应的监督信号进行调整。日本著名神经网络学者Amari于19

24、90年提出一种神经网络权值调整的通用学习规则,该规则的图解表示见下图。,图中的神经元j是神经网络中的某个节点,其输入用向量X表示,该输入可以来自网络外部,也可以来自其他神经元的输出。,第i个输入与神经元j的连接权情用wij表示,连接到神经元j的全部权值构成了权向量Wj。应当注意的是,该神经元的阈值,对应的输入分量x0恒为-1。图中,rr(Wj,X,dj)称学习信号,该信号通常是W和X的函数,而在有导师学习时,它也是教师信号dj的函数。通用学习规则可表达为:权向量Wj在t时刻的调整量Wj(t)与 t时刻的输入向量X(t)和学习信号 r的乘积成正比。用数学式表示为 Wj(t)=rWj(t),X(t

25、),dj(t)X(t),Wj(t)=rWj(t),X(t),dj(t)X(t),式中,为正数,称为学习常数,其值决定了学习速率,也称学习率。基于离散时间调整时,下一时刻的权向量应为 Wj(t十1)=Wj(t)rWj(t),X(t),dj(t)X(t),不同的学习规则对r(Wj,X,dj)有不同的定义,从而形成各种各样的神经网络学习规则。下面对常用学习规则作一简要介绍。,在Hebbian学习规则中,学习信号简单地等于神经元的输出 权向量的调整公式为 权向量中,每个分量的调整由下式确定=i=0,1,,n上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。,2

26、51 Hebbian学习现则 1949年,心理学家DOHebb最早提出关于神经网络学习机理的“突触修正”假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元i与神经元j同时处于兴奋状态时,两者之间的连接强度应增强。(实质上就是条件反射学说,后来得到了神经细胞学说的证明)根据该假设定义的权值调整方法,称为Hebbian学习规则。,此外,要求权值初始化,即在学习开始前(t=0),先对Wj(0)赋予零附近的小随机数。Hebbian学习规则代表一种纯前馈、无导师学习。该规则在各种神经网络模型中起着重要的作用。下面用

27、一个简单的例子来说明具有简单网络的二进制和连续激活函数的Hebb学习情况。,例 已知有4输入单输出神经元网络,其阈值为0,学习率=1,3个输入样本向量和初始权向量分别为X1=1 2 1.5 0T,X2=1-0.5-2-1.5T,X3=0 1-1 1.5T,W(0)=1-1 0 0.5T,试按Hebb规则进行网络训练。,解 若神经元采用双极性硬限幅函数,即f(net)=sgn(net).学习过程如下步骤:(1)输入第一个样本X1,计算净输入net1,调整权向量为W(1)net1=W(0)TX1=1-1 0 0.51-2 1.5 0T=3W(1)=W(0)+sgn(net1)X1=W(0)+X1=

28、1-1 0 0.5T+1-2 1.5 0T=2-3 1.5 0.5T,(2)输入第二个样本X2,计算净输入net2,调整权向量为W(2)net2=W(1)TX2=2-3 1.5 0.51-0.5-2-1.5T=-0.25W(2)=W(1)+sgn(net2)X2=W(1)-X2=2-3 1.5 0.5T-1-0.5-2-1.5T=1-2.5 3.5 2T,(3)输入第三个样本X3,计算净输入net3,调整权向量W(3)net3=W(2)TX3=1-2.5 3.5 20 1-1 1.5T=-3W(3)=W(2)+sgn(net3)X3=W(2)-X3=1-2.5 3.5 2T-0 1-1 1.5

29、T=1-3.5 4.5 0.5T,可见,当转移函数为符号函数且=1时,H学习规则的权值调整将简化为权向量加或减输入向量。,下面看一下转移函数为双极性连续函数 时,此例权值调整情况:(1)net1=W(0)TX1=1-1 0 0.51-2 1.5 0T=3 y1=f(net1)=W(1)=W(0)+y1X1=1.905-2.81 1.357 0.5T(2)net2=W(1)TX2=-0.154 y2=f(net2)=W(2)=W(1)+y2X2=1.828-2.772 1.512 0.616T(3)net3=W(2)TX3=-3.36 y3=f(net3)=W(3)=W(2)+y3X3=1.82

30、8-3.70 2.44-0.785T,比较两种权值调整结果看出,在两种转移函数下的权值调整方向是一致的,但是,采用连续转移函数时,权值的调整力度相对减弱。,2。5。2感知器学习规则 感知器(Perceptron)是美国学者Rosenblatt 于1958年提出来的,实际上它是一个具有单层计算单元的神经元网络。他指出,感知器可以学会它能表示的任何事情,这个结论曾使不少人企图用感知器模仿人的视网膜来识别图像的某些特征。,对于感知器的学习规则,学习信号是通过神经元的期望输出和实际输出响应之间的差来决定。因而,学习信号等于 r=dj-yj 1 WjTX0式中 yj为实际输出,yj=sgn(WjTX)=

31、-1 WjTX0即感知器采用的是符号转移函数;dj为所期望的输出响应。因此,权值的调整公式为 Wj=(dj-sgn(WjTX)X wij=(dj-sgn(WjTX)xi i=1,2,n,请注意,这个规则仅对二进制神经元响应是可以应用的,而且上式表达了属于双极二进制情况下的规则。在这种规则下,当且仅当yj是不正确情况,权重得到调节。,感知器学习规则属于有导师学习规则,权重可以在任何值上初始化。感知器理论是研究其他神经网络的基础,感知器学习规则对于神经网络的有导师学习有极为重要的意义。,2.5.3(Delta)学习规则 学习规则又称最小均方规则(LMS)。它利用目标激活值与所得的激活值之差进行学习

32、。其方法是:调整联系强度,使这个差减小。学习规则唯一适用于单极性和双极性Sigmoid型转移函数以及在有导师训练模式中定义的连续激活函数。学习信号定义如下:,式中 是对于 计算得激活函数 的导数。,则,权值调整公式为=,i=0,1,2.n,该学习规则可由实际输出值yj和期望输出值dj之间最小平方误差的条件推导出来。定义神经元实际输出与期望输出间的平方误差为,式中,误差E是权向量Wj函数。欲使误差E最小,Wj应与误差的负梯度成正比,即,=-(Wj沿E的负梯度方向变化)(#),式中,比例系数是一个正常数,为误差梯度.,=-,代入#式得权值调整计算式,=,式子 得到证明。对于这种训练方法,权可以在任

33、何值上得到初始化。1986年McClelland和Rumelhart将规则引入作为神经元网络的训练。这个规则并行于离散感知器学习规则,它亦可称作为连续感知器训练规则。学习规则能够被推广用于多层网络。,例 设有3输入单输出网络,将阈值含于权向量内,即学习率-1 1-2 0T,-1 0 1.5-0.5T,-1-1 1 0.5T,0.5 1-1 0T,试按规则进行网络学习.,解:设转移函数为双极性连续函数则 或,第一步 输入样本X1,计算净输入net1及权向量W(1)net1=W(0)TX1=2.5,0.526 0.974-0.948 0T,第二步 计算输入样本X2.计算净输入net2及权向量W(2

34、)net2=W(1)TX2=-1.948,0.531 0.974-0.956 0.002T,第三步,因为每步中,0.505 0.947-0.929 0.016T,所以每步权值均得到修正,这种方法常要求小的值.,2。5。4 WidrowHoff学习规则 1962年WidrowHoff提出了一种能应用于神经元网络的有导师训练的学习规则。因为它使在期望输出值dj和神经元的激活值net=WjTX之间平方误差最小,所以这种学习规则和采用的神经元的激活函数无关,因而不需要对转移函数求导,学习速度快,且具有较高的学习精度。这种规则的学习信号用下式定义,r=dj-WjTX权向量增量为:Wj=(dj-WjTX)

35、X或者 wij=(dj-WjTX)xi i=1,2,n 这种学习规则中,权可以在任何值上被初始化。,2 5 5 相关(Correlation)学习规则相关学习规则学习信号规定为 r=dj权向量和单个权的调节分别为 Wj=djX wij=djxi i=1,2,n,这个简单的规则说明了如果dj是由于Xi的期望响应,相应的权增加与它们之积成比例。这个规则典型地被应用于具有二进制响应神经元的记忆网络中进行数据记录。它能够被解释为具有二进制的激活函数并且由于yj=dj的Hebb规则的特殊情况。但是Hebb学习规则是在无导师环境下实现的而相关学习是有导师的。类似于Hebb学习,这种学习规则亦要求权初始化W

36、(0)=0。,2 56 WinnerTakeAll(胜者为王)学习规则 这种学习规则本质上不同于前面所讨论过的任何规则。WinnerTakeAll学习规则是一种竞争学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入X,竞争层的所有p个神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元。如果第m个神经元获胜,则WinnerTakeAll学习规则如图所示。,即:,只有获胜神经元才有权调整其权向量Wm,调整量为,=(),或,式中,(0,1),是学习常数,一般其值随着学习的进展而减小。,由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的结果是使Wm进一步接近当前输入X。显然,当下次出现与 X相像的输入模式时,上次获胜的神经元更容易获胜。在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为输入样本空间的聚类中心。,在有些应用中,以获胜神经元为中心定义一个获胜邻域,除获胜神经元调整权值外,邻域内的其他神经元也程度不同地调整权值。权值一般被初始化为任意值并进行归一化处理。,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号