人工神经网络课件.ppt

上传人:牧羊曲112 文档编号:1622120 上传时间:2022-12-11 格式:PPT 页数:86 大小:2.93MB
返回 下载 相关 举报
人工神经网络课件.ppt_第1页
第1页 / 共86页
人工神经网络课件.ppt_第2页
第2页 / 共86页
人工神经网络课件.ppt_第3页
第3页 / 共86页
人工神经网络课件.ppt_第4页
第4页 / 共86页
人工神经网络课件.ppt_第5页
第5页 / 共86页
点击查看更多>>
资源描述

《人工神经网络课件.ppt》由会员分享,可在线阅读,更多相关《人工神经网络课件.ppt(86页珍藏版)》请在三一办公上搜索。

1、1,第3讲 人工神经网络,欧阳柳波,2/65,人工神经网络的进展,初创阶段(二十世纪四十年代至六十年代): 1943年,美国心理学家W. S. Mcculloch和数理逻辑学家 和数理逻辑学家W. Pitts 提出了神经元的数学模型,即MP( Mcculloch-Pitts )模型以数学逻辑为研究手段,探讨了客观事件在神经网络的形式问题1960年,威德罗和霍夫率先把神经网络用于自动控制研究。过渡阶段(二十世纪六十年代初至七十年代)M. Minsky和S. Papert于1969 年出版Perceptron Perceptron从理论上证明了以单层感知机为代表的网络系统在某些能力方面的局限性。

2、60年代末期至 80年代中期,神经网络控制与神经网络进入低潮,3/65,人工神经网络的进展(续),高潮阶段(二十世纪八十年代)1982和1984年,美国加州理工学院的生物物理学J. J. Hopfield在美国科学院院刊发表的两 篇文章,有力地推动了人工神经网络的研究与应用,并引发了研究神经网络的一次热潮。80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。平稳发展阶段(二十世纪九十年代以后)和相关学科交叉融合,4/65,ANN 人工神经网络,概述基本原理前向型神经网络自组织竞争神经网

3、络神经网络的应用与人工智能原理的结合BP神经网络,5/65,概述,什么叫人工神经网络采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。为什么要研究神经网络用计算机代替人的脑力劳动。 计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。 长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。,6/65,概述,人工智能与神经网络共同之处:研究怎样使用计算机来模仿人脑工作过程,学习实践再学习再实践 。不同之处:人工智能研究人脑的推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。神经网络企图阐明人脑结构及其功能,以及一些相关学习、联想记

4、忆的基本规则(联想、概括、并行搜索、学习和灵活性),7/65,例如:人工智能专家系统是制造一个专家,几十年难以培养的专家。神经网络是制造一个婴儿,一个幼儿,一个可以学习,不断完善,从一些自然知识中汲取智慧的生命成长过程。 同样是模仿人脑,但所考虑的角度不同。成年人和婴儿学习过程不一样,8/65,概述,9/65,ANN 人工神经网络,概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络,10/65,基本原理,11/65,12/65,13/65,生物神经元,神经元由细胞体、树突和轴突组成。细胞体是神经元的主体,它由细胞核、细胞质和细胞膜三部分构成.从细胞体向外

5、延伸出许多突起,其中大部分突起呈树状,称为树突.树突起感受作用,接受来自其他神经元的传递信号. 由细胞体伸出的一条最长的突起,用来传出细胞体产生的输出信号,称之为轴突;轴突末端形成许多细的分枝,叫做神经末梢;每一条神经末梢可以与其他神经元形成功能性接触,该接触部位称为突触。所谓功能性接触是指非永久性接触,它是神经元之间信息传递的奥秘之处。,14/65,一个神经元把来自不同树突的兴奋性或抑制性输入信号(突触后膜电位)累加求和的过程,称为整合。考虑到输入信号的影响要持续一段时间(毫秒级),因此,神经元的整合功能是一种时空整合。当神经元的时空整合产生的膜电位超过阈值电位时,神经元处于兴奋状态,产生兴

6、奋性电脉冲,并经轴突输出;否则,无电脉冲产生,处于抑制状态。,15/65,16/65,图2 一种简化神经元结构,17/65,人工神经元模型,每一个细胞处于两种状态。突触联接有强度。多输入单输出。实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。,图3 人工神经元的结构模型,一般地,人工神经元的结构模型如图3所示。它是一个多输入单输出的非线性阈值器件。其中 x1,x2,xn表示神经元的n个输入信号量; w1,w2,wn表示对应输入的权值,它表示各信号源神经元与该神经元的连接强度; U表示神经元的输入总和,它相应于生物神经细胞的膜电位,称为激活函数;y为神经元的输出;表示神经元的阈值。,18/6

7、5,19/65,于是,人工神经元的输入输出关系可描述为:,函数y=f(U)称为特性函数(亦称作用、传递、激活、活化、转移函数)。特性函数可以看作是神经元的数学模型。,20/65,1. 阈值型,2. S型 这类函数的输入输出特性多采用指数、对数或双曲正切等S型函数表示。例如,S型特性函数反映了神经元的非线性输出特性。,常见的特性函数有以下几种:,21/65,3.分段线性型神经元的输入输出特性满足一定的区间线性关系,其特性函数表达为,式中,K、Ak均表示常量。,22/65,人工神经元模型,以上三种特性函数的图像依次如下图中的(a)、(b)、(c)所示神经细胞的输出对输入的反映。典型的特性函数是非线

8、性的。,23/65,基本原理网络结构,人脑神经网络:人脑中约有亿个神经细胞根据Stubbz的估计这些细胞被安排在约个主要模块内,每个模块上有上百个神经网络,每个网络约有万个神经细胞。 如果将多个神经元按某种的拓扑结构连接起来,就构成了神经网络。 根据连接的拓扑结构不同,神经网络可分为四大类:分层前向网络、反馈前向网络、互连前向网络、广泛互连网络。,24/65,基本原理网络模型,分层前向网络:每层只与前层相联接 网络由若干层神经元组成,一般有输入层、中间层(又称隐层,可有一层或多层)和输出层,各层顺序连接;且信息严格地按照从输入层进,经过中间层,从输出层出的方向流动。,25/65,基本原理网络模

9、型,反馈前向网络:输出层上存在一个反馈回路,将信号反馈到输入层。而网络本身还是前向型的。 反馈的结果形成封闭环路,具有反馈的单元称为隐单元,其输出称为内部输出。,26/65,基本原理网络模型,互连前向网络:外部看还是一个前向网络,内部有很多自组织网络在层内互连着。 同一层内单元的相互连接使它们之间有彼此牵制作用。,27/65,基本原理网络模型,广泛互连网络:所有计算单元之间都有连接,即网络中任意两个神经元之间都可以或可能是可达的。如:Hopfield网络 、波尔茨曼机模型反馈型局部连接网络:特例,每个神经元的输出只与其周围的神经元相连,形成反馈网络。,28/65,基本原理 网络分类,分类前向型

10、(前馈型);反馈型;自组织竞争;随机网络其它,具体来讲,神经网络至少可以实现如下功能:数学上的映射逼近。通过一组映射样本(x1,y1)(x2,y2),(xn,yn),网络以自组织方式寻找输入与输出之间的映射关系:yi=f(xi)。数据聚类、压缩。通过自组织方式对所选输入模式聚类。 联想记忆。实现模式完善、恢复,相关模式的相互回忆等。 优化计算和组合优化问题求解。利用神经网络的渐进稳定态,特别是反馈网络的稳定平衡态,进行优化计算或求解组合优化问题的近似最优解。,29/65,模式分类。现有的大多数神经网络模型都有这种分类能力。 概率密度函数的估计。根据给定的概率密度函数,通过自组织网络来响应在空间

11、Rn中服从这一概率分布的一组向量样本X1,X2,Xk。,30/65,31/65,基本原理基本属性,基本属性:非线性:自然界的普遍特性大脑的智慧就是一种非线性现象人工神经元处于激活或抑制两种不同的状态,在数学上表现为一种非线性。 非局域性:一个神经网络通常由多个神经元广泛连接而成一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定通过单元之间的大量连接模拟大脑的非局域性联想记忆是非局域性的典型例子。,32/65,基本原理 基本属性,非定常性人工神经网络具有自适应、自组织、自学习能力神经网络不但处理的信息有各种各样,而且在处理信息的同时,非线性动力系统本身

12、也在不断变化经常采用迭代过程描写动力系统的演化过程。 非凸性:系统演化的多样性一个系统的演化方向,在一定条件下,将取决于某个特定的状态函数,如能量函数,它的极值相应于系统比较稳定的状态非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。,33/65,基本原理优缺点,评价优点:并行性;分布存储;容错性;学习能力 缺点:不适合高精度计算;学习问题没有根本解决,慢;目前没有完整的设计方法,经验参数太多。,神经网络学习,学习(亦称训练)是神经网络的最重要特征之一。神经网络能够通过学习,改变其内部状态,使输入输出呈现出某种规律性。网络学习一般是利用一组称为样本的数据,作

13、为网络的输入(和输出),网络按照一定的训练规则(又称学习规则或学习算法)自动调节神经元之间的连接强度或拓扑结构,当网络的实际输出满足期望的要求,或者趋于稳定时,则认为学习成功。,34/65,神经网络学习,1.学习规则 权值修正学派认为:神经网络的学习过程就是不断调整网络的连接权值,以获得期望的输出的过程。所以,学习规则就是权值修正规则。2.学习方法分类 从不同角度考虑,神经网络的学习方法有不同的分类。表9.1列出了常见的几种分类情况。,35/65,神经网络学习,36/65,表1 神经网络学习方法的常见分类,37/65,ANN 人工神经网络,概述基本原理前向型神经网络BP神经网络自组织竞争神经网

14、络神经网络的应用与人工智能原理的结合,38/65,前向型神经网络,概述最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。前向网络结构是分层的,信息只能从下一层单元传递到相应的上一层单元。上层单元与下层所有单元相联接特性函数可以是线性阈值的。,39/65,前向型神经网络,单层感知器,40/65,前向型神经网络,基本原理和结构极其简单在实际应用中很少出现采用阶跃函数作为特性函数维空间可以明显表现其分类功能,但Minsky等揭示的致命弱点也一目了然。关键是学习算法及网络设计方法输出yi等于:,(1),其中,41/65,前向型神经网络单层感知器,分类方法:如果输入x有k个样

15、本,xp, p=1, 2, , k, xRn当将这些样本分别输入到单输出的感知器中,在一定的和下,输出有两种可能+1或-1。把样本xp看作为在n维状态空间中的一个矢量,则k个样本为输入空间的k个矢量前向神经网络就是将n维空间分为SA、SB两个子空间,其分界线为n-1维的超平面。即用一个单输出的感知器通过调整参数及来达到k个样本的正确划分。,42/65,前向型神经网单层感知器,则存在一组权值wij使得公式(1)满足:,称样本集为线性可分的,否则为线性不可分的。,43/65,前向型神经网单层感知器,如:2维空间,希望找到一根直线,把A, B两类样本分开,其分界线为:,解有无数个。,单层感知器只能解

16、决线性可分类的样本的分类问题。如样本不能用一个超平面分开,就会产生当年Minsky等提出的不可分问题如:异或问题。,44/65,二维输入感知器及其在状态空间中的划分,45/65,前向型神经网络多层感知器,多层感知器 多层感知器的输入输出关系与单层感知器完全相同。前一层的输出是下一层的输入。也被称为BP网络。,46/65,前向型神经网络多层感知器,多层感知器 采用BP算法学习时要求传递函数为有界连续可微函数如sigmoid函数。因此,网络可以用一个连续的超曲面(而不仅仅是一个超平面)来完成划分输入样本空间的功能。先求误差,用梯度下降的方法求误差的传递。从后往前算。,47/65,48/65,前向型

17、神经网络多层感知器,多层感知器 n层网络可以以n-1个超曲面构成一个符合曲面,弥补单层感知器的缺陷。基于BP算法,依据大量样本通过逐步调整神经元之间的联接权重来构造网络。理论上,多层前馈网络在不考虑结果规模的前提下,可以模拟任意的输出函数。,49/65,前向型神经网络多层感知器,特点:用非线性连续可微函数分类,结果为一种模糊概念。当输出f(u)0时,其输出不一定为,而是一个0.5(有时只是0)的值,表示所得到的概率为多少。 应用最广泛的神经网络模型之一。,50/65,ANN 人工神经网络,概述基本原理前向型神经网络BP神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合,BP 神经网络

18、,51/65,BP(BackPropagation)网络即误差反向传播网络是应用最广泛的一种神经网络模型。 (1)BP网络的拓扑结构为分层前向网络; (2)神经元的特性函数为Sigmoid型(S型)函数,一般取为,(3)输入为连续信号量(实数);(4)学习方式为有导师学习;(5)学习算法为推广的学习规则,称为误差反向传播算法,简称BP学习算法。,52/65,BP 神经网络,BP算法的基本思想: 正向传播过程中,输入信号从输入层经隐单元层传向输出层,每一层的神经元状态只会影响到下一层神经元的输入,如果在输出层得不到期望的输出,则转入反向传播过程。将误差信号沿原来的连接通路返回,通过修改各层神经元

19、的连接权值,使得输出误差信号达到最小。变量定义:XX为输入向量,YY为网络输出向量;WW(1)(1)、WW(2)(2)分别为输入层隐层、隐层输出层的权值矩阵每层神经元的个数为:输入层,NN个神经元;隐层,PP个神经元;输出层,MM个神经元。,53/65,54/65,55/65,56/65,57/65,58/65,59/65,60/65,61/65,网络训练函数,function teste,bestep,testouts,wh,wo,errorCurve = nnTrain(matrices,nrows,ninputs,nhiddens1, nhiddens2,noutputs,hrates,

20、orates,moms,epochs,options)matrices: 训练集合的样式,即输入-期望输出对。nrows: 样本集的列数,即学习样本的数目。ninputs, nhiddens1, nhiddens2, noutputs: 输入层节点数;第一隐层节点数;第二隐层节点数(可以为空);输出层节点数。hrates, orates: 隐层、输出层单元的学习率。moms: 训练过程激励速率。epochs: 最大训练过程的迭代数。options: 函数使用过程的选项。,BP网络学习举例,62/65,例:设计一个BP网络,对表2所示的样本数据进行学习,使学成的网络能解决类似的模式分类问题。设网

21、络的输入层有三个节点,隐层四个节点,输出层三个节点,拓扑结构如下图9所示。,表2 网络训练样本数据,BP网络学习举例,63/65,图 BP网络举例,用样本数据按BP算法对该网络进行训练,训练结束后,网络就可作为一种模式分类器使用。因为网络的输出向量(1,0,0)、(0,1,0)、(0,0,1)可以表示多种模式或状态。如可以分别表示凸、凹和直三种曲线,或者三种笔划,也可以表示某公司的销售情况:高峰、低谷和持平等等。当然,要使网络有很好的模式分类能力,必须给以足够多的范例使其学习,本例仅是一个简单的示例。,64/65,神经网络模型,神经网络模型是一个在神经网络研究和应用中经常提到的概念。所谓神经网

22、络模型,它是关于一个神经网络的综合描述和整体概念,包括网络的拓扑结构、输入输出信号类型、信息传递方式、神经元特性函数、学习方式、学习算法等等。截止目前,人们已经提出了上百种神经网络模型,下表简介最著名的几种。,65/65,神经网络模型,66/65,67/65,神经网络模型,68/65,神经网络模型,神经网络模型,神经网络模型也可按其功能、结构、学习方式等的不同进行分类。 1.按学习方式分类 神经网络的学习方式包括三种,有导师学习、强化学习和无导师学习。按学习方式进行神经网络模型分类时,可以分为相应的三种,即有导师学习网络、强化学习网络及无导师学习网络。,69/65,神经网络模型,2. 按网络结

23、构分类 神经网络的连接结构分为两大类,分层结构与互连结构,分层结构网络有明显的层次,信息的流向由输入层到输出层,因此,构成一大类网络,即前向网络。对于互连型结构网络,没有明显的层次,任意两处理单元之间都是可达的,具有输出单元到隐单元(或输入单元)的反馈连接,这样就形成另一类网络,称之为反馈网络。,70/65,神经网络模型,3. 按网络的状态分类 在神经网络模型中,处理单元(即神经元)的状态有两种形式:连续时间变化状态、离散时间变化状态。如果神经网络模型的所有处理单元状态能在某一区间连续取值,这样的网络称为连续型网络;如果神经网络模型的所有处理单元状态只能取离散的二进制值0或1(或-1、+1),

24、那么称这种网络为离散型网络。 典型的Hopfield网络同时具有这两类网络,分别称为连续型Hopfield网络和离散型Hopfield网络。另外,还有输出为二进制值0或1、输入为连续值的神经网络模型,如柯西机模型。,71/65,神经网络模型,4. 按网络的活动方式分类 确定神经网络处理单元的状态取值有两种活动方式,一种是由确定性输入经确定性作用函数,产生确定性的输出状态;另一种是由随机输入或随机性作用函数,产生遵从一定概率分布的随机输出状态。 具有前一种活动方式的神经网络,称为确定性网络。已有的大部分神经网络模型均属此类。而后一种活动方式的神经网络,称为随机性网络。随机性网络的典型例子有:波尔

25、茨曼机、柯西机和高斯机等。,72/65,73/65,ANN 人工神经网络,概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络,74/65,自组织竞争神经网络,概述在实际的神经网络中,存在一种侧抑制的现象。即一个细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。这种侧抑制在脊髓和海马中存在,在人眼的视网膜中也存在。,75/65,自组织竞争神经网络,概述这种抑制使神经细胞之间出现竞争,一个兴奋最强的神经细胞对周围神经细胞的抑制也强。虽然一开始各个神经细胞都处于兴奋状态,但最后是那个输出最大的神经细胞“赢”,而其周围的神经细胞“输”了。胜者为王。小猫,76

26、/65,自组织竞争神经网络,概述自组织竞争神经网络是在 “无师自通”的现象的基础上生成的。 人类等生物的生长过程。,77/65,自组织竞争神经网络,结构:层内细胞之间互联,在各个神经细胞中加入自反馈,相互作用,输出y为 :,系统稳定时“胜者为王”。此时赢者的权向量与输入向量的欧氏距离最小。此距离为 :,78/65,自组织竞争神经网络,自组织映射模型自组织映射模型是由Kohonen提出来的。模型是以实际神经细胞中的一种特征敏感的细胞为模型的。各个细胞分别对各种输入敏感,可以代表各种输入,反映各种输入样本的特征。如果在二维空间上描述这些细胞,则,功能相近的细胞聚在一起,靠得比较近。功能不同的离得比

27、较远。网络形成过程:开始是无序的,当输入样本出现后各个细胞反映不同,强者依照“胜者为王”的原则,加强自己的同时对周围细胞进行压抑。使其对该种样本更加敏感,也同时对其他种类的样本更加不敏感。此过程的反复过程中,各种不同输入样本将会分别映射到不同的细胞上。,79/65,Kohonen网络的结构,80/65,Nc(t)的形状和变化情况,81/65,自组织竞争神经网络,特点: 网络中的权值是输入样本的记忆。如果输出神经元j与输入n个神经元之间的联接用wj表示,对应其一类样本x输入,使yj达到匹配最大。那么wj通过学习后十分靠近x,因此,以后当x再次输入时,yj这个神经元必定会兴奋,yj是x的代表。.,

28、82/65,自组织竞争神经网络,.网络学习时对权的调整不只是对兴奋的那个细胞所对应的权进行,而对其周围Nc区域内的神经元同时进行调整。因此,对于在Nc内的神经元可以代表不只是一个样本x,而是与x比较相近的样本都可以在Nc内得到反映。因此,这种网络对于样本的畸变和噪声的容差大。(调整区域函数有。) 各种函数网络学习的结果是:比较相近的输入样本在输出平面上映射的位置也比较接近。具有自然聚类的效果。,83/65,ANN 人工神经网络,概述基本原理前馈型人工神经元网络BP神经网络自组织竞争人工神经网络神经网络的应用与人工智能原理的结合,84/65,神经网络的应用,ANN是一门交叉学科,涉及心理学、生理学、生物学、医学、数学、物理学、计算机科学等应用几乎遍及自然科学的各个领域应用最多的是模式识别、通讯、控制、信号处理等方面。,85/65,神经网络的应用,在模式识别中的基本步骤:1、根据应用背景选择网络结构2、数据预处理、构造训练集3、选择适合的训练函数,训练ANN4、输入未知样本进行识别,86/65,与人工智能原理的结合,神经网络存在的问题:网络结构大不宜实现学习时间长效率低等提出的改进方案: 利用不完善的领域理论和带有噪声的数据进行解释学习,产生一种近似正确的解释结构(规则树)。利用该规则树构造初始神经网络,而后进行BP算法的训练,达到减少训练时间的目的。 其他方案,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号