第四章人工神经网络ppt课件.ppt

上传人:牧羊曲112 文档编号:1356649 上传时间:2022-11-13 格式:PPT 页数:46 大小:830KB
返回 下载 相关 举报
第四章人工神经网络ppt课件.ppt_第1页
第1页 / 共46页
第四章人工神经网络ppt课件.ppt_第2页
第2页 / 共46页
第四章人工神经网络ppt课件.ppt_第3页
第3页 / 共46页
第四章人工神经网络ppt课件.ppt_第4页
第4页 / 共46页
第四章人工神经网络ppt课件.ppt_第5页
第5页 / 共46页
点击查看更多>>
资源描述

《第四章人工神经网络ppt课件.ppt》由会员分享,可在线阅读,更多相关《第四章人工神经网络ppt课件.ppt(46页珍藏版)》请在三一办公上搜索。

1、第四章 自组织神经网络,4.1竞争学习的概念与原理4.2自组织特征映射神经网络,自组织神经网络的典型结构,第四章 自组织神经网络,第四章 自组织神经网络,自组织学习(self-organized learning) : 通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 自组织网络的自组织功能是通过竞争学习(competitive learning)实现的。,4.1竞争学习的概念与原理,4.1.1 基本概念分类分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中去。聚类无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分

2、离开。,相似性测量欧式距离法,4.1.1 基本概念,相似性测量余弦法,4.1.1 基本概念,4.1.2 竞争学习原理,竞争学习规则Winner-Take-All,网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,故称为Winner Take All。,竞争学习规则Winner-Take-All,1.向量归一化 首先将当前输入模式向量X和竞争层中各神经元对应的内星向量Wj 全部进行归一化处理; (j=1,2,m),向量归一化之前,向量归一化之后,竞争学习原理,竞争学习规则Winner-Take-All,

3、2.寻找获胜神经元 当网络得到一个输入模式向量时,竞争层的所有神经元对应的内星权向量均与其进行相似性比较,并将最相似的内星权向量判为竞争获胜神经元。,欲使两单位向量最相似,须使其点积最大。即:,从上式可以看出,欲使两单位向量的欧式距离最小,须使两向量的点积最大。即:,竞争学习规则Winner-Take-All,竞争学习规则胜者为王(Winner-Take-All),3.网络输出与权值调整,步骤3完成后回到步骤1继续训练,直到学习率衰减到0。,竞争学习的几何意义,竞争学习的几何意义,*,*,竞争学习游戏,将一维样本空间的12个样本分为3类,竞争学习游戏,w1,w2,w3,x,训练样本集,o1,o

4、1,o1,解:为作图方便,将上述模式转换成极坐标形式 :,竞争层设两个权向量,随机初始化为单位向量:,4.2自组织特征映射神经网络 (Self-Organizing feature Map),1981年芬兰Helsink大学的T.Kohonen教授提出一种自组织特征映射网,简称SOM网,又称Kohonen网。 Kohonen认为:一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式具有不同的响应特征,而且这个过程是自动完成的。自组织特征映射正是根据这一看法提出来的,其特点与人脑的自组织特性相类似。,SOM网的生物学基础,生物学研究的事实表明,在人脑的感觉通道上,神经元的组织

5、原理是有序排列。因此当人脑通过感官接受外界的特定时空信息时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应区域是连续映象的。 对于某一图形或某一频率的特定兴奋过程,神经元的有序排列以及对外界信息的连续映象是自组织特征映射网中竞争机制的生物学基础。,SOM网的拓扑结构,SOM网共有两层,输入层模拟感知外界输入信息的视网膜,输出层模拟做出响应的大脑皮层。,SOM网的权值调整域,SOM网的获胜神经元对其邻近神经元的影响是由近及远,由兴奋逐渐转变为抑制,因此其学习算法中不仅获胜神经元本身要调整权向量,它周围的神经元在其影响下也要程度不同地调整权向量。这种调整可用三种函数表示:,SOM网的权值调整域,

6、以获胜神经元为中心设定一个邻域半径,该半径圈定的范围称为优胜邻域。在SOM网学习算法中,优胜邻域内的所有神经元均按其离开获胜神经元的距离远近不同程度地调整权值。 优胜邻域开始定得很大,但其大小随着训练次数的增加不断收缩,最终收缩到半径为零。,SOM网的运行原理,训练阶段,w1 w2 w3 w4 w5,SOM网的运行原理,工作阶段,SOM网的学习算法,(1)初始化 对输出层各权向量赋小随机数并进行归一化处理,得到 ,j=1,2,m;建立初始优胜邻域Nj*(0);学习率 赋初始值。,(2)接受输入 从训练集中随机选取一个输入模式并进行归一化处理,得到 ,p1,2,P。,(3)寻找获胜节点 计算 与

7、 的点积,j=1,2,m,从中选出点积最大的获胜节点j*。,(4)定义优胜邻域Nj*(t) 以j*为中心确定t 时刻的权值调整域,一般初始邻域Nj*(0)较大,训练过程中Nj*(t)随训练时间逐渐收缩。,Kohonen 学习算法,Kohonen学习算法,SOM网的学习算法,(5)调整权值 对优胜邻域Nj*(t)内的所有节点调整权值: i=1,2,n jNj*(t) 式中, 是训练时间t 和邻域内第j 个神经元与获胜神经元 j* 之间的拓扑距离N 的函数,该函数一般有以下规律:,Kohonen学习算法,SOM网的学习算法,(5)调整权值,(6)结束检查 学习率是否衰减到零或某个预定的正小数?,Kohonen学习算法,SOM网的学习算法,Kohonen学习算法程序流程,功 能 分 析(1)保序映射将输入空间的样本模式类有序地映射在输出层上。例1:动物属性特征映射。,功能分析,(2)数据压缩 将高维空间的样本在保持拓扑结构不变的条件下投影到低维空间。(3)特征抽取 高维空间的向量经过特征抽取后可以在低维特征空间更加清晰地表达。例2:SOM网用于字符排序。,功能分析,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号