C5神经网络分类课件.ppt

上传人:小飞机 文档编号:4009206 上传时间:2023-03-31 格式:PPT 页数:23 大小:871.50KB
返回 下载 相关 举报
C5神经网络分类课件.ppt_第1页
第1页 / 共23页
C5神经网络分类课件.ppt_第2页
第2页 / 共23页
C5神经网络分类课件.ppt_第3页
第3页 / 共23页
C5神经网络分类课件.ppt_第4页
第4页 / 共23页
C5神经网络分类课件.ppt_第5页
第5页 / 共23页
点击查看更多>>
资源描述

《C5神经网络分类课件.ppt》由会员分享,可在线阅读,更多相关《C5神经网络分类课件.ppt(23页珍藏版)》请在三一办公上搜索。

1、2023/3/31,1,第5讲 神经网络分类,2023/3/31,2,人工神经网络学习概述,人工神经网络提供了一种普遍且实用的方法从样例中学习值为实数、离散值或向量的函数。人工神经网络对于训练数据中的错误健壮性很好。人工神经网络已被成功应用到很多领域,例如视觉场景分析,语音识别,机器人控制。其中,最流行的网络和算法是20世纪80年代提出的BP网络和BP算法,BP算法使用梯度下降法来调节BP网络的参数以最佳拟合由输入-输出对组成的训练集合。,2023/3/31,3,BP算法概述,1、BP算法的出现非循环多级网络的训练算法UCSD PDP小组的Rumelhart、Hinton和Williams19

2、86年独立地给出了BP算法清楚而简单的描述1982年,Paker就完成了相似的工作1974年,Werbos已提出了该方法2、弱点:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛。3、优点:广泛的适应性和有效性。,2023/3/31,4,BP网络的基本结构,2023/3/31,5,确定BP网络的拓扑结构,在开始训练之前,需要确定网络的拓扑结构:出入层神经元的个数、隐含层神经元的层数及每一层神经元的个数、输出层神经元的个数。对训练样本中的每一属性的值进行归一化,使其值落在(0,1)区间,有助于加快学习过程。对于离散的属性值,要进行合适的编码。BP网一般都选用二级网络。实验表明:增加隐藏层的层

3、数和隐藏层神经元个数不一定总能够提高网络精度和表达能力。,2023/3/31,6,神经元的M-P模型,2023/3/31,7,激活函数(Activation Function),激活函数执行对该神经元所获得的网络输入的变换,也可以称为激励函数、活化函数:o=f(net)1、线性函数(Liner Function)f(net)=k*net+c,2023/3/31,8,2、非线性斜面函数(Ramp Function),if netf(net)=k*netif|net|0为一常数,被称为饱和值,为该神经元的最大输出。,2023/3/31,9,2、非线性斜面函数(Ramp Function),2023

4、/3/31,10,3、阈值函数(Threshold Function)阶跃函数,if netf(net)=-if net、均为非负实数,为阈值二值形式:1if netf(net)=0if net 双极形式:1if netf(net)=-1if net,2023/3/31,11,3、阈值函数(Threshold Function)阶跃函数,-,o,net,0,2023/3/31,12,4、S形函数,压缩函数(Squashing Function)和逻辑斯特函数(Logistic Function)。f(net)=a+b/(1+exp(-d*net)a,b,d为常数。它的饱和值为a和a+b。最简单

5、形式为:f(net)=1/(1+exp(-d*net)函数的饱和值为0和1。S形函数有较好的增益控制,2023/3/31,13,4、S形函数,2023/3/31,14,BP算法,2023/3/31,15,BP算法的基本思想,BP算法的基本工作过程大概可以分为两个阶段:1)信号的向前传播,在这个阶段,要求计算出隐含层和输出层中每一神经元的净输入和输出。2)误差的向后传播,在这个阶段,要求计算出输出层和隐含层中每一神经元的误差。,2023/3/31,16,初始化问题,在BP算法中,权和偏置在网络学习之前,都将其初始化为不同的小随机数。“不同”保证网络可以学习;“小随机数”防止其值过大而提前进入饱和

6、状态。,2023/3/31,17,更新问题,基本的BP算法采用的是实例更新,即每处理一个实例就更新一次权和偏置。实例更新的缺陷:实例的顺序对训练结果有较大影响。它更“偏爱”较后出现的实例。而给其中的实例安排一个适当的顺序,是非常困难的。解决的办法就是采用周期更新,即每处理一遍所有的实例才更新一次权和偏置。周期更新的好处是:可以消除实例顺序对结果的影响。,2023/3/31,18,收敛速度问题,BP算法的训练速度是非常慢的,尤其是当训练达到一定的程度后,甚至有时是发散的。,2023/3/31,19,局部极小点问题,避免修改初始值:并不是总有效。逃离统计方法:Wasserman,1986将Cauc

7、hy训练与BP算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。,2023/3/31,20,网络瘫痪问题,在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最终导致网络停止收敛。,2023/3/31,21,稳定性问题,用修改量的综合实施权的修改(用消除样本顺序影响的算法4-2来训练)连续变化的环境,它将变成无效的(网络不可塑),2023/3/31,22,步长问题,BP网络的收敛是基于无穷小的权修改量步长太小,收敛就非常慢步长太大,可能会导致网络的瘫痪和不稳定自适应步长,使得权修改量能随着网络的训练而不断变化。1988年,Wasserman,2023/3/31,23,BP算法适合问题的特征,实例是用很多“属性-值”对表示的目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量训练数据可能包含错误可容忍长时间的训练可能需要快速求出目标函数值人类能否理解学到的目标函数是不重要的,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号