数学的建模BP神经网络的论文.doc

上传人:李司机 文档编号:1132435 上传时间:2022-06-30 格式:DOC 页数:8 大小:273.61KB
返回 下载 相关 举报
数学的建模BP神经网络的论文.doc_第1页
第1页 / 共8页
数学的建模BP神经网络的论文.doc_第2页
第2页 / 共8页
数学的建模BP神经网络的论文.doc_第3页
第3页 / 共8页
数学的建模BP神经网络的论文.doc_第4页
第4页 / 共8页
数学的建模BP神经网络的论文.doc_第5页
第5页 / 共8页
点击查看更多>>
资源描述

《数学的建模BP神经网络的论文.doc》由会员分享,可在线阅读,更多相关《数学的建模BP神经网络的论文.doc(8页珍藏版)》请在三一办公上搜索。

1、BP神经网络算法原理:输入信号通过中间节点隐层点作用于输出节点,经过非线形变换,产生输出信号,网络训练的每个样本包括输入向量和期望输出量,网络输出值与期望输出值之间的偏差,通过调整输入节点与隐层节点的联接强度取值和隐层节点与输出节点之间的联接强度以与阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数权值和阈值,训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。变量定义:设输入层有个神经元,隐含层有个神经元,输出层有个神经元输入向量:隐含层输入向量:隐含层输出向量:输出层输入向量:输出层输出向量:期望输出向量:输入

2、层与中间层的连接权值:隐含层与输出层的连接权值:隐含层各神经元的阈值:输出层各神经元的阈值:样本数据个数:激活函数: 误差函数:算法步骤:Step1.网络初始化 。给各连接权值分别赋一个区间-1,1内的随机数,设定误差函数,给定计算精度值和最大学习次数M。个输入样本与对应期望输出和输出与输出层各神经元的输入和输出Step4.利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数。Step5.利用隐含层到输出层的连接权值、输出层的和隐含层的输出计算误差函数对隐含层各神经元的偏导数。和隐含层各神经元的输出来修正连接权值。和输入层各神经元的输入修正连接权。 Step8.计算全局误差。St

3、ep9.判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,如此完毕算法。否如此,选取下一个学习样本与对应的期望输出,返回到第三步,进入下一轮学习。 算法流程图: 输入,根据网络的状态方程计算网络输出网络初始化计算全局误差:修改权值:训练完成达到最大学习次数NONOYESYES参数确定:确定了网络层数、每层节点数、传递函数、初始权系数、学习算法等也就确定了BP网络。确定这些选项时有一定的指导原如此,但更多的是靠经验和试凑。 1. 样本数据采用BP神经网络方法建模的首要和前提条件是有足够多典型性好和精度高的样本。而且,为监控训练学习过程使之不发生“过拟合和评价建立的网络模型

4、的性能和泛化能力,必须将收集到的数据随机分成训练样本、检验样本10%以上和测试样本10%以上3局部。一般地,BP网络的输入变量即为待分析系统的内生变量影响因子或自变量数,一般根据专业知识确定。假如输入变量较多,一般可通过主成份分析方法压减输入变量,也可根据剔除某一变量引起的系统误差与原系统误差的比值的大小来压减输入变量。输出变量即为系统待分析的外生变量系统性能指标或因变量,可以是一个,也可以是多个。一般将一个具有多个输出的网络模型转化为多个具有一个输出的网络模型效果会更好,训练也更方便。由于BP神经网络的隐层一般采用Sigmoid转换函数,为提高训练速度和灵敏性以与有效避开Sigmoid函数的

5、饱和区,一般要求输入数据的值在01之间。因此,要对输入数据进展预处理。一般要求对不同变量分别进展预处理,也可以对类似性质的变量进展统一的预处理。如果输出层节点也采用Sigmoid转换函数,输出变量也必须作相应的预处理,否如此,输出变量也可以不做预处理。但必须注意的是,预处理的数据训练完成后,网络输出的结果要进展反变换才能得到实际值。再者,为保证建立的模型具有一定的外推能力,最好使数据预处理后的值在0.20.8之间。标准化:一般认为,增加隐层数可以降低网络误差,提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合(overfitting) 造成网络的性能脆弱,泛化能力(genera

6、lization ability)下降。Hornik等早已证明:假如输入层和输出层采用线性转换函数,隐层采用Sigmoid转换函数,如此含一个隐层的MLP网络能够以任意精度逼近任何有理函数。显然,这是一个存在性结论。在设计BP网络时可参考这一点,应优先考虑3层BP网络即有1个隐层。1x2x1Nx1y2y2Ny1z2z3Nz1D2D3ND1T2Tihwhjw-隐含层输出层输入层3NT图 三层BP网络的拓扑结构在BP 网络中,假如隐层节点数太少,网络可能根本不能训练或网络性能很差;假如隐层节点数太多,虽然可使网络的系统误差减小,但一方面使网络训练时间延长,另一方面,训练容易陷入局部极小点而得不到最

7、优点,也是训练时出现“过拟合的内在原因,但是目前理论上还没有一种科学的和普遍确实定方法。为尽可能防止训练时出现“过拟合现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最根本原如此是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。因此,合理隐层节点数应在综合考虑网络结构复杂程度和误差大小的情况下用节点删除法和扩X法确定。图BP网络常用的传递函数BP网络的传递函数有多种。Log-sigmoid型函数的输入值可取任意值,输出值在0和1之间;tan-sigmod型传递函数tansig的输入值可取任意值,输出值在-1到+1之间;线性传递函数purelin的输入与输出值可取任意

8、值。BP网络通常有一个或多个隐层,该层中的神经元均采用sigmoid型传递函数,输出层的神经元如此采用线性传递函数,整个网络的输出可以取任意值。学习率影响系统学习过程的稳定性。大的学习率可能使网络权值每一次的修正量过大,甚至会导致权值在修正过程中超出某个误差的极小值呈不规如此跳跃而不收敛;但过小的学习率导致学习时间过长,不过能保证收敛于某个极小值。所以,一般倾向选取较小的学习率以保证学习过程的收敛性稳定性,通常在0.010.8之间。BP算法决定了误差函数一般存在很多个局部极小点,不同的网络初始权值直接决定了BP算法收敛于哪个局部极小点或是全局极小点。因此,要求计算程序必须能够自由改变网络初始连

9、接权值。由于Sigmoid转换函数的特性,一般要求初始权值分布在-0.50.5之间比拟有效。10收敛误差界值Emin在网络训练过程中应根据实际情况预先确定误差界值。误差界值的选择完全根据网络模型的收敛速度大小和具体样本的学习精度来确定。当Emin 值选择较小时,学习效果好,但收敛速度慢,训练次数增加。如果Emin值取得较大时如此相反。网络模型的性能和泛化能力:训练神经网络的首要和根本任务是确保训练好的网络模型对非训练样本具有好的泛化能力推广性,即有效逼近样本蕴含的内在规律,而不是看网络模型对训练样本的拟合能力。判断建立的模型是否已有效逼近样本所蕴含的规律, 主要不是看测试样本误差大小的本身,而

10、是要看测试样本的误差是否接近于训练样本和检验样本的误差。非训练样本误差很接近训练样本误差或比其小,一般可认为建立的网络模型已有效逼近训练样本所蕴含的规律,否如此,假如相差很多如几倍、几十倍甚至上千倍就说明建立的网络模型并没有有效逼近训练样本所蕴含的规律,而只是在这些训练样本点上逼近而已,而建立的网络模型是对训练样本所蕴含规律的错误反映。算法的特点:1.非线性映照能力。神经网络能以任意精度逼近任何非线性连续函数。在建模过程中的许多问题正是具有高度的非线性。2.并行分布处理方式。在神经网络某某息是分布储存和并行处理的,这使它具有很强的容错性和很快的处理速度。3.自学习和自适应能力。神经网络在训练时

11、,能从输入、输出的数据中提取出规律性的知识,记忆于网络的权值中,并具有泛化能力,即将这组权值应用于一般情形的能力。神经网络的学习也可以在线进展。4.数据融合的能力。神经网络可以同时处理定量信息和定性信息,因此它可以利用传统的工程技术数值运算和人工智能技术符号处理。5.多变量系统。神经网络的输入和输出变量的数目是任意的,对单变量系统与多变量系统提供了一种通用的描述方式,不必考虑各子系统间的解耦问题算法的缺点:收敛速度缓慢;容易陷入局部极小值;难以确定隐层数和隐层节点个数。算法的改良:1. 利用动量法改良BP算法标准BP算法实质上是一种简单的最速下降静态寻优方法,在修正时,只按照第步的负梯度方向进

12、展修正,而没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,收敛缓慢。动量法权值调整算法的具体做法是:将上一次权值调整量的一局部迭加到按本次误差计算所得的权值调整量上,作为本次的实际权值调整量,即:其中:为动量系数,通常00.9;学习率,X围在0.00110之间。这种方法所加的动量因子实际上相当于阻尼项,它减小了学习过程中的振荡趋势,从而改善了收敛性。动量法降低了网络对于误差曲面局部细节的敏感性,有效的抑制了网络陷入局部极小。标准BP算法收敛速度缓慢的一个重要原因是学习率选择不当,学习率选得太小,收敛太慢;学习率选得太大,如此有可能修正过头,导致振荡甚至发散。可采用如

13、下图所示的自适应方法调整学习率。调整的根本指导思想是:在学习收敛的情况下,增大,以缩短学习时间;当偏大致使不能收敛时,要与时减小,直到收敛为止。采用动量法时,BP算法可以找到更优的解;采用自适应学习速率法时,BP算法可以缩短训练时间。将以上两种方法结合起来,就得到动量-自适应学习速率调整算法。L-MLevenberg-Marquardt算法比前述几种使用梯度下降法的BP算法要快得多,但对于复杂问题,这种方法需要相当大的存储空间。L-M(Levenberg-Marquardt)优化方法的权值调整率选为:其中:e误差向量;J网络误差对权值导数的雅可比Jacobian矩阵;标量,当很大时上式接近于梯度法,当很小时上式变成了Gauss-Newton法,在这种方法中,也是自适应调整的。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号