《毕业设计(论文)三角形隶属度函数用于模糊神经网络的衡器标定.doc》由会员分享,可在线阅读,更多相关《毕业设计(论文)三角形隶属度函数用于模糊神经网络的衡器标定.doc(37页珍藏版)》请在三一办公上搜索。
1、三角形隶属度函数用于模糊神经网络的衡器标定摘 要目的:将三角型隶属度函数的模糊神经网络用于电容式多功能天车秤,实现电解铝的称重过程的计量,提高称重的准确度。方法:用一部分实际铝称重的部分属于做测试,利用三角形隶属函数对这部分数据进行模糊化处理,然后输入到基于BP算法的神经网络,对该网络进行训练。用训练好的网络对剩下的数据进行测试,并与之前的数据进行比较,得出对衡器标定的误差,观察准确程度。结果:在称重过程中融入了模糊理论与神经网络的方法,既考虑了称重数据的模糊性又考虑称重特征与称重结果的复杂关系,使结果更加具有精确性,为衡器的标定开辟了一条新方法。关键词:模糊神经网络 三角型隶属度函数 BP算
2、法 铝称重Abstract Objective: to will triangle membership function of fuzzy neural network for capacitive multi-function PTM scale, the realization of the weighing process electrolytic aluminium, improve the accuracy of measurement weighing. Methods: using part of the actual aluminum weighing part belong
3、 to do the test, and using triangle distrution function of this section data are fuzzed, then input to the neural network based on BP algorithm, the network for training. Use for the rest of the trained network, and experimental data before, it is concluded that the data to compare calibration error
4、, observing instruments that accurate degree. Results: in weighing process into the fuzzy theory and the method of neural network, which considers the fuzziness of the weighing data and consider the characteristics and weighing weighing, to make the result more complicated relationship with accuracy
5、, the calibration for instruments have opened up a new method. Keywords: fuzzy neural network triangle membership function BP algorithm aluminum weighing目录摘 要1ABSTRACT1第一章 引言31.1课题的研究背景、目的和意义31.2本课题的主要研究内容3第二章 电子称重系统以及数据提取方法42.1电容式多功能天车电子秤42.2称重数据的提取4第三章 模糊神经网络以及BP算法63.1模糊神经网络基础63.1.1神经网络63.1.2模糊理论7
6、3.2 BP神经网络93.2.1 BP网络的结构93.2.2 BP神经网络的学习算法103.3 BP神经网络设计基础183.3.1 训练样本集的准备183.3.2 初始权值的设计203.3.3 BP多层感知器结构设计213.3.4 网络训练与测试22第四章 三角形隶属度函数在铝称重的应用224.1 隶属函数224.2 模糊神经网络的结构模型25第五章 模糊神经网络用于铝称重的步骤265.1 特征提取和模糊化265.2 隶属函数选取265.3 隐含层和输出层的处理27第六章 实验结果的讨论306.1 三角形隶属度函数称重结果306.2 三角形型隶属度函数模糊神经网络的称重结果分析30第七章 结论
7、30参考文献31附录:仿真程序33第一章 引言1.1课题的研究背景、目的和意义任何一个产铝企业的管理层,均应该准确地掌握生产设备的生产能力、设备运行效率等原始数据,从而依据这些原始数据,科学、合理的调控生产。但由于工艺条件的限制,长期以来,却始终无法准确地掌握单槽原铝日产量。导致管理人员无法根据出铝量得到电解槽运行状态,对铝电解槽的均衡稳定生产带来不利影响。目前的出铝生产管理,大部分采用人工计数、结合铸造车间称重抬包总重,来统计单个电解槽和单个铝包的出铝量;受生产现场电磁场干扰和人工操作的影响,无法准确控制单槽出铝精度,单个电解槽的析出数量与析出精度始终是铝电解生产管理中的一个“盲区”。导致管
8、理人员无法根据出铝量得到电解槽运行状态,对铝电解槽的均衡稳定生产带来不利影响。1.2本课题的主要研究内容本系统主要有三大模块组成,如下图所示: 三大模块包括的内容为:一、完成课题所需特征数据的提取及量化。二、对特征数据进行模糊化处理。包括对特征数据的分析,选出需要模糊化的项,对模糊理论的深入认识,选择三角形隶属函数等。三、完成对系统的设计和特征数据的学习、结果预测等。包括对神经网络、模糊理论及二者结合的必要性的深入研究,对BP神经网络的原理、结构及学习方法的深入研究等。本文关键是运用模糊数学和神经网络构建了一个模糊神经网络模型,用于铝称重,提高计量精度控制。以一部分实际出铝重量为样本,首先利用
9、三角形隶属函数对样本数据进行模糊化处理,再输入基于BP算法的神经网络,对网络进行训练,用训练好的网络对余下的样本进行预测。并将预测结果与之前数据进行比较。第二章 电子称重系统以及数据提取方法2.1电容式多功能天车电子秤电容式多功能天车秤有秤体部分和仪表部分两部分组成。秤体部分主要由称重传感器、LC振荡器、编码器、温度传感器等组成。当外加荷载(被称重物)作用于电容式称重传感器时,作为传感器主体的弹性元件将产生与荷载值相对应的微小变形,使设在弹性体内的电容的极间距离随之改变,这样就引起电容器的电容量的变化,这样就引起电容器的电容量的变化,从而使LC振荡器的频率也随着改变。振荡信号经过编码器进行计数
10、(我们成为内码)处理,处理后的信号通过信号电缆传输给仪表。称体中温度传感器的作用是,将传感器的内部温度变化转变成电信号送编码器在发送给仪表,从而通过仪表中的微计算机自动修正因温度变化对称重传感器的影响,保证称重结果的准确性。仪表通过信号电缆接收到传感器信号后,再进行解码并送入微处理器,微处理器根据键盘输入的指令要求,对该解码信号进行处理,最后将求出的称重结果送显示器、打印机、寄存器等。2.2称重数据的提取在不同的温度环境下对传感器的12个称量点进行测量,具体实验数据如下:低温测试数据:温度称量点-14.1-13.5-12.80吨1144280114478311447281吨1198223119
11、871911986952吨1247761124823412482333吨1293546129397312939934吨1336091133645313364975吨1375803137609213761526吨1413011141323114133047吨1447980144812814482168吨1480933148102214811159吨15120841512114151221810吨15415921541570154168411吨156962115695591569674常温测试数据:温度称量点1717.818.918.818.818.80吨114924711493571149481
12、1148700114872811487271吨1203060120316112032811202528120255112025532吨1252432125253312526511251927125194612519473吨1298060129815912982731297567129758312975874吨1340439134053513406471339959133997413399785吨1379980138007413801821379513137952813795326吨1414030141712314172281416576141659014165957吨1451854145193
13、214520351451398145141014514168吨1484659148475114848511484215148422414842329吨15156721515762151586015152401515248151525610吨15450541545142154523915446281544638154464511吨157295815730441573140157254315725521572562高温测试数据:温度称量点53.154.656.858.559.50吨115469411551041153870115435411559651吨1208336120869112075471
14、20800312094812吨125754712578571256799125724712586193吨130302113032911302305130273813040174吨134525613454921344571134498313461795吨138467113848671384012138439513855086吨142161314217621420956142132014223547吨145630414564321455669145601114569678吨148900014891191488383148870214895889吨15199111520005151930815196
15、05152042410吨1549192154926915485991548875154963811吨15769951577060157642015766771577383 根据以上表格内所示数据,我们可以得到温度对传感器输出的影响,可以做出传感器的特性曲线如下图所示:图2.3 传感器的特性曲线第三章 模糊神经网络以及BP算法3.1模糊神经网络基础3.1.1神经网络神经网络理论2 3 15 30是一种仿效生物处理模式以获取智能信息处理功能的理论。它通过大量神经元的复杂连接,经过自学习、自组织和非线性动力学所形成的并行分布方式,来处理难于语言化的模式信息。神经网络的基本结构神经网络是由大量神经元广
16、泛互连而成的复杂网络系统。单一神经元可以有许多输入、输出。神经元之间的相互作用通过连接的权值来体现。图3-1中, X1,X2,Xn是神经元的输入,是来自前级n个神经元的轴突的信息,是i神经元的阎值;Wi1,Wi2,Win分别是i神经元对X1,X2,Xn的权系数,即突触的传递效率;Yi是i神经元的输出;f是激活函数,它决定i神经元受到输人X1,X2,Xn的共同刺激达到阀值时以何种方式输出。图 3-1-1 单一神经元 对于线性型激活函数,有: 二、神经网络的基本特征1、大规模并行处理。 神经网络能同时处理与决策有关的因素,虽然单个神经元的动作速度不快,但网络的总体处理速度极快。2、容错性。 由于神
17、经网络包含的信息是分布存储的,即使网络某些单元和连接有缺陷,它仍然可以通过联想得到全部或大部分信息。3、自适应性和自组织性。 神经网络系统可以通过学习不断适应环境,增加知识的容量。 正是这些特点使得神经网络本质上有别于传统的计算机,从而为人们在利用机器加工处理信息方面提供了一种全新的方法和途径。3.1.2模糊理论人的思维显著的特点是具有模糊性,模糊性也是人类自然语言的本质属性。例如:“健康”与“不健康”,“好”与“不好”,“稳定”与“不稳定”,“年轻”、“中年”与“老年”等之间都找不到明确的界限。这种从差异的一方到另一方,中间经历了一个从量变到质变的连续过度的过程的现象就叫做模糊差异的中介过度
18、性,由这种中介过度性造就出划分上的不确定性就叫做模糊性(fuzziness)。模糊数学25(Fuzzy)是研究和处理模糊现象的,所研究的事物的概念本身是模糊的,即具有模糊性。 隶属度是模糊理论中的一个重要的概念,它指一个元素对某一个集合的隶属程度。隶属度由隶属函数求得。 1965年美国加州大学控制专家L.A.Zadeh教授创立了模糊集合论,提出用模糊集合来刻画模糊概念。模糊集合由隶属函数来刻画。定义 论域中的模糊子集,是以隶属函数表征的集合。即由映射 确定论域的一个模糊子集。称为模糊子集的隶属函数,称为对的隶属度,它表示论域中的元素属于其模糊子集的程度。它在0,1闭区间可连续取值。 =1,表示
19、完全属于;=0,表示完全不属于;01,表示属于的程度。 上述定义表明:一、论域中的元素是分明的,即本身是普通集合,只是的子集是模糊集合,故称为的模糊子集,简称模糊集。二、隶属函数是用来说明隶属于的程度的,的值越接近于1,表示隶属的程度越高;当的值域变为0,1时,隶属函数蜕化为普通集合的特征函数,模糊集合也就蜕化为普通集合。三、模糊集合完全由其隶属函数来刻画。隶属函数是模糊数学的最基本概念,借助于它才能对模糊集合进行量化。3.1.3模糊神经网络一、模糊神经网络7 18 19的概念 所谓模糊神经网络就是神经网络与模糊理论相结合所产生的一种新的网络系统。人脑是神经网络和模糊系统的自然结合。从物质结构
20、上看,人脑是一种典型的生物神经网络;从主要的功能角度来看,人脑又是一个典型的模糊系统。人工神经网络直接以人脑作为其模型基础;而模糊系统则是以模糊集合论、模糊语言变量及模糊逻辑推理的知识为基础。因此,人工神经网络和模糊系统相结合很自然地成为了一种方向和趋势。它的一个显著的特点就是:它的每个节点(模糊神经元)可取值于0,1区间。例如,用一个节点表示一个人的身体健康程度,当取值0.8时,就表示健康的程度为0.8。二、模糊神经网络的结合方式 由于模糊理论和神经网络又是两个截然不同的领域;它们的基础理论相差较远。但是,它们都是智能的仿真方法。是否可以把它们结合起来而加以应用呢?从客观实践和理论的溶合上讲
21、是完全可以令它们结合的。把模糊理论和神经网络相结合就产生了种新的技术领域:这就是模糊神经网络。模糊神经网络是正在不断探讨和研究的一个新领域。在目前,模糊神经网络有如下三种形式:1、逻辑模糊神经网络;2、算术模糊神经网络;3、混合模糊神经网络。模糊神经网络就是具有模糊权系数或者输入信号是模糊量的神经网络。上面三种形式的模糊神经网络中所执行的运算方法不同。模糊神经网络无论作为逼近器,还是模式存储器,都是需要学习和优化权系数的。学习算法是模糊神经网络优化权系数的关键。对于逻辑模糊神经网络,可采用基于误差的学习算法,也即是监视学习算法。对于算术模糊神经网络,则有模糊BP算法,遗传算法等。对于混合模糊神
22、经网络,目前尚未有合理的算法;不过,混合模糊神经网络一般是用于计算而不是用于学习的,它不必一定学习。三、模糊神经网络的优点 目前模糊神经网络的研究已经称为国际上一个引人注目的研究方向,通过研究可以发现,模糊理论和神经网络有着许多共同特点:1、都可以通过给定输入/输出信号,建立系统的非线性关系,不依赖特定的数学描述的系统模型;2、数据的处理形式都是并行的,因而相对应的系统结构也是并行的。当然,也有很多不同的地方,如:1、神经网络对外界的变化有很强的适应能力,但其内部典型的黑箱学习模式,使人们无法了解学习过程中的数据意义,也无法用人们常用的方式来解释其输入输出关系;2、模糊系统是建立在容易让人理解
23、的(IFTHEN)方式上的,但是很难自动生成和调整隶属函数和模糊规则,系统的自适应能力不如神经网络系统。由此可看出,模糊系统和神经网络有很多互补的特点,如果能取长补短,便可提高系统的学习和适应能力,增强系统的表达与理解能力。模糊理论技术与神经网络的结合在结构上有:将模糊原理引入现有神经网络结构,形成模糊化神经网络,或将人工神经网络作为模糊系统中的隶属函数、模糊规则、扩展原理,形成神经化模糊系统两种。3.2 BP神经网络BP神经网络9 10 1617即误差反向传播神经网络是神经网络模型中使用最广泛的一种,在人工神经网络的目前实际应用中,一般都是采用BP网络和它的变化形式。BP神经网络主要用于:函
24、数逼近、模式识别分类和数据压缩。3.2.1 BP网络的结构一般来讲,BP网络是一种具有三层或三层以上的多层神经元网络,它的各层之间各个神经元实现全连接,即前一层的每一个神经元与后面一层的每个神经元都有连接,而同一层各神经元之间无连接。图3-3所示。BP网络按有教师学习方式进行训练,当一对学习模式提供给网络后,其神经元的激活值将从输入层经各中间层向输出层传播,在输出层的各神经元输出对应于输入模式的网络响应。然后,按减少希望输出与实际输出误差的原则,从输出层经各中间层、最后回到输入层逐层修正各连接权。由于这种修正过程是从输出到输入逐层进行的,所以称它为“误差逆传播算法”。随着这种误差逆传播训练的不
25、断进行,网络对输入模式响应的正确率也不断提高。图3-2-1 BP网络结构图3.2.2 BP神经网络的学习算法一、BP网络的学习过程分析BP网络的学习过程主要由四部分组成: 1、输入模式顺传播(输入模式由输入层经中间层向输出层传播计算); 2、输出误差逆传播(输出的误差由输出层经中间层传向输入层); 3、循环记忆训练(模式顺传播与误差逆传播的计算过程反复交替循环进行); 4、学习结果判别(判定全局误差是否趋向极小值)。分析介绍如下:1、输入模式顺传播 这一过程主要是利用输入模式求出它所对应的实际输出。设输入模式向量为 (;学习模式对数;输入层单元个数)。与输入模式相对应的希望输出为 (输出层单元
26、数)。根据M-P神经元模型(激活函数为阀值型,由美国心理学家McCulloch和数学家Pitts共同提出,因此称为M-P模型)原理,计算中间层各神经元的激活值: (.)式中:输入层至中间层的连接权; 中间层单元的阀值;中间层单元数。激活函数采用型函数,即 这里之所以选型函数作为BP网络神经元的激励函数是因为它是连续可微分的,而且更接近于生物神经元的信号输出形式。 将上面的激活函数值代入激活函数中可得中间层单元的输出值为 (.) 阀值在学习过程中和权值一样也不断地被修正。阀值的作用反映在型函数的输出曲线上,图3-4所示。由图可见,阀值的作用相当于将输出值移到了个单位。 图3-2-2 阀值对激活函
27、数的作用 同理,可求得输出端的激活值和输出值: 设输出层第个单元的激活值为,则 设输出值第个单元的实际输出值为,则 ()式中:中间层至输出层连接权; 输出层单元阀值; 型激活函数。2、输出误差逆传播 在第一步的模式顺传播计算中我们得到了网络的实际输出值,当这些实际的输出值与希望的输出值不一样时或者说其误差大于所限定的数值时,就要对网络进行校正。 这里的校正是从后向前进行的,所以叫作误差逆传播,计算时是从输出层到中间层,再从中间层到输入层。 输出层的校正误差为: 式中: 希望输出; 实际输出; 对输出层函数的导数。 中间层各单元的校正误差为: ( ) 每一个中间单元的校正误差都是由个输出层单元校
28、正误差传递而产生的。当校正误差求得后,则可利用和沿逆方向逐层调整输出层至中间层,中间层至输入层的权值。 对于输出层至中间层连接权和输出层阀值的校正量为 其中,中间层单元的输出; 输出层的校正误差。 (学习系数)。中间层至输入层的校正量为: 式中:中间层单元的校正误差。 (学习系数)。这里可以看出:(1)调整量与误差成正比,即误差越大,调整的幅度就越大。(2)调整量与输入值的大小成比例,输入值越大,在此次学习过程中就显得越活跃,所以与其相连的权值的调整幅度就越大。(3)调整量与学习系数成正比。3、循环记忆训练 为使网络的输出误差趋于极小值。对于BP网络输入的每一组训练模式,要经过数百次甚至上万次
29、的循环记忆训练,才能使网络记住这一模式。 这种循环记忆训练实际上就是反复重复1、2的过程。4、学习结果判别 当每次循环记忆训练结束后,都要进行学习结果的判别。判别的目的主要是检查输出误差是否已经小到允许的程度。如果小到了允许的程度,就可以结束整个学习过程,否则还要进行循环训练。学习或者说训练的过程是网络全局误差趋向极小值的过程。但是对于BP网络,其收敛过程存在着两个很大的缺陷:一是收敛速度慢,二是存在“局部极小点”问题。在学习过程中有时会出现,当学习反复进行到一定次数后,虽然网络的实际输出与希望输出还存在很大的误差,但无论再如何学习下去,网络全局误差的减小速度都变得很缓慢,或者根本不再变化,这
30、种现象是因网络收敛于局部极小点所致。BP网络的全局误差函数E是一个以S型函数为自变量的非线性函数。这就意味着由E构成的连接权空间不是只有一个极小点的曲面,而是存在多个局部极小点的超曲面,如图3-5所示。图3-2-2-2 多个极小点的连接权空间 导致这一缺陷的主要原因是采用了按误差函数梯度下降的方向进行校正。在图3-5中,若初始条件是从A点的位置开始则只能达到局部极小点,但如果从B点开始则可达到全局最小点。所以BP网的收敛依赖于学习模式的初始位置,适当改进BP网络中间层的单元数,或者给每个连接权加上一个很小的随机数,都有可能使收敛过程避开局部极小点。二、BP网络学习过程具体步骤1、初始化,给各连
31、接权、及阈值、 赋予-1,+1之间的随机值。2、随机选取一模式对,提供给网络。3、用输入模式,连接权和阈值计算中间层各神经元的输入(激活值),然后用通过激活函数 计算中间层各单元的输出: =式中: 4、用中间层的输出、连接权和阈值计算输出层各单元的输入(激活值),然后用通过激活函数计算输出层各单元的响应 =式中: ()5、用希望输出模式,网络实际输出计算输出层各单元的校正误差: ()6、用,计算中间层的校正误差: ()7、用,和计算下一次的中间层和输出层之间的新连接权: 式中:学习次数。8、由,和计算下一次的输入层和中间层之间的新连接权: 9、随机选取下一个学习模式对提供给网络,返回到第3步,
32、直至全部个模式对训练完。10、重新从个学习模式对中随机选取一个模式对,返回到第3步,直至网络全局误差函数小于预先设定的限定值(网络收敛)或学习回数大于预先设定的数值(网络无法收敛)。11、学习结束在以上的学习步骤中16为输入学习模式的“顺传播过程”,78为网络误差的“逆传播过程”,910则完成训练和收敛过程。BP网络学习过程框图如图3-6所示,根据框图及上述计算步骤可编程完成对BP神经网络的训练过程。图3-2-2-3 BP网络学习过程框图3.3 BP神经网络设计基础3.3.1 训练样本集的准备训练数据的准备工作是网络设计与训练的基础,数据选择的合理性以及数据表示的合理性对于网络设计具有极为重要
33、的影响。数据准备包括原始数据的收集、数据分析、变量选择和数据预处理等诸多步骤,如下:一、输入输出量的选择一个待建模系统的输入输出就是神经网络的输入输出变量。这些变量可能是事先确定的,也可能不够明确,需要进行一番筛选。一般来讲,输出量代表系统要实现的功能目标,其选择确定相对容易一些,例如系统的性能指标,分类问题的类别归属,或非线性函数值等等。输入量必须选择那些对输出影响大且能够检测或提取的变量,此外还要求各输入变量之间互不相关或相关性很小,这是输入量选择的两条基本原则。如果对某个变量是否适合作网络输入没有把握,可分别训练含有和不含有该输入的两个网络,对其效果进行对比。从输入、输出量的性质来看,可
34、分为两类:一类是数值变量,一类是语言变量。数值变量的值是数值确定的连续量或离散量。语言变量是用自然语言表示的概念,其“语言值”是用自然语言表示的事物的各种属性。例如,颜色、性别、规模等等都是语言变量。其语言值可分别取为红、绿、蓝,男、女,大、中、小等。当选用语言变量作为网络的输入或输出变量时,需将其语言值转换为离散的数值量。二、输入量的提取与表示 很多情况下,神经网络的输入量无法直接获得,常常需要用信号处理与特征提取技术从原始数据中提取能反映其特征的若干特征参数作为网络的输入,提取方法与待解决的问题密切相关,下面讨论典型的几种情况。1、文字符号输入 在各类字符识别的应用中,均以字符为输入的原始
35、对象。BP网络的输入层不能直接接受字符输入,必须先对其进行编码,变成网络可接受的形式。2、曲线输入 多层感知器在模式识别类应用中常被用来识别各种设备输出的波形曲线,对于这类输入模式,常用的表示方法是提取波形在各区间分界点的值,以其作为网络输入向量的分量值。各输入分量的下标表示输入值在波形中的位置,因此分量的编号是严格有序的。3、函数自变量输入用多层前馈网建立系统的数学模型属于典型的非线性映射问题。一般当系统已有大量输入输出数据对,建模的目的是提取其中隐含的映射规则(即函数关系)。这类应用的输入表示比较简单,一般有几个影响参数就设几个分量,1个输入分量对应一个输入层节点。4、图像输入 当需要对物
36、体的图像进行识别时,很少直接将每个像素点的灰度值作为网络的输入。因为图像的像素点常以万计,不适合作为网络的输入,而且难以从中提取有价值的输入输出规律。这类应用中,一般先根据识别的具体目的从图像中提取一些有用的特征参数,再根据这些参数对输出的贡献进行筛选。三、输出量的表示所谓输出量实际上是指为网络训练提供的期望输出,一个网络可以有多个输出变量,其表示方法通常比输入量容易很多,而且对网络的精度和训练时间影响也不大。输出量可以是数值变量,也可以是语言变量。对于数值类的输出量,可直接用数值量来表示,但由于网络实际输出只能是01或-11之间的数,所以需要将期望输出进行尺度变换处理,方法见四。下面是几种语
37、言变量的表示方法。1、“中取1”表示法 分类问题的输出变量多用语言变量类型,如质量可分为优、良、中、差4个类别。“中取1”是令输出向量的分量数等于类别数,输入样本被判为哪一类,对应的输出分量取1,其余-1个分量全取0.例如,用0001、0010、0100和1000分别表示优、良、中、差4个类别。这种方法的优点是比较直观,当分类数不是太多时经常采用。2、“”表示法 “中取1”表示法中没有用到编码全为0的情况,如果用个全为0的输出向量表示某个类别,则可以节省一个输出节点。如上面提到的4个类别也可以用000、001、010和100表示。特别是当输出只有两种可能是,只用一个二进制数便可以表达清楚。如用
38、0和1代表性别的男和女等。3、数值表示法 二值分类只适于表示两类对立的分类,而对以有些渐进式的分类,可以将语言值转化为二值之间的数值表示。例如,质量的差与好可以用0和1表示,而较差和较好这样的渐进类别可用0和1之间的数值表示,如用0.25表示较差,0.5表示中等,0.75表示较好等等。数值的选择要注意保持由小到大的渐进关系,并要根据实际意义拉开距离。四、输入输出数据的预处理 尺度变换也称归一化或标准化,是指通过变化处理将网络的输入、输出数据限制在0,1或-1,1区间内。进行尺度变换的主要原因有:(1)网络的各个输入数据常常具有不同的物理意义和不同的量纲,如某输入分量在01范围内变化,而另一输入
39、分量则在01范围内变化。尺度变换使所有分量都在01或-11之间变化,从而使网络训练一开始就给各输入分量以同等重要的地位;(2)BP网的神经元均采用Sigmoid变换函数,变换后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区;(3)Sigmoid变换函数的输出在01或-11之间,作为教师信号的输出数据如不进行变换处理,势必使数值大的输出分量绝对误差大,数值小的输出分量绝对误差小,网络训练时只针对输出的总误差调整权值,其结果是在总误差中占份额小的输出分量相对误差较大,对输出量进行尺度变换后这个问题可迎刃而解。此外,当输入或输出向量的分量量纲不同时,应对不同的分量在
40、其取值范围内分别进行变换;当各分量物理意义相同且为同一量纲时,应在整个数据范围内确定最大值和最小值,进行统一的变化处理。 将输入输出数据变换为0,1区间的值常用以下变换式 其中,代表输入或输出数据,代表数据变化范围的最小值,代表数据变化范围的最大值。五、训练集的设计 网络的性能与训练用的样本密切相关,设计一个好的训练样本集既要注意样本规模,又要注意样本质量。1、训练样本数的确定 一般来说训练样本越多,训练结果越能正确反映其内在规律,但样本的收集整理往往受到客观条件的限制。此外,当样本数多到一定程度时,网络的精度也很难再提高。实践表明,网络训练所需的样本数取决于输入输出非线性映射关系的复杂程度,
41、映射关系越复杂,样本中含的噪声越大,为保证一定映射精度所需要的样本数就越多,而且网络的规模也越大。因此,可以参考这样一个经验规则:训练样本数数网络连接权总数的510倍。2、样本的选择与组织 网络训练中提取的规律蕴涵在样本中,因此样本一定要有代表性。样本的选择要注意样本类别的均衡,尽量使每个类别的样本数量大致相等。即使是同一类样本也要照顾样本的多样性与均匀性。按这种“平均主义”原则选择的样本能使网络在训练时见多识广,而且可以避免网络对样本数量多的类别“印象深”,而对出现次数少的类别“印象浅”。样本的组织要注意将不同类别的样本交叉输入,或从训练集中随机选择输入样本。因为同类样本太集中会使网络训练时
42、倾向于只建立与其匹配的映射关系,当另一类样本集中输入时,权值的调整又转向新的映射关系而将前面的训练结果否定。当各类样本轮流集中输入时,网络的训练会出现振荡使训练时间延长。3.3.2 初始权值的设计网络权值的初始化决定了网络的训练从误差曲面的那一点开始,因此初始化方法对缩短网络的训练时间至关重要。神经元的激活函数都是关于零点对称的,如果每个节点的净输入均在零点附近,则其输出均处在变换函数的中点。这个位置不仅远离激励函数的两个饱和区,而且是其变化最灵敏的区域,必然使网络的学习速度较快。从净输入的表达式(=,为权值,为输入)可以看出,为了使各节点的初始净输入在零点附近,有两种办法可以采用。一种办法是
43、使初始权值足够小;另一种办法是,使初始值为+1和-1的权值数相等。应用中对隐层权值可采用第一种办法,而对输出层可采用第二种办法。因为从隐层权值调整公式来看,如果输出层权值太小,会使隐层权值在训练初期的调整量变小,因此采用了第二种权值与净输入兼顾的办法。按以上方法设置的初始权值可使每个神经元一开始都工作在其变化最大的位置。3.3.3 BP多层感知器结构设计网络的的训练样本问题解决以后,网络的输入层节点数和输出层节点数便已确定。因此,BP多层感知器的结构设计主要是解决设几个隐层和每个隐层设几个隐节点的问题。对于这个问题,没有通用性的理论指导,下面是根据大量实践经验总结的结论:一、隐层数的设计 理论
44、分析证明,具有单隐层的BP神经网络可以映射所有连续函数,只有当学习不连续函数(如锯齿波等)时,才需要两个隐层,所以BP多层感知器最多只需要两个隐层。在设计BP多层感知器时,一般先考虑设一个隐层,当一个隐层的隐节点数很多仍不能改善网络性能时,才考虑再增加一个隐层。经验表明,采用两个隐层时,如在第一个隐层设置较多的隐节点而第二个隐层设置较少的隐节点,则有利于改善多层前馈网的性能。此外,对于有些实际问题,采用双隐层所需要的隐节点总数可能少于单隐层所需的隐节点数。所以,对于增加隐节点仍不能明显降低训练误差的情况,应该想到尝试一下增加隐层。一般都选择一个隐层的BP多层感知器。二、隐节点数的设计隐含层节点的作用是从样本中提取并存储其内在的规律,每个隐节点有若干个权值,而每个权值都是增强网络映射能力的一个参数。隐含节点数量太少,网络从样本中获取的信息能力就差,不足以概括和体现训练样本的规律;隐含节点数量太多,有可能把样本中的非规律性的内容如