人工智能的主要内容和方法.docx

上传人:小飞机 文档编号:5005851 上传时间:2023-05-29 格式:DOCX 页数:28 大小:246.13KB
返回 下载 相关 举报
人工智能的主要内容和方法.docx_第1页
第1页 / 共28页
人工智能的主要内容和方法.docx_第2页
第2页 / 共28页
人工智能的主要内容和方法.docx_第3页
第3页 / 共28页
人工智能的主要内容和方法.docx_第4页
第4页 / 共28页
人工智能的主要内容和方法.docx_第5页
第5页 / 共28页
亲,该文档总共28页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《人工智能的主要内容和方法.docx》由会员分享,可在线阅读,更多相关《人工智能的主要内容和方法.docx(28页珍藏版)》请在三一办公上搜索。

1、人工智能的主要内容和方法人工智能(Artificial Intelligence,简称AI)是50年代兴起的一门新兴 边缘学科,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、 能源技术、人工智能),也被认为是二十一世纪三大尖端技术之一(基因工 程、纳米科学、人工智能)。广义的讲,人工智能是关于人造物的智能行为, 而智能行为包括知觉、推理、学习、交流和在复杂环境中的行为。人工智能 的一个长期目标是发明出可以像人类一样或能更好地完成以上行为的机器; 另一个目标是理解这种智能行为是否存在于机器、人类或其他动物中。目前 能够用来研究人工智能的主要物质手段以及能够实现人工智能技术的机器 就是

2、计算机,人工智能的发展历史是和计算机科学与技术的发展史联系在 一起的。除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、 仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。一、AI的主要内容人工智能研究的主要内容包括:知识表示、自动推理和搜索方法、机器 学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、 自动程序设计等方面。知识表示是人工智能的基本问题之一,推理和搜索都与表示方法密切相 关。常用的知识表示方法有:逻辑表示法、产生式表示法、语义网络表示法 和框架表示法等。常识,自然为人们所关注,已提出多种方法,如非单调推理、定性推理 就是从不同角度来表达常

3、识和处理常识的。问题求解中的自动推理是知识的使用过程,由于有多种知识表示方法, 相应地有多种推理方法。推理过程一般可分为演绎推理和非演绎推理。谓词 逻辑是演绎推理的基础。结构化表示下的继承性能推理是非演绎性的。由于 知识处理的需要,近几年来提出了多种非演绎的推理方法,如连接机制推理、 类比推理、基于示例的推理、反绎推理和受限推理等。搜索是人工智能的一种问题求解方法,搜索策略决定着问题求解的一个 推理步骤中知识被使用的优先关系。可分为无信息导引的盲目搜索和利用经 验知识导引的启发式搜索。启发式知识常由启发式函数来表示,启发式知识 利用得越充分,求解问题的搜索空间就越小。典型的启发式搜索方法有A*

4、、 AO*算法等。近几年搜索方法研究开始注意那些具有百万节点的超大规模的 搜索问题。机器学习是人工智能的另一重要课题。机器学习是指在一定的知识表示 意义下获取新知识的过程,按照学习机制的不同,主要有归纳学习、分析学 习、连接机制学习和遗传学习等。知识处理系统主要由知识库和推理机组成。知识库存储系统所需要的知 识,当知识量较大而又有多种表示方法时,知识的合理组织与管理是重要的。 推理机在问题求解时,规定使用知识的基本方法和策略,推理过程中为记录 结果或通信需设数据库或采用黑板机制。如果在知识库中存储的是某一领域 (如医疗诊断)的专家知识,则这样的知识系统称为专家系统。为适应复杂问 题的求解需要,

5、单一的专家系统向多主体的分布式人工智能系统发展,这时 知识共享、主体间的协作、矛盾的出现和处理将是研究的关键问题。二、AI的研究方法既为人工智能的最终研究目标打好基础,又能创造出短期效益,这是选 择人工智能研究最佳方法的标准。尽管人工智能已经创造了一些实用系统, 但这些远未达到人类的智能水平。在过去的几十年里涌现出了大量的方法, 大致可分为两大类。第一类包括符号处理的方法。它们基于Newell和Simon的物理符号系 统的假说。大多数被称为“经典的人工智能”均在其指导之下。这类方法中, 突出的方法是将逻辑操作应用于说明性知识库。这种风格的人工智能运用说 明语句来表达问题域的“知识”,这些语句基

6、于或实质上等同于一阶逻辑中 的语句,采用逻辑推理可推导这种知识的结果。这种方法有许多变形,包括 那些强调对逻辑语言中定义域的形式公理化的角色的变形。当遇到“真正的 问题”,这一方法需要掌握问题域的足够知识,通常就称作基于知识的方法。在大多数符号处理方法中,对需求行为的分析和为完成这一行为所做的 机器合成要经过几个阶段。最高阶段是知识阶段,机器所需知识在这里说明。 接下来是符号阶段,知识在这里以符号组织表示(例如:列表可用列表处理 语言LISP来描述),同时在这里说明这些组织的操作。接着,在更低级的阶 段里实施符号处理。多数符号处理采用自上而下的设计方法,从知识阶段向 下到符号和实施阶段。第二类

7、包括所谓的“子符号”方法。它们通常采用自下而上的方式,从 最低阶段向上进行。在最低层阶段,符号的概念就不如信号这一概念确切了。 在子符号方法中突出的方法是“Animat approach”。偏爱这种方式的人们指 出,人的智能经过了在地球上十亿年或更长时间的进化过程,认为为了制 造出真正的智能机器,我们必须沿着这些进化的步骤走。因此,我们必须集 中研究复制信号处理的能力和简单动物如昆虫的支配系统,沿着进化的阶梯 向上进行。这一方案不仅能在短期内创造实用的人造物,又能为更高级智能 的建立打好坚实的基础。第二类方法也强调符号基础。在物理基础假说中,一个agent不采用集 中式的模式而运用其不同的行为

8、模块与环境相互作用来进行复杂的行为。机 器与环境的相互作用产生了所谓的“自然行为(emergent behavior)”。一个 agent的功能可视作该系统与动态环境密切相互作用的自然属性。agent本身 对其行为的说明并不能解释它运行时所表现的功能;相反,其功能很大程度 上取决于环境的特性。不仅要动态的考虑环境,而且环境的具体特征也要运 用于整个系统之中。由子符号派制造的著名样品机器包括神经网络(Neural network)。根 据模拟生物进化方面的进程,一些有意思的机器应运而生,包括:Sexual crossover Mutation 和 Fitness-proportional rep

9、roduction。其他 自 下而上,含 animat风格的方法是基于控制理论和动态系统地分析。介于自上而下和自下 而上之间的方法是一种环境自动机(situated automata)的方法。Kaelbling 和Rosenschein建议编写一种程序设计语言来说明agent在高水平上所要求的 行为,并编写一编译程序,以从这种语言编写的程序中产生引发行为的线路。径向基函数神经网络MATLAB仿真一、RBF网络的工作原理径向基函数神经网络(Radial Basis Function Neural Network, RBF)是一种前馈神经网络,一般为三层结构,如下图:X2bo!(11 X-C1H

10、)bm上图所示为nhm结构的RBF网络,即网络具有n个输入,h个隐 节点,m个输出。其中x=(x1 x2 Xn)T E Rn为网络输入矢量,WERnXm为输 出权矩阵,b0bm为输出单元偏移,y=(y1 y2 . ym)T为网络输出,g*)为第 i个隐节点的激活函数。图中输出层节点中的E表示输出层神经元采用线性 激活函数(输出神经元也可以采用其他非线性激活函数,如Sigmoidal函数)。RBF网络的最显著的特点是隐节点的基函数采用距离函数(如欧式距 离),并使用径向基函数(如Gaussian高斯函数)作为激活函数。径向基函 数关于n维空间的一个中心点具有径向对称性,而且神经元的输入离该中心

11、点越远,神经元的激活程度就越低。隐节点的这个特性常被称为“局部特性”。 因此RBF网络的每个隐节点都具有一个数据中心,上图中ci就是网络中第i 个隐节点的数据中心值,II * II则表示欧式范数。径向基函数0.(*)可以取多种形式:1. Gaussian 函数(t) = e-t2/522. Reflected sigmoidal 函数(t) = 1/(1 + et2/52)i3. 逆 Multiquadric 函数(t) = 1/(t2 +必加次0以上三式中的亳称为该基函数的扩展常数(Spread)或宽度。显然亳越 小,径向基函数的宽度就越小,基函数就越具有选择性。与输出节点相连的隐层第i个隐

12、节点的所有参数可用三元组(亳,气) 表示。每个隐层神经元都对输入x产生一个响应(|x-cI),且响应特性成 径向对称(即是一个个同心圆),而神经网络的输出则是所有这些响应的加 权和,因此第k个输出可表示为y =寸 3 (II x - c II)i =1由于每个神经元具有局部特性,最终整个RBF网络也呈现“局部映射” 特性,即RBF网络是一种局部相应神经网络。这意味着如果神经网络有较 大的输出,必定激活了一个或多个隐节点。二、RBF网络的聚类学习算法RBF网络的学习算法应该解决以下问题:结构设计,即如何确定网络隐 节点数h;确定各径向基函数的数据中心气及扩展常数亳;输出权值修正。如果知道了网络的

13、隐节点数、数据中心和扩展常数,RBF网络从输入到输出 就成了一个线性方程组,此时权值学习可采用最小二乘法。RBF网络最常用的学习算法有聚类方法、梯度训练方法及OLS优选算法。 下面将详细介绍最经典的RBF网络学习算法一聚类方法,并进行MATLAB仿 真。聚类方法的思路是先用无监督学习(用k-means算法对样本输入进行聚 类)方法确定RBF网络中h个隐节点的数据中心,并根据各数据中心之间的 距离确定隐节点的扩展常数,然后用有监督学习(梯度法)训练各隐节点的 输出权值。假设X1X2, .,XN为样本输入,相应的样本输出(教师信号)为y1,y2, .,yN, 网络中第j个隐节点的激活函数为H*)。

14、k为迭代次数,第k次迭代时的聚 类中心为c1(k), c2(k),ch(k),相应的聚类域为3 1(k), 32(k),,3h(k)。 k-means聚类算法确定RBF网络数据中心R和扩展常数6 j的步骤如下:(1) 算法初始化:选择h个不同的初始聚类中心,并令k=1。初始聚类 中心的方法很多,比如,从样本输入中随机选取,或者选择前h个样本输入, 但这h个初始数据中心必须取不同值。(2) 计算所有样本输入与聚类中心的距离IIX-c.(k)ll,i=1,2, ,h,j jj=1,2, ,N。(3) 对样本输入X.按最小距离原则对其进行分类:即当 i(xj)=min ll-ci(k)ll,i=1,

15、2, .,h 时,X.即被归为第 i 类,即 3您)。i(4) 重新计算各类的新的聚类中心:c (k +1) = N X 兀 i = 1,2, , hi xeW|(k)式中,N为第i个聚类域3k)中包含的样本数。(5) 如果ci(k+1)#ci(k),转到步骤(2),否则聚类结束,转到步骤(6)。(6) 根据各聚类中心之间的距离确定各隐节点的扩展常数。隐节点的扩 展常数取6广Kdi,其中di为第i个数据中心与其他最近的数据中心之间的距 离,即 di=min IICj-Ci(k)ll,K 称重叠系数。i一旦各隐节点的数据中心和扩展常数确定了,输出权矢量3=(3、32, 3h)T就可以用有监督学习

16、方法(如梯度法)训练得到,但更简洁的方法是使 用最小二乘方法(LMS)直接计算。假定当输入为*,i=1,2, .,N时,第j 个隐节点的输出如下式所示:h =O (IIx -c II)ijj i j则隐层输出阵为H = h ij则H ER Nxh。如果RBF网络的当前权值为3=(七,32,,3h)T (待定),则 对所有样本,网络输出矢量为y =片令e =II y-II为逼近误差,则如果给定了教师信号y=(y1 y2ym)T并确定 了H,便可通过最小化下式求出网络的输出权值:s =II y 一 /II =II y 一 H II通常3可用最小二乘法求得w = H + y式中,H+为H的伪逆,即H

17、+ =( H H)-1H三、RBF网络MATLAB仿真实例题目:基于聚类方法的y=sinx函数逼近解:RBF网络隐层采用标准Gaussian径向基函数,输出层采用线性激 活函数,即f u ) = u。数据中心和扩展常数用聚类方法得到,输出权值和偏 移采用广义逆方法求解。隐节点数(即聚类数)取10,初始聚类中心取前 10个训练样本。MATLAB 程序:function main()%训练样本数%测试样本数%样本输入维数%隐节点(聚类样本)数%隐节点重叠系数KSamNum=200;TestSamNum=201;InDim=1;ClusterNum=10;Overlap=1.0;%根据目标函数获得样

18、本输入输出rand(state,sum(100*clock);% resets the generator to a different state each time%且state不同产生的伪随机序列顺序不同SamIn=14*rand(1,SamNum)-7;SamOut=sin(SamIn);TestSamIn=-7:0.07:7;TestSamOut=sin(TestSamIn);%7-(-7)/0.07+1=201 个样本figure hold on grid plot(SamIn,SamOut,b +)%绘制目标函数曲线plot(TestSamIn,TestSamOut,k -) x

19、label(Input x);ylabel(Output y);title(基于聚类的RBF网络对函数y=sinx的逼近曲线),Centers=SamIn(:,1:ClusterNum);%初始聚类中心取前10个训练样本NumberInClusters=zeros(ClusterNum,1);%各类中的样本数,初始化为0IndexInClusters=zeros(ClusterNum,SamNum);%各类所含样本的索引号while 1,NumberInClusters=zeros(ClusterNum,1);IndexInClusters=zeros(ClusterNum,SamNum);%

20、按最小距离原则对所有样本进行分类for i=1:SamNumAllDistance=dist(Centers,SamIn(:,i);%求欧几里德距离MinDist,Pos=min(AllDistance);NumberInClusters(Pos)=NumberInClusters(Pos)+1;%求 各类样本的个数IndexInClusters(Pos,NumberInClusters(Pos)=i;end%报存旧的聚类中心OldCenters=Centers;%重新计算各类的聚类中心for i=1:ClusterNumIndex=IndexInClusters(i,1:NumberInCl

21、usters(i);Centers(:,i)=mean(SamIn(:,Index);end%判断新旧聚类中心是否一致,如果是,则聚类结束EqualNum=sum(sum(Centers=OldCenters);%新旧聚类中心一致的个数if EqualNum=InDim*ClusterNum,break,endend%计算各隐节点的扩展常数(宽度)5 i= k di,其中di是Cj-Ci(k)的最小欧式距离%求隐节点数据中心间的距离(矩阵)%找出其中最大的一个距离%某一类的中心到自身的欧式距离是0,%但要找隐节点间的最小距离,%因此将对角线上的0替换为较大的值。%以隐节点间的最小距离作为扩展常

22、数AllDistances=dist(Centers,Centers);Maximum=max(max(AllDistances);for i=1:ClusterNumAllDistances(i,i)=Maximum+1;endSpreads=Overlap*min(AllDistances);%计算各隐节点的输出权值Distance=dist(Centers,SamIn);%计算各样本输入离各数据中心的距离SpreadsMat=repmat(Spreads,1,SamNum);%repmat 径向基函数 6j(.)HiddenUnitOut=radbas(Distance./Spreads

23、Mat);% 计算隐节点输出阵HiddenUnitOutEx=HiddenUnitOut ones(SamNum,1); %考虑偏移W2Ex=SamOut*pinv(HiddenUnitOutEx);%求广义输出权值。pinv 求伪逆W2=W2Ex(:,1:ClusterNum);B2=W2Ex(:,ClusterNum+1);W2B2%测试TestDistance=dist(Centers,TestSamIn);TestSpreadsMat=repmat(Spreads,1,TestSamNum);TestHiddenUnitOut=radbas(TestDistance./TestSpre

24、adsMat);TestNNOut=W2*TestHiddenUnitOut+repmat(B2,1,TestSamNum);plot(TestSamIn,TestNNOut,r -)四、输出结果当隐节点重叠系数K为1时,W2 =Columns 1 through 80.9232-0.97591.19561.24020.95091.3999-0.0311-0.1359Columns 9 through 100.7913-0.1700-0.8289基于聚类的朋F网帽动函撤广EK的遥近超统.-.ley . - - =1当隐节点重叠系数K为2时,W2 =Columns 1 through 87.65

25、55-1.73260.01560.0815 -11.83861.01880.78531.5740Columns 9 through 109.3149-1.0047B2 =-1.3042基于聚类的朋F河露对函数定湖K的逗近曲钱Input 就五、结果分析RBF网络的学习过程与BP网络的学习过程类似,两种网络中隐节点的 非线性变换作用都是把线性不可分问题转化为线性可分问题,因此均可用于 函数逼近和分类。两者的主要区别在于各使用不同的激励函数,BP网络中 隐层节点使用的是Sigmoid函数,其值在输入空间中无限大的范围内为非零 值,因而是一种全局逼近的神经网络;而RBF网络中的激励函数是Gaussia

26、n 函数,是一种局部逼近的神经网络,其对于输入空间的某个局部区域只有少 数几个连接权影响网络的输出,因而与BP网络相比,RBF网络学习速度更 快。聚类方法的优点是能根据各聚类中心之间的距离确定各隐节点的扩展 常数,缺点是确定数据中心时只用到了样本输入信息,而没有用到样本输出 信息;另外聚类方法也无法确定聚类的数目(RBF网络的隐节点数)。遗传算法MATLAB仿真一、遗传算法(GA)的基本思想基于达尔文进化论中的适者生存、优胜劣汰的基本原理,按生物学的方 法将问题的求解表示成“种群(Population)(用计算机编程时,一般使用二 进制码串表示),从而构造出一群包括N个可行解的种群,将它们置于

27、问题 的“环境”中,根据适者生存原则,对该种群按照遗传学的基本操作,不断 优化生成新的种群,这样一代代地不断进化,最后收敛到一个最适应环境的 最优个体上,求得问题的最优解。遗传算法可以形式化的描述如下:GA=( P(0), N,l, s, g, p, f ,t)其中,P(0) = (P1(0), P2(0),,Pn(0),表示初始种群;N表示种群中含有个 体的个数;l表示二进制串的长度;s表示选择策略;g表示遗传算子,通常 它包括有选择(繁殖)算子0、杂交算子Qc和变异算子Qm; p表示遗传算 子的操作概率,它包括选择概率Pr、Pc和变异概率Pm ; f是适应度函数; t是终止准则。二、Hol

28、land 遗传算法(SGA)该算法的操作对象是一群被称为种群的二进制位串(称为染色体、个 体)。这里的每个染色体都对应求解问题的一个解。SGA的基本思想是:从 初始种群出发,采用基于适应度比例的选择策略在当前种群中选择个体,使 用杂交和变异来产生下一代种群。如此一代代演化下去,直至满足期望的终 止条件为止。执行一个简单的遗传算法时,需要做以下的准备工作:(1) 根据问题的要求选取设计变量(即明确需要优化的参数或方案),变 量的取值范围构成问题的解空间。这是一个具体问题的数学抽象的过程。(2) 确定变量的约束条件。(3) 确定编码方案。遗传算法求解问题不是直接作用在问题的解空间上, 而是利用解的

29、某种编码表示。通常解(变量)空间中的一个解(变量)被编 码成一个串,它是由组成这个解(变量)的一系列有效信息组成。(4) 确定适应度函数。适应度值是对解的质量的度量,它是遗传算法对 种群中的个体执行各种遗传操作的唯一的依据。(5) 确定选择策略。个体的适应度值是策略中的主要依据,该步骤使适 应度值大的解在下一代有较大的存活概率。这种轮盘赌的选择策略具有正反 馈特征,在自然界中也屡屡出现这样的现象,最后的结局是可怕的。实际设 计中还可以选择锦标赛选择策略或者排序选择策略等。(6) 确定控制参数。它主要包括种群规模、执行不同遗传操作的概率以 及其它一些辅助性控制参数。(7) 设计遗传算子。进化算法

30、中的遗传算子包括繁殖(选择)、杂交变异 等操作。(8) 确定算法的条件终止准则。三、Holland遗传算法流程图四、遗传算法MATLAB仿真实例例:求下列函数的最大值 f(x)=10*sin(5x)+7*cos(4x) , xE 0,10。其中将x的值用一个10位的二值形式表示。解:分为八个部分:1.初始化(编码)initpop.m函数的功能是实现群体的初始化,popsize表示群体的大小, chromlength表示染色体的长度(二值数的长度),长度大小取决于变量的二进 制编码的长度(在本例中取10位)。子程序文件名:initpop.m%初始化function pop=initpop(pop

31、size,chromlength) pop=round(rand(popsize,chromlength);% rand随机产生每个单元为0,1行数为popsize,列数为chromlength 的矩阵,% round对矩阵的每个单元进行取整。产生初始种群。2. 计算目标函数值(1)将二进制串转化为相应的十进制,即()=仪 b - 2i) = x9802i 10i=0子程序文件名:decodebinary.m%产生2An 2A(n-1) . 1的行向量,然后求和,将二进制转化为十进制function pop2=decodebinary(pop)px,py=size(pop);%求 pop 行和

32、例数for i=1:pypop1(:,i)=2.A(py-1).*pop(:,i);py=py-i;endpop2=sum(pop1,2);%求 popi 的每行之和(2) 找到相应的实数x,即10X = 0.0 + X210 -1其中0.0为区间0,10的左边界,10为区间长度。decodechrom.m函数的功能是将染色体(或二进制编码)转换为十进制, 参数spoint表示待解码的二进制串的起始位置(对于多个变量而言,如有两 个变量,采用20位表示,每个变量10位,则第一个变量从1开始,另一个 变量从11开始。本例为1),参数length表示所截取的长度(本例为10)。子程序文件名:dec

33、odechrom.m%将二进制编码转换成十进制function pop2=decodechrom(pop,spoint,length)pop1=pop(:,spoint:spoint+length-1);pop2=decodebinary(pop1);(3) 计算目标函数值calobjvalue.m函数的功能是实现目标函数的计算。子程序文件名:calobjvalue.m%实现目标函数的计算function objvalue=calobjvalue(pop)temp1=decodechrom(pop,1,10); %将 pop 每行转化成十进制数x=temp1*10/(2A10-1);%将二值域

34、中的数转化为变量域的数objvalue=10*sin(5*x)+7*cos(4*x); % 计算目标函数值3. 计算个体的适应值子程序文件名:calfitvalue.m%计算个体的适应值function fitvalue=calfitvalue(objvalue)global Cmin;Cmin=0;px,py=size(objvalue);for i=1:pxif objvalue(i)+Cmin0temp=Cmin+objvalue(i);elsetemp=0.0;endfitvalue(i)=temp;endfitvalue=fitvalue;4. 选择复制选择或复制操作是决定哪些个体可

35、以进入下一代。程序中采用轮盘赌式 选择法进行选择,这种方法较易实现。根据方程pi=fi/S fi=fi/fsum,选择步骤:1) 在第t代,由上式计算fsum和pi2) 产生0,1的随机数 rand(.),求 s=rand( .)*fsum3) 求piNs中最小的k,则第k个个体被选中4) 进行N次2)、3)操作,得到N个个体,成为第t=t+1代种群子程序文件名:selection.m%选择复制function newpop=selection(pop,fitvalue)totalfit=sum(fitvalue); % 求适应值之和fitvalue=fitvalue/totalfit; %单

36、个个体被选择的概率fitvalue=cumsum(fitvalue); % 如 fitvalue=1 234,则cumsum(fitvalue)=1 3 6 10px,py=size(pop);ms=sort(rand(px,1); % 从小到大排列fitin=1;newin=1;while newin=pxif(ms(newin) fitvalue (fitin)newpop(newin,:)=pop(fitin,:);newin=newin+1;elsefitin=fitin+1;endend5.交叉交叉(crossover),群体中的每个个体之间都以一定的概率pc交叉,即 两个个体从各自

37、字符串的某一位置,(一般是随机确定)开始互相交换,这 类似生物进化过程中的基因分裂与重组。例如,假设2个父代个体x1, x2 为:x1=0100110; x2=1010001。从每个个体的第3位开始交叉,交叉后得 到2个新的子代个体y1,y2分别为:y1=0100001; y2=1010110。这样2 个子代个体就分别具有了 2个父代个体的某些特征。利用交叉我们有可能由 父代个体在子代组合成具有更高适合度的个体。事实上交叉是遗传算法区别 于其它传统优化方法的主要特点之一。子程序文件名:crossover.m%交叉function newpop=crossover(pop,pc)px,py=si

38、ze(pop);newpop=ones(size(pop);for i=1:2:px-1if(randpc)cpoint=round(rand*py);newpop(i,:)=pop(i,1:cpoint) pop(i+1,cpoint+1:py);newpop(i+1,:)=pop(i+1,1:cpoint) pop(i,cpoint+1:py);elsenewpop(i,:)=pop(i,:);newpop(i+1,:)=pop(i+1,:);endend6.变异变异(mutation),基因的突变普遍存在于生物的进化过程中。变异是指 父代中的每个个体的每一位都以概率pm翻转,即由“1”变

39、为“0”,或由 “0”变为“1”。遗传算法的变异特性可以使求解过程随机地搜索到解可能 存在的整个空间,因此可以在一定程度上求得全局最优解。子程序文件名:mutation.m%变异function newpop=mutation(pop,pm)px,py=size(pop);newpop=ones(size(pop);for i=1:pxif(randpm)mpoint=round(rand*py);if mpointbestfitbestindividual=pop(i,:);bestfit=fitvalue(i);endend8.王程序主程序文件名:GAmaxMAIN.mclearclfpo

40、psize=20; %群体大小chromlength=10; %字符串长度(个体长度)pc=0.6; %交叉概率pm=0.001; %变异概率pop=initpop(popsize,chromlength); % 随机产生初始群体for i=1:20%20为迭代次数objvalue=calobjvalue(pop); % 计算目标函数fitvalue=calfitvalue(objvalue); %计算群体中每个个体的适应度newpop=selection(pop,fitvalue); %复制newpop=crossover(pop,pc); %交叉newpop=mutation(pop,pm

41、); % 变异bestindividual,bestfit=best(pop,fitvalue); %求出群体中适应值最大的个体及其适应值y(i)=max(bestfit);n(i)=i;pop5=bestindividual;x(i)=decodechrom(pop5,1,chromlength)*10/ (2A10-1);pop=newpop;endfplot(10*sin(5*x)+7*cos(4*x),0 10)hold onplot(x,y,r*)x=x(1,1)ymax=y(1,1)hold off五、输出结果当 x = 1.3978; ymax =11.8792当 x = 6.4

42、907; ymax = 13.3356当 x = 7.8397; ymax = 16.9630六、结果分析从上图可以看出,遗传算法具体实现起来还会存在一些问题,经典遗传 算法并不保证全局最优收敛。(1)过早收敛现象。在我们设计的进化算法中,物种规模一般都在几 十到几百之间,与实际物种规模相比是很小的,如果个体繁殖量调节得不好, 很容易出现超级个体,因此很容易导致算法过早收敛于一个局部最优点,出 现过早收敛现象。我们可对超级个体的适应函数增加一惩罚项,从而控制该 个体的选择概率,或采用其它选择策略,或增大个体的变异率来增加种群的 多样性。(2)停滞现象。群体中所有的个体都陷于同一适应度而停止进化,可 能导致未成熟收敛。我们可通过适应度调整来改善。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号