iSIGHT优化技术韩-廖.docx

上传人:小飞机 文档编号:4885499 上传时间:2023-05-21 格式:DOCX 页数:22 大小:244.15KB
返回 下载 相关 举报
iSIGHT优化技术韩-廖.docx_第1页
第1页 / 共22页
iSIGHT优化技术韩-廖.docx_第2页
第2页 / 共22页
iSIGHT优化技术韩-廖.docx_第3页
第3页 / 共22页
iSIGHT优化技术韩-廖.docx_第4页
第4页 / 共22页
iSIGHT优化技术韩-廖.docx_第5页
第5页 / 共22页
亲,该文档总共22页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《iSIGHT优化技术韩-廖.docx》由会员分享,可在线阅读,更多相关《iSIGHT优化技术韩-廖.docx(22页珍藏版)》请在三一办公上搜索。

1、优化技术(Optimization)北京航空航天大学720研究所,国家888/CIMS设计自动化工程实验室合作设计与优化研究小组 韩明红廖馨编著、iSIGHT对优化问题的表达不同的优化软件对优化问题的表达方式是不一样的,iSIGHT对优化问题表述如下:W目标:满足等式约束:Minimize x F (X)i iwk = 1,,K(h (X) - T arg et) x 卜=0kSFk不等式约束:冬x (LB - g (X ) 0SFjjwj x (g (X) - UB) 0; j = 1,.,lSF jj设计变量:对于整型和实型数气 iSIGHU” UB SFSFSF对于离散型参数是输入参数集

2、合S其中,SF规模因子,默认值为1.0;W一权重因子,默认值为1.0;有关上述表达方式的几点说明: 所有问题在iSGHT内部都被转换成一个加权的最小化问题。目标包含有很多iSIGHT 参数,目标根据重要程度都有相应的权重因子和规模因子。如果一个目标是最大化, 那么就在它的权重因子前加负号。 如果你的优化技术是一个基于罚函数的技术,那么最小化问题就象上面所述,只需 在后面加上惩罚项即可。 所有的等式约束 h(x)都有一个范围,土 DeltaForEqualityConstra int Violation,在这个范围内约束不认为是冲突的。默认的范围是土0.00001。每个约束也有权重 因子和规模因

3、子。 所有不等式约束g(x)都认为是非线性的。如果一个输出参数有上下边界,那么 iSIGHT就会自动转换成两个不等式约束。每个约束也有权重因子和规模因子。 iSIGHT设计变量X,可以是实数、整数或离散变量。如果X是实数和整数变量,那 么X值必须满足上下边界条件,如果没有边界条件,默认值是1E15。这个默认值 也可以通过参数对话框进行修改。 iSIGHT按照每个设计变量都有上下边界来进行计算,如果变量是离散的,iSIGHT 需要设计变量的值在给定的约束集合内,ISIGHT内部默认的上边界是n1,下边 界是0,其中n为系统允许值,这个值可以通过API函数进行修改。二、优化技术的分类本部分对iSI

4、GHT中每种优化技术进行简要的介绍。iSIGHT中的优化技术分为三类: 数值型优化技术(Numerical Optimization Techniques)探索型优化技术(Exploratory Techniques) 专家系统技术(Expert System Techniques)这些优化技术如下所示:1. 数值型优化技术数值型优化技术通常假定参数空间是单峰的、凸的和连续的,该软件中使用了如下的数 值型优化技术: ADS (Automated Design Synthesis)-based Techniques 外点罚函数法(Exterior Penalty) 修正可行方向法(Modifie

5、d Method of Feasible Directions) 连续线性规划(Sequential Linear Programming) 广义既约梯度法(Generalized Reduced Gradient - LSGRG2) Hooke-Jeeves 直接搜索法(Hooke-Jeeves Direct Search Method) 可行方向法CONMIN (Method of Feasible Directions - CONMIN) 混合整型优化MOST (Mixed Integer Optimization - MOST) 连续二次规划法-DONLP (Sequential Qu

6、adratic Programming- DONLP) 连续二次规划法-NLPQL (Sequential Quadratic Programming - NLPQL)逐次逼近法(Successive Approximation Method)数值型搜索技术又可以分成如下两类:(1) 直接法(Direct methods)直接法在搜索过程中直接处理约束。直接法包括: 广义梯度下降法(Generalized Reduced Gradient - LSGRG2) 可行方向法-CONMIN (Method of Feasible Directions - CONMIN) 混合整型优化-MOST (M

7、ixed Integer Optimization - MOST) 修正可行方向法(Modified Method of Feasible DirectionsADS) 连续线性规划 (Sequential Linear Programming- ADS) 连续二次规划法-DONLP (Sequential Quadratic Programming - DONLP) 连续二次规划法-NLPQL (Sequential Quadratic Programming- NLPQL)连续逼近法(Successive Approximation Method)(2) 罚函数法(Penalty meth

8、ods)罚函数方法和直接法不同,他们并不直接处理约束。罚函数法通过给目标函数增加一 个惩罚项将约束问题转换成无约束问题进行处理:(x) = F (x) + P (x)转换出的无约束问题就是使(x)最小化或最大化。对于罚函数法的效率和鲁棒性和直接法比较的研究显示,直接法更加健壮,只需要很少 的函数评估。而当你使用一个罚函数法的时候,函数评估的次数会成倍增加。罚函数法包括: 外点罚函数法(Exterior Penalty) Hooke-Jeeves 直接搜索法(Hooke-Jeeves Direct Search Method)2 .探索型优化技术探索型优化技术避免了集中在局部区域的搜索,这些技术

9、遍历整个参数空间搜索全局最 设计优点。iSIGHT中这种技术有:遗传算法(Genetic Algorithm) 批处理遗传算法(Genetic Algorithm with Bulk Evaluation)模拟退火算法(Simulated Annealing)3 .专家系统技术专家系统技术使优化沿着用户定义的方向进行改变,改变哪一项,怎么改变,什么时候 改变,这些都由用户自己定义。iSIGHT中这样的技术为有指导启发式搜索方法(Directed Heuristic SearchDHS)。如果用户知道输入怎样影响输出结果的话,这种方法效率很高。三、数值型优化技术下面对每种优化技术进行一下介绍。1

10、 .外点罚函数法(Exterior Penalty)外点罚函数法广泛的用于含有约束条件的优化问题。在处理含有约束条件的优化问题 时,借助惩罚函数把约束问题转化为无约束的问题,进而用无约束的最优化方法求解。实现 这一目标的途径是由目标函数和约束函数组成辅助函数来完成的。如果该问题存在最优解, 其优化结果通常是可信的,并且相对来说更容易找到真正的最优解。当惩罚因子趋向8 (Y , T8 )时,无约束优化问题的最优解趋向一个极限点,这个极限点就是原问题的最优 解。外点罚函数法主要有如下特性: 广泛地用于约束优化问题; 容易编程,使用无约束优化来解决问题; 可信赖,如果相对最小值存在,相对容易找到真正

11、的最优值; 能从不可行区域内逼近最优值,在从罚函数参数y,到8的极限下是可行的。外点罚函数法的公式表达如下:2 .修正可行方向法(Modified Method of Feasible Directions)修正可行方向法是直接数值优化技术中的一种,主要用来解决约束优化问题。该方法可 以快速地获得最优解。约束可以是等式的,也可以是不等式的,并且获得最优解时可以以很 高的精度满足约束条件。该方法有如下特点: 能快速得到一个优化设计; 能处理不等式和等式约束; 在优化中能十分准确地满足约束。下面是修正可行方向法的解决问题步骤:1. q - 0, x - x02. q = q +13. 求 F(x)

12、和 g j (x)的值;j = 1,2,.,M4. 确定临界的约束集,J5. 计算 VF(x)和 Vg (x),j e J一 j 一6. 确定可用和可行的搜索方向,S7. 进行一维搜索寻找1 *8. 令 xq = xq-1 + a * x#9. 检查收敛性;如果不收敛转到第2步修正可行性方向法技术用以下几种方法之一来寻找每一次迭代的搜索方向:(1) 如果没有约束起作用或冲突,那么使用无约束方法中的变梯度法。(2) 如果有任何约束起作用并且没有约束冲突,使用修正可行性方向法:最小化 VF(xq-1) x Sq满足:Vg (xq-1) x Sq 0; j e J jSq X Sq 1(3) 如果一

13、个或多个约束冲突,使用修正可行方向法:最小化VF(xq-1) x Sq -&满足:Vgj (xq-1) x Sq +0 jP 0; j e JSq x Sq 0j起作用和冲突的约束如下确定:如果CT gj (x) CTMIN,g j (x)冲突图1起作用和冲突约束识别3.连续线性规划(Sequential Linear Programming)连续线性规划法首先将目标函数和约束条件在起始设计点X处以一阶泰勒级数展开, 0将原问题转化为线性规划问题。这样就可以用线性规划中的算法进行求解,得到下一次的设计点X。一般说来,这个新的设计点X比起始设计点X0更接近原问题的最优点。在下一次的迭代中将原问题

14、在X处以一阶泰勒级数展开。如此反复,以线性规划问题去近似非线 i性规划问题,希望每次迭代得到的新的设计点都比前一个设计点更接近原问题的最优点。而 在新的设计点上的近似子问题,也愈来愈接近原非线性问题最优点的附近区域。最终线性规 划问题的最优点可以以很高的精度接近原问题的最优点。该方法主要解决约束优化问题,编程简单,已经在很多实际工程设计问题中得到了应用。 该方法有如下一些特点: 容易规划并且可应用于许多实际工程设计问题中; 在选择移动界限和这些界限中的缩减因子以有效地获得最优值方面较为困难。以下是执行连续线性规划的步骤:1. 使目标和约束函数线性化:F (x) = F (x 0) + VF (

15、x 0)* dxg j (x)兰 g j (x0) + Vg (x0)* dx; j E Jdx = x - x02. 通过线性规划方法或其他优化器来解决这个线性逼近问题。3. 重新线性化,转换逼近上的移动界限,并且重复到收敛点。4. 移动线性逼近上的界限。图2连续线性规划4 .广义既约梯度法(LSGRG2)这种技术使用广义既约梯度法解决约束非线性优化问题。既约梯度法是目前求解非线性 优化问题的最有效的方法之一。这种方法使用一种搜索方向,在这个方向上对于一些小偏移 所有约束都仍然起作用。同时这种方法通过消去某些变量在降维空间中的运算,能够较快的 确定最优解,可用来求解大型的问题。广义既约梯度法

16、有如下特性: 适合于非线性的设计空间; 不适合不连续的设计空间; 在初始设计点周围遍寻局部空间; 依照起作用的约束来优化设计; 直接处理不等和等式约束。LSGRG2用一般既约梯度算法来解决约束非线性优化问题。算法用一条使得活动约束仍 在小偏移上起作用的搜索路径。广义既约梯度方法是对原始的既约梯度法的扩展。这个扩展 包括在每一个不等约束上加上一个松弛变量:最小化F (X)满足:gj(X) + Xj + n = 0 j = 1, mhk (X) = 0k = 1, lXLi Xi 0j = 1, m这里n是设计变量的数量,m是不等约束的数量,而k是等式约束的数量。前面的方法 需要加上m个非负松弛变

17、量,每个不等约束一个,所以总共是n+m个设计变量。广义既约梯度法的基本概念是对于每一个等式约束,我们都可以定义一个相关变量,从 而减少独立变量的数量。假定开始等式约束是可行的,对于判定变量的任何改变,等式约束 都必须保持可行性。从这个需求出发,GRG算法一开始就寻找一个判定变量的搜索方向, 然后,对于在这个搜索方向上的每一个将要做的移动,更新判定变量的向量使得约束仍然可 行。如果起始设计不可行,那么第一步就是要获得一个其后能一直保持可行性的可行点。这 被称为用LSGRG2优化的第一个阶段。第一个阶段的目标函数是约束的偏离值之和,或是,真 实的目标的一部分。这个优化阶段会以发出问题不可行或是找到

18、一个可行的解决方案的消息 结束。如果是不可行的消息,程序可能是卡在一个阶段一的局部最小值上了,而问题事实上 是有可行解的。如果你猜测是这种情况的话,建议的补救方法是选择一个不同的起始点重新 试一试。第二阶段从一个可行方案开始,这个可行方案或者是由第一阶段找到的,或者是用 户提供的一个可行方案,然后优化由用户提供的目标函数。它将产生一个可行点的序列,这 个序列的目标值一般来讲比开始更好。5. Hooke-Jeeves直接搜索法(Hooke-Jeeves Direct Search Method)Hooke-Jeeves直接搜索法开始于一个估计点,结束于一个局部最小点。它不要求目标函 数f ()是

19、连续的,因为该算法不使用目标函数f ()的导数,所以目标函数不需要是可微的。 这种方法有一个收敛参数rho,它可以让你决定最大收敛概率情况下所需的函数计算的次 数。这种优化技术主要有以下特性: 不需要连续的目标函数; 因为这种算法没有用到f ()的导数,所以函数不需要被微分; 这种技术有一个收敛参数,rho,它允许用户决定函数评估的次数。下面是Hooke-Jeeves直接搜索法的步骤:1. q = 0, x = x02. q = q +13. 寻找一个点,xq,相当于非线性函数f (xq)的局部最小值,x是一个向量,f (xq)是一个标量。6. 可行方向 CONMIN可行方向法-CONMIN是

20、一种用来解决约束优化问题的直接数值优化技术。该方法可以直 接处理非线性的搜索空间。该方法每次迭代都找到一个搜索方向并沿着这个方向进行一维搜 索。它可看作是无约束下降算法的自然推广,其典型策略是从可行点出发,沿着下降的可行 方向进行搜索,求出使目标函数值下降的新的可行点。算法的关键步骤是选择搜索方向和确 定沿着该方向移动的步长。用数学表达式表示就是:Design = Design + A * SearchDirection其中,下标i表示迭代次数,A是一维搜索过程中所确定的常量。该方法在降低目标函数值的同时维持了解的可行性,而且效率较高。可行方向法目前不 能处理等式约束的问题。这种技术有如下一些

21、特点: 能快速地得到优化设计; 能处理不等式约束;在优化中能十分准确地满足约束。以下是可行方向法-CONMIN的算法步骤:1. q = 0, x = x02. q = q +13. 求 F(x)和 g j (x)的值;j = 1,2,.,M4. 确定临界的约束集,J5. 计算梯度:VF(x)和 Vg (x),j e J- j6. 确定可用和可行的搜索方向,Sq7. 执行一维搜索来寻找a*8. 令 xq = xq-1 + a * xSq9. 检查收敛性;如果不收敛转到第2步可行方向法-CONMIN技术使用了以下几种方法之一来寻找每个迭代中的搜索方向:(1) 如果没有约束起作用或冲突,那么使用无约

22、束方法中的变梯度法(2) 如果有任何约束起作用并且没有约束冲突,使用改进的可行性方向法:最小化 VF (xq-1) x Sq满足:Vg(xqT) x Sq 0; j e JSq X Sq 1(3) 如果一个或多个约束冲突,使用可行方向法-CONMIN:最小化VF(x-1) x Sq &满足:Vgj (xq-1) x Sq + jP 0; j e JSq x Sq 0j起作用和冲突的约束如下确定:如果CT gj (x) 0; j - m +1,., m相等约束x x x边界约束DONLP优化技术的数学问题表达如下所示:l u搜索方向子问题用以下公式解决:最小化 Q(,= F(xk)T S + 1

23、2STB S满足 叫(xk)T x S + h (xk) = 0; k = 1,2,., LVg (xk)T x S + g (xk) = 0这里的运行设置确定为:AkP j: j(E1,2,., M和 gj(xk) 0; j - m + 1,., m等式约束x x 0, j = 1,.,m。,x 一 x d x - x .l ku k为了让算法更加稳定,尤其是如果从一个糟糕的起始猜测点x 0开始,而要保证它能达到全局收敛,所以我们在NLPQL中应用了一个附加的线性搜索。只有当气+1满足一个关于二 次规划子问题的解决方案dk的下降性,才会执行一个步长计算七=七+a鸟来进行一 个新的迭代。按照S

24、chittkowski的方法,一个联立线搜索需要因数逼近和一个扩张的朗格拉 日价值函数来确定线搜索的参数。此外,有一些可靠的安全措施也需要加以注意,以确保线 性化的约束没有相互矛盾。矩阵Bk的更新在SQP中可以用无约束优化中的标准技术来执行。在NLPQL中,应用 了 BFGS方法。该方法是从单位矩阵开始的一个简单二阶修正,并且只需要微分向量x - x和NL(x ,u ) -NL(x ,u )。在一些安全措施的保证下,所有的矩阵B都可以k+1kk+1 kk kk保证是正定的。SQP方法的最吸引人的特征之一是在从|七+1 - x *|京k|xk - x *|所得到的解决方案的 临近区域内的超线性收

25、敛速度。在这里,久是收敛至零的正数序列,而x*是一个优化解决r- 方K。为了了解这个收敛的特性,我们用朗格拉日函数的Hessian行列式来代替B,而且只考 虑等式约束。然后就很容易看出SQP方法在处理带有n+m个等式的非线性系统时和牛顿方法 是一样的,而且这个非线性系统有n+m个由Kuhn-Tucked件带来的自变量。这个结论同样 可以扩展到不等约束的情况中。这样我们就立即可以看到二次收敛性的特性了。10. 逐次逼近法(Successive Approximation Method)逐次逼近法可以把非线性问题转化为线性问题,再采用稀疏矩阵法和单纯型法求解线性 问题。如果其中一个变量定义为整型,

26、单纯型法可通过分歧定限法反复迭代直到找到最优点。 逐次逼近法是在M. Berkalaar and J.J. Dirks提出的LP-SOLVE方法基础上发展起来的。一个非线性问题可以规定为一个针对逐次逼近方法的线性问题。线性问题在iSIGHT中 通过drive_lpsolve.c驱动器来自动地进行公式化表达。任何数量的变量都可以规定为实数值、 整数值或离散值。逐次逼近法是一个通用的程序,其中除了用到针对线性问题的稀疏矩阵法, 还用到一个单纯型法。如果其中一个变量定义为整数型,那么单纯型法要用一个分歧定限法 重复迭代直到找到理想的优化方案。输入文件包括一系列的代数表达式和类型说明: 目标函数。目标

27、函数是由分号结束的一个变量的线性组合。对象函数之前标明“max” 或“ min ”表明函数是最大化或是最小化。缺省的设置是函数最大化。 约束。一个约束名以冒号结束,设计变量的线性组合和常数以分号结束。关系运算 子可以是V,=, , 中的任意一个。逐次逼近方法假定对于实型、整型或是离散变 量和 、和之间没有语义差别。标记表明这个约束是等式约束或是不等约束。 变量声明。设计变量被声明为实数型或是整数型。变量声明应该用以下形式(变量 之间以逗号隔开):int V var +。下面的等式显示如何用逐次逼近方法将一个非线性问题转化为一个线性问题。下面等式为一个非线性问题:最大化或最小化F 3)满足:gj

28、 0; j = 1,2,., M七(x) = 0; k = 1,2,., Lx为整数型或是实数型在这里,x.为设计变量,i.,n,gj是不等约束,hk是等式约束。下面是被转化为一个线性问题的非线性问题:最大化或最小化:满足:其中,X .为整数型或者是实数型,票是敏度导数信息。,dxi图3 iSIGHT中的逐次逼近法有时优化问题在数值上是不稳定的,并且无法避免的舍入错误会导致逐次逼近法中途失 败。要给这个问题一个通用的解决办法是很困难的,较明智的做法是在问题中按数量级通过 适当的缩放保持所有的值。数值优化技术的优点下面是数值优化技术的主要优点: 数值优化遍寻当前设计点周围的区域。如果这个区域是连

29、续且单峰的,数值优化就会在 最速上升的方向上快速有效地移动。这表明数值优化技术能很快地获得邻近的最优值。 精确的最优值在工程设计中并没有什么意义,因为分析属性(例如材料特性、负载和边 界条件)往往都是不精确的。另外,进行详细分析时,数值优化技术尽可能少的使用了 函数评估。每个设计方案的一次分析都对应着一个函数评估。在详细分析中的一个函数 评估可能非常耗时。 数值优化有着可靠的数学基础。在数学能证明在给定条件下技术的收敛性。 在工程设计中数值优化有着普遍应用。数值优化技术的缺点下面是数值优化技术的主要缺点: 数值优化不能利用已有的工程经验或是领域知识。即使设计工程师可能知道几个特殊参 数之间的物

30、理关系,但数值优化无法利用这个信息。如果分析梯度没有用,一个数值优 化器能用有限差技术计算出梯度。仿真程序的许多时间被用来找到一些工程师们已经知 道的东西。 例如,在飞行器引擎涡轮设计中给定了 100个设计变量,用前面提到的差分技术需要运 行101次仿真代码才能找到搜索方向。一个新的搜索方向要花费100次附加的方针代码 运行才能再计算出来。即使工程师知道,当一定情况下,有七个特殊的输入变量会改变。 而数值优化技术无法利用这个知识,而因此必须运行100次仿真程序,而不是运行工程 师已经知道的七次。 数值优化技术在问题的公式表达上强加了一些约束。数值优化技术需要缩放设计变量和约束,且必须要删掉额外

31、和多余的输出约束,离散的设计变量必须要转化为连续的参数 类型。对设计工程师来说,要实现这些要求是很耗时和令人不快的。数值优化技术也需要大量的计算能力来运行仿真程序。对每一个优化迭代来说,如果分 析梯度无效,那么就必须对每一个设计变量计算梯度。如果有100个设计变量,仿真代 码就必须要运行100次直到确定出搜索方向。如果运行一次仿真代码需要30分钟,那 么就要花费两天的时间来计算第一个搜索方向。另外,计算搜索方向要假定设计变量都 是独立的。而这个假定并不一定成立。大量的设计变量会降低数值优化技术找到最优值 的能力。性能的降低有一部分应归于前面提到的差分技术的逼近错误的累积。四、探索型优化技术1.

32、遗传算法(GA)自从生物进化理论被人们接受之后,关于进化的研究得到了很大的发展。虽然对进化的 机制还没有完全搞清楚。但是进化的一些特征已经被人们所认识。生物学上的一些进展和研 究成果在优化问题上的渗透就是进化计算。遗传算法是Holland在60年代提出的,其同事和学生进一步发展了该算法。由于该算 法简单、易用,且对很多优化问题能够较容易的给出令人满意的解,所以得到了广泛的应用, 其影响也越来越大。进化策略、进化规则、遗传算法构成了进化计算的主要框架。遗传算法主要借助生物进化过程中“适者生存”的规律,模仿生物进化过程中的遗传繁 殖机制,对优化问题解空间的个体进行编码(二进制或其他进制),然后对编

33、码后的个体种 群进行选择、交叉、变异等操作,通过迭代从新种群中寻找含有最优解或较优解的组合。适 应度函数是评判解个体优劣的唯一标准。遗传操作根据适应度的大小决定个体繁殖的机会, 适应度值大的个体得到繁殖的机会大于适应度值小的个体,从而使得新种群的平均适应度值 高于旧群体的平均适应度值。经过多年的研究,遗传算法有许多种形式和变形,这里介绍的是标准的遗传算法。下面 是遗传算法中的用到的主要概念:1)基因链码生物的性状是由生物的遗传基因的链码决定的。使用遗传算法时需要把问题的解编码 成一个基因链码。假设整数1552是问题的一个解,我们就可以用1552的二进制形式 1100001000来表示这个解所对

34、应的基因链码,其中每一位代表一个基因。每个基因链码也 被称为一个个体,有时也称作染色体。2)种群一个种群是若干个个体的集合。因为每个个体代表了问题的一个解,所以一个种群就是 问题的一些解的集合。3)交叉许多生物体的繁衍是通过染色体的交叉完成的。在遗传算法中使用了这个概念,把交叉 作为一个操作算子。该算子的实现过程如下:选择群体中的两个个体,以这两个个体为双亲作基因链码的交叉,从而产生两个新的个 体作为他们的后代。简单的交叉方法是:随机地选取一个截断点,将双亲的基因链码在截断 点切开,并交换其后半部分,从而组成两个新个体。如下图所示:双亲后代100011001111001101110001101

35、0001110001100110110011110交叉算子是以一定的交叉概率发生的。4) 变异在生物的进化过程中变异是一个重要的步骤。通过在染色体上的某些基因位置产生突变 使得新产生的个体与其他个体有所不同。在遗传算法中变异是一个重要的操作。该算子的实 现方法如下:对于群体中的某个个体,即某个基因随机选取某一位,将该位的基因翻转改为1,1 改为0)。如下图所示:1000100111101000100101105) 适应度生物体对环境的适应程度的不同而表现出不同的生命力。因为每个个体对应问题的一个 解,每个解对应一个函数值。所以函数值越小则表明个体对环境的适应度越高。6) 选择选择的目的是为了从

36、当前的种群中选出优良的个体,使他们有机会作为父代产生后代个 体。判断个体优良与否的准则就是各自的适应度值。作为一种算子,选择操作在遗传算法中 有多种实现方式,其中最简单的一种方法就是采用适应度比例法来进行选择。具体地说,就 是首先计算群体中所有个体适应度的总和,再计算每个个体的适应度所占的比例,并以次作 为相应的选择概率。有时也采用轮盘法。遗传算法的关键步骤:(1) 令进化代数g = 0,并给出初始化群体P (g);(2) 对P (g)中的每个个体估值,计算其适应度;(3) 从P (g)中选择两个个体,并对这两个个体完成交叉和变异操作,得到新一代群 体 P (g+1)。令 g = g+1;(4

37、) 如果终止条件满足,则算法结束。否则转到步骤(2)。2 批处理遗传算法(Genetic Algorithm with Bulk Evaluation)在优化过程中,优化技术产生一系列设计点,然后依次把他们传送给仿真代码进行评估, 评估结果沿着相反的路径传送给相应的优化技术。在遗传算法中总是保持一个设计点的种 群,每次循环都要产生新的种群,新种群中的个体都需要依次分派给iSIHGT进行评估,一 个一个地进行。设计点的评估是十分耗时的,这样严重影响了整个优化过程的进行。如果使 新种群中的个体评估能够并行地执行,那么就能大大提高优化的效率,批处理遗传算法就是 这样产生的。该算法可以并行地、独立地评

38、估新种群的所有设计点。标准的iSIGHT并行执 行能力是有限的,不能够直接利用这种方法解决问题。该方法通过提供一种叫作批处理(Bulk Evaluation)的方法绕过了这个限制。在批处理遗传算法中,所有的新种群中的个体作为一个整体传送给iSIGHT。MDOL再把它 们传送给一个特殊的仿真程序,该程序可以同时评估多个设计点,评估结果作为一个整体再 按原路返回给iSIGHT中的遗传算法程序,遗传算法程序再将这些评估结果转化为一个评估过 的群体。也就是说,基本的计算路径是不变的,只是计算单位以群体代替了个体。3 .模拟退火算法(SA)模拟退火算法是模拟金属退火的物理过程得到的。在冶金业,退火是强化金属的一种方 法。金属加热到一定的温度就会融化,这时分子可以自由地移动,如果金属在冷却槽中以特 定的速率进行冷却,允许分子在较低的能态进行稳定,这样就产生了特定的晶格。模拟退火算

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号