首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
针对粒子群优化算法在处理复杂优化问题时搜索精度低、收敛速度慢且易陷入局部最优的问题,提出一种基于反向学习和精英提升的动态多种群无速度项粒子群算法。首先基于无速度项的粒子位置更新模式,动态划分子群并采用不同的进化策略,利用反向学习为子群拓宽搜索范围,保证种群多样性的同时避免粒子过早陷入局部最优。然后为充分利用优秀粒子的信息并提高搜索精度,改进精英提升策略优化个体历史最优粒子,使用差分进化算法对种群最优粒子进行更新。最后通过CEC2006提出的22个测试函数进行性能测试。结果表明,本文提出的算法相比于其他算法在搜索精度和稳定性上拥有更加出色的性能,并能有效提升算法收敛速度。  相似文献   

2.
针对混沌变异的小生境粒子群优化算法(NCPSO)进化中收敛速度慢、搜索精度低的缺点,提出一种基于调节因子的NCPSO改进算法(NCPSO-FLV)。通过引入速度调节因子,对收敛速度做出判断,改变粒子速度帮助粒子跳出局部最优值,使种群多样性得到加强,收敛速度和搜索精度得到提高。实验结果表明,与基于惯性权重的基本粒子群算法和NCPSO算法相比,NCPSO-FLV算法的精度更高,适用于生产任务分配的工业优化计算。  相似文献   

3.
针对高维优化问题,随机初始化的粒子群算法中不同维的收敛情况不同,常用惯性权重不能很好地平衡全局搜索和局部搜索,且算法也易陷入局部最优。本文提出一种基于惯性权重维正弦调整和t分布维变异的粒子群优化算法,兼顾各维的收敛情况,较好地保持了种群的多样性。通过4个典型函数的测试,结果表明改进算法提高了收敛速度和精度。  相似文献   

4.
针对粒子群算法初始化个体质量参差不齐,算法后期容易早熟,陷入局部最优值以及后期搜索精度不高、收敛速度缓慢的缺点,本文提出一种基于混沌映射的禁忌同步随机学习因子粒子群算法.利用Logistic映射对算法的粒子种群进行初始化,提高种群个体质量;在算法进入后期搜索寻优时,引入禁忌搜索策略,利用其良好突跳能力,跳出局部最优值,提高算法的全局搜索能力;最后将传统的学习因子通过几个测试函数进行迭代寻优,选取寻优能力突出的区间构建同步随机学习因子,平衡粒子的个体经验和群体经验.将改进的粒子群算法与另外几个智能算法在测试函数上寻优对比验证,仿真实验证明,改进的粒子群算法在寻优能力、收敛速度、搜索精度以及算法的稳定性等性能上,与另外3个智能算法相比都有显著提升.  相似文献   

5.
王永贵  胡彩云  李鑫 《计算机应用》2018,38(5):1239-1244
针对粒子群优化(PSO)算法在搜索过程中因个体间缺乏交互,使种群逐渐丧失多样性、导致算法陷入局部极值的问题,提出了一种基于局部远亲差分增强的扰动粒子群优化算法(LFDE-PPSO)。首先,为扩大种群搜索空间,在速度更新过程中引入扰动因子,使惯性权重、学习因子在小范围内波动;其次,引入重构概率,选择适应度值低的个体重建中间种群;最后,为增加种群多样性,使较差个体的优秀基因得以保留,引入粒子不相关性及远亲个体,利用不相关性选择与差分个体基因差异性较大的远亲进行差分增强。实验结果表明,所提算法能够使中间种群中适应度值高的个体得以保留,有效增加种群多样性,使种群具备较强的跳脱局部极值能力,加快粒子逼近全局最优,同时具有收敛快、精度高等优点。  相似文献   

6.
为了有效提高粒子群优化算法的收敛速度和搜索精度,增强算法跳出局部最优,寻得全局最优的能力,提出了一种改进的简化粒子群优化算法。该算法考虑了粒子惯性、个体经验和全局经验对于位置更新影响力的不同,改进了位置更新公式,克服了粒子群优化算法收敛速度慢和易陷入局部最优的缺点。标准函数测试结果表明该改进算法的收敛速度和搜索精度有了很大的提高。  相似文献   

7.
针对遗传算法存在的局部搜索能力差、早熟收敛和进化后期收敛速度慢的问题,提出了一种改进精英策略的个体优势遗传算法(Individual Advantages Genetic Algorithm,IAGA)。IAGA通过在精英子种群更新中不断增加精英个体数量和多样性,在保持算法全局收敛性的同时,增强算法在最优解区域的局部搜索能力。引入半粒子群变异算子,提高了算法前期向全局最优解靠拢的速度;引入个体优势算子,提高种群优势个体的多样性,有效改善了进化后期收敛速度慢的问题;与已有同类算法相比,平衡了收敛速度和全局收敛性之间矛盾的同时,进一步提高了收敛速度和精度。  相似文献   

8.
针对传统鲸鱼优化算法寻优精度低、收敛速度慢、易获局部最优的不足,提出基于单纯形法和融入个体记忆的改进鲸鱼优化算法。引入非线性收敛因子调整机制,使收敛因子呈现不同递减速率,前期注重全局搜索,后期注重精细开发,协调搜索与开发的平滑转换;引入单纯形法增强种群局部搜索能力,提升寻优收敛速度;融合个体记忆和种群最优解改善位置更新,协调个体与种群的信息交流和个体记忆对算法的搜索和寻优能力。基准函数寻优测试结果表明,该算法可以有效提升收敛速度和寻优精度,避免局部最优解。将改进算法应用于拉伸弹簧设计这类典型工程设计问题,验证了算法的可行性。  相似文献   

9.
针对粒子群优化算法在搜索高维多峰问题时容易出现种群多样性减少,导致算法早熟收敛,陷入局部最优等缺点。本文提出了一种基于多尺度分数阶多重记忆与学习的粒子群算法,该算法将分数阶微积分引入标准粒子群速度、位置更新公式,通过记忆粒子的历史速度、位置轨迹、个体最优轨迹、种群最优轨迹,借助分数阶微积分具备的长期记忆特性来充分利用寻优过程中的历史信息,增强算法的收敛速度和收敛精度。同时针对种群进化过程中出现的一些特殊情况,采用多尺度分数阶和轨迹纠错学习策略来保护种群多样性,减少算法陷入局部最优的可能。通过基准测试函数的测试实验,结果表明,该算法与其它粒子群算法相比具有较强的竞争力。  相似文献   

10.
为提高灰狼优化算法种群多样性和搜索解的质量,提出一种基于Tent混沌函数与反向学习机制的非线性灰狼优化算法。采用Tent混沌函数和反向学习机制进行种群个体初始化,使得初始种群个体分布均匀及多样性增强;引入一种非线性收敛因子控制策略,平衡其全局搜索能力和局部搜索能力;引入动态权重策略以提升灰狼优化算法的收敛速度和收敛能力。为验证改进算法的有效性,采用8个基准数学函数测试其收敛速度和收敛精度,并与GWO、CGWO和I-GWO三种灰狼算法进行对比。实验结果表明:非线性灰狼优化算法在多个测试函数上的收敛精度均达到了10-5以上,收敛精度和收敛速度优于其他三种对比算法。  相似文献   

11.
基于R2指标和分解策略的多目标粒子群优化算法(R2-MOPSO)在求解2、3个目标优化问题时具有较好的收敛性和多样性,但在求解高维多目标优化问题时难度较大.对此,提出一种基于R2指标和目标空间分解的高维多目标粒子群优化算法(R2-MOPSO-II).首先借鉴R2指标和目标空间分解策略综合权衡选择过程的收敛性和多样性,设计双层档案维护策略;然后设计一种新的向导选择策略来连接目标空间和决策变量空间,进而提出一种基于双层档案的速度和位置更新策略以权衡粒子群优化算法的勘探和开采能力;最后通过引入高斯学习策略和精英学习策略防止粒子陷入局部最优前沿.数值仿真结果表明,所提出算法在求解DTLZ和WFG测试问题时具有较好的收敛性和多样性.  相似文献   

12.
针对约束优化问题的求解,提出一种改进的粒子群算法(CMPSO).在 CMPSO 算法中,为了增加种群多样性,提升种群跳出局部最优解的能力,引入种群多样性阈值,当种群多样性低于给定阈值时,对全局最优粒子位置和粒子自身最优位置进行多项式变异;并根据粒子违背约束条件的程度,提出一种新的粒子间比较准则来比较粒子间的优劣,该准则...  相似文献   

13.
为了提高多目标优化算法解集的分布性和收敛性,提出一种基于分解和差分进化的多目标粒子群优化算法(dMOPSO-DE).该算法通过提出方向角产生一组均匀的方向向量,确保粒子分布的均匀性;引入隐式精英保持策略和差分进化修正机制选择全局最优粒子,避免种群陷入局部最优Pareto前沿;采用粒子重置策略保证群体的多样性.与非支配排序(NSGA-II)算法、多目标粒子群优化(MOPSO)算法、分解多目标粒子群优化(dMOPSO)算法和分解多目标进化-差分进化(MOEA/D-DE)算法进行比较,实验结果表明,所提出算法在求解多目标优化问题时具有良好的收敛性和多样性.  相似文献   

14.
改进的吸引扩散微粒群算法   总被引:1,自引:1,他引:0  
为了避免微粒群算法存在的过早收敛问题, 在ARPSO的基础之上, 提出了一个简单的种群多样性度量函数和微粒最好飞行方向的概念, 引入了变异策略, 从而实现了一种改进的吸引扩散微粒群算法MARPSO, 并从理论上分析了MARPSO的局部收敛性和全局收敛性. 对四个经典函数进行了仿真测试, 测试结果表明: 与基本微粒群算法BPSO和ARSPO相比, 该算法能够有效的提高种群多样性, 并且具有较高的收敛速度.  相似文献   

15.
多种群粒子群优化算法   总被引:4,自引:1,他引:3       下载免费PDF全文
将一定规模的粒子群平分成三个子群,并分别按基本粒子优化算法、ω自线性调整策略的粒子群算法和云自适应粒子群算法三种不同规则进化,既保持各个子群和算法的独立性和优越性,又不增加算法的复杂性,并提出“超社会”部分,重新定义了速度更换式子,同时还引入了扩张变异方法和扰动操作。实验仿真结果表明,给出算法的全局搜索能力、收敛速度,精度和稳定性均有了显著提高。  相似文献   

16.
This paper presents a variant of particle swarm optimizers (PSOs) that we call the comprehensive learning particle swarm optimizer (CLPSO), which uses a novel learning strategy whereby all other particles' historical best information is used to update a particle's velocity. This strategy enables the diversity of the swarm to be preserved to discourage premature convergence. Experiments were conducted (using codes available from http://www.ntu.edu.sg/home/epnsugan) on multimodal test functions such as Rosenbrock, Griewank, Rastrigin, Ackley, and Schwefel and composition functions both with and without coordinate rotation. The results demonstrate good performance of the CLPSO in solving multimodal problems when compared with eight other recent variants of the PSO.  相似文献   

17.
为了提升粒子跳出局部最优解的能力,本文提出一种动态种群和广义学习粒子群算法(DCPSO).在算法运行过程中,引入种群增加策略和减少策略以提升种群的多样性,进而提升粒子跳出局部最优解的能力;同时引入广义学习策略以增加粒子飞向全局最优位置的概率.在基准函数的测试中,结果显示DCPSO算法比其它PSO算法有更好的性能;在实际...  相似文献   

18.
In particle swarm optimization (PSO) each particle uses its personal and global or local best positions by linear summation. However, it is very time consuming to find the global or local best positions in case of complex problems. To overcome this problem, we propose a new multi-objective variant of PSO called attributed multi-objective comprehensive learning particle swarm optimizer (A-MOCLPSO). In this technique, we do not use global or local best positions to modify the velocity of a particle; instead, we use the best position of a randomly selected particle from the whole population to update the velocity of each dimension. This method not only increases the speed of the algorithm but also searches in more promising areas of the search space. We perform an extensive experimentation on well-known benchmark problems such as Schaffer (SCH), Kursawa (KUR), and Zitzler–Deb–Thiele (ZDT) functions. The experiments show very convincing results when the proposed technique is compared with existing versions of PSO known as multi-objective comprehensive learning particle swarm optimizer (MOCLPSO) and multi-objective particle swarm optimization (MOPSO), as well as non-dominated sorting genetic algorithm II (NSGA-II). As a case study, we apply our proposed A-MOCLPSO algorithm on an attack tree model for the security hardening problem of a networked system in order to optimize the total security cost and the residual damage, and provide diverse solutions for the problem. The results of our experiments show that the proposed algorithm outperforms the previous solutions obtained for the security hardening problem using NSGA-II, as well as MOCLPSO for the same problem. Hence, the proposed algorithm can be considered as a strong alternative to solve multi-objective optimization problems.  相似文献   

19.
This paper introduces a novel parameter automation strategy for the particle swarm algorithm and two further extensions to improve its performance after a predefined number of generations. Initially, to efficiently control the local search and convergence to the global optimum solution, time-varying acceleration coefficients (TVAC) are introduced in addition to the time-varying inertia weight factor in particle swarm optimization (PSO). From the basis of TVAC, two new strategies are discussed to improve the performance of the PSO. First, the concept of "mutation" is introduced to the particle swarm optimization along with TVAC (MPSO-TVAC), by adding a small perturbation to a randomly selected modulus of the velocity vector of a random particle by predefined probability. Second, we introduce a novel particle swarm concept "self-organizing hierarchical particle swarm optimizer with TVAC (HPSO-TVAC)". Under this method, only the "social" part and the "cognitive" part of the particle swarm strategy are considered to estimate the new velocity of each particle and particles are reinitialized whenever they are stagnated in the search space. In addition, to overcome the difficulties of selecting an appropriate mutation step size for different problems, a time-varying mutation step size was introduced. Further, for most of the benchmarks, mutation probability is found to be insensitive to the performance of MPSO-TVAC method. On the other hand, the effect of reinitialization velocity on the performance of HPSO-TVAC method is also observed. Time-varying reinitialization step size is found to be an efficient parameter optimization strategy for HPSO-TVAC method. The HPSO-TVAC strategy outperformed all the methods considered in this investigation for most of the functions. Furthermore, it has also been observed that both the MPSO and HPSO strategies perform poorly when the acceleration coefficients are fixed at two.  相似文献   

20.
关于优化粒子群算法问题,针对标准粒子群算法前期收敛速度过快,后期容易陷入局部最优解的问题,提出一种种群多样性模糊控制的粒子群算法。为了控制种群多样性的变化,提高算法跳出局部最优解的性能,在算法中加入模糊控制器和位置跳变策略,通过控制参数的变化来控制粒子的速度、位置和种群多样性的变化,使算法从全局探测平稳过渡到局部开采。仿真结果表明,改进算法能有效避免陷入局部最优解,且对高维函数优化时效果更为明显,是一种高效的优化算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号