首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 100 毫秒
1.
差分进化微粒群优化算法-DEPSO   总被引:1,自引:0,他引:1  
贺安坤  苗良 《微计算机信息》2006,22(36):284-286
微粒群优化算法是一种新的进化计算技术,具有良好的优化性能,但是对于高维多模态函数,因进化后期微粒多样性的降低导致算法早熟收敛.文章提出的差分进化微粒群优化算法(DEPSO),拓宽了微粒信息传递的途径,增加了微粒的多样性,保证了算法的全局收敛.实验结果表明,DEPSO比PSO有更好的性能.  相似文献   

2.
针对装配式住宅项目进度优化问题,提出了基于差分算法(DE)和粒子群算法(PSO)的差分粒子群混合算法(DEPSO)。建立了以项目工期最优为目标的进度优化模型,通过在DE和PSO之间建立信息交流机制,避免了单一算法容易落入局部最优和精度低的缺陷。最后以某装配式住宅项目为例,通过三种算法的比较,结果表明DEPSO在求解装配式住宅项目进度优化中合理高效、鲁棒性较强,能有效地解决装配式住宅项目工期优化问题,有较大的应用价值。  相似文献   

3.
针对于微分进化(DE)和粒子群优化(PSO)算法收敛精度较低和收敛速度慢的缺点,提出了基于这两种算法的混合优化算法DEPSO。该算法引入了两个新的变量指标,即在迭代过程中种群个体适应值有所优化的概率及种群的全局最优值的变化情况,通过采用这两个变量所形成的一个二维合理的选择机制,实现下一个迭代过程中关于算法的选择迭代问题。该算法一方面参数较少,实现简单;另一方面,利用新引入的第二个变量指标避免种群陷入早熟。对几种典型的测试函数进行数值模拟实验,结果表明与传统的算法比较,新的算法具有收敛精度高和收敛速度快的特点,同时对于高维的问题依然表现出较好的效果。  相似文献   

4.
针对高炉铁水硅含量难以在线检测的问题, 本文提出一种基于改进灰狼算法(IGWO)优化的多核极限学习 机(MKELM)高炉铁水硅含量预测建模方法. 首先, 针对灰狼算法(GWO)寻优能力的不足, 将最优–最差正交反向学 习(OWOOBL)策略应用于灰狼算法的位置更新, 得到一种改进灰狼优化算法. 通过10种标准函数对所提算法进行 仿真测试, 结果表明此算法具有更好的寻优能力. 其次, 针对单核极限学习机(KELM)回归能力不足, 将不同种类的 核函数加权组合, 并采用改进灰狼算法对多核极限学习机中的加权系数等参数进行优化. 最后, 基于某钢厂的实测 数据对高炉铁水硅含量进行预测建模, 仿真结果表明, 本文所提方法的预测效果优于反向传播神经网络(BP–NN)、 极限学习机(ELM)、KELM和GWO–MKELM, 对高炉炼铁具有较好的指导意义.  相似文献   

5.
Toy模型蛋白质折叠问题是一个计算生物学中典型的NP难题。提出了一种随机扰动粒子群结合爬山优化的算法,应用二维Toy模型进行蛋白质折叠结构预测,在Fibonacci测试序列及真实蛋白质序列上的测试结果验证了算法的良好性能。  相似文献   

6.
针对分布式两阶段装配流水车间调度问题(DTAFSP),提出了一种新型优化方法—帝国竞争–协作算法(ICCA)以最小化总延迟时间.该算法在帝国竞争算法基础上,结合历史进化数据,提出一种基于最强帝国搜索能力与最弱帝国计算资源之间自适应交换的帝国间协作方法,并给出一种新型帝国竞争策略,以提高算法搜索效率.进行了大量计算实验,计算结果验证了ICCA策略的合理性和有效性以及它在求解DTAFSP方面较强的搜索优势.  相似文献   

7.
针对高维复杂函数问题, 提出一种混合蛙跳–灰狼优化算法(SFL–GWO). 该算法通过改进的Logistic映射初 始化GWO算法种群提高算法的多样性; 其次, 提出一种新的距离控制参数的非线性调整策略来增强种群的探索与 开发的能力; 最后通过引入改进的随机蛙跳算法中改变最差位置的方式使SFL–GWO算法跳出局部最优的局限. 通 过选取的10个高维复杂函数的寻优结果验证了算法的性能, 并与粒子群优化算法(PSO)、灰狼优化算法(GWO)和鲸 鱼优化算法(WOA)3种基本算法以及与8种改进算法的寻优的结果进行了比较. 仿真结果证明: SFL–GWO算法在不 仅可以提高收敛精度也可以提高算法的搜索速度, 证明了SFL–GWO算法在求解高维复杂函数的高效性.  相似文献   

8.
烟花算法(Fireworks Algorithm,FWA)是一种群体智能优化算法,具有求解复杂问题的全局最优解的能力。为了提高FWA求解全局最优解的能力,将模拟退火的思想引入到烟花优化算法中,并对FWA中某些单个烟花个体进行高斯扰动,提出了一种基于模拟退火与高斯扰动的烟花优化算法(SAFWA)。分别把烟花算法(FWA)、标准粒子群算法(SPSO)、增强烟花算法(EFWA)和SAFWA在10个典型的基准测试函数中进行仿真对比,结果表明,在收敛速度、计算精度以及稳定性方面,SAFWA均优于其他3种算法。  相似文献   

9.
杨旭  王锐  张涛 《控制理论与应用》2020,37(11):2291-2302
在电–气–热互联系统(EGHS)的联合优化愈受关注的背景下, 提出一种电–气–热互联系统分布式优化调度 框架. 首先, 以系统供能成本最小建立同时考虑气网及热网动态特性的日前调度模型. 其次, 针对电–气–热互联系 统含电、气、热3个子系统在分布式运算属三区(3-Block)优化问题因而难以利用常规分布式算法得到收敛解的问题, 提出基于交替方向乘子法(ADMM)的改进算法, 即强制平等的ADMM算法. 所提算法框架为内外层协调凸分布框 架, 外层为罚凸凹算法(PCCP), 内层为ADMM–FE算法. 此算法框架中, 外层优化利用罚凸凹过程将非凸气流方程 凸化为逐次迭代的二阶锥约束, 内层ADMM–FE算法求解外层凸化后的模型以得到收敛解. 最后, 通过算例仿真分 析对比了所提算法与传统ADMM算法及集中式优化算法的计算结果, 所得结果验证了所提模型以及优化算法框架 的有效性.  相似文献   

10.
针对粒子群(Particle Swarm Optimization,PSO)算法和差分进化(Differential Evolution,DE)算法存在容易陷入局部极值、进化后期收敛速度慢和收敛精度低的局限性,提出了一种基于异维变异的差分混合粒子群(UDEPSO)算法。首先,为了提高群体多样性,使用熵度量初始化粒子;其次,在粒子迭代的过程中,根据粒子的分布特点,引入异维变异学习策略和维度因子以引导粒子及时跳出局部极值达到最优解;最后,将所提算法在10个典型的测试函数上进行了仿真,其在9个测试函数的收敛精度和标准差上取得了显著的效果,远优于PSO算法、DEPSO算法以及CDEPSO算法。实验结果表明,UDEPSO算法在优化收敛精度和效率上具有较强的优势。  相似文献   

11.

针对增量型极限学习机(I-ELM) 中存在大量降低学习效率及准确性的冗余节点的问题, 提出一种基于Delta 检验(DT) 和混沌优化算法(COA) 的改进式增量型核极限学习算法. 利用COA的全局搜索能力对I-ELM 中的隐含层节点参数进行寻优, 结合DT 算法检验模型输出误差, 确定有效的隐含层节点数量, 从而降低网络复杂程度, 提高算法的学习效率; 加入核函数可增强网络的在线预测能力. 仿真结果表明, 所提出的DCI-ELMK 算法具有较好的预测精度和泛化能力, 网络结构更为紧凑.

  相似文献   

12.

基于极限学习机理论, 将主成分分析技术与ELM特征映射相结合, 提出一种基于主成分分析的压缩隐空间构建新方法. 结合多层神经网络学习方法对隐空间进行多层融合, 进一步提出了堆叠隐空间模糊C 均值聚类算法,从而提高对非线性数据的学习能力. 实验结果表明, 所提出算法在处理复杂非线性数据时更加高效、稳定, 同时克服了模糊聚类算法对模糊指数的敏感性问题.

  相似文献   

13.
韩敏  刘晓欣 《控制与决策》2014,29(9):1576-1580

针对回归问题中存在的变量选择和网络结构设计问题, 提出一种基于互信息的极端学习机(ELM) 训练算法, 同时实现输入变量的选择和隐含层的结构优化. 该算法将互信息输入变量选择嵌入到ELM网络的学习过程之中, 以网络的学习性能作为衡量输入变量与输出变量相关与否的指标, 并以增量式的方法确定隐含层节点的规模.在Lorenz、Gas Furnace 和10 组标杆数据上的仿真结果表明了所提出算法的有效性. 该算法不仅可以简化网络结构, 还可以提高网络的泛化性能.

  相似文献   

14.
传统的极限学习机作为一种有监督的学习模型,任意对隐藏层神经元的输入权值和偏置进行赋值,通过计算隐藏层神经元的输出权值完成学习过程.针对传统的极限学习机在数据分析预测研究中存在预测精度不足的问题,提出一种基于模拟退火算法改进的极限学习机.首先,利用传统的极限学习机对训练集进行学习,得到隐藏层神经元的输出权值,选取预测结果评价标准.然后利用模拟退火算法,将传统的极限学习机隐藏层输入权值和偏置视为初始解,预测结果评价标准视为目标函数,通过模拟退火的降温过程,找到最优解即学习过程中预测误差最小的极限学习机的隐藏层神经元输入权值和偏置,最后通过传统的极限学习机计算得到隐藏层输出权值.实验选取鸢尾花分类数据和波士顿房价预测数据进行分析.实验发现与传统的极限学习机相比,基于模拟退火改进的极限学习机在分类和回归性能上都更优.  相似文献   

15.
Zou  Weidong  Yao  Fenxi  Zhang  Baihai  Guan  Zixiao 《Neural computing & applications》2018,30(11):3363-3370

Liao et al. (Neurocomputing 128:81–87, 2014) proposed a meta-learning approach to extreme learning machine (Meta-ELM), which can obtain good generalization performance by training multiple ELMs. However, one of its open problems is overfitting when minimizing training error. In this paper, we propose an improved meta-learning model of ELM (improved Meta-ELM) to handle the problem. The improved Meta-ELM architecture is composed of some base ELMs which are error feedback incremental extreme learning machine (EFI-ELM) and the top ELM. The improved Meta-ELM includes two stages. First, each base ELM with EFI-ELM is trained on a subset of training data. Then, the top ELM learns with the base ELMs as hidden nodes. Simulation results on some artificial and benchmark datasets show that the proposed improved Meta-ELM model is more feasible and effective than Meta-ELM.

  相似文献   

16.
针对传统极端学习机输入权值与隐层阈值随机设定的问题,提出了输出值反向分配算法。算法在传统极端学习机的基础上,通过优化方法得到最优输出值分配系数,并利用最小二乘法确定网络输入参数。将该算法应用到常用数据集进行实验,并与其他极端学习机改进算法进行比较,显示该算法有良好的学习以及泛化能力,能够得到简单的网络结构,证明了算法的有效性。  相似文献   

17.
针对极限学习机(ELM)在训练过程中需要大量隐含层节点的问题,提出了差分进化与克隆算法改进人工蜂群优化的极限学习机(DECABC-ELM),在人工蜂群算法的基础上,引入了差分进化算法的差分变异算子和免疫克隆算法的克隆扩增算子,改进了人工蜂群收敛速度慢等缺点,使用改进的人工蜂群算法计算ELM的隐含层节点参数.将算法应用于回归和分类数据集,并与其他算法进行比较,获得了良好的效果.  相似文献   

18.
基于改进多隐层极限学习机的电网虚假数据注入攻击检测   总被引:1,自引:0,他引:1  
虚假数据注入攻击(False data injection attacks, FDIA)严重威胁了电力信息物理系统(Cyber-physical system,CPS)的状态估计,而目前大多数检测方法侧重于攻击存在性检测,无法获取准确的受攻击位置.故本文提出了一种基于灰狼优化(Gray wolf optimization, GWO)多隐层极限学习机(Multi layer extreme learning machine, ML-ELM)的电力信息物理系统虚假数据注入攻击检测方法.所提方法将攻击检测看作是一个多标签二分类问题,不仅将用于特征提取与分类训练的极限学习机由单隐层变为多隐层,以解决极限学习机特征表达能力有限的问题,且融入了具有强全局搜索能力的灰狼优化算法以提高多隐层极限学习机分类精度和泛化性能.进而自动识别系统各个节点状态量的异常,获取受攻击的精确位置.通过在不同场景下对IEEE-14和57节点测试系统上进行大量实验,验证了所提方法的有效性,且分别与极限学习机、未融入灰狼优化的多隐层极限学习机以及支持向量机(Support vector machine, SVM)相比,所提方...  相似文献   

19.
针对极端学习机(ELM)网络结构设计问题,提出基于灵敏度分析法的ELM剪枝算法.利用隐含层节点输出和相对应的输出层权值向量,定义学习残差对于隐含层节点的灵敏度和网络规模适应度,根据灵敏度大小判断隐含层节点的重要性,利用网络规模适应度确定隐含层节点个数,删除重要性较低的节点.仿真结果表明,所提出的算法能够较为准确地确定与学习样本相匹配的网络规模,解决了ELM网络结构设计问题.  相似文献   

20.
In this work an adaptive mechanism for choosing the activation function is proposed and described. Four bi-modal derivative sigmoidal adaptive activation function is used as the activation function at the hidden layer of a single hidden layer sigmoidal feedforward artificial neural networks. These four bi-modal derivative activation functions are grouped as asymmetric and anti-symmetric activation functions (in groups of two each). For the purpose of comparison, the logistic function (an asymmetric function) and the function obtained by subtracting 0.5 from it (an anti-symmetric) function is also used as activation function for the hidden layer nodes’. The resilient backpropagation algorithm with improved weight-tracking (iRprop+) is used to adapt the parameter of the activation functions and also the weights and/or biases of the sigmoidal feedforward artificial neural networks. The learning tasks used to demonstrate the efficacy and efficiency of the proposed mechanism are 10 function approximation tasks and four real benchmark problems taken from the UCI machine learning repository. The obtained results demonstrate that both for asymmetric as well as anti-symmetric activation usage, the proposed/used adaptive activation functions are demonstratively as good as if not better than the sigmoidal function without any adaptive parameter when used as activation function of the hidden layer nodes.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号