首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 120 毫秒
1.
针对传统贝叶斯优化算法进化效率低及收敛速度慢的情况,提出一种新型混合贝叶斯优化算法.该算法利用适应度遗传及个体的局部搜索方法,使种群个体趋向于全局最优解,提高了进化效率.为提高贝叶斯优化算法中贝叶斯网络结构学习的效率,提出一种爬山法和模式蚁群算法相结合的网络结构学习方法,同时对新型贝叶斯优化算法的收敛性进行了分析.利用典型的函数对提出的新型混合贝叶斯优化算法进行了仿真分析,证明了所提出的方法可以有效地加快算法的收敛速度和收敛精度.将该算法应用于目标分配问题中,仿真证明了所提算法的有效性和优越性.  相似文献   

2.
提出一种信息论结合粒子群优化的贝叶斯网络结构学习算法,将约束最大信息熵作为最高评分函数,对网络结构进行复杂度约束,设计了粒子位置和速度向量的操作方法,解决单纯利用KL距离进行搜索的缺陷.在网络结构的搜索空间相对较大的情况下,该优化算法能在较短的时间内收敛,获得更准确的网络结构.仿真实验结果表明,该算法在时间和精度上都具有较好的效果.  相似文献   

3.
针对贝叶斯网络结构学习中寻优效率低下、易陷入局部最优的缺陷,提出了一种基于混合改进鸟群算法的贝叶斯网络结构学习算法.首先,通过互信息约束算法迭代初始网络;其次,改进鸟群算法,在经典鸟群算法中加入自适应惯性权重,随着迭代次数的增加动态调整搜索空间、改变收敛速度;最后,将改进的鸟群算法作为搜索策略,进行贝叶斯网络结构寻优.实验结果表明:改进的算法在寻优过程中不仅有较好的准确率和较快的收敛速度,而且具有良好的全局寻优能力.  相似文献   

4.
通过分析K2,BIC,AIC和IM等方式的原理,改进K2算法,在不考虑先验知识的基础上,创建了新的基于隐式网络的打分函数取代了原有算法的评分规则,实现贝叶斯网络结构学习.仿真实验结果表明,针对标准数据集学习,隐式法的贝叶斯网络学习算法在没有先验知识的条件下和依赖先验知识的基于BDe评分的K2算法相比收敛速度和准确率有一...  相似文献   

5.
李晓晴  于海征 《科学技术与工程》2022,22(24):10602-10610
贝叶斯网络源于人们对人工智能领域不确定性问题的研究,是进行不确定问题推理和数据分析的重要工具。结构学习是贝叶斯网络研究的核心内容,K2算法是结构学习的经典算法之一。为解决K2算法学习效果强烈依赖于节点序的问题,本文提出一种新的混合结构学习算法:双重K2算法。该算法首先将节点信息作为初始节点序,通过K2算法的搜索策略得到初始网络结构;然后在初始网络结构上利用拓扑排序得到修正后的节点序;最后K2算法通过修正后的节点序学习得到最优的网络结构。通过实验验证,在精度和效率上,双重K2算法效果优于其它经典算法。  相似文献   

6.
基于最小描述长度和K2的贝叶斯网络结构学习算法   总被引:1,自引:0,他引:1  
为了找到既简约又客观的网络结构,在分析最小描述长度(MDL)测度和K2算法特点的基础上,提出了一种将MDL与K2算法相结合的贝叶斯网络结构学习算法(KMBN).实验结果表明,KMBN算法在时间复杂性和可靠性方面都优于传统的K2算法和基于K2与模拟退火的贝叶斯网络结构学习算法.  相似文献   

7.
针对基于模拟退火的贝叶斯网络结构学习算法由于模型扰动方式遍历模型空间的能力不足,往往不能获得全局最优网络结构的问题,将K2算法与模拟退火算法相结合,提出了一种改进的贝叶斯网络结构学习算法.算法通过随机交换当前节点序中2个节点的位置以产生新的节点序,再利用K2算法学习获得贝叶斯网络结构,作为模拟退火算法中的新状态,以达到提高模型全局扰动能力的目的.算法记录了在模拟退火过程中遇到过的最优网络结构,并在模拟退火过程结束后再利用爬山法对其作进一步优化.对Asia网的仿真学习结果表明:在样本量较为充足的情况下,所提算法能够获得近似全局最优的网络结构,具有较好的学习效果,但算法的效率略显不足.  相似文献   

8.
针对稀疏贝叶斯压缩感知算法存在复杂度高、收敛速度慢等缺陷,提出了一种快速变分稀疏贝叶斯学习的频谱检测与定位算法.该算法在原始问题求解过程中增加了辅助变量,消除了原问题模型中未知变量之间耦合度高的问题.并依据稀疏参数的收敛情况,自适应删除不收敛稀疏参数对应的基函数,从而进一步加快了算法的收敛速度.实验结果表明:该算法在收敛速度和频谱检测精度上有显著的改善.  相似文献   

9.
针对大规模阵列天线波束赋形中智能优化算法精度不高、收敛速度不快等问题,提出一种自适应猫群算法.在猫群算法的基础上,使其基本参数根据迭代次数及适应度函数值自适应改变,并在搜寻模式中加入赌轮盘和精英选择相结合的策略,以增加种群多样性.多种智能优化算法的性能仿真对比分析表明,自适应猫群算法具有快速收敛、全局寻优的能力.将该算...  相似文献   

10.
采用约束蚁群优化的贝叶斯网结构学习算法   总被引:1,自引:1,他引:0  
针对贝叶斯网络结构学习问题,提出了一种约束蚁群优化算法.该算法根据贝叶斯得分的局部一致性原理设计了一种增边规则,并且将此规则引入蚁群算法的框架中,从而实现了在搜索过程中利用启发式信息动态缩减搜索空间、同时减少运行时间的目的.此外,还从理论上证明了增边规则的正确性,而且从实验角度讨论了约束蚁群优化算法的参数敏感性.实验结果表明,在解决较大规模的贝叶斯网络结构学习问题时,约束蚁群优化算法在保证求解精度的条件下比蚁群优化算法的运行时间减少40%以上.  相似文献   

11.
基于信息论和遗传算法的Bayesian网络弧定向方法研究   总被引:4,自引:0,他引:4  
Bayesian网弧定向问题是Bayesian网学习的一个重要方面.提出了一种基于信息论和遗传算法的Bayesian网弧定向算法.将信息论中鉴别信息这一概念引入Bayesian网学习中来,以鉴别信息定向后的网络为基础网,并设计相应的适应度函数和遗传算子,使该算法能够收敛到全局最优的Bayesian网结构.从而极大地减弱了单纯利用遗传算法学习对初始群体的依赖性,提高了算法的收敛速度.实验结果表明:该算法能够有效地解决Bayesian网弧定向问题.  相似文献   

12.
 针对直接使用粒子群算法进行结构学习效率较低的缺陷,基于无约束优化,提出一种贝叶斯网络结构学习的混合粒子群算法。该算法首先构造并求解一无约束优化问题,其最优解对应的无向图中的边可为结构学习提供一搜索范围,缩小粒子群算法的搜索空间,然后在缩小的空间中完成对贝叶斯网络的结构学习,从而提高了粒子群算法的学习效率。仿真试验结果表明,该混合粒子群算法可以快速、准确地学习到最优贝叶斯网络结构。  相似文献   

13.
针对模糊神经Petri网(fuzzy neural Petri net,FNPN)学习算法计算精度低、收敛性差及训练过程中网络震荡较大的问题,提出一种优化的FNPN算法.本算法采用两种S型连续函数分别表示变迁使能及变迁点燃后的新标记值,并在传统参数修正公式的基础上考虑修正前的数值进而增加新型的动量项,从而改善网络的收敛性.本文证明了优化后的参数修正算法可以保证FNPN网络的收敛性.  相似文献   

14.
利用免疫进化算法(IEA), 借助遗传和接种疫苗操作将基于打分和基于约束的两类Bayesian网结构学习方法有机地结合在一起, 提出一种新的Bayesian网结构学习方法. 通过与基于遗传算法的Bayesian网结构学习方法EGA(Expectation & Genetic Algorithm)的对比试验表明, 所提出算法的收敛速度更快、 学习得到网络的精度更高.  相似文献   

15.
前馈神经网络权值学习综合算法   总被引:1,自引:0,他引:1  
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法与GaussNewton法相结合,并引入熵误差函数,构建基于GaussNewton NL2SOL法的前馈神经网络.仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性.  相似文献   

16.
提出一种新的学习无约束贝叶斯网络分类器的算法(RE-BNC).该算法基于粗糙集理论,在保证分类精度不变的前提下,先对冗余属性变量进行约简,降低属性变量维数,然后构建一个无约束优化模型用来学习较好的初始种群,降低搜索空间,再结合进化算法学习分类器的网络结构.与其他常见的8种分类器算法相比较,实验结果表明该算法设计合理,且分类效果较好.  相似文献   

17.
针对基于决策树和神经网络的增量学习算法的过量匹配和分类精度有限的缺点,提出了一种基于贝叶斯分类器集成的增量学习方法.综合朴素贝叶斯的增量分类和集成的增量学习方法,采用随机属性选择训练初始SBC(simple Bayesian classifiers),通过判断是否带有类别标签,将增量样本自动分组,并利用遗传算法对结果进行优化.实验结果表明,贝叶斯分类器集成的增量学习方法有效.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号