首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
基于人工鱼群优化支持向量机水文预报系统模型*   总被引:4,自引:1,他引:3  
在深入分析比较各种水文预报方法的基础上,利用人工鱼群算法对支持向量机训练算法进行了改进,提出了基于人工鱼群优化的支持向量机算法。实验结果表明,基于人工鱼群优化的训练算法的训练速度优于标准的支持向量机的训练速度,能够为水文预报提供更快捷的技术支持。  相似文献   

2.
提出一种基于聚类算法和层次支持向量机的人脸识别方法。该方法在训练阶段把利用小波变换提取的图像特征先进行聚类,再利用聚类的结果来训练层挺支持向量机;识别阶段先利用层次支持向量机初步判断待识别图像最可能所属的人,最后利用免疫算法对待识别的人脸图像进行确认。实验表明,该算法效果较佳。  相似文献   

3.
边界邻近支持向量机*   总被引:6,自引:0,他引:6  
针对训练大样本支持向量机内存开销大、训练速度慢的缺点,提出了一种改进的算法—边界邻近支持向量机。实验表明在分类效果相同情况下,改进算法训练速度明显提高。  相似文献   

4.
李恒杰 《计算机应用》2007,27(6):1339-1342
Online支持向量机作为一种新的分类方法可以在异常入侵检测中提供良好的分类效果。根据Online算法对传统支持向量机、Robust支持向量机和One-class支持向量机进行改进,将改进后的算法与原始算法进行比较,然后使用1999 DARPA数据作为评估数据。通过实验和比较发现,改进后的支持向量机可以实现在线训练,而且使用更少的支持向量,训练时间也有效缩短,在噪声数据存在的情况下检测正确率和虚警率比未改进前有一定程度的提升。  相似文献   

5.
改进的在线支持向量机训练算法   总被引:3,自引:1,他引:2       下载免费PDF全文
潘以桢  胡越明 《计算机工程》2009,35(22):212-215
传统支持向量机基于批量训练方法,无法适应环境污染预测中的海量数据与实时性要求。在分析研究一种典型的在线支持向量机回归算法[4]的基础上,指出原算法在训练过程中存在样本重复移动问题,导致模型训练速度下降。提出一种改进算法,消除重复移动问题。实验结果表明,该改进在线支持向量机算法建模精度高,训练速度较原算法有显著提高。  相似文献   

6.
一类新型快速模糊支持向量机   总被引:2,自引:0,他引:2  
针对一般模糊支持向量机训练时间过长,训练效率低下的问题,通过定义了一种新的隶属度函数的方法,来改进算法,从而得到了一种快速模糊支持向量机。本算法中的新定义的隶属度函数能够对离分类超平面较远、不可能成为支持向量的数据赋予较小的隶属度,使训练样本集中的数据大大减少。同时,在将二类模糊支持向量机推广到k类时,采用了DAGSVMs方法,进一步提高了多类分类问题的分类效率。实验表明,提出的快速模糊支持向量机在保证测试精度的同时,减少了训练时间。  相似文献   

7.
李云飞 《计算机工程》2008,34(17):191-192,195
针对渐进直推式支持向量机箅法训练速度慢和学习性能不稳定的问题,提出一种近邻渐进直推式支持向量机算法.该算法利用支持向量机中支持向量信息,选择支持向量附近的无标签样本点进行标注,采用支持向量预选取的方法减少训练集的规模,提高算法的速度.实验结果表明了该算法的有效性.  相似文献   

8.
基于聚类的大样本支持向量机研究   总被引:5,自引:1,他引:5  
针对大样本支持向量机内存开销大、训练速度慢的缺点,本文提出了基于聚类支持向量机,运用k-mean对样本聚类,压缩样本量,构造初始超平面,筛选出靠近超平面的支持粪和可能支持向量,重新构造决策超平面。实验表明,在保持泛化精度基本一致前提下,改进算法的训练速度明显提高。  相似文献   

9.
经典的支持向量机(SVM)训练算法的实质是求解一个凸二次规划问题,当训练样本很多时,算法的速度会比较慢,且如果两类样本过分交叉,又会降低支持向量机的泛化能力。为了加快支持向量机的训练速度和改善其泛化能力。文章提出了一种改进的样本简约方法。该方法首先抽取边界样本,然后对边界样本中可能存在的噪音、孤立点进行修剪,由此得出最终的训练样本。实验结果表明,该简约方法不仅节约了训练时间,而且改善了支持向量机的泛化性能。  相似文献   

10.
针对一般模糊支持向量机训练时间过长,训练效率低下的问题,通过定义了一种新的隶属度函数的方法,来改进算法,从而得到了一种快速模糊支持向量机。本算法中的新定义的隶属度函数能够对离分类超平面较远、不可能成为支持向量的数据赋予较小的隶属度,使训练样本集中的数据大大减少。同时,在将二类模糊支持向量机推广到k类时,采用了DAGSVMs方法,进一步提高了多类分类问题的分类效率。实验表明,提出的快速模糊支持向量机在保证测试精度的同时,减少了训练时间。  相似文献   

11.
一种快速支持向量机增量学习算法   总被引:16,自引:0,他引:16       下载免费PDF全文
孔锐  张冰 《控制与决策》2005,20(10):1129-1132
经典的支持向量机(SVM)算法在求解最优分类面时需求解一个凸二次规划问题,当训练样本数量很多时,算法的速度较慢,而且一旦有新的样本加入,所有的训练样本必须重新训练,非常浪费时间.为此,提出一种新的SVM快速增量学习算法.该算法首先选择那些可能成为支持向量的边界向量,以减少参与训练的样本数目;然后进行增量学习.学习算法是一个迭代过程,无需求解优化问题.实验证明,该算法不仅能保证学习机器的精度和良好的推广能力,而且算法的学习速度比经典的SVM算法快,可以进行增量学习.  相似文献   

12.
基于自适应步长的支持向量机快速训练算法*   总被引:1,自引:0,他引:1  
支持向量机训练问题实质上是求解一个凸二次规划问题。当训练样本数量非常多时, 常规训练算法便失去了学习能力。为了解决该问题并提高支持向量机训练速度,分析了支持向量机的本质特征,提出了一种基于自适应步长的支持向量机快速训练算法。在保证不损失训练精度的前提下,使训练速度有较大提高。在UCI标准数据集上进行的实验表明,该算法具有较好的性能,在一定程度上克服了常规支持向量机训练速度较慢的缺点、尤其在大规模训练集的情况下,采用该算法能够较大幅度地减小计算复杂度,提高训练速度。  相似文献   

13.
提出了一种新的基于边界向量的增量式支持向量机学习算法。该算法根据支持向量的几何分布特点,采用边界向量预选取方法,从增量样本中选取最有可能成为支持向量的样本形成边界向量集,在其上进行支持向量训练。通过对初始样本是否满足新增样本KKT条件的判断,解决非支持向量向支持向量的转化问题,有效地处理历史数据。针对UCI标准数据集上的仿真实验表明,基于边界向量的增量算法可以有效地减少训练样本数,积累历史信息,具有更高的分类速度和更好的推广能力。  相似文献   

14.
针对SVM在对大规模数据分类时求解规模过大的问题,提出了一种缩减数据集以提高训练速度的方法。该算法的第一步利用基于密度的方法大致定位能代表某个局域的质点,然后用SVM训练缩减后的数据得到一组支持向量,第二步的训练数据由支持向量以及其所代表的样本点构成。仿真实验证明该算法在保证分类准确率的情况下能有效地提高分类速度。  相似文献   

15.
介绍了支持向量机,报告了支持向量机增量学习算法的研究现状,分析了支持向量集在加入新样本后支持向量和非支持向量的转化情况.针对淘汰机制效率不高的问题,提出了一种改进的SVM增量学习淘汰算法--二次淘汰算法.该算法经过两次有效的淘汰,对分类无用的样本进行舍弃,使得新的增量训练在淘汰后的有效数据集进行,而无需在复杂难处理的整个训练数据集中进行,从而显著减少了后继训练时间.理论分析和实验结果表明,该算法能在保证分类精度的同时有效地提高训练速度.  相似文献   

16.
为提高支持向量机(SVM)集成的训练速度,提出一种基于凸壳算法的SVM集成方法,得到训练集各类数据的壳向量,将其作为基分类器的训练集,并采用Bagging策略集成各个SVM。在训练过程中,通过抛弃性能较差的基分类器,进一步提高集成分类精度。将该方法用于3组数据,实验结果表明,SVM集成的训练和分类速度平均分别提高了266%和25%。  相似文献   

17.
针对支持向量机(SVM)分类速度取决于支持向量数目的应用瓶颈,提出一种SVM快速分类算法。通过引入支持向量在特征空间的相似性度量,构建特征空间中的最小支撑树,在此基础上将支持向量按相似性最大进行分组,依次在每组中找到决定因子和调整因子,用两者的线性组合拟合一组支持向量在特征空间的加权和,以减少支持向量的数量,提高支持向量机的分类速度。实验结果证明,该方法能以很小的分类精度损失换取较大的分类时间缩减,满足SVM实时分类的要求。  相似文献   

18.
基于中心距离比值的增量支持向量机   总被引:11,自引:0,他引:11  
孔波  刘小茂  张钧 《计算机应用》2006,26(6):1434-1436
研究了支持向量、中心距离比值、边界向量以及增量学习之间的关系,提出了基于中心距离比值的增量支持向量机。与传统方法相比,基于中心距离比值的增量支持向量机有效的利用了中心距离比值,解决了CDRM+SVM的阈值选取问题;且适合于增量学习;从而在保证了支持向量机的分类能力没有受到影响的前提下提高了支持向量机的训练速度。  相似文献   

19.
In this paper, we propose a new support vector machine (SVM) called dual margin Lagrangian support vectors machine (DMLSVM). Unlike other SVMs which use only support vectors to determine the separating hyperplanes, DMLSVM utilizes all the available training data for training the classifier, thus producing robust performance. The training data are weighted differently depending on whether they are in a marginal region or surplus region. For fast training, DMLSVM borrows its training algorithm from Lagrangian SVM (LSVM) and tailors the algorithm to its formulation. The convergence of our training method is rigorously proven and its validity is tested on a synthetic test set and UCI dataset. The proposed method can be used in a variety of applications such as a recommender systems for web contents of IPTV services.  相似文献   

20.
基于几何思想的快速支持向量机算法   总被引:1,自引:0,他引:1       下载免费PDF全文
为了快速地进行分类,根据几何思想来训练支持向量机,提出了一种快速而简单的支持向量机训练算法——几何快速算法。由于支持向量机的最优分类面只由支持向量决定,因此只要找出两类样本中所有支持向量,那么最优分类面就可以完全确定。该新的算法根据两类样本的几何分布,先从两类样本的最近点开始;然后通过不断地寻找违反KKT条件的样本点来找出支持向量;最后确定最优分类面。为了验证新算法的有效性,分别利用两个公共数据库,对新算法与SMO算法及DIRECTSVM算法进行了实验对比,实验结果显示,新算法的分类精度虽与其他两个方法相当,但新算法的运算速度明显比其他两个算法快。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号