首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 96 毫秒
1.
基于边界向量提取的模糊支持向量机方法   总被引:2,自引:0,他引:2  
针对支持向量机对训练样本中的噪声和孤立点特别敏感的问题,提出一种基于边界向量提取的模糊支持向量机方法.在特征空间中寻找能够分别包住两类样本点的两个最小超球,并选择可能成为支持向量的边界向量作为新样本,减少参与训练的样本数目,提高训练速度.样本的隶属度根据边界样本和噪声点与所在超球球心的距离分别确定,既减弱孤立点和噪声的影响,又增强支持向量对支持向量机分类的作用.实验结果表明,与传统的支持向量机方法和基于样本与类中心之间关系的模糊支持向量机相比,本文方法具有更快的学习速度和更好的泛化能力.  相似文献   

2.
提出了一种新的基于边界向量的增量式支持向量机学习算法。该算法根据支持向量的几何分布特点,采用边界向量预选取方法,从增量样本中选取最有可能成为支持向量的样本形成边界向量集,在其上进行支持向量训练。通过对初始样本是否满足新增样本KKT条件的判断,解决非支持向量向支持向量的转化问题,有效地处理历史数据。针对UCI标准数据集上的仿真实验表明,基于边界向量的增量算法可以有效地减少训练样本数,积累历史信息,具有更高的分类速度和更好的推广能力。  相似文献   

3.
提出一种新的基于向量投影的支持向量机增量式学习算法.该算法根据支持向量的几何分布特点,采用向量投影的方法对初始样本及增量样本在有效地避免预选取失效情况下进行预选取.选取最有可能成为支持向量的样本形成边界向量集,并在其上进行支持向量机训练.通过对初始样本是否满足新增样本集KKT条件的判断,解决非支持向量向支持向量转化的问题,有效地处理历史数据.实验表明,基于向量投影的支持向量机增量算法可以有效地减少训练样本数,积累历史信息,提高训练的速度,从而具有更好的推广能力.  相似文献   

4.
支持向量机是建立在统计学习理论基础上的一种机器学习方法,它通过对支持向量的训练而具有很好的分类推广能力。但是从训练样本中选取合适的支持向量很困难,而对噪音样本的训练会使支持向量机的泛化能力下降。在分析了支持向量的分布特性和Voronoi图在特征空间划分的优势后,提出一种利用域着色Voronoi图来选取支持向量的方法。该方法能大量减少训练样本集中的非支持向量,排除孤立噪音样本,最终得到一个包含候选支持向量的训练样本集。仿真实验结果说明了该方法的有效性和可行性。  相似文献   

5.
当支持向量机中存在相互混叠的海量训练样本时,不但支持向量求取困难,且支持向量数目巨大,这两个问题已成为限制其应用的瓶颈问题。该文通过对支持向量几何意义的分析,首先研究了支持向量的分布特性,并提出了基于几何分析的支持向量机快速算法,该算法首先从训练样本中选择出部分近邻向量,然后在进行混叠度分析的基础上,选择真实的边界向量样本子空间用来代替全部训练集,这样既大大减少了训练样本数目,同时去除了混叠严重的奇异样本的影响,并大大减少了支持向量的数目。实验结果表明:该算法在不影响分类性能的条件下,可以加快支持向量机的训练速度和分类速度。  相似文献   

6.
传统的支持向量机相似性学习算法在构造样本对时,会考虑所有的原始训练样本,致使样本对空间和原样本空间呈平方关系,而过多的训练样本对会降低训练速度。为此,提出一种改进的支持向量机相似性学习算法,并应用到人脸识别中。引入二元样本对方法构造样本对,采用K近邻算法减少不相似样本对的生成,从而加快支持向量机的训练速度,同时使用随机降维方法来降低人脸数据的维数。实验结果表明,与基于差空间样本对和差绝对值样本对的算法相比,该算法可获得更高的识别率。  相似文献   

7.
针对支持向量机(Support Vector Machine,SVM)处理大规模数据集的学习时间长、泛化能力下降等问题,提出基于边界样本选择的支持向量机加速算法。首先,进行无监督的K均值聚类;然后,在各个聚簇内依照簇的混合度、支持度因素应用K近邻算法剔除非边界样本,获得最终的类别边界区域样本,参与SVM模型训练。在标准数据集上的实验结果表明,算法在保持传统支持向量机的分类泛化能力的同时,显著降低了模型训练时间。  相似文献   

8.
预抽取支持向量机的支持向量   总被引:6,自引:0,他引:6  
安金龙  王正欧 《计算机工程》2004,30(10):10-11,48
训练支持向量机,可以归结为求解二次规划问题,而求解二次规划时的复杂度随着样本数量的增加而显著增长,这样就大大延长了支持向量机的训练时间。为了提高支持向量机的训练速度,根据支持向量机的基本原理,该文提出了一种从给定训练样本中预抽取支持向量的新方法,即两凸包相对边界向量方法(FFEVM),此方法大幅度减小了训练支持向量机的训练样本的数量,从而大大提高了支持向量的训练速度,而支持向量机的分类能力不受任何影响。  相似文献   

9.
针对v-支持向量机在样本集规模较大的情况下,需要占用大量训练时间的问题,提出基于粗糙集边界的v-支持向量机混合分类算法。该算法根据粗糙集理论边界区域的优点,生成分类数据的边界集,使其包括全部的支持向量,用此边界向量集替代原始样本作为训练集,减少训练集的数量,则可以在不影响分类精度和泛化性能的前提下显著缩短v-支持向量机的训练时间。仿真结果表明该算法的有效性。  相似文献   

10.
渐进支持向量决定渐进支持向量机的泛化能力,其选取至关重要。对此提出了一种新颖的基于概率计算的渐进支持向量选取策略。该方法为每个样本点构造一个通过该样本点的合适分离面,该样本点成为渐进支持向量的概率是根据该分离面对两类样本的分离率来估计的。具有较高概率值的训练样本被选为渐进支持向量,用以训练和更新渐进支持向量机。比较性的实验表明,该方法在保持渐进支持向量机泛化能力的前提下,在训练效率上具有非常突出的优势。  相似文献   

11.
提出基于近邻域比率的支持向量机NDR-SVM.该算法对每个训练样本构造一个近邻域,在此邻域中计算与中心同类的样本占邻域中总样本的比率;根据比率与剔除闲值的大小关系决定邻域中心的取舍,并将所保留的样本带入SVM分类.通过修剪训练集,该算法减弱了噪声对SVM泛化能力的影响.实验结果表明,与已有算法相比,NDR-SVM具有更高的分类精度,大大提高了训练速度.  相似文献   

12.
支持向量机是一种具有完备统计学习理论基础和出色学习性能的新型机器学习方法,它能够较好地克服过学习和泛化能力低等缺陷.但是在利用支持向量机的分类算法处理实际问题时,该算法的计算速度较慢、处理问题效率较低.文中介绍了一种新的学习算法粗SVM分类方法,就是将粗糙集和支持向量机相结合,利用粗糙集对支持向量机的训练样本进行预处理,通过属性约简方法以减少属性个数,且在属性约简过程中选出几组合适的属性集组成新的属性集,使模型具有一定的抗信息丢失能力,同时充分利用SCM的良好推广性能,从而缩短样本的训练时间,实现快速故障诊断.对航空发动机故障诊断的实验结果表明了该方法的优越性. 型机器学习方法,它能够较好地克服过学习和泛化能力低等缺陷.但是在利用支持向量机的分类算法处理实际问题时,该算法的计算速度较慢、处理问题效率较低.文中介绍了一种新的学习算法粗SVM分类方法,就是将粗糙集和支持向量机相结合,利用粗糙集对支持向量机的训练样本进行预处理,通过属性约简方法以减少属性个数,且在属性约筒过程中选出几组合适的属性集组成新的属性集,使模型具有一定的抗信息丢失能力,同时充分利用SCM的良好推广性能,从而缩短样本的训练时间,实现快速故障诊 .对航空发动机故障诊断的实验结果表明了该方法的优越性. 型机器学习方法  相似文献   

13.
针对最小二乘支持向量机缺乏稀疏性的问题,提出了一种基于边界样本的最小二乘支持向量机算法。该算法利用中心距离比来选取支持度较大的边界样本作为训练样本,从而减少了支持向量的数目,提高了算法的速度。最后将该算法在4个UCI数据集上进行实验,结果表明:在几乎不损失精度的情况下,可以得到稀疏解,且算法的识别速度有了一定的提高。  相似文献   

14.
一种快速支持向量机增量学习算法   总被引:16,自引:0,他引:16  
孔锐  张冰 《控制与决策》2005,20(10):1129-1132
经典的支持向量机(SVM)算法在求解最优分类面时需求解一个凸二次规划问题,当训练样本数量很多时,算法的速度较慢,而且一旦有新的样本加入,所有的训练样本必须重新训练,非常浪费时间.为此,提出一种新的SVM快速增量学习算法.该算法首先选择那些可能成为支持向量的边界向量,以减少参与训练的样本数目;然后进行增量学习.学习算法是一个迭代过程,无需求解优化问题.实验证明,该算法不仅能保证学习机器的精度和良好的推广能力,而且算法的学习速度比经典的SVM算法快,可以进行增量学习.  相似文献   

15.
在进行增量学习时,随着新增样本的不断加入,致使训练集规模不断扩大,消耗大量计算资源,寻优速度缓慢.在深入研究了支持向量分布的特点的基础上提出了分治加权增量支持向量机算法.该算法有效利用了广义KKT条件和中心距离比值,舍弃对后续训练影响不大的样本,得到边界支持向量集,对训练样本进行有效的淘汰.将所剩样本合并,进行加权处理,解决某些样本严重偏离所属的类别,对正常分布的样本不公平的问题.实验结果表明,该方法在保证分类精度的同时,能有效地提高训练速度.  相似文献   

16.
一种快速最小二乘支持向量机分类算法   总被引:1,自引:1,他引:0       下载免费PDF全文
最小二乘支持向量机不需要求解凸二次规划问题,通过求解一组线性方程而获得最优分类面,但是,最小二乘支持向量机失去了解的稀疏性,当训练样本数量较大时,算法的计算量非常大。提出了一种快速最小二乘支持向量机算法,在保证支持向量机推广能力的同时,算法的速度得到了提高,尤其是当训练样本数量较大时算法的速度优势更明显。新算法通过选择那些支持值较大样本作为训练样本,以减少训练样本数量,提高算法的速度;然后,利用最小二乘支持向量机算法获得近似最优解。实验结果显示,新算法的训练速度确实较快。  相似文献   

17.
支持向量机是一种新的机器学习方法,它具有良好的推广性和分类精确性。但是在利用支持向量机的分类算法处理实际问题时,该算法的计算速度较慢、处理问题效率较低。文中介绍了一种新的学习算法,就是将粗糙集和支持向量机相结合,利用粗糙集对支持向量机的训练样本进行预处理,从而缩短样本的训练时间,提高基于SVM预测系统实时性。文中最后利用该方法进行了数据试验,试验结果表明了该方法可以大大缩短样本的训练时间,提高基于支持向量机处理预测系统的效率。从而也证明了该方法的有效性。  相似文献   

18.
针对标准支持向量机处理大规模数据集会出现训练速度慢、计算量大的缺点,提出了一种基于二叉树模型的支持向量机回归方法。通过二叉树模型将大样本数据集自适应分解成若干个子集,利用支持向量机分段提出支持向量,再把这些支持向量汇合成一个训练样本集进行训练产生决策函数,并将其应用到混沌时间序列的预测。与标准算法相比,该方法在保证泛化精度一致的前提下,极大地加快了训练速度。  相似文献   

19.
一种新的支持向量机大规模训练样本集缩减策略   总被引:2,自引:0,他引:2  
朱方  顾军华  杨欣伟  杨瑞霞 《计算机应用》2009,29(10):2736-2740
支持向量机(SVM)在许多实际应用中由于训练样本集规模较大且具有类内混杂孤立点数据,引发了学习速度慢、存储需求量大、泛化能力降低等问题,成为直接使用该技术的瓶颈。针对这些问题,通过在点集理论的基础上分析训练样本集的结构,提出了一种新的支持向量机大规模训练样本集缩减策略。该策略运用模糊聚类方法快速的提取出潜在支持向量并去除类内非边界孤立点,在减小训练样本集规模的同时,能够有效地避免孤立点数据所造成的过学习现象,提高了SVM的泛化性能,在保证不降低分类精度的前提下提高训练速度。  相似文献   

20.
传统支持向量机是对小样本提出,对于大样本会出现训练速度慢、内存占用多等问题.并且不具有增量学习性能.而常用的增量学习方法又会出现局部极小等问题.本文阐述了一种改进的支持向量机算法(快速增量加权支持向量机算法)用于证券指数预测.该算法先对指数样本做相空间重构,再分解成若干个工作子集,针对样本重要程度给出不同权重构建预测模型.实验分析表明,在泛化精度保持略好情况下,训练速度明显提高.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号