共查询到19条相似文献,搜索用时 78 毫秒
1.
支持向量机分解算法研究 总被引:1,自引:0,他引:1
分解算法是目前大量数据下支持向量机最主要训练方法。各种分解算法的区别在于工作集的大小、产生原则以及子QP问题的求解方法不同。介绍分解算法的产生以及发展过程,以及相应的工作集选择算法,重点指出分解算法在子工作集优化方法、工作集的选择策略所采用的新的方法以及有关收敛性的证明。 相似文献
2.
基于支持向量机的分解合作的加权算法及其应用 总被引:2,自引:0,他引:2
支持向量机是基于统计学习理论的新一代学习机器。它使用结构风险最小化原则,运用核技巧,较好地解决了学习问题。当训练数据相当大时,其训练速度是制约其应用的瓶颈。本文提出了一种基于支持向量机的分解合作的加权算法并将其应用于股票指数预测,与标准算法相比较,分解合作加权算法表现出了良好的性能。 相似文献
3.
4.
5.
为了快速地进行分类,根据几何思想来训练支持向量机,提出了一种快速而简单的支持向量机训练算法——几何快速算法。由于支持向量机的最优分类面只由支持向量决定,因此只要找出两类样本中所有支持向量,那么最优分类面就可以完全确定。该新的算法根据两类样本的几何分布,先从两类样本的最近点开始;然后通过不断地寻找违反KKT条件的样本点来找出支持向量;最后确定最优分类面。为了验证新算法的有效性,分别利用两个公共数据库,对新算法与SMO算法及DIRECTSVM算法进行了实验对比,实验结果显示,新算法的分类精度虽与其他两个方法相当,但新算法的运算速度明显比其他两个算法快。 相似文献
6.
7.
基于奇异值分解和支持向量机的人脸检测 总被引:3,自引:0,他引:3
人脸检测在自动人脸鉴别工作中具有重要的意义。由于人脸图像特征的复杂性和多样性,使得人脸模式分类器的训练十分困难。本文提出了一种基于支持向量机(SVM)的人脸检测算法,使用了奇异值分解对训练样本进行特征提取,再由SVM分类器进行分类,有效的降低了训练难度,采用二阶多项式作为SVM分类器的核函数,实验结果表明,该方法是十分有效的。 相似文献
8.
9.
支持向量机(SVM)算法应用于具有小样本特征的实际问题时是否能获得到良好的预测效果,取决于能否成功地设置该算法的关键参数,这一瓶颈问题一直阻碍着SVM在具有小样本特性的实际工程中的应用。在分析SVM回归估计方法参数性能的基础上,提出了以自适应粒子群算法(APSO)优化SVM关键参数的改进SVM算法,并以变电工程为背景给出了相应的工程造价预测模型。运用此模型,对某实际变电工程实例进行了造价预测仿真分析,并与传统的支持向量机算法进行比较,结果说明改进的支持向量机算法具有良好的变电工程造价预测精度,且速度较快。 相似文献
10.
对求解含线性约束优化问题的粒子群算法(LPSO)进行了改进,给出了应用其训练支持向量机(SVM)的方法。改进后的算法在基本PSO惯性权重策略的基础上加入了基于种群收敛速度的自适应扰动,能够较好地调整算法的全局与局部搜索能力之间的平衡。对双螺旋问题的分类实验表明本文提出的方法稳定性好,训练出的SVM具有较高的分类正确率。 相似文献
11.
12.
一种高效的最小二乘支持向量机分类器剪枝算法 总被引:2,自引:0,他引:2
针对最小二乘支持向量机丧失稀疏性的问题,提出了一种高效的剪枝算法.为了避免解初始的线性代数方程组,采用了一种自下而上的策略.在训练的过程中,根据一些特定的剪枝条件,块增量学习和逆学习交替进行,一个小的支持向量集能够自动形成.使用此集合,可以构造最终的分类器.为了测试新算法的有效性,把它应用于5个UCI数据集.实验结果表明:使用新的剪枝算法,当增量块的大小等于2时,在几乎不损失精度的情况下,可以得到稀疏解.另外,和SMO算法相比,新算法的速度更快.新的算法不仅适用于最小二乘支持向量机分类器,也可向最小二乘支持向量回归机推广. 相似文献
13.
14.
一种加权支持向量机分类算法 总被引:18,自引:1,他引:17
提出了一种加权C—SVM分类算法,并从理论上分析了算法的性能。该算法通过引入类权重因子和样本权重因子实现了类加权和样本加权两种功能。实验结果表明,该算法可以有效地解决由类大小不均衡引发的分类错误问题以及重要样本的错分问题。 相似文献
15.
一种训练支撑向量机的改进贯序最小优化算法 总被引:17,自引:0,他引:17
对于大规模问题,分解方法是训练支撑向量机主要的一类方法.在很多分类问题中,有相当比例的支撑向量对应的拉格朗日乘子达到惩罚上界,而且在训练过程中到达上界的拉格朗日乘子变化平稳.利用这一统计特性,提出了一种有效的缓存策略来加速这类分解方法,并将其具体应用于Platt的贯序最小优化(sequential minimization optimization,简称SMO) 算法中.实验结果表明,改进后的SMO算法的速度是原有算法训练的2~3倍. 相似文献
16.
In this Letter an efficient recursive update algorithm for least squares support vector machines (LSSVMs) is developed. Using the previous solution and some matrix equations, the algorithm completely avoids training the LSSVM all over again whenever new training sample is available. The gain in speed using the recursive update algorithm is illustrated on four data sets from UCI repository: the Statlog Australian credit, the Pima Indians diabetes, the Wisconsin breast cancer, and the adult income data sets. 相似文献
17.
18.
Benchmarking Least Squares Support Vector Machine Classifiers 总被引:16,自引:0,他引:16
van Gestel Tony Suykens Johan A.K. Baesens Bart Viaene Stijn Vanthienen Jan Dedene Guido de Moor Bart Vandewalle Joos 《Machine Learning》2004,54(1):5-32
In Support Vector Machines (SVMs), the solution of the classification problem is characterized by a (convex) quadratic programming (QP) problem. In a modified version of SVMs, called Least Squares SVM classifiers (LS-SVMs), a least squares cost function is proposed so as to obtain a linear set of equations in the dual space. While the SVM classifier has a large margin interpretation, the LS-SVM formulation is related in this paper to a ridge regression approach for classification with binary targets and to Fisher's linear discriminant analysis in the feature space. Multiclass categorization problems are represented by a set of binary classifiers using different output coding schemes. While regularization is used to control the effective number of parameters of the LS-SVM classifier, the sparseness property of SVMs is lost due to the choice of the 2-norm. Sparseness can be imposed in a second stage by gradually pruning the support value spectrum and optimizing the hyperparameters during the sparse approximation procedure. In this paper, twenty public domain benchmark datasets are used to evaluate the test set performance of LS-SVM classifiers with linear, polynomial and radial basis function (RBF) kernels. Both the SVM and LS-SVM classifier with RBF kernel in combination with standard cross-validation procedures for hyperparameter selection achieve comparable test set performances. These SVM and LS-SVM performances are consistently very good when compared to a variety of methods described in the literature including decision tree based algorithms, statistical algorithms and instance based learning methods. We show on ten UCI datasets that the LS-SVM sparse approximation procedure can be successfully applied. 相似文献
19.
传统支持向量机通常关注于数据分布的边缘样本,支持向量通常在这些边缘样本中产生。本文提出一个新的支持向量算法,该算法的支持向量从全局的数据分布中产生,其稀疏性能在大部分数据集上远远优于经典支持向量机算法。该算法在多类问题上的时间复杂度仅等价于原支持向量机算法的二值问题,解决了设计多类算法时变量数目庞大或者二值子分类器数目过多的问题。 相似文献