共查询到19条相似文献,搜索用时 343 毫秒
1.
2.
基于K最近邻的支持向量机快速训练算法 总被引:2,自引:0,他引:2
传统支持向量机训练大规模样本时间和空间开销大,使其应用受到了很大限制。为了提高支持向量机的训练速度,根据支持向量机的基本原理,应用K最近邻思想来筛选训练样本集,提出了基于K最近邻的支持向量机快速训练算法(KNN-SVM)。算法首先选取一部分最有可能成为支持向量的样本——边界向量,然后用边界向量集代替训练样本集进行支持向量机训练,大幅度减少了训练样本的数量,使支持向量机的训练速度显著提高。同时,由于边界向量包含了支持向量,因此,支持向量机的分类能力没有受到影响。仿真实验结果表明,与传统支持向量机相比,在分类精度相同的情况下,算法能够有效地提高支持向量机的训练速度,而且还可以提高支持向量机的分类速度和推广能力。 相似文献
3.
支持向量机在大样本情况下训练速度慢,支持向量预选取可以解决这个问题.AdaBoost算法重点关注错分样本,而错分样本一般都处于分类边界,支持向量就由分类边界样本构成.因此,提出基于错分样本的AdaBoost支持向量预选取算法,该算法通过AdaBoost提升过程,使得越是容易被错分的样本权值越大,从而实现支持向量的预选取,通过仿真实验验证了算法的有效性. 相似文献
4.
5.
最小二乘支持向量机的一种非均衡数据分类算法 总被引:2,自引:2,他引:0
为了提高支持向量机的非平衡数据分类能力,分析了最小二乘支持向量机的本质特征,提出了一种基于中心距离比的非平衡数据分类算法,同时通过修剪边界样本,解决了最小二乘支持向量机缺失稀疏性的问题.在UCI标准数据集上进行的试验表明:该算法能够有效地提高支持向量机对非均衡分布数据的正确性,且该算法在不影响训练精度的前提下,可以得到稀疏解,算法的训练速度也有了一定的提高. 相似文献
6.
7.
为了提高传统支持向量域描述(C-SVDD)算法处理不均衡数据集的分类能力,提出一种基于密度敏感最大软间隔支持向量域描述(DSMSM-SVDD)算法.该算法通过对多数类样本引入相对密度来体现训练样本原始空间分布对求解最优分类界面的影响,通过在目标函数中增加最大软间隔正则项,使C-SVDD的分类边界向少数类偏移,进而提高算法分类性能.算法首先对每个多数类样本计算相对密度来反映样本的重要性,然后将训练样本输入到DSMSM-SVDD中实现数据分类.实验部分,讨论了算法参数间的关系及其对算法分类性能的影响,给出算法参数取值建议.最后通过与C-SVDD的对比实验,表明本文建议的算法在不均衡数据情况下的分类性能优于C-SVDD算法. 相似文献
8.
传统的支持向量机分类算法对训练样本数目敏感且不具备增量学习的能力,而空间目标识别的工程应用需要积累样本进行大样本的增量学习。根据样本在特征空间分布,提取几何意义上边缘的样本点,成功约减了应用于支持向量机学习的基于雷达散射截面统计特征的训练样本集。利用中心距离比和特征空间多维高斯分布特性,分别提取两类边界样本集和单类边缘样本集;再采用直推式实验设计方法再采样,根据样本潜在结构分布信息选择最能代表样本集结构分布的高价值样本。实验结果表明:样本初选算法能够在有效约减样本集规模的同时保持支持向量机训练分类的精度。 相似文献
9.
本文介绍了粗糙集和决策粗糙集理论,提出一种基于决策粗糙集理论的两步信息过滤算法,相比原始的此类算法,该算法缩小了负域范围,采取两步策略进行分类,当发现新样本和未知样本时,能确保它是否属于负域,从而尽量减少将不属于负域的样本划分到负域,降低了分类错误和损耗。与传统朴素贝叶斯方法和一般决策粗糙集理论算法比较结果证明,本文提出的基于决策糙集的两步信息过滤算法,可以提高分类精度和降低分类损耗。 相似文献
10.
11.
Abnormal samples are usually difficult to obtain in production systems, resulting in imbalanced training sample sets. Namely, the number of positive samples is far less than the number of negative samples. Traditional Support Vector Machine (SVM)‐based anomaly detection algorithms perform poorly for highly imbalanced datasets: the learned classification hyperplane skews toward the positive samples, resulting in a high false‐negative rate. This article proposes a new imbalanced SVM (termed ImSVM)‐based anomaly detection algorithm, which assigns a different weight for each positive support vector in the decision function. ImSVM adjusts the learned classification hyperplane to make the decision function achieve a maximum GMean measure value on the dataset. The above problem is converted into an unconstrained optimization problem to search the optimal weight vector. Experiments are carried out on both Cloud datasets and Knowledge Discovery and Data Mining datasets to evaluate ImSVM. Highly imbalanced training sample sets are constructed. The experimental results show that ImSVM outperforms over‐sampling techniques and several existing imbalanced SVM‐based techniques. 相似文献
12.
针对现有部分支持向量机在多类分类过程中存在的数据不均衡性、对算法结构依赖性强的问题,提出一种新的基于遗传算法的支持向量机多类分类算法。以遗传算法中的交叉作为支持向量机中类的选择,以变异改善分类过程中的纠错能力,以适应度函数作为最优分类结果的确定。在不同特性的样本集上进行仿真测试,结果证明,该算法在类数较多的情况下,有更好的数据均衡性,在分类速度及准确度上均有一定的优越性。 相似文献
13.
14.
适用于不平衡样本数据处理的支持向量机方法 总被引:6,自引:0,他引:6
支持向量机算法在处理不平衡样本数据时,其分类器预测具有倾向性.样本数量多的类别,其分类误差小,而样本数量少的类别,其分类误差大.本文针对这种倾向性问题,在分析其产生原因的基础上,提出了基于遗传交叉运算的改进方法.对于小类别训练样本,利用交叉运算产生新的样本,从而补偿了因训练数据类别大小差异而造成的影响.基于UCI标准数据集的仿真实验结果表明,改进方法比标准支持向量机方法具有更好的分类准确率. 相似文献
15.
基于QPSO的属性约简在NIDS中的应用研究 总被引:1,自引:0,他引:1
支持向量机作为一种优良的分类算法应用在网络入侵检测系统中,但是训练时间过长是它的主要缺陷.文中提出了基于量子粒子群优化的属性约简和支持向量机(SVM)的入侵检测方法,利用量子粒子群优化的属性约简算法对训练样本集进行属性约简,剔除了对入侵检测结果影响较小的冗余特征,从而使入侵检测系统在获取用户特征的时间减少,整个入侵检测系统的性能得到提高.实验结果表明,该方法是有效的. 相似文献
16.
Soft margin support vector machine (SVM) with hinge loss function is an important classification algorithm, which has been widely used in image recognition, text classification and so on. However, solving soft margin SVM with hinge loss function generally entails the sub-gradient projection algorithm, which is very time-consuming when processing big training data set. To achieve it, an efficient quantum algorithm is proposed. Specifically, this algorithm implements the key task of the sub-gradient projection algorithm to obtain the classical sub-gradients in each iteration, which is mainly based on quantum amplitude estimation and amplification algorithm and the controlled rotation operator. Compared with its classical counterpart, this algorithm has a quadratic speedup on the number of training data points. It is worth emphasizing that the optimal model parameters obtained by this algorithm are in the classical form rather than in the quantum state form. This enables the algorithm to classify new data at little cost when the optimal model parameters are determined. 相似文献
17.
基于人工蜂群算法的支持向量机参数优化及应用 总被引:2,自引:1,他引:1
为了解决常用的支持向量机(SVM)参数优化方法在寻优过程不同程度的陷入局部最优解的问题,提出一种基于人工蜂群(ABC)算法的SVM参数优化方法。将SVM的惩罚因子和核函数参数作为食物源位置,分类正确率作为适应度,利用ABC算法寻找适应度最高的食物源位置。利用4个标准数据集,将其与遗传(GA)算法、蚁群(ACO)算法、标准粒子群(PSO)算法优化的SVM进行性能比较,结果表明,本文方法能克服局部最优解,获得更高的分类正确率,并在小数目分类问题上有效降低运行时间。将本文方法运用到计算机笔迹鉴别,对提取的笔迹特征进行分类,与GA算法、ACO算法、PSO算法优化的SVM相比,得到了更高的分类正确率。 相似文献
18.
支持向量机方法在文本分类中的改进 总被引:1,自引:0,他引:1
提出了一种应用于文本分类的KNN和SVM相结合的算法,将SVM近似看成每类只有一个代表点的1NN分类器,对于待识别样本,如果其离支持向量机的最优分界面较远,则用SVM分类;如果其离分界面较近,采用KNN对测试样本分类,将每个支持向量作为代表点,计算待识别样本和每个支持向量的距离对其作出判断.该算法综合了KNN和SVM在分类问题中的优势,既有效地降低了分类候选的数目,又提高了文本分类的精度.最后用实验验证了该算法的有效性. 相似文献