共查询到20条相似文献,搜索用时 78 毫秒
1.
核函数、惩罚因子、核参数是影响支持向量数据描述(SVDD)分类方法分类效果的重要因素。研究了多核支持向量数据描述(MKSVDD)分类方法,给出了多核支持向量数据描述分类方法的实现步骤,基于banana数据集分析了惩罚因子和核参数对分类效果的影响,重点讨论了多核函数的权值对支持向量数据描述边界分布的影响。仿真实验结果表明,与单核支持向量数据描述分类方法相比较,多核支持向量数据描述分类方法的分类效果更佳,为实际应用时参数的选择提供了参考。 相似文献
2.
3.
基于信息熵的支持向量数据描述分类 总被引:1,自引:0,他引:1
针对现有的支持向量数据描述(SVDD)在解决分类问题时通常存在盲目性和有偏性,在研究信息熵和SVDD分类理论的基础上,提出了改进两类分类问题的E-SVDD算法。首先对两类样本数据分别求出其熵值;然后根据熵值大小决定将哪类放在球内;最后结合两类样本容量以及各自的熵值所提供的分布信息,对SVDD算法中的C值重新进行定义。采用该算法对人工样本集和UCI数据集进行实验,实验结果验证了算法的可行性和有效性。 相似文献
4.
梁锦锦 《计算机工程与设计》2021,42(2):538-542
为提高支持向量数据描述的训练精度,提出一种闭合超球面机.在训练阶段利用目标类样本构造最小包围超球,利用非目标类样本调整描述边界;在测试阶段计算待测样本与最小包围超球球心的距离,根据其与超球半径的大小关系设计分类规则.不同规模和不同平衡度的数据集上的仿真结果表明,该算法分类精度高,训练时间短,将支持向量机和光滑支持向量机... 相似文献
5.
6.
7.
针对目前概率机器学习方法在解决概率问题时具有较高的复杂度,而传统的支持向量数据描述(SVDD)作为一种核密度估计方法只能判断测试样本是否属于该类等问题,提出一种基于概率的支持向量数据描述方法。首先,利用传统的SVDD方法分别得到两类数据的数据描述,计算测试样本到超球体的距离;然后,构造一个将距离转换为概率的函数,提出一种基于概率的SVDD方法;同时,使用Bagging算法进行集成,进一步提高数据描述的性能。借鉴分类场景,将所提方法与传统的SVDD方法在Gunnar Raetsch的13种基准数据集上进行实验,实验结果表明,所提方法在准确率和F1值上优于传统的SVDD方法,并且其数据描述的性能有所提升。 相似文献
8.
9.
10.
11.
Support Vector Data Description 总被引:49,自引:0,他引:49
12.
提出了一种基于支持向量数据描述(SVDD)算法的快速事件检测方法。该算法把有事件样本和无事件样本分别用全体样本优化的SVDD算法进行优化。但每次只对那些对超球体边界有影响的数据进行优化。该方法既保留了全体样本优化SVDD算法的优点,又达到加快训练速度的目的。采用I~880数据库中实际交通的历史数据进行实验,并与全体样本优化SVDD实验结果相比较。实验证明该分类方法能够获得较高检测率和较低的误报率,且需要较短的训练时间,表明了所给方法的有效性和可行性。 相似文献
13.
14.
15.
16.
针对传统的支持向量数据描述模型忽略了样本分布的重要性,提出了基于类心距离的模糊支持向量数据描述算法,并将其应用在UCI机器学习数据库的二分类和多分类数据集中。该算法利用样本到两类中心距离的比值赋予样本权重,增大贡献度大的样本的权重,降低贡献度小的样本的权重,突出样本之间的差异性,从而提高了算法的分类效果。实验表明,该算法具有比传统支持向量数据描述更好的学习能力和分类效果。 相似文献
17.
支持向量机是基于小样本统计理论的一种新的机器学习方法,主要解决两分类问题。目前已成为机器学习领域的研究热点,但其应用方面的研究刚刚开始,在文本分类,图像分类、生物序列分析等方面得到成功应用。文章根据空间数据分类数据海量特点将SVM分类算法应用到炮阵地地形分析中,使得识别率大大提高。 相似文献
18.
粒度支持向量机(granular support vector machine,简称GSVM)可以有效提高支持向量机(support vectormachine,简称SVM)的学习效率,但由于经典GSVM 通常将粒用个别样本替代,且粒划和学习在不同空间进行,因而不可避免地改变了原始数据分布,从而可能导致泛化能力降低.针对这一问题,通过引入动态层次粒划的方法,设计了动态粒度支持向量回归(dynamical granular support vector regression,简称DGSVR)模型.该方法首先将训练样本映射到高维空间,使得在低维样本空间无法直接得到的分布信息显示出来,并在该特征空间中进行初始粒划.然后,通过衡量样本粒与当前回归超平面的距离,找到含有较多回归信息的粒,并通过计算其半径和密度进行深层次的动态粒划.如此循环迭代,直到没有信息粒需要进行深层粒划时为止.最后,通过动态粒划过程得到的不同层次的粒进行回归训练,在有效压缩训练集的同时,尽可能地使含有重要信息的样本在最终训练集中保留下来.在基准函数数据集及UCI 上的回归数据集上的实验结果表明,DGSVR 方法能够以较快的速度完成动态粒划的过程并收敛,在保持较高训练效率的同时可有效提高传统粒度支持向量回归机(granular support vector regression machine,简称GSVR)的泛化性能. 相似文献
19.