共查询到17条相似文献,搜索用时 203 毫秒
1.
2.
基于类向心度的模糊支持向量机 总被引:1,自引:0,他引:1
传统支持向量机(SVM)训练含有噪声或野值点的数据时,容易产生过拟合,而模糊支持向量机可以有效地处理这种问题。针对使用样本与类中心之间的距离关系来构建模糊支持向量机隶属度函数的不足,提出了一种基于类向心度的模糊支持向量机(CCD FSVM)。该方法不仅考虑到样本与类中心之间的关系,还考虑到类中各个样本之间的联系,并用类向心度来表示。将类向心度应用于模糊隶属度函数的设计,能够很好地将有效样本与噪声、野值点样本区分开来,而且可以通过向心度的大小,对混合度比较高的样本进行区分,从而达到提高分类精度的效果。实验结果表明,基于类向心度的模糊支持向量机其分类正确率比支持向量机高,在使用三种不同隶属度函数的FSVM中,该方法的抗噪性能最好,分类性能最强。 相似文献
3.
4.
针对当前模糊支持向量机(FSVM)一般使用特征空间样本与类中心之间的距离构建隶属度函数的不足,提出了一种计算FSVM的隶属度的新方法。首次使用基于正态分布概率的π型隶属度函数来计算隶属度,根据正态分布的特性,在考虑数据分布规律的同时求得数据点的隶属值,使得求得的数据能够更加准确地反应数据的特点,进而获得更好的分类函数。实验表明,这种方法较SVM和FSVM相比,降低了噪声数据的影响,并且有效地提高了分类的准确率。 相似文献
5.
6.
7.
基于类中心设计隶属度函数的模糊支持向量机能有效地解决支持向量机对噪声或孤立点敏感度高的问题,但是,由于它对支持向量赋予较小的隶属度,从而降低了其分类作用。基于此,提出一种新的隶属度函数设计方法;同时,针对模糊支持向量机普遍存在因核函数计算量大,而导致训练时间长的问题,通过使用一种高效的截集模糊C-均值聚类方法对训练样本进行聚类,然后以聚类中心作为样本进行训练,以减少训练样本来提高训练速度。根据上述新的隶属度函数设计方法和截集模糊C-均值聚类方法,构建了一种基于截集模糊C-均值聚类并改进了隶属度函数的模糊支持向量机,数值试验表明这种新的模糊支持向量机有效地提高了训练速度和分类精度。 相似文献
8.
9.
10.
针对传统支持向量机(SVM)对噪声点过于敏感,模糊支持向量机(FSVM)又对样本集几何形状过分依赖等问题,提出基于噪声过滤系统的粗糙支持向量机(NFS-RSVM)。该方法首先用噪声过滤系统(NFS)将极可能为噪声点的样本过滤掉;然后将数据间隐含的等价类信息作为双惩戒因子融入到支持向量机模型中,进一步区分有效样本和噪声样本。基于UCI数据集的仿真结果表明,NFS-RSVM方法能有效地将数据中的大部分噪声点去除,与传统的SVM和FSVM相比分类精度有一定程度的提高。因此,该方法在处理噪声样本较多又呈现非球形分布的数据集时,表现出较好的抗噪性、分类效果和泛化能力。 相似文献
11.
模糊支持向量机在路面识别中的应用 总被引:1,自引:0,他引:1
利用模糊支持向量机进行路面不平度识别。针对支持向量机对样本中的噪声点和野值点特别敏感的缺点,采用将样本到类中心的距离作为样本的模糊隶属度,并结合改进的粒子群算法对模糊支持向量机的参数进行优化。通过对实验数据的训练和测试,该方法的最高平均识别率提高到了77.5%,高于一般支持向量机的72.5%的识别率。数据处理表明模糊隶属度的引入强化了有效样本对分类的影响,减弱了噪声点和野值点对分类的影响,提高了路面不平度识别率。 相似文献
12.
13.
14.
为了提高模糊支持向量机在大数据集上的训练效率,提出一种基于两阶段聚类的模糊支持向量机算法。第1阶段为粗粒度聚类阶段,在每类训练样本上执行密度聚类算法,设置较大的邻域半径(给定邻域内最小点数),保证可能成为支持向量的样本点都被选取;第2阶段为自适应聚类阶段,在粗选的数据集合上,执行自适应密度聚类算法,根据各个点距离分类面的远近,自适应决定该点的邻域半径(给定邻域内最小点数)。这样可有效地减少远离分类面的聚类边缘点的数量,同时在分类面附近保持较多的样本点,试验结果表明,基于两阶段聚类模糊支持向量机算法,相比以往的方法,不仅提高了模糊支持向量机的训练效率,同时保持了较好的分类效果。 相似文献
15.
基于模糊支持向量机的步态识别 总被引:2,自引:0,他引:2
提出基于模糊支持向量机(FSVM)的步态识别方法,以人体步态的宽度向量作为特征,探讨直接取值法和模糊C均值2种模糊隶属度确定方法对FSVM步态分类效果的影响。实验结果表明,模糊C均值法的识别率均略好于SVM,直接取值法的识别率甚至低于SVM,因此,选取正确的模糊隶属度确定方法是FSVM能否成功应用于步态识别的关键。 相似文献
16.
Wan Mei Tang 《Neural Processing Letters》2011,34(3):209-219
In dealing with the Two-Class classification problems, the traditional support vector machine (SVM) often cannot achieve good
classification accuracy when outliers exist in the training data set. The fuzzy support vector machine (FSVM) can resolve
this problem with an appropriate fuzzy membership for each data point. The effect of the outliers can be effectively reduced
when the classification problem is solved. In this paper, a new fuzzy membership function is employed in the linear and nonlinear
fuzzy support vector machine respectively. The fuzzy membership is calculated based on the structural information of two classes
in the input space and in the feature space. This method can distinguish the support vectors and the outliers effectively.
Experimental results show that this approach contributes greatly to the reduction of the effect of the outliers and significantly
improves the classification accuracy and generalization. 相似文献
17.
由于SVM(Support Vector Machine)在有离群点和不平衡数据的问题中分类性能相对较低,有研究者提出了一种面向不均衡分类的隶属度加权模糊支持向量机,只是文中的模糊隶属度并不能较好衡量样本点对确定最佳分划超平面所做的贡献大小。针对以上问题提出了密度峰(Density Peaks,DP)聚类的可信性加权模糊支持向量机。首先由DP聚类找到离群点后剔除。再根据点到由DEC(Different Error Costs)确定的超平面的距离,得到初始隶属度,并用改进的FSVM-CIL(Fuzzy Support Vector Machines for Class Imbalance Learning)更新隶属度。之后剔除部分样本点,起到简约样本的作用,并减少数据不平衡带来的影响。通过实验验证了所提出算法的有效性。 相似文献