排序方式: 共有45条查询结果,搜索用时 15 毫秒
1.
参数选择是支持向量分类、回归分析的关键问题之一,在大训练样本条件下,大范围遍历搜索极为耗时.将均匀设计(UD)分别与自调用支持向量回归(SVR)、偏最小二乘回归(PLR)结合,提出了两种将大样本搜索转化为小样本搜索的策略UD-SVR和LID-PLR:在默认搜索范围内由均匀设计产生部分参数组合,每组合对训练集经交叉测试得评价指标(对分类为准确率,对回归为均方误差);以评价指标为目标函数,对部分参数组合形成的小样本,UD-SVR自调用支持向量回归以留一法进行大范围搜索建模,UD-PLR以PLR直接建模,并预测默认范围内所有参数组合;取预测评价指标最优的对应参数组合训练大样本,完成独立预测.对8个基准分类教据集、8个回归数据集的独立预测表明,两种新方法在保证预测精度的同时,大幅度缩短了训练建模时间,为大样本支持向量机参数选择提供了新的有效解决方案,UD-SVR比UD-PLR更具鲁棒性. 相似文献
2.
一般化最小包含球的大样本快速学习方法 总被引:1,自引:0,他引:1
标准最小包含球(Minimum enclosing ball, MEB)模型的对偶问题可视为MEB问题并能够利用核心集向量机(Core vector machine, CVM)实现大样本的快速训练,但对于一般化MEB模型,对偶问题中的不等式约束发生了变化而不能视为MEB问题, 不能方便地使用CVM来解决大样本的快速训练.为此,提出了一般化MEB快速学习方法(Fast learning of generalized MEB, FL-GMEB),首先放松对偶问题中的不等式约束条件,使其等价于中心约束的MEB问题,从而利用CVM获得其核心集(Core set, CS);然后利用局部线性嵌入(Locally linear embedding, LLE)的逆思想将CS扩充为拓展核心集(Extended core set, ECS);最后将ECS及其对应的优化权作为一般化MEB模型的逼近解. UCI和USPS数据集上的实验结果表明, FL-GMEB在大样本快速训练方面具有较好的性能优势. 相似文献
3.
《Planning》2020,(2):172-178
传统的KNN算法在大样本的情况下对试验样本有较强的一致性结果.但该算法每一次都是在样本全局的基础上进行归类计算,这在很大程度上消耗了空间,增大了算法空间复杂度;且算法在样本分类不平衡时,预测偏差相对偏高.针对这些问题,提出了基于交叉验证和距离加权的改进KNN算法(Weighted cross-validation KNN,简称WCKNN),经过实验验证,本算法有效减小了算法的空间复杂度;同时,也获得了更好的分类性能. 相似文献
4.
顺序统计量在可靠性评估和寿命预测中有广泛的应用.目前,样本容量较小时的顺序统计量均值、方差和协方差的数值计算已得到很好的解决,但是,由于计算精度问题,样本容量较大时的顺序统计量均值、方差和协方差的数值计算尚未得到完全解决.对此,文中首先从理论上推导出特殊情况下极值分布顺序统计量均值和方差计算的解析表达式,以及正态分布顺序统计量均值、方差和协方差的简化计算公式,为数值计算结果提供验证依据.然后,通过大量数值计算与验证表明,目前微机的运算速度与精度已经可以实现大样本顺序统计量均值、方差和协方差的高精度计算.文中还给出部分顺序统计量数字特征的积分计算与验证结果. 相似文献
5.
针对现有的Sync算法具有较高时间复杂度,在处理大样本数据集时有相当的局限性,提出了一种快速大样本同步聚类算法(Fast Clustering by Synchronization on Large Sample,FCSLS)。首先将基于核密度估计(KDE)的抽样方法对大样本数据进行抽样压缩,再在压缩集上进行同步聚类,通过Davies-Bouldin指标自动寻优到最佳聚类数,最后,对剩下的大规模数据进行聚类,得到最终聚类结果。通过在人造数据集以及UCI真实数据集上的实验,FCSLS可以在大规模数据集上得到任意形状、密度、大小的聚类且不需要预设聚类数。同时与基于压缩集密度估计和中心约束最小包含球技术的快速压缩方法相比,FCSLS在不损失聚类精度的情况下,极大地缩短了同步聚类算法的运行时间。 相似文献
6.
奉国和 《计算机工程与应用》2009,45(23):15-17
针对大样本支持向量机内存开销大、训练速度慢的缺点,提出了一种改进的支持向量机算法。算法先利用KNN方法找出可能支持向量,然后利用SVM在可能支持向量集上训练得到分类器。实验表明改进算法训练速度提高明显。 相似文献
7.
8.
9.
10.