首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   4篇
工业技术   7篇
  2011年   2篇
  2010年   1篇
  2009年   3篇
  2008年   1篇
排序方式: 共有7条查询结果,搜索用时 15 毫秒
1
1.
为了处理半监督支持向量机优化中的非凸非光滑问题,引入一个多项式光滑函数来逼近非凸的目标函数,给出的多项式函数在样本的高密度区逼近精度高,逼近精度低时出现在样本的低密度区.采用共轭梯度法求解模型.在人工数据和UCI数据库中的4个数据集上的实验结果显示,算法不仅能保证标号数据很少时的分类精度,而且不因标号数据的增多而明显提高分类性能,因此给出的分类器性能是稳定的.  相似文献   
2.
为了求解广义支持向量机(GSVM)的优化问题,将带有不等式约束的原始优化问题转化为无约束优化问题,由于此无约束优化问题的目标函数不光滑,所以引入一族多项式光滑函数进行逼近,实验中可以根据不同的精度要求选择不同的逼近函数。用BFGS算法求解。实验结果表明,该算法和已有的GSVM的求解算法相比,更快地获得了更高的测试精度,更适合大规模数据集的训练。因此给出的GSVM的求解算法是有效的。  相似文献   
3.
刘叶青  刘三阳  谷明涛 《控制与决策》2009,24(12):1895-1898

为了加快并行下降方法(CD)用于线性支持向量机(SVM)时的最终收敛速度,将Rosenbrock算法(R)用于线性SVM.在内循环,R 通过解一个单变量子问题来更新狑的一个分量,并同时固定其他分量不变;在外循环,采用Gram-schmidt过程构建新的搜索方向.实验结果表明,与CD 相比,R 加快了最终的收敛,在分类中能更快地获得更
高的测试精度.

  相似文献   
4.
为了解决当已分类完未标号样本,又有新的未标号样本的半监督学习问题,提出了能用于在线数据分类的半监督最接近支持向量机。在人工数据和UCI数据集上的实验显示,不因标号数据的增多而提高分类性能,未标号数据基本上不降低其分类性能,因此算法可在线使用。  相似文献   
5.
并行下降方法应用于线性支持向量机时效率较低。针对该问题,提出将Powell算法应用于线性支持向量机,并采用一个全局牛顿算法来求解单变量子问题。在内循环过程中,通过解一个单变量子问题更新w的一个分量,同时固定其他的分量不变;在外循环过程中,根据判断条件,决定是否沿加速方向搜索,以及是否用加速方向替代之前的某一个搜索方向。UCI数据集上的实验结果表明,算法能很快收敛,且分类精度优于并行下降算法和光滑支持向量机。  相似文献   
6.
提出了一种改进的支持向量机增量学习算法。分析了新样本加入后,原样本和新样本中哪些样本可能转化为新支持向量。基于分析结论提出了一种改进的学习算法。该算法舍弃了对最终分类无用的样本,并保留了有用的样本。对标准数据集的实验结果表明,该算法在保证分类准确度的同时大大减少了训练时间。  相似文献   
7.
为了加快并行下降方法(CD)用于线性支持向量机(SVM)时的最终收敛速度,将Rosenbrock算法(R)用于线性SVM.在内循环,R 通过解一个单变量子问题来更新狑的一个分量,并同时固定其他分量不变;在外循环,采用Gram-schmidt过程构建新的搜索方向.实验结果表明,与CD 相比,R 加快了最终的收敛,在分类中能更快地获得更高的测试精度.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号