首页 | 官方网站   微博 | 高级检索  
     

非光滑凸问题投影型对偶平均优化方法的个体收敛性
引用本文:曲军谊,鲍蕾,陶卿.非光滑凸问题投影型对偶平均优化方法的个体收敛性[J].模式识别与人工智能,2021,34(1):25-32.
作者姓名:曲军谊  鲍蕾  陶卿
作者单位:1.中国人民解放军陆军炮兵防空兵学院 信息工程系 合肥 230031
基金项目:国家自然科学基金项目(No.61673394,620706252);安徽省自然科学基金项目(No.1908085MF193)资助。
摘    要:对于一般凸问题,对偶平均方法的收敛性分析需要在对偶空间进行转换,难以得到个体收敛性结果.对此,文中首先给出对偶平均方法的简单收敛性分析,证明对偶平均方法具有与梯度下降法相同的最优个体收敛速率Ο(lnt/t).不同于梯度下降法,讨论2种典型的步长策略,验证对偶平均方法在个体收敛分析中具有步长策略灵活的特性.进一步,将个体收敛结果推广至随机形式,确保对偶平均方法可有效处理大规模机器学习问题.最后,在L1范数约束的hinge损失问题上验证理论分析的正确性.

关 键 词:对偶平均  个体收敛速率  稀疏性  非光滑  
收稿时间:2020-08-17

Individual Convergence of Projected Dual Averaging Methods in Nonsmooth Convex Cases
QU Junyi,BAO Lei,TAO Qing.Individual Convergence of Projected Dual Averaging Methods in Nonsmooth Convex Cases[J].Pattern Recognition and Artificial Intelligence,2021,34(1):25-32.
Authors:QU Junyi  BAO Lei  TAO Qing
Affiliation:1. Department of Information Engineering, Chinese Academy of People′s Liberation Army Artillery Air Defense Academy,Hefei 230031
Abstract:For convex problems,since the convergence analysis of DA(dual averaging)needs to be transformed in dual space,it is difficult to gain individual convergence.In this paper,a simple convergence analysis of DA is presented,and then it is proved that DA can attain the same optimalΟ(ln t√t)individual convergence rate as gradient descent(GD).Different from GD,the individual convergence of DA is proved to be step-size flexible by analyzing two typical step-size strategies.Furthermore,the stochastic version of the derived convergence is extended to solve large-scale machine learning problems.Experiments on L1-norm constrained hinge loss problems verify the correctness of the theoretical analysis.
Keywords:Dual Averaging  Individual Convergence Rate  Sparsity  Nonsmooth
本文献已被 维普 等数据库收录!
点击此处可从《模式识别与人工智能》浏览原始摘要信息
点击此处可从《模式识别与人工智能》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号