首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 58 毫秒
1.
本文提出了一种求解无约束优化问题的修正PRP共轭梯度法.算法采用一个新的公式计算参数,避免了产生较小的步长.在适当的条件下,证明了算法具有下降性质,并且在采用强Wolfe线搜索时,算法是全局收敛的.最后,给出了初步的数值试验结果.  相似文献   

2.
在LS方法基础上,提出了一种新的求解无约束最优化问题的共轭梯度法.新方法通过一个新的公式计算参数,克服了LS方法的数值效果不稳定和收敛性弱的缺点,并且在强Wolfe线搜索下证明了该方法具有充分下降性和全局收敛性.大量的数值试验表明新方法是稳定的、有效的.  相似文献   

3.
在DY共轭梯度法的基础上对解决无约束最优化问题提出一种改进的共轭梯度法.该方法在标准wolfe线搜索下具有充分下降性,且算法全局收敛.数值结果表明了该算法的有效性.最后将算法用于SO2氧化反应动力学模型的非线性参数估计,获得满意效果.  相似文献   

4.
一类修正的DY共轭梯度法及其全局收敛性   总被引:2,自引:0,他引:2  
本文提出了一类求解无约束优化问题的修正DY共轭梯度法.算法采用新的迭代格式,每步迭代都可自行产生一个充分下降方向.采用Wolfe线搜索时,证明了全局收敛性.数值实验结果验证了算法是有效的.  相似文献   

5.
本文通过结合MFR方法与MDY方法,对搜索方向进行调整,提出了一类求解无约束优化问题的修正DY共轭梯度法,该法在每步迭代都能不依赖于任何搜索而自行产生充分下降方向.在适当的条件下,证明了在Armijo搜索下对于非凸的优化问题,本文算法是全局收敛的.数值实验表明本文算法是有效的.  相似文献   

6.
本文基于修正的共轭梯度公式,提出了一个具有充分下降性的共轭梯度算法,该算法不需要线搜索,其步长由固定的公式给出.某种程度上,该算法利用了目标函数的二次信息,对目标函数的(近似)二次模型采取了精确线搜索,每步都只需要计算一次梯度值,特别适合大规模优化计算.本文还给出了该算法的全局收敛性分析,并得到强收敛结果.数值实验表明这种算法是很有应用前景的.  相似文献   

7.
本文对无约束优化问题提出了一种新的非标准共轭梯度算法,该算法的搜索方向类似于曲线搜索算法的方向。证明了新算法的全局收敛性,并通过数值模拟验证了该算法是有效的和快速的。  相似文献   

8.
《软件》2017,(3):93-96
本文基于共轭梯度法的子空间研究,针对无约束优化问题提出了一种改进的无导数共轭梯度法。新算法不仅能有效弥补经典共轭梯度法要求线搜索为精确搜索的局限性,而且可适用于导数信息不易求得甚至完全不可得的问题。实验结果表明:相比于一次多项式插值法、有限差商共轭梯度法以及有限差商拟牛顿法,新算法的效率有很大的提高。  相似文献   

9.
10.
本文在校正的DFP方法基础上,提出了一个新的三项梯度下降算法.该算法能够保证在每一步迭代中具有充分下降性,并在强Wolfe线搜索条件下对一般函数具有全局收敛性.数值试验表明它对给定的问题是非常有效的、稳定的.  相似文献   

11.
§1.引言 共轭梯度法是求解无约束优化问题min f(x)的一类非常重要且有效的方法.当目标函数f(x)连续可做时,其迭代格式为这里 qk=  f(xk),dk是一个搜索方向.当 f(k)为凸二次函数时,适当选择系数 Bk-1,使得dk与dl,d2,…,dk-1关于f(x)的Hesse矩阵共轭。ak是由精确线性搜索确定的步长.共轭梯度法具有二次终止性.然而当目标函数为一般的非线性函数时,即使在精确线性搜索下,各共轭梯度法的收敛性也很难保证.[1,2]证明了 FR方法在精确线性搜索下仍具有全局收敛性.然…  相似文献   

12.
基于共轭和下降性质,提出了一种强迫下降的三项共轭梯度法,证明了算法在Wolfe线搜索下的全局收敛性,并进行了数值比较实验.理论与数值试验结果表明这个算法是一个值得研究的方法.  相似文献   

13.
This paper establishes a spectral conjugate gradient method for solving unconstrained optimization problems, where the conjugate parameter and the spectral parameter satisfy a restrictive relationship. The search direction is sufficient descent without restarts in per-iteration. Moreover, this feature is independent of any line searches. Under the standard Wolfe line searches, the global convergence of the proposed method is proved when |βk|βkFR holds. The preliminary numerical results are presented to show effectiveness of the proposed method.  相似文献   

14.
Conjugate gradient methods are a class of important methods for unconstrained optimization problems, especially when the dimension is large. In this paper, we study a class of modified conjugate gradient methods based on the famous LS conjugate gradient method, which produces a sufficient descent direction at each iteration and converges globally provided that the line search satisfies the strong Wolfe condition. At the same time, a new specific nonlinear conjugate gradient method is constructed. Our numerical results show that the new method is very efficient for the given test problems by comparing with the famous LS method, PRP method and CG-DESCENT method.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号