-
考虑如下无约束最优化问题
其中:x为决策变量,目标函数f:
${{\mathbb{R}}^{n}}\to \mathbb{R}$ 是连续可微函数.共轭梯度法是解决上述无约束优化问题的常用方法.由于其迭代简单,储存量低,所以常用于解决大规模优化问题.其基本迭代格式为其中:αk是步长,dk是搜索方向. dk的基本迭代格式为
记g(xk)=∇f(xk),βk为标量,关于βk的计算有多种形式,不同的βk对应着不同的共轭梯度算法.一些著名的βk公式有:
其中:yk-1=gk-gk-1,‖·‖表示Euclid范数.关于这6种著名的共轭梯度法的详细内容可以参考文献[1-7].
本文主要研究一种FR型共轭梯度方法.众所周知FR方法是求解无约束优化问题最有效的方法之一.文献[8]首先证明了FR方法在精确线搜索下对一般非线性函数是全局收敛的,由于精确线搜索代价比较大,所以在实际的计算中人们通常使用非精确线搜索.例如文献[9]首先给出了在非精确线搜索下的非线性共轭梯度算法的全局收敛性结果,并证明了在强Wolfe线搜索下,当
$\sigma < \frac{1}{2}$ 时FR方法满足充分下降性条件,同时全局收敛.文献[10-11]进一步将上面的收敛结果推广到$\sigma = \frac{1}{2}$ 的情形.后来许多学者开始对FR方法产生了兴趣,做出了对FR方法的修正以及变形,得到了比较好的结果.例如文献[12]推广了FR方法,得到了一种修正的FR型共轭梯度方法,其中βk为本文在文献[12]的基础之上,进一步研究FR型方法,提出了另外一种修正的FR型共轭梯度方法,改进的修正FR型公式记为βkXMFR,
其中u>1.在Wolfe线搜索下证明了其全局收敛性.
在证明算法的全局收敛性时,一般采用Wolfe线搜索来计算步长αk,即典型的Wolfe非精确线搜索为:
其中δ和σ是满足0<δ<σ<1的常数.
A Sufficient Descent FR Type Conjugate Gradient Method Under the Wolfe Line Search
-
摘要: 在FR共轭梯度法的基础之上,提出了一种新的共轭梯度法.在标准的Wolfe线搜索下,证明了该算法的充分下降性和收敛性.最后,给出初步的数值实验结果并表明该方法是有效的.Abstract: In this paper, based on the FR conjugate gradient method, a new conjugate gradient method is proposed. Under the standard Wolfe line search, the sufficient descent property and the global convergence are proved. Finally, preliminary numerical results are reported, which show that the proposed method is valid.
-
表 1 3种算法测试实验结果
测试函数 Dim/
维FR/次 MFR/次 XMFR/次 NI NF NG NI NF NG NI NF NG Almost Perturbed Quadratic 200 215 430 1 078 215 430 1 078 170 340 853 ARWHEAD 100 75 150 378 75 150 378 78 156 393 Diagonal 1 20 42 84 213 42 84 213 41 82 208 Diagonal 2 200 81 162 408 120 240 603 89 178 448 Diagonal 3 20 64 128 323 64 128 323 63 126 318 Diagonal 4 100 156 312 783 156 312 783 101 202 508 Diagonal 4 200 148 296 743 148 296 743 101 202 508 Diagonal 4 1000 157 314 788 157 314 788 103 206 518 Diagonal 7 100 32 64 163 32 64 163 32 64 163 Diagonal 8 100 34 68 173 34 68 173 34 68 173 DQDRTRIC 100 186 372 933 186 372 933 90 180 453 FULL Hessian FH2 50 1118 2 236 5 593 1 103 2 206 5 518 968 1936 4843 Hager 100 31 62 158 31 62 158 36 72 183 HIMMELBG 100 4 8 23 4 8 23 4 8 23 LIARWHD 100 171 342 858 171 342 858 181 362 908 NONDIA 100 280 560 1 403 280 560 1 403 229 458 1148 Quadratic QF1 100 148 296 743 148 296 743 115 230 578 QUARTC 100 4 8 23 4 8 23 4 8 23 Raydan 1 100 13 26 68 13 26 68 13 26 68 Raydan 1 300 93 186 468 93 186 468 93 186 468 Raydan 2 100 5 10 28 5 10 28 5 10 28 Raydan 2 300 6 12 33 6 12 33 6 12 33 -
[1] FLETCHER R, REEVES C M. Function Minimization by Conjugate Gradients [J]. The Computer Journal, 1964, 7(2): 149-154. doi: 10.1093/comjnl/7.2.149 [2] POLYAK B T. The Conjugate Gradient Method in Extremal Problems [J]. Ussr Computational Mathematics and Mathematical Physics, 1969, 9(4): 94-112. doi: 10.1016/0041-5553(69)90035-4 [3] doi: https://eudml.org/doc/193115 POLAK E, RIBIÉRE G. Note Surla Convergence de Méthodes de Directions Conjuguées. [J]. Rev. franaise Informat. recherche Opérationnelle, 1968, 16(16): 35-43. [4] HESTENES M R, STIEFEL E L. Methods of Conjugate Gradients for Solving Linear Systems [J]. Journal of Research of the National Bureau of Standards, 1952, 49(6): 409-436. doi: 10.6028/jres.049.044 [5] LIU Y, STOREY C. Efficient Generalized Conjugate Gradient Algorithms, Part 1: Theory [J]. Journal of Optimization Theory and Applications, 1991, 69(1): 129-137. doi: 10.1007/BF00940464 [6] DAI Y H, YUAN Y. A Nonlinear Conjugate Gradient Method with a Strong Global Convergence Property [J]. Siam Journal on Optimization, 1999, 10(1): 177-182. doi: 10.1137/S1052623497318992 [7] FLETCHER R.Practical Methods of Optimization, Vol Ⅰ: Unconstrained Optimization [M]. New York: Wiley and Sons, 1987. [8] doi: http://www.oalib.com/references/13789575 ZOUTENDIJK G. Nonlinear Programming, Computational Methods [J]. Integer and Nonlinear Programming, 1970. [9] AL-BAALI M. Descent Property and Global Convergence of the Fletcher-Reeves Method with Inexact Line Search [C]. IMA Journal of Numerical Analysis. 2010: 121-124. [10] DAI Y H, YUAN Y. A Nonlinear Conjugate Gradient Method with a Strong Global Convergence Property [J]. Siam Journal on Optimization, 1999, 10(1): 177-182. doi: 10.1137/S1052623497318992 [11] LIU G, HAN J, YIN H. Global Convergence of the Fletcher-Reeves Algorithm with Inexact Line Search [J]. APPL Math J China Univ, 1995, 10(1): 75-82. doi: 10.1007/BF02663897 [12] doi: https://link.springer.com/article/10.1007/s11071-012-0694-6 JIANG X Z, JIAN J B. A Sufficient Descent Dai-Yuan Type Nonlinear Conjugate Gradient Method for Unconstrained Optimization Problems [J]. Nonlinear Dynamics, 2013, 72(72): 101-112. [13] 戴彧虹.非线性共轭梯度法[M].上海:上海科学技术出版社, 2000. [14] doi: http://www.doc88.com/p-999213967147.html ANDREI N. An Unconstrained Optimization Test Functions Collection [J]. Adv Model Optim, 2008, 10(1): 147-161.
计量
- 文章访问数: 677
- HTML全文浏览数: 376
- PDF下载数: 14
- 施引文献: 0