Message Board

Dear readers, authors and reviewers,you can add a message on this page. We will reply to you as soon as possible!

2022 Volume 47 Issue 1
Article Contents

ZHENG Zongjian, HAN Xin. A New Hybrid Conjugate Gradient Method with Sufficient Descent Property[J]. Journal of Southwest China Normal University(Natural Science Edition), 2022, 47(1): 1-7. doi: 10.13718/j.cnki.xsxb.2022.01.001
Citation: ZHENG Zongjian, HAN Xin. A New Hybrid Conjugate Gradient Method with Sufficient Descent Property[J]. Journal of Southwest China Normal University(Natural Science Edition), 2022, 47(1): 1-7. doi: 10.13718/j.cnki.xsxb.2022.01.001

A New Hybrid Conjugate Gradient Method with Sufficient Descent Property

More Information
  • Corresponding author: HAN Xin
  • Received Date: 08/03/2020
    Available Online: 20/01/2022
  • MSC: O224

  • In this paper, a new hybrid conjugate gradient algorithm has been developed for solving unconstrained optimization problems. The proposed method can be viewed as a convex combination of Polak-Ribière-Polyak method and Fletcher-Reeves method. In this method, a sufficient descent direction can always be generated, with its convex combination parameter as an extension of the parameter proposed by Babaie-Kafaki and Ghanbari. Under the Wolfe line search, the global convergence has been established. Some numerical results show that proposed method is effective.
  • 加载中
  • [1] 唐天国. 一种求解无约束优化问题的新混合共轭梯度法[J]. 西南师范大学学报(自然科学版), 2019, 44(9): 34-39.

    Google Scholar

    [2] HESTENES M R, STIEFEL E. Methods of Conjugate Gradients for Solving Linear Systems[J]. Journal of Research of the National Bureau of Standards, 1952, 49(6): 409-436. doi: 10.6028/jres.049.044

    CrossRef Google Scholar

    [3] POLAK E, RIBIERE G. Note Sur La Convergence de Méthodes de Directions Conjuguées[J]. Revue Française d'Informatique et De Recherche Opérationnelle Série Rouge, 1969, 3(16): 35-43.

    Google Scholar

    [4] POLYAK B T. The Conjugate Gradient Method in Extremal Problems[J]. USSR Computational Mathematics and Mathematical Physics, 1969, 9(4): 94-112. doi: 10.1016/0041-5553(69)90035-4

    CrossRef Google Scholar

    [5] DAI Y H, YUAN Y. A Nonlinear Conjugate Gradient Method with a Strong Global Convergence Property[J]. SIAM Journal on Optimization, 1999, 10(1): 177-182. doi: 10.1137/S1052623497318992

    CrossRef Google Scholar

    [6] LIU Y, STOREY C. Efficient Generalized Conjugate Gradient Algorithms, Part 1: Theory[J]. Journal of Optimization Theory and Applications, 1991, 69(1): 129-137. doi: 10.1007/BF00940464

    CrossRef Google Scholar

    [7] FLETCHER R, REEVES C M. Function Minimization by Conjugate Gradients[J]. The Computer Journal, 1964, 7(2): 149-154. doi: 10.1093/comjnl/7.2.149

    CrossRef Google Scholar

    [8] FLETCHER R. Practical Method of Optimization, Unconstrained Optimization[M]. New York: John Wiley and Sons, 1987.

    Google Scholar

    [9] SHENGWEI Y, WEI Z X, HUANG H. A Note about WYL's Conjugate Gradient Method and Its Applications[J]. Applied Mathematics and Computation, 2007, 191(2): 381-388. doi: 10.1016/j.amc.2007.02.094

    CrossRef Google Scholar

    [10] DAI Z F, WEN F H. Another Improved Wei-Yao-Liu Nonlinear Conjugate Gradient Method with Sufficient Descent Property[J]. Applied Mathematics and Computation, 2012, 218(14): 7421-7430. doi: 10.1016/j.amc.2011.12.091

    CrossRef Google Scholar

    [11] 韩信, 张俊容, 王森森. 一种新的混合共轭梯度算法[J]. 西南大学学报(自然科学版), 2017, 39(5): 132-138.

    Google Scholar

    [12] LIU J K, DU X L. Global Convergence of an Efficient Hybrid Conjugate Gradient Method for Unconstrained Optimization [J]. Bulletin of the Korean Mathematical Society, 2013, 50(1): 73-81. doi: 10.4134/BKMS.2013.50.1.073

    CrossRef Google Scholar

    [13] ANDREI N. Hybrid Conjugate Gradient Algorithm for Unconstrained Optimization[J]. Journal of Optimization Theory and Applications, 2009, 141(2): 249-264. doi: 10.1007/s10957-008-9505-0

    CrossRef Google Scholar

    [14] BABAIE-KAFAKI S, GHANBARI R. A Hybridization of the Polak-Ribière-Polyak and Fletcher-Reeves Conjugate Gradient Methods[J]. Numerical Algorithms, 2015, 68(3): 481-495. doi: 10.1007/s11075-014-9856-6

    CrossRef Google Scholar

    [15] ZHANG L, ZHOU W J, LI D H. A Descent Modified Polak-Ribière-Polyak Conjugate Gradient Method and Its Global Convergence[J]. IMA Journal of Numerical Analysis, 2006, 26(4): 629-640. doi: 10.1093/imanum/drl016

    CrossRef Google Scholar

    [16] NARUSHIMA Y, YABE H, FORD J A. A Three-Term Conjugate Gradient Method with Sufficient Descent Property for Unconstrained Optimization[J]. SIAM Journal on Optimization, 2011, 21(1): 212-230. doi: 10.1137/080743573

    CrossRef Google Scholar

    [17] ZOUTENDIJK G. Nonlinear Programming, Computational Methods[J]. Integer and Nonlinear Programming, 1970, 143: 37-86.

    Google Scholar

    [18] GILBERT J C, NOCEDAL J. Global Convergence Properties of Conjugate Gradient Methods for Optimization[J]. SIAM Journal on Optimization, 1992, 2(1): 21-42. doi: 10.1137/0802003

    CrossRef Google Scholar

    [19] ANDREI N. An Unconstrained Optimization Test Functions Collection[J]. Environmental Science and Technology, 2008, 10(1): 6552-6558.

    Google Scholar

    [20] DOLAN E D, MORÉ J J. Benchmarking Optimization Software with Performance Profiles[J]. Mathematical Programming, 2002, 91(2): 201-213. doi: 10.1007/s101070100263

    CrossRef Google Scholar

  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(2)  /  Tables(1)

Article Metrics

Article views(862) PDF downloads(354) Cited by(0)

Access History

Other Articles By Authors

A New Hybrid Conjugate Gradient Method with Sufficient Descent Property

    Corresponding author: HAN Xin

Abstract: In this paper, a new hybrid conjugate gradient algorithm has been developed for solving unconstrained optimization problems. The proposed method can be viewed as a convex combination of Polak-Ribière-Polyak method and Fletcher-Reeves method. In this method, a sufficient descent direction can always be generated, with its convex combination parameter as an extension of the parameter proposed by Babaie-Kafaki and Ghanbari. Under the Wolfe line search, the global convergence has been established. Some numerical results show that proposed method is effective.

  • 本文考虑下面的无约束优化问题:

    这里f${\mathbb{R}^n} \to \mathbb{R}$是一个光滑函数,$\mathbb{R}^n$表示n维欧氏空间,函数f的梯度记为g(x):=▽f(x). 在实际求解大规模无约束优化问题中,建立一些具有低存储的快速数值算法是十分重要的. 共轭梯度法是求解大型无约束优化问题(1)的一类十分有效的方法[1],其通常的迭代形式如下

    这里xk$\mathbb{R}^n$是一个解的第k次逼近,αk > 0是由一种合适的线搜索所确定的步长,dk$\mathbb{R}^n$是搜索方向,其定义如下

    其中:gk表示梯度g(xk),βk$\mathbb{R}$为共轭参数. 步长αk由标准的Wolfe线搜索

    或者强Wolfe线搜索

    确定,其中0 < δ < σ < 1. 不同的共轭梯度法对应不同的共轭参数βk. 众所周知的共轭梯度法包括Hestenes-Stiefel(HS)[2],Polak-Ribière-Polyak(PRP)[3-4],Dai-Yuan(DY)[5],Liu-Storey(LS)[6],Fletcher-Reeves(FR)[7]和Conjugate-Descent(CD)[8],它们所对应的共轭参数如下

    其中yk-1:=gkgk-1且||·||表示欧氏范数. 目标函数是一个严格凸二次函数并且步长由精确线搜索得到,且在一般情形下,它们的理论性质和数值表现不尽相同. 众所周知,DY法、CD法和FR法具有良好的收敛性质,但它们的数值计算效果一般;相反,PRP法、HS法和LS法具备出色的数值表现,但它们可能不收敛. 为了获得收敛性数值效果的算法,不少学者对共轭参数自身作了一些改进[9-10]和一些混合[11-12]. 本文主要考虑共轭梯度法的混合形式. 文献[13]通过对PRP法和DY法进行凸组合,得到一种新的共轭梯度法,其共轭参数如下

    其中参数θk∈[0, 1]由共轭条件$\boldsymbol{y}_{k-1}^{\mathrm{T}} \boldsymbol{d}_{k}=0$确定. 最近,文献[14]对PRP法和FR法进行凸组合,引进了一种混合共轭梯度法:

    这里参数θk∈[0, 1]根据求解优化问题$\mathop {\min }\limits_{_{{\theta _k}}}\left\{\left\|\boldsymbol{d}_{k}^{H C G}-\boldsymbol{d}_{k}^{Z Z L}\right\|^{2}: k \geqslant 1\right\}$得到. 在标准的Wolfe线搜索条件下,该算法具有全局收敛性和良好的计算表现.

    受文献[14]的启发,本文构造了一种新的混合共轭梯度法

    这里

    其中

    为优化问题$\mathop {\min }\limits_{_{{\theta _k}}}\left\{\left\|\boldsymbol{d}_{k}^{\mathrm{NH}+}-\boldsymbol{d}_{k}^{\mathrm{NYF}}\right\|^{2}: k \geqslant 1\right\}$的最优解. 基于共轭参数βkNH+所得相应的共轭梯度法称作NH+算法或NH+法. 因为文献[15]提出的ZZL法是文献[16]提出的NYF法特殊情况. 因此,文献[14]提出的方法是NH+法的特殊情况(当pk=gk即为文献[14]中的方法).

1.   NH+型共轭梯度算法
  • 基于共轭参数βkNH+的计算公式(5),所得的NH+算法如下:

    NH+算法

    步骤1:给定初始点x1和精度ε. 置k=1,令d1=-g1.

    步骤2:若||gk||≤ε,终止. 否则,转步骤3.

    步骤3:通过(3)式计算搜索方向dk.

    步骤4:由标准的Wolfe线搜索(4)确定步长因子αk.

    步骤5:由(2)式计算下一个迭代点xk+1.

    步骤6:令k:=k+1,转步骤2.

2.   算法NH+的全局收敛性分析
  • 为了论证算法NH+的收敛性,给出了如下的基本假设.

    假设1    水平集S={xf(x)≤f(x0)}有界,即存在$\tilde a$ > 0,对于任意xS,有‖x‖≤ $\tilde a$.

    目标函数的梯度函数在S的某邻域U内Lipschitz连续,即存在常数L > 0,对任意xyU,有‖g(x)-g(y)‖≤Lxy‖.

    由假设可知存在常数γ > 0,对任意xS,有

    以Zoutendijk条件为基础给出如下引理1. 这个引理在论证共轭梯度算法的全局收敛性过程中具有重要的作用.

    引理1    假设1成立,算法NH+的搜索方向是下降的,步长满足标准Wolfe线搜索条件,则Zoutendijk条件即$\sum_{k=0}^{\infty} \frac{\left(\boldsymbol{g}_{k}^{\mathrm{T}} \boldsymbol{d}_{k}\right)^{2}}{\left\|\boldsymbol{d}_{k}\right\|^{2}}<\infty$成立.

       由标准Wolfe线搜索条件(4),知

    另一方面,由假设1和(2)式,有

    再结合算法NH+的下降性,得

    进一步由(4)式知

    对(7)式从k=1,2,…,∞求和,并注意目标函数f(x)有下界,即知Zoutendijk条件成立. 因此,结论得证.

    下面的引理是论证算法NH+全局收敛性的关键. 这个引理的具体论证过程可参见文献[17].

    引理2[17]   假设1、充分下降性、标准Wolfe线搜索条件均成立. 若$\sum_{k=0}^{\infty} \frac{1}{\left\|\boldsymbol{d}_{k}\right\|^{2}}=\infty$,则$\mathop {\lim \inf }\limits_{k \to \infty } \left\|\mathit{\boldsymbol{g}}_{k}\right\|=0$.

       通常利用的是引理2的逆否命题,即若$\mathop {\lim \inf }\limits_{k \to \infty }\left\|\mathit{\boldsymbol{g}}_{k}\right\| \neq 0$,则$\sum_{k=0}^{\infty} \frac{1}{\left\|\boldsymbol{d}_{k}\right\|^{2}}<\infty$. 对于共轭梯度算法,文献[18]给出了性质(*),当sk:=xk+1xk变小时,βk也将变小.

    性质(*)[18]    对于共轭梯度算法,若任意k≥0,都有0 < γ ≤ ‖gk‖. 而且,若常数b > 1,λ > 0,使得|βk|≤b$\left\|\mathit{\boldsymbol{s}}_{k}\right\| \leqslant \lambda \Rightarrow\left|\beta_{k}\right| \leqslant \frac{1}{2 b}$都成立,就称算法具有性质(*).

    接下来,假设全局收敛性不在有限步发生.

    引理3    若假设1、充分下降性、标准Wolfe线搜索条件均成立. 如果性质(*)成立,则dk≠0且$\sum_{k=1}^{\infty}\left\|\boldsymbol{u}_{k}-\boldsymbol{u}_{k-1}\right\|^{2}<\infty$,其中$\boldsymbol{u}_{k}:=\frac{\boldsymbol{d}_{k}}{\left\|\boldsymbol{d}_{k}\right\|}$.

       由dk≠0,gk≠0及充分下降性知,uk的定义有意义.

    现定义$\boldsymbol{\rho}_{k}:=\frac{-\boldsymbol{g}_{k}}{\left\|\boldsymbol{d}_{k}\right\|}$和以下式子

    由(3)式和(5)式,对任意k≥1,有

    基于‖uk‖=‖uk-1‖=1和(9)式,得

    由于βkNH+≥0,则(8)式中的ωk≥0. 此外,利用三角不等性和(10)式,可得

    由Zoutendijk条件、充分下降条件和(8)式知

    利用性质(*)、(11)式和(12)式,有$\sum_{k=1}^{\infty}\left\|\boldsymbol{u}_{k}-\boldsymbol{u}_{k-1}\right\|^{2} \leqslant 4 \sum_{k=1}^{\infty}\left\|\boldsymbol{\rho}_{k}\right\|^{2}<\infty$,结论得证.

    现令${\mathbb{N}_ + }$为非零自然数集. 给定正常数λ和正整数Δ,定义

    其中|KkΔλ|表示KkΔλ的元素个数.

    引理4    若引理3的所有假设条件都成立. 算法NH+满足性质(*),则存在常数λk0,对任意Δ${\mathbb{N}_ + }$$\tilde k$k0,使得

       利用反证法论证. 假设存在Δ${\mathbb{N}_ + }$和常数k0,对任意正常数λ和任意kk0,有

    b > 1和η > 0是性质(*)中的常数. 令λ=η,由性质(*)和(13)式,有

    因此

    对任意i≥1,k0lk0+,存在i′,使得

    再由b > 1和(14)式得

    其中c1=(2b2)Δ+1.

    通过性质(*)、(6)式、(15)式和(16)式,有

    其中c2=‖dk0‖. 所以,$\sum_{k=0}^{\infty} \frac{1}{\left\|\boldsymbol{d}_{k}\right\|^{2}} \geqslant \sum_{i=1}^{\infty} \frac{1}{\left\|\boldsymbol{d}_{k_{0}+i \mathit{\Delta}}\right\|^{2}} \geqslant \sum_{i=1}^{\infty} \frac{1}{2 \overline{\gamma^{2}}+2 b^{2} c_{1}(i \mathit{\Delta}-1)+c_{2}}=\infty$.

    由引理2知$\mathop {\lim \inf}\limits_{k \to \infty } \left\|\mathit{\boldsymbol{g}}_{k}\right\|=0$,这与假设矛盾. 因此,原结论成立.

    结合引理3和4,利用文献[14]的论证方法易得下面的定理1. 限于篇幅,这里略去证明过程.

    定理1    若假设1和标准Wolfe线搜索都成立. 如果算法NH+满足下面3个性质:

    (p1) 对任意k≥1,有βkNH+≥0;

    (p2) 充分下降性和Zoutendijk条件均满足;

    (p3) 性质(*)成立,而且存在正常数M,使得θkMsk-1‖.

    则算法NH+全局收敛.

3.   数值实验
  • 为了比较算法NH+与算法NYF[16]、算法HCG+[14]、算法PRP+[18],对文献[19]中的63个测试函数进行实验. 4种算法均利用Matlab程序实现,且在Windows 7操作系统、AMD Athlon(tm) Ⅱ Dual-Core M320 CPU和2 GB内存环境测试运行. 常数σ=0.95,δ=0.000 1. 令pk=gk. 终止准则为‖gk‖≤10-6或迭代时间超过3 600 s. 部分数值结果见表 1. 所有数值实验具体结果请参见链接https://weibo.com/2145331053/IsvzxrnEi?from=page_1005052145331053_profile&wvr=6&mod=weibotime&type=comment.

    此外,利用文献[20]提出的性能理论刻画算法的计算效率和稳定性. 为此,以迭代时间、迭代次数为度量,纵轴为性能指标Ps(t),描绘出下面的性能图(图 1图 2). 实验结果表明:NYF和PRP+在1.8 s前收敛速度都比NH+稍慢,之后都与NH+接近,并都达到稳定;HCG+比其他3种算法的收敛速度都慢;NH+一直快于其他3种算法,最终与PRP+同时稳定. 原因可能是NH+法充分利用了PRP和NYF的加速特性以及FR的良好收敛性. 因此,NH+是一个有效的算法.

Figure (2)  Table (1) Reference (20)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return