留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

修正 LS 共轭梯度方法及其收敛性

上一篇

下一篇

赛?闹尔再,张慧玲. 修正 LS 共轭梯度方法及其收敛性[J]. 西南师范大学学报(自然科学版), 2016, 41(7). doi: 10.13718/j.cnki.xsxb.2016.07.004
引用本文: 赛?闹尔再,张慧玲. 修正 LS 共轭梯度方法及其收敛性[J]. 西南师范大学学报(自然科学版), 2016, 41(7). doi: 10.13718/j.cnki.xsxb.2016.07.004
SAI Nao Erzai,ZHANG Hui-ling. On Modified LS Conjugate Gradient Method with Its Global Convergence[J]. Journal of Southwest China Normal University(Natural Science Edition), 2016, 41(7). doi: 10.13718/j.cnki.xsxb.2016.07.004
Citation: SAI Nao Erzai,ZHANG Hui-ling. On Modified LS Conjugate Gradient Method with Its Global Convergence[J]. Journal of Southwest China Normal University(Natural Science Edition), 2016, 41(7). doi: 10.13718/j.cnki.xsxb.2016.07.004

修正 LS 共轭梯度方法及其收敛性

On Modified LS Conjugate Gradient Method with Its Global Convergence

  • 摘要: 提出了一种有效的修正LS共轭梯度方法。该方法在每一步迭代中均产生一个充分下降方向,且不依赖于任何线搜索。在强 Wolfe线搜索下,讨论了新方法对一般目标函数的全局收敛性。最后,与著名的 PRP方法、CG‐DESCENT方法比较,大量的数值试验表明,修正LS共轭梯度方法对给定的测试问题是有效的。
  • 加载中
  • 加载中
计量
  • 文章访问数:  558
  • HTML全文浏览数:  376
  • PDF下载数:  2
  • 施引文献:  0
出版历程

修正 LS 共轭梯度方法及其收敛性

  • 新疆巴音郭楞职业技术学院公共教育学院,新疆库尔勒,841000

摘要: 提出了一种有效的修正LS共轭梯度方法。该方法在每一步迭代中均产生一个充分下降方向,且不依赖于任何线搜索。在强 Wolfe线搜索下,讨论了新方法对一般目标函数的全局收敛性。最后,与著名的 PRP方法、CG‐DESCENT方法比较,大量的数值试验表明,修正LS共轭梯度方法对给定的测试问题是有效的。

English Abstract

参考文献 (0)

目录

/

返回文章
返回