搜索下的记忆梯度法及其收敛性
一类新的记忆梯度法及其收敛性

21 0 0年
第 5期
9月
中山大学学报 ( 自然科学版 )
A T S IN I R M N T R LU U I E ST TS S N A S N C A CE TA U A U A I M N V R IA I U Y T E I
Vo. No 5 149 . S p. 2 0 e 01
A w e o y G r d e e ho nd IsCo v r e e Ne M m r a intM t d a t n e g nc
T NG Jn y n DO A ig o g 一, NG L i
( . o eeo te ai n fr ai c n e Xn agN r a U i r t, i a g 6 00,hn ; 1 C l g f h m t s dI om t nSi c ,iyn o l nv sy X n n 4 0 C ia l Ma ca n o e m ei y 4
s o t tt e n w eh d i f c e ti r ci a o h w ha h e m t o Sef in n p a tc lc mpu ai n i tto . Ke y wor ds: u c n tan d o tmia in; me r a i n eh d;g o l c n e g nc n o sr ie p i z t o mo y g d e tm t o r lba o v r e e;ln a o e — i e r c nv r
g n e r t e c a e
考虑无 约束 优 化 问题
mi - ) ∈ R n厂 , ( () 1
方 法之 一 ,它在 每 步 迭 代 中不 需 计 算 和存 储 矩 阵 , 算 法简单 ,其搜 索方 向的基本 结构 为
Armijo搜索下的记忆梯度法及其收敛性

维普资讯
第 1 期
张祖 华 , :Ar j 搜 索下的记 忆梯 度 法及其 收敛性 等 mi o
2 5
信 息 , 加 了参数 选择 的 自由度 , 增 由此 可 以构造 稳定 的 收敛 均匀 的算 法 潮 , 于 求解 大 规模 优化 问题 也 对 是 一种 有效 的算 法 。但是 , 记忆 步数越 多 , 则计 算公 式越 复杂 。在实 际问题 中 , 忆二 步到三 步 比较 合适 。 记
Chi n)
Absr c : n t s p p rwe pr s nta n w m o y g a intme ho ors l ng u o t a n d op i z ton ta t I hi a e e e e me r r d e t d f o vi nc ns r i e tmia i
于 求解 大规 模无 约束 优化 问题. 忆梯 度法也具 有类 似的性 质 。舟 。 记 ]
记 忆梯 度算 法和 超记忆 梯度算 法 实际上是 共轭梯 度 法的 一 推广 பைடு நூலகம் 可更 充 分地 利 用前 面 迭 代点 的 它
收 稿 日期 : 0 60 — 4 2 0-90
作者简介 : 张祖 华 ( 9 4) 男 , 东济 南人 , 究 生 ; 贞军 (9 3) 男, 东新 泰 人 , 授 , 要 研 究 方 向 : 筹 学 。 1 7一 . 山 研 时 1 6 一, 山 教 主 运
Ar j e r h r l n d h r e o o o a a t r.Th r f r ti ut b et ov a g c l mi s a c uea d a dt efe d m fs mep rmee s o e eo ei ss ia l O s l elr es ae
Wolfe线性搜索下的超记忆梯度法及其收敛性

Wof 性 搜 索 下 的超 记 忆梯 度 法及 其收 敛 性 l e线
汤 京 永 ,董 。 丽
( .信 阳师范学院 数学与信息科学学 院 , 1 河南 信阳 4 40 ; .上海交通大学 数学系 , 60 0 2 上海 2 04 ) 02 0
摘 要 : 究 无约 束优 化 问题 ,给 出 了一 种新 的超 记 忆梯 度 法 ,在 较 弱 条件 下 证 明 了算 法具 有 研
X+ 1=X d , + (.) 12
这 里 d 为 ,X 在 X 点 的下 降方 向 , L为 _ X 沿该 方 向 的搜 索步 长.对 和 d 的不 同选择 构成 了不 () 0 厂 ) (
同的迭 代法 J . 对于 d , 可采 用 d = 一 此 种算 法称 为最 速下 降 法 .此 类算 法 虽 然 结构 简 单 ,每次 迭代 的计 g,
收 稿 日期 : 0 90 -6 2 0 -62 .
作者简介 :汤京永( 9 9 ) 男 ,汉族 , 士 , 17 一 , 博 讲师 ,从事非 线性规划 的研究 ,Ema : ag n-og o cr. — i tnj gyn @t o l i m. n
基金项 目: 国家 自 然科学基 金( 准号 : 0 7 19 、山东省 自然 科学 基金 ( 批 15 10 ) 批准 号 : 2 0 A 1 和信 阳师 范学 院青年科 研基 金 Y08 0 )
全局 收敛 性和 线性 收敛 速率 .数值试 验表 明新算 法是有 效 的. 关 键词 :无 约束 优化 ; 记 忆梯度 法 ;全局 收 敛性 ;线 性收敛速 率 超
中图分 类号 :0 2 . 2 12 文献标 志码 : A 文章编 号 : 6 15 8 (0 0)30 9 -5 17 .4 9 2 1 0 -3 60
梯度法

A1=A0+△A0 推广到一般的k+1次构造矩阵
Ak+1=Ak+△Ak
矩阵序列的 基本迭代式
△Ak称为校正矩阵
拟牛顿条件
设F(x)为一般形式n阶的目标函数,并具有连续的一、二 阶偏导。在点 处的二次泰勒近似展开
该近似二次函数的梯度是
沿g(k)方向一维搜索,
求最优步长(k)。
x(k+1)= x(k)- (k) g(k)
出口
例 8-4 用最速下降法求解下列问题
min f (x) 2x12 x22 ,
给 定 初 始 点 x(1) (1, 1)T , 1 .
10
解 目 标 函 数 f (x) 的 梯 度 及 x(1) 处 的 最 速 下 降 方 向 为
f(xk+1)
>
阻尼牛顿法
对原始牛顿法的改进
为解决原始牛顿法的不足,加入搜索步长(k)
因此,迭代公式变为:
x (k+1) = x (k) - (k) Hk-1gk 这就是阻尼牛顿法的迭代公式,最优步长(k)也称
为阻尼因子,是沿牛顿方向一维搜索得到的最优步 长。
牛顿法算法步骤
⑴任选初始点 ,给定精度ε,置k←0 ⑵计算 点的梯度矢量及其模
(x)=
x (k)
gk+
Hkx=0
得 x (k+1) = x (k) - Hk-1gk
即牛顿法迭代公式,方向- Hk-1gk称为牛顿方向
三、原始牛顿法的特点
若用原始牛顿法求某二次目标函数的最优解,则 构造的逼近函数与原目标函数是完全相同的二次式, 其等值线完全重合,故从任一点出发,一定可以一次 达到目标函数的极小点。
二、 确k定的方确法定自学,不作要求。记住
三项记忆梯度法及其投影算法的收敛性分析

S be t asf a in( B T 34-2 . u jc sic t Cl i o G / 1759)107 1 4
三项记忆 梯 度法 及其投影 算 法的收敛 性 分析
李 梅 霞 t 刘 茜 { 孙 清 滢
摘要 对于无 约束优化 问题 , 出 了一 类新 的三项记忆 梯度算 法.这 类算法 是在参数 提
p o e n e oa s m p i no he h n p u o c n e iy a d c n i u u i e e ta i t r v u d rn s u d to t rt a s d -o v x t o tn o sd f r n ib l y e n i
维普资讯
20 0 7年 3月
Mac 2 0 r h, 0 7
运 筹 学 学 报
o R TRA A TI NS NS C O
第 l 1卷 第 1期
Vb . 1 No 1 I1 .
Con e g nc o r y he Thr e t r e o y v r e e Pr pe t oft e -e m M m r
 ̄ p rme to p idM a h ma i ,Unv ri fP toe m,Do g igS a d n 5 0 1 De at n f Ap l t e tc e s ie s y o e rlu t n yn h n o g 2 7 6 ,Chn ;石 ia
Gr d e tM e h d a d IsPr jc in M e h d a in t o n t o e to t o
L iit LuQi * S nQig ig§ i xa Me i a u n yn n
A bs r c I h s pa e ,we pr p s e k n ft r e t r e r r d e t t a t n t i p r o o e a n w i d o h e -e m m mo y g a i n
无约束优化的超记忆梯度法及其全局收敛性

第 l期
20 0 8年 1 月
基础理 论研 究 ・
无 约 束 优 化 的 超 记 忆 梯 度 法 及 其 全 局 收 敛 性
汤 京永 , 金 华 , 秦 董
摘
丽
( 阳师范学院 数学与信息科学学院 , 信 河南 信 阳 4 40 ) 60 0
要 : 出一类新的求解无 约束优化 问题的超记 忆梯度 法, 提 并在较弱条件 下证 明 了算法的全局收敛性
:
1 假设与算法
假 设
( :( 在 水平集 = { ∈R l ( H ), ) , )≤, 。 } ( ) 上
有 下界 .
( -( 在 水 平集 上 连 续 可微 , ( ) H ), ) g x 在 上 一 致
连续 的 .
f ,= ;
L +卢 d 一 , —g 1k≥ 2 ,
其中, )R 一 R为连续可微 函数 ,( 为其梯度 .求解 ( : g ) (P U )的算法主要是迭代法 , 其一般形式 为
+ = l Байду номын сангаас O , td
其中 O 是搜索步长 , t d 为搜索方向 .若 为 当前迭代点 , 则记 g ) g ( 为 )为^ ’ )为厂 . ) ~ ( ] g x) 对 O 和 d 的不同选择就构成 了不 同的迭代算法 , t 如最 速下降法 ( =一g ) 牛顿法 ( =一[ d , d 等 , 中一个 著名 的方法叫共轭梯度法 , 其 其搜索方向为
步 1 若 l l : l l=0 则停止迭代; g , 否则 , 转步 2 ; 步 2 计算 d , : 使其满足
维普资讯
信 阳师范学院学报 : 自然科学版 第2卷 l
・
Armijo线搜索下一个杂交共轭梯度法及其强收敛性

( 1 . 2 )
其 中 = v f ( x ) , 是沿 搜索 方 向 执行 某 种线 搜 索产 生 的步长 ,其 中 为 方 向调控 参数 , 不 同的卢 对应 不 同 的共 轭梯 度法 ,著名 的 计 算 公式 。 卜 副 有:
卢 :
丝 , J J g k 一 1 J J
[ 摘 要] 讨论无约束优化问题, 提 出了一个新的杂交共轭梯度法公式.基于新公式,采用 A r m 1 j o 型线搜索条件确定步长,建立了一个杂交共轭梯度算法,在常规假设条件下证明了新算法的 下降性和强收敛. [ 关 键 词] 无约束优化;共轭梯度法;A r m i j o  ̄# # L 索;强收敛性
出 了一 个杂 交 共轭 梯度 法 公式 :
ax
—
{ o ,
一
( g 一g 一 )
,
}
【 收稿 日期】2 0 1 3 — 0 3 — 0 1 [ 基 金项 目】国家 自然科学基金 ( 1 1 2 7 1 0 8 6 ),广西 自然科学基金 ( 2 0 1 1 G X N S F D O 1 8 0 2 2 ),广西人才小高地建 设运 筹学 与最优化控制创新 团队联合 资助。 [ 作者简 介】 韩麟 ,广西大学数学与信息科学学 院研 究生。通 讯作 者 :简金宝 ( 1 9 6 4  ̄ ),男,玉林师范学 院教授 ,博 士 ,博士生导师 ,主要研究方 向:最优 化理论与算法 。E - m a i 1 :j i a n j b @ g x u . e d u . C F I 。
其 中 为g 与g ¨的 夹 角 ,O ' k  ̄g 与以一 的夹 角 . 显 然 , 当 目标 函数 为 严 格 凸且 在 精 确线 搜 索 条 件 下 ,公 式
Wolfe线性搜索下的超记忆梯度法及其收敛性

Wolfe线性搜索下的超记忆梯度法及其收敛性汤京永;董丽【摘要】研究无约束优化问题, 给出了一种新的超记忆梯度法, 在较弱条件下证明了算法具有全局收敛性和线性收敛速率. 数值试验表明新算法是有效的.【期刊名称】《吉林大学学报(理学版)》【年(卷),期】2010(048)003【总页数】5页(P396-400)【关键词】无约束优化;超记忆梯度法;全局收敛性;线性收敛速率【作者】汤京永;董丽【作者单位】信阳师范学院,数学与信息科学学院,河南,信阳,464000;上海交通大学,数学系,上海,200240;信阳师范学院,数学与信息科学学院,河南,信阳,464000【正文语种】中文【中图分类】O221.21 引言考虑无约束优化问题min f(x), x∈Rn,(1.1)其中: Rn是n维欧氏空间; f(x): Rn→R为连续可微函数. 本文设f(x)的梯度函数为g(x), 若xk为当前迭代点, 则g(xk)简记为gk, f(xk)简记为fk, f(x*)简记为f *.求解问题(1.1)的算法主要是迭代法, 基本格式为xk+1=xk+αkdk,(1.2)这里dk为f(x)在xk点的下降方向, αk为f(x)沿该方向的搜索步长. 对αk和dk的不同选择构成了不同的迭代法[1].对于dk, 可采用dk=-gk, 此种算法称为最速下降法[1]. 此类算法虽然结构简单, 每次迭代的计算量小, 但收敛速度慢且容易产生拉锯现象. 若f(x)二次连续可微, 则可采用dk=-Hkgk, 其中Hk为▽2f(xk)-1或▽2f(xk)-1的某种近似, 此种算法称为拟牛顿法[1]. 拟牛顿法虽然在一定条件下有较快的收敛速度, 但每次迭代时都需要计算和存储矩阵, 不适于求解大型优化问题. 上述两种算法在每步迭代时仅利用当前点的信息产生下一个迭代点, 而忽略了前面迭代点的信息, 这在算法设计中是一种信息浪费.共轭梯度法在每次迭代时通过记忆前一步的迭代信息产生下一个迭代点, 搜索方向的基本结构为其中βk是一个参数, 当βk用不同的公式时即得到了不同的共轭梯度法[1-2]. 此类算法有效避免了计算和存储矩阵, 是求解大型优化问题的有效方法之一, 但很多共轭梯度法不具有全局收敛性[2-3].为了充分利用前面迭代点的信息, 以改进算法的性能, 保证算法具有全局收敛性, 文献[4]提出了记忆梯度法[4]. 记忆梯度法是共轭梯度法的推广, 在每步迭代时同样不需计算和存储矩阵, 算法简单, 因而适于求解大型优化问题, 且与共轭梯度法相比, 此类算法增加了参数选择的自由度, 更有利于构造稳定的快速收敛算法[5-7]. 但很多记忆梯度法仅利用前一步的迭代信息, 同样忽略了前面迭代点的信息. 文献[8]提出一种超记忆梯度法, 算法在每步都能充分利用前面多步迭代点的信息, 并且具有全局收敛性.本文提出一种新的求解无约束优化问题的超记忆梯度法, 算法在每步迭代时都充分利用前面多步迭代点的信息产生下降方向, 采用Wolfe线性搜索产生步长, 在较弱条件下证明了算法具有全局收敛性. 当目标函数为一致凸函数时, 证明了算法具有线性收敛速率. 数值试验表明算法是有效的.2 超记忆梯度法及其性质假设:(H1) 目标函数f(x)在水平集L0={x∈Rn|f(x) ≤f(x1)}上有下界;(H2) 梯度函数g(x)在包含L0的开凸集B上一致连续;(H3) f(x)是二次连续可微的一致凸函数.算法2.1 ρ∈(0,1), 0<σ1<σ2<1, m>0是一个整数, x1∈Rn. 令k ∶=1.步骤如下:(1) 若‖gk‖=0, 则停止迭代; 否则, 转(2);(2) 计算dk, 使其满足:(2.1)其中(2.2)(3) xk+1=xk+αkdk, 其中αk由Wolfe线性搜索确定, 即要求αk满足:(2.3)(2.4)(4) 令k ∶=k+1, 转(1).引理2.1 对任意的k≥1, 有注2.1 由引理2.1及式(2.3)可知{fk}单调不增, 即fk≤fk-1≤…≤f1, 从而知xk∈L0.引理2.2 对任意的k≥1, 有‖dk‖≤(1+ρ)‖gk‖.3 算法的全局收敛性定理3.1 假设(H1)和(H2)成立, {xk}是由新算法产生的迭代点列, 则证明: 首先证明{‖dk‖}有界. 由引理2.2知, 只需证明{‖gk‖}有界. 假设{‖gk‖}无界, 则存在无穷子列N⊂{1,2,…,}, 使得‖gk‖→+∞, k∈N, k→+∞.(3.1)由式(2.3)和引理2.2知(3.2)因为{fk}单调不增且有下界, 故知{fk}有极限, 从而由式(3.2)知(3.3)因此αk‖gk‖2→ 0 (k∈N, k→+∞), 于是由式(3.1)可知αk‖gk‖→ 0 (k∈N,k→+∞), 进而再由引理2.2可得αk‖dk‖→0, k∈N, k→+∞.(3.4)由式(2.4)、引理2.1及引理2.2可得(3.5)从而由(H2)和式(3.4)可得‖gk‖→ 0 (k∈N, k→+∞), 这与式(3.1)矛盾. 因此, {‖gk‖}有界.假设则存在无穷子列K⊂{1,2,…}及υ>0, 使得‖gk‖>, ∀k∈K.(3.6)由式(3.3)和(3.6)知,(3.7)从而知αk→ 0 (k∈K, k→+∞). 因为{‖dk‖}有界, 故知式(3.4)成立. 又由式(3.5)及假设(H2)和式(3.4)知‖gk‖→ 0 (k∈K, k→+∞), 这与式(3.6)矛盾. 因此,4 算法的线性收敛速率引理4.1[5] 若假设(H3)成立, 则假设(H1)和(H2)成立, f(x)在Rn上有唯一的极小点x*, 且存在M≥m>0, 使得:(4.1)m‖x-x*‖≤‖g(x)‖≤M‖x-x*‖.(4.2)引理4.2[5] 若假设(H3)成立, 则g(x)在水平集L0上Lipschitz连续, 即存在常数L>0, 使得‖g(x)-g(y)‖≤L‖x-y‖, ∀x,y∈L0.定理4.1 若假设(H3)成立, {xk}是由算法2.1产生的无穷点列, 则{xk}至少线性收敛于x*.证明: 由式(2.3)和引理2.1可知(4.3)又由式(3.5)知(4.4)从而由引理4.2可得于是由引理2.2知(4.5)又由式(4.3)和(4.5)可得(4.6)令则易知0<ω<1/2, 从而由式(4.6)知fk-fk+1≥ω‖gk‖2.余下的证明类似于文献[5]中的定理3, 故略.5 数值试验为进一步检验算法2.1的实用效果, 选取两个算例对本文算法进行数值试验, 并与Wolfe搜索下的共轭梯度法和最速下降法进行比较. 用IT表示达到相应精度时算法的迭代次数, fk表示迭代结束时的目标函数值, NA表示本文提出的新算法, 用FR,PRP,HS,CD和DY分别表示FR,PRP,HS,CD及DY共轭梯度法[1-2], SM表示最速下降法. 参数取值为ρ=0.299, σ1=0.38, σ2=0.85. 计算结果列于表1~表3. 例5.1 f(x)=(x1-x2)2+(x2+x3-2)2+(x4-1)2+(x5-1)2,x0=(-2,2,-2,2,2)T, x*=(1,1,1,1,1)T, f *=0.例5.2 扩展Beale函数:其中n=40.例5.3 例5.2中取n=80.表1 精度为|fk-f *|≤10-8,10-9,10-10时例5.1的计算结果Table 1 Results of example 5.1 with precision requirements |fk-f *|≤10-8,10-9,10-10方法ITfkNA8,9,91.531 2×10-9, 7.188 6×10-11, 7.188 6×10-11FR12,13,158.254 4×10-9, 9.037 9×10-10, 2.920 9×10-11PRP10,11,123.531 8×10-9, 1.4309×10-10, 8.863 7×10-11HS19,20,212.685 8×10-9, 2.552 0×10-10, 1.2343×10-11CD12,13,141.442 0×10-9, 1.403 5×10-10, 6.294 6×10-11DY12,14,149.175 2×10-9, 8.899 0×10-11, 8.899 0×10-11SM14,15,163.465 8×10-9, 5.180 8×10-10, 6.871 2×10-11表2 精度为|fk-f *|≤10-4,10-5,10-6时例5.2的计算结果Table 2 Results of example 5.2 with precision requirements |fk-f *|≤10-4,10-5,10-6方法ITfkNA13,15,165.902 6×10-5, 2.291 6×10-6, 2.108 7×10-7FR21,26,275.054 4×10-5, 2.864 4×10-6, 6.378 0×10-7PRP14,15,171.672 2×10-5, 5.0709×10-6, 8.909 3×10-7HS83,143,2036.925 6×10-5, 9.915 7×10-6, 9.9476×10-7CD16,18,22 6.059 7×10-5, 8.275 8×10-6, 7.110 6×10-7DY22,25,264.830 1×10-5, 1.036 3×10-6, 4.843 8×10-7SM98,128,1728.586 6×10-5, 9.226 2×10-6, 8.990 0×10-7表3 精度为|fk-f *|≤10-4,10-5,10-6时例5.3的计算结果Table 3 Results of example 5.3 with precision requirements |fk-f *|≤10-4,10-5,10-6方法ITfkNA14,15,164.801 9×10-5, 4.583 2×10-6, 4.217 3×10-7FR22,26,285.609 5×10-5, 5.728 7×10-6, 5.096 6×10-7PRP14,16,193.344 5×10-5, 3.2499×10-6, 6.644 6×10-7HS94,162,2249.834 6×10-5, 9.961 2×10-6, 9.9260×10-7CD17,19,249.915 0×10-5, 8.436 0×10-6, 2.212 7×10-7DY22,25,269.660 2×10-5, 2.072 5×10-6, 9.687 6×10-7SM103,139,1839.330 6×10-5, 9.941 6×10-6, 9.897 4×10-7由表1~表3可见, 本文提出的新算法不但理论上具有全局收敛性和线性收敛速率, 而且数值效果较好, 特别在要求精度较高和规模较大时, 新算法具有更好的效果.参考文献【相关文献】[1] 袁亚湘, 孙文瑜. 最优化理论与方法 [M]. 北京: 科学出版社, 1997.[2] 戴或虹, 袁亚湘. 非线性共轭梯度法 [M]. 上海: 上海科学技术出版社, 2000.[3] MA Ming-juan, HUANG Qing-dao, DENG Jian. Conjugate Gradient Method with the Inexact Line Search [J]. Journal of Jilin University: Science Edition, 2009, 47(3): 505-506. (马明娟, 黄庆道, 邓键. 非精确条件下的共轭梯度方法 [J]. 吉林大学学报: 理学版, 2009, 47(3): 505-506.)[4] Miele A, Cantrell J W. Study on a Memory Gradient Method for the Minimization of Functions [J]. JOTA, 1969, 3(6): 459-470.[5] TANG Jing-yong, SHI Zhen-jun. A Class of Global Convergent Memory Gradient Methods and Its Linear Convergence Rate [J]. Advances in Mathematics, 2007, 36(1): 67-75. (汤京永, 时贞军. 一类全局收敛的记忆梯度法及其线性收敛性 [J]. 数学进展, 2007, 36(1): 67-75.)[6] TANG Jing-yong, DONG Li, GUO Shu-li. A New Memory Gradient Method with Curve Search Rule [J]. Journal of Xinyang Normal University: Natural Science Edition, 2009, 22(2): 179-182. (汤京永, 董丽, 郭淑利. 一类新的曲线搜索下的记忆梯度法 [J]. 信阳师范学院学报: 自然科学版, 2009, 22(2): 179-182.)[7] TANG Jing-yong, DONG Li, ZHANG Xiu-jun. A New Class of Memory Gradient Methods with Wolfe Line Search [J]. Journal of Shandong University: Natural Science, 2009, 44(7): 33-37. (汤京永, 董丽, 张秀军. 一类新的Wolfe线性搜索下的记忆梯度法 [J]. 山东大学学报: 理学版, 2009, 44(7): 33-37.)[8] SHI Zhen-jun. A New Super-Memory Gradient Method for Unconstrained Optimization[J]. Advances in Mathematics, 2006, 35(3): 265-274.。
一类新的记忆梯度法

1 引 言
考虑 无约束 最优 化问题
mi{ ( ) nf x l z∈ R } , (1 )
其 中 d 为 厂( 在 z ) 点 的搜索方 向,a 为 f( ) z 沿
该 方 向的搜索 步长. 对 a 和 d 的不 同选 择就 构成 了不 同 的迭 代法 .
果 表 明 该 方 法是 有 效 的 .
关 键 词 :无 约束 优 化 ; 忆梯 度 法 ; 局 收 敛 性 ;线性 收 敛 速 率 记 全 中 图 分类 号 :O 2 1 2 .2 文 献 标 识 码 :A 文 章 编 号 :1 0 — 8 2 1 ) 4 0 3 — 5 0 19 8 X( 0 0 0 — 0 20
Ab t a t A ne sr c : w ca s f l s o me r gr dint mo y a e me ho f r nc s r i d t ds o u on t ane op i ia i n tm z to pr blmt d Is g o a o v r e c n i e rc n e g n e r t r r v d u d r s m em i o d t n . Th r s n e . t l b l n e g n e a d l a o v r e c a e a ep o e n e o l c n ii s c n d o e me h d p s e s s t e s fi in e c n r p r y wih u n i e s a c t o o s s e h u f e td s e tp o e t t o ta y l e r h, a d t e s a c ie to l b c n n h e r h d r c i n wi e t i r s e in a t ma ia l . M o e v r t i me h d i h rt n i p r a t p o e t f t e we lk o n a t u t r g o u o tc l y ro e h s t o n e is a m o t n r p r y o h l n wn — Po a — b ee P l a P l k Ri ii— o y k( RP)me h d:t e t n e c o t r o r s t e s e p s e c n ie to fa s l to h e d n y t u n t wa d h t e e td s e td r c i n i ma l s e s g n r t d, p e e t g a e u n e o i y s e s f o h p e i g Pr l n r u rc l e u t t p i e e a e r v n i s q e c f tn t p r m a p n n . n e i a y n me ia r s l mi
Armijo型线搜索下一种修正HS共轭梯度法的全局收敛性

i ̄l 设 , J l d 由算法1 产生 ,则
() 8 () 9
!
1o =.
0o )
证明 由式( 知函数值序列 { ( )是递减序列. 7 ) 厂 } 从式( 可得 7 )
∑ Io fo <.
k O =
又由假设条件函数 厂有下界, 则我们有
( 7 )
3 本文假设
(1 H )水习集 ={ 己 x∈R 。 ) 【 ) 有界; / ( ≤ } x
(2 H )目标函数 /连续可微有下界, 且其梯度满足Lph z i i条件, ct 即存在—个常数L O 使得 >,
I x- ( f£ — , x ∈ . g )gy ≤ J Y V, Q ( ) Y 由 设 件 知存 一 量 0 使 (l ,x Q 假 条 可 ,在 常 > , 得 1 V ∈ . )
件 下, 明了此修正 H 证 s算法具有全局收敛性. 最后对算法进行 了数值试验, 结果表明该算 法具有良好的收敛性 和有效 试验
性 , 适 合 求 解 大规 模 无约 束优 化 问题 . 尤其
关键词 :修 正 H S算法,r o型线搜 索, A mU 全局收敛性 中图分类号 : 2 4 0 2 文献标识码 :A
T
,
( c 4 ’
㈣
其中
T
,
由式() 得 5 和 )
g = I - T l g
因此搜索方向d 具有充分下降性.
算法1
( 6
步骤l 给定起始点 , 参数 >0 P∈ O1, ∈(, , , (, O ) ) 1 >0令 k: , =0.
步 2若 J ,停 ;则 步 3 骤 则 止否 转 骤 . J ≤
Wolfe—Powell下的记忆梯度算法

() 4
() 5
并且 a 由 Wo e o e 搜索规则确定 ; I f P l l — wl Se 七 =七+1转 Se 。 tp3 , tp1
 ̄t l 对七 , d ≤一 1 p 0k 1 i ≥1 :I ( 一 ) 2 g g 0。
证 明 若 k l贝 g d = I・ I = ,4 II g 一g = T T
精 确 搜 索 步 长 规 则 中 , 具 有 代 表 性 的 是
d { ’ 培], 2, k 二。I + ≥ ( k = 一) -g ;
一
() 6
且 ∈ 0 s , [ , ] 而
A mj-o s i r i G l t n准则和 Wo ePw U准则 4。 o de l .o e f ’ 】
、 8 No 4 U 2 .
De .2 o c 07
Wo ePw l下 的记 忆梯 度 算 法 l —o e f l
公锦凤 ,于宪伟
( 海大学 数学系 , 宁 锦州 1 1 1 ) 渤 辽 2 0 3
ቤተ መጻሕፍቲ ባይዱ
摘
要i提 出了一种记忆梯度法的主要参数 d 的新形式,分析 了该算法在 wo Pwl I -o e l
本 文考虑 求解 无约 束优 化 问题 mi ( ) n x, f () 1
其 : (了 , ( 1 中. o1 ) / ,) ∈ ,。 t ∈
为 了简便计 算 , 进算 法 的性能 , 改 以便求解 大
求 解该 问题 的 一种 重 要 方 法 是 共 扼 梯 度 法 , 标 准共扼 梯度 法 的迭 代 格式 是 戈 1= “ ^+ d , ^^ () 2
若 七≥2 则 一 以= T [ 1一 ) + , ・(
一类新的记忆梯度法及其收敛性

68 3
工
程
数
学
学
报
第2 卷 7
算法1 取? 1, ∈(,) ∈(,) X ∈R 。令k: 。 7 1 ) P 01 ∈(, , 01, l =1 步骤 1 若 l l ,则停止迭代 ;否则,转步骤 2 I l =0 。
步骤 2 计算 ,使其满足
其中 一 =d 一 一g — ,而 1 k1 k l
共轭梯度法在每步迭代 中不需计算和存储矩 阵,是求解大型无约束优化 问题 的有效算法之 记忆梯度法类似于共轭梯度法,也是求解大规模优化 问题的有 效方法 ,并且与共轭 梯度法 相 比,记忆梯度法增加了参数选择的 自由度 ,更有利于构造稳定的快速 收敛算法【8 2] -。
一
。
本文提 出一类新的求解无约束优化 问题 的记忆梯度法 ,算法利用当前和前面一步迭代点 的
一
类新的记 -梯度 法及其 收敛性木 I z
汤京永 , 董 , 一 丽
f一信阳师 范学 院数学与信息科学学院 ,信阳 4 4 0 ; 2 上海交通大学数学系 ,上海 2 0 4 ) 1 600 一 0 2 0 摘 要:本文着重研究求解 无约束优化 问题的记忆梯度法 ,利用当前和前面一步迭代 点的信息产生下降方 向,采用 Ar j 线性搜索确定 步长 ,得到 了一类 新的无约 束优化算法 。新算法在较弱 的条件下 mi o 具有全局收敛性和线性收敛速率,并且不用计算和存储矩 阵,适于求解 大规模优化问题。数值试 验表 明算法是有效 的。 关键词: 无约束优 化;记忆梯度法;全局收敛性;线性收敛速率
情 况1腹 (>0 F(式 引 可 2 。h4 和 理1 知 k )
一 + ≥一 a d p1 )k 『. 1 p k k ( 一叩口 『 I I 因为{ . A】 单调不增有下界, { 有极限。由( 式知km a Ik。 ,故 故 } 5 ) l %Il =0 i 1l 9
Armijo型线搜索下一种共轭梯度法的收敛性

fx ( +a d ) f x ) a I d , k ( +5 k 9
(0 1)
其 中 0< < 1 ,该文在 假设搜索方 向d 下 降的条件 下证 明了C D方法在这些线搜索下的全局 收
敛性 ,即 l if +。l l 0 i n o l l 。本文将在这两种线搜索下证 明由L 方法确定 的搜索方 向是充 a r : S
分下降方向,并且L 方法是全局 强收敛 的。 S
2 主 要 结 果
本文假 定迭代方 法() 3、() 产生一个无 穷序列 {( ) = 12… ) 2、() 4将 9 , ,, ,否则 ,算法 有 限终止时的迭代点就是所求稳定点。另外,还对 目标函数fx  ̄ A mi 型线搜索做 出以下假 () r j o
是
文章编号: 0 -0 52 0 )30 0 -6 1 53 8 (0 80 -4 50 0
搜 索 步
长
A mi r j o型线 搜索下 一种 共轭梯度 法 的收敛性木
周 光 明 ( 湘潭大学数学与计算科学学院,湘 潭 4 1 0 ) 1 15
摘 是
搜 索
= 要 : 无 约 束 非 线 性 规 划 问题 ,本 文 分别 在 两 种 不 同 的Ar j 型 线搜 索 下 证 明 TL uSoe 共 轭梯 度 对 mi o i. try
fx d ) fx ) ( + k ( 一
一
() 8 () 9
CI七 12 I 1k 1 一 1I+ , 2g+ 9 d+ cl七 12 I I l l l 9 l
其 中 >0 7>0 ∈(, )0<c < 1<c。 ,_ , 0 1, 1 2
一类Armijo搜索下的记忆梯度法及其全局收敛性

teA rj n erh t s to r fc n a eua A d r acnu a rdetomua T eh me — h r i l esac , i me dmoee i thnN cli n es ojgt ga i r l. h u r noi h h i e t i e nf i
c lr s l ffu s f n o s s o a e t o s b t r t a Y s e t m l oi m , n f c ie t a R a e ut o r t t u t n h w t tn w me h d i e t n D p c r s o e i h e h u ag r h t ade et nF v h meh d. h c o aa l o t e c l u ain o e o ma c RP s e t m. o t e a g r h h s g o e om— t o w ih i c mp b e t h ac lt fp r r n e P p c r s r o f u S h lo t m a o d p r r i f
文章编 号 :6 3— 0 7 2 1 )3— 2 9— 3 17 2 5 ( 0 0 0 0 4 0
一
类 Amj 索 下 的记 忆 梯 度 法 及 其 全局 收敛 性 ri o搜
朱 帅 , 希 云 王
( 太原科技 大 学应 用科 学学 院 , 太原 0 02 ) 30 4
摘 要: 通过构造新的 , 出了一种新的无约束优化 问题 的记忆梯度 算法 , 提 同时在 A mj ri o线搜 索
[ ] N C L IA D E . a Y a odt n r no s a e pi zt n J . pl dMa e ai t r,0 8 2 :6 - 1 4 E U A , N R IAD i uncn iosf cnt i dot ao [ ] A p e t m t s ees20 ,1 151 . - i ou rn mi i i h c lt 7
非单调线搜索下的记忆梯度法及其全局收敛性

下证明了其全局收敛性. 算法采用新 的非单调线搜索准则 , 目标函数值在每一次迭代时充 分下降 , 使 有效降
低了算法的计算 量, 同时还减弱了文献 中算法的使用条件 , 从而扩大了算法求解问题的范围. 关键词 : 无约束最优化 ; 记忆梯度法 ; 非单调线搜索 ; 全局收敛性 中图分类号: 2 12 0 2 . 文献标志码 : A 文章编号 :0 1— 3 5 2 1 )1一 0 2— 4 10 89 (0 0 O o 3 0
21 00年 1 月 第3 3卷 第 1 期
四川师范大学学报 ( 自然科学版 )
Junl f i unN r nv ̄t( a r S i c ) ora o c a o Sh mM U i i N t  ̄ c ne e y u e
Jn ,0 0 a.2 1
Vo. 3, . 1 3 No 1
2 新 的 非 单调 线 搜 索 准 则
为了 以后证 明 的需 要 , 本文作 如下假设 : ( f( 在 水 平 集 L H ) ) 。={ ∈R“f ) a( ≤ ) 上有下界 ; }
(: H )梯度 函数 g ) ( 在包 含 的开 凸集 B上
一
ci i 在文献 [ ] d 6 中首先提 出一种非单调步长 准则 ( 简记 为 G L准 则 ) 其 基 本 思 想 为 : L , 设 > , ∈ 0
≤
( )l _ + I ㈦ l ≤ 1一 l I I g g _
、
{ ¨) }≤
一 Βιβλιοθήκη l J L ma {l l ,l l } x l l l 一 . c g g
第1 期
汤京 永等 : 非单调线搜索下的记忆梯度法及其全局收敛性
3 3
一种新的共扼梯度算法及其收敛性

作者简介 : 洪小芳( 9 6 , , 18 ~) 女 江西景德镇人 , 重庆师范大学数学学 院硕士生. 研究 方向 : 全局最优化与算法.
1 0
长 沙 大 学 学 报
2 1 9月 0 0年
首先 , 用一个引理说明在任何线搜索下 , 算法 A
卢 )f lIIg 。 = l +I, 。 g l ( { dlg ’ l 一l ” g 一l 1I g
第 2 4卷 第 5期 2010年 9月
长
沙
大
学
学
报
VO . 4 NO 5 12 . Se .2 0 10 p
J URNAL OF CH O ANGSH UNl RSI A VE TY
一
种 新 的共 扼梯 度 算 法及 其 收敛 性
洪小 芳
( 重庆师 范大学数学学 院, 重庆 4 0 4 ) 0 0 7
0 , 其他
(. ) 22
具有充分下降性.
引理 1 对 于迭代格 式 (. )和 (13 12 . )如果 J B
=
f, 则对任意 k≥ 1 都有
其中/ >1 1 . 对于任何线搜索式 (. )和式( . 21 2 2 都是满足条件( . ) 从两式中可 以看出分母中 ) 14 ,
I(^ ^≤一 g I (. ) g +a d) l d d 16
此外 , 在非精确线搜索时, 条件 (. )常用于共 14 轭梯度方法的收敛性分析 , 例如 : 文献[ ]和[ ]的 2 5 收敛性分析都用 到条件 (. ) 这在一定程度上说 1 . 4
明条件 ( . )对 于共轭 梯度 法 的收敛性分 析 是 至关 14 重要 的. 面给 出的共 轭 梯 度 算法 在 不 依 赖 任何 线 下
Wolfe线搜索下一类新的共轭梯度法及其收敛性

并 将其 与 DY 公 式结 合得 到一类 新 的混 合公 式 :
gT g, dk - ( -1 )
:: =
( g厂
,
若。 <g
 ̄ mi ( , n 2
,
跏
【 ,
轭梯度 法
P 一
_
其他 ,
并且建 立 了 由此 新 公式 产生 的算 法在 Wof l e线搜 索下 全 局收敛 ; 献 E ] 出 了一族 包 含 C 方 法 的新共 文 7给 D
( 中 O  ̄ a<1 下具有 全 局收 敛性 。 其 <p ) 受 文 献[ — ] 启发 , 57的 本文 对 的 D 公式 进行 改进 , 立一 类包 含 D 方 法的新 共 轭梯 度法 。 Y 建 Y
1 新 算 法 及 其 下 降性
结 合文 献 [ —] 57 中的 想法 , 们提 出如下 新 的 公 式 : 我
一
般 的共 轭梯度 法 的迭 代公 式为 :
z¨ 1 一 ^ a dk + k ,
-
( 2)
I ^ , ≥: —+ 2 g H 志 ,
—
gk
—
g 卜
—
d一 ,
( 3 ) ,
() 4
其 中 : 初始 点 ; 为 搜索 方 向 ; 是 由线 搜索 或 由特 定 的公式 计 算 出的 步长 因子 ; 为 标量 ; 一 vf z为
和 D 方法 。 Y
文献 [—] 57 中对上 述 的公式 进行 了改进 , 出了 的 新公式 。其 中 , 献[] D 方 法 的 公 式 给 文 5将 Y
改 为如下 形式 :
= —g d -g _d 一  ̄ l z k T
1 —1
一类新的超记忆多步曲线搜索方法及其全局收敛性

一
类新 的超 记忆 多步 曲线 搜 索方 法 及 其 全局 收敛 性
孙 敏
( 枣庄 学 院 数学 与 信 息科 学 系 , 东 枣 庄 2 7 6 山 7 1 0)
摘 要 :提 出一种 求 解无 约束 最优 化 问题 的超记 忆 多步 曲线搜 索方法 , 方法具 有如 下 此 特 点 :1 每 次迭代 目标 函数 , ) 降量 更大 ;2 充分 利用 前 m 步的迭 代信 息 ; 3 每 次 () ’ 下 ( () () 迭 代 同时确定下 降方 向和 步长 ;4 步长一 致 有正 下界 。在较 弱 的条 件 下 , 明 了此 方 法 () 证
SUN i M n
( p rme to a h ma i s a d I f r to ce e a z u ng Un v r iy,Za z u n 7 1 0, i a De a t n fM t e t n n o ma i n S inc ,Z o h a i e st c o h a g 2 7 6 Ch n )
得 到步长 a , 是也 可 以同时 确定 a 但 和 , 比如 曲线搜索 法 , 有利 于找到更 合适 的下 降方 向 这
收 稿 日期 : 0 7 1 3 2 0 — 2 0 作者简介: 孙 敏 ( 90 , . 师 18 ~) 男 讲
前 Ⅲ步 的迭代 信息 ; 3 算法 同 时确 定下 降 方 ( )新
其 中 _ z : R 是 连续可微 函数. 解 ( ) 厂 ) R一 ( 求 1 的
算 法主要采 用如下线 性迭代 形式
z ㈠ 一 + a d^ k ,是 一 0, , , 1 2 … () 2
其中 a 是迭代 步长 , 是 下 降方 向. 常 是先 确 通
修正Armijo线搜索下共轭梯度法的收敛性

第3 3 卷
第 5 期
桂 林 电 子 科 技 大 学 学 报
J o u r n a l o f Gu i l i n Un i v e r s i t y o f El e c t r o n i c Te c h n o l o g y 2 0 1 Fra bibliotek年 1 O月
V0 1 . 3 3 , No . 5 OC t . 2 0 1 3
在线 性搜 索条 件下 搜索 方 向 d 通 常要求 满 足 g : dl <0 ,V k≥ 1 。
C o n v e r g e n c e o f c o n j u g a t e g r a d i e n t me t h o d w i U l mo d i i f e d A r mi j o - t y p e l i n e s e a r c h
修 正 Ar mi j o线 搜 索 下 共 轭 梯 度 法 的收 敛 性
史卫 娟 , 朱 志斌 , 朱 华 丽
( 桂 林 电 子科 技 大 学 数 学 与 计 算科 学 学 院 , 广 西 桂林 5 4 1 0 0 4 )
摘
要: 为解决传统线搜索 下没 有全局 收敛 性 , 提 出修 正 Ar mi j o线 搜 索 下 共 轭 梯 度 法 。通 过 估 计 目标 函数 导 数 的
梯度下降法的收敛性和稳定性

梯度下降法的收敛性和稳定性随着机器学习和深度学习领域的快速发展,梯度下降法是许多算法和模型的核心。
梯度下降算法是一个优化方法,用于寻找函数的最小值,而这个函数可以表示为一个可以接受参数的多元函数。
在深度学习中,函数的最小值通常是损失函数,因为它是用来评估模型预测质量的。
然而,尽管梯度下降算法是最受欢迎的优化方法之一,但它并不是完美的。
在实践中,人们发现梯度下降算法可能不会收敛或收敛速度很慢。
因此,研究梯度下降算法的收敛性和稳定性变得越来越重要。
一、梯度下降法的收敛性1. 收敛速度梯度下降法的收敛速度是指迭代次数或数据量增加时函数值达到最小值的速度。
通常来说,梯度下降算法的收敛速度和损失函数的曲率以及步长参数有关。
当损失函数的曲率非常平缓时,梯度下降算法的收敛速度可能会变得非常慢。
使用较小的步长参数可以加速收敛,但可能会导致振荡或无法收敛。
因此,选择合适的步长参数非常重要。
此外,梯度下降算法还可以通过批量处理或随机梯度下降来增加收敛速度。
批量处理使用整个训练集来计算每个步骤的梯度,而随机梯度下降使用单个训练样本来计算每个步骤的梯度。
尽管使用整个训练集会很耗时,但批量处理通常比随机梯度下降收敛得更快且更准确。
2. 局部最小值梯度下降算法可能会卡在局部最小值处而不是全局最小值处。
当优化问题非常复杂且存在多个局部最小值时,这种情况尤其常见。
为了避免陷入局部最小值,人们经常使用更高阶的优化方法,如牛顿法、拟牛顿法以及共轭梯度法。
这些方法结合了梯度信息和曲率信息,并且可以更好地处理非凸问题。
二、梯度下降法的稳定性1. 固定步长与自适应步长在梯度下降算法中,步长是一个非常重要的超参数。
固定步长的方法简单且易于实现,但可能会导致振荡或无法收敛。
因此,在实践中,人们通常使用自适应步长方法,如Adagrad、Adam和RMSProp等。
Adagrad通过自适应地缩放每个参数的步长来提高训练的稳定性和效率。
它减少了非常稀疏的梯度步长,以确保它们在非常大的范围内保持稳定。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第16卷 第1期运 筹 与 管 理Vol.16,No.12001年2月OPERA TIONS RESEARCH AND MANA GEM EN T SCIENCEFeb.2007收稿日期:2006209204作者简介:张祖华(19742),男,山东济南人,研究生;时贞军(19632),男,山东新泰人,教授,主要研究方向:运筹学。
Armijo 搜索下的记忆梯度法及其收敛性张祖华, 时贞军(曲阜师范大学运筹与管理学院,山东日照276826)摘 要:本文提出一种新的无约束优化记忆梯度算法,在Armijo 搜索下,该算法在每步迭代时利用了前面迭代点的信息,增加了参数选择的自由度,适于求解大规模无约束优化问题。
分析了算法的全局收敛性。
关键词:无约束优化;记忆梯度法;Armijo 搜索;全局收敛性中图分类号:O221.2 文章标识码:A 文章编号:100723221(2007)0120024204Convergence of New Memory Gradient Method with Armijo SearchZHAN G Zu 2hua ,SH I Zhen 2jun(College of O perations Research and M anagement ,Qu f u N orm al U ni versit y ,Riz hao 278626,Chi na )Abstract :In t his paper we p resent a new memory gradient met hod for solving unconst rained optimization p roblems.We use t he previous iterative information to generate a new iterate at each iteration wit h Armijo search rule and add t he f reedom of some parameters.Therefore it is suitable to solve large scale optimization problems.We analyze t he global comvergence under some mild conditions.Key words :unconst rained optimizatio n ;memory gradient met hod ;Armijo seach rule ;global conver 2gence0 引言考虑无约束优化问题min f (x ), x ∈R n(1)其中R n 为n 维欧氏空间,f :R n →R 1是一连续可微函数,大多数求解问题(1)的算法是迭代算法,最常用的是梯度算法,常采用如下形式x k +1=x k +αk d k , k =0,1,2,…(2)其中d k 是搜索方向,αk 是步长参数。
若x k 为当前迭代点,则分别记梯度 f (x k )为g k ,f (x k )为f k ,f (x 3)为f 3P (x |L 0)=max y ∈L 0‖y -x ‖P (5B |L 0)=inf x ∈5BP (x |L 0)5B 表示B 的边界。
一般情况下,共轭梯度法是求解无约束优化问题的有效算法之一,它能有效避免存贮和计算矩阵,适于求解大规模无约束优化问题.记忆梯度法也具有类似的性质[1,3,7,8]。
记忆梯度算法和超记忆梯度算法[6]实际上是共轭梯度法的一推广,它可更充分地利用前面迭代点的信息,增加了参数选择的自由度,由此可以构造稳定的收敛均匀的算法[2,4,5],对于求解大规模优化问题也是一种有效的算法。
但是,记忆步数越多,则计算公式越复杂。
在实际问题中,记忆二步到三步比较合适。
本文利用Armijo 搜索设计了一种新的记忆梯度算法,并在较弱的条件下证明了算法的全局收敛性。
1 记忆梯度法假设(H 1)目标函数f (x )在水平集L 0={x ∈R n |f (x )≤f (x 0)}上有下界,这里x 0为初始点。
(H 2)梯度函数g (x )= f (x )在包含L 0的开凸集B 上一致连续,B 满足P (5B |L 0)>0在以上假设基础上,提出新算法如下:算法(A ) 给出0<ρ<23,0<μ<1,x 0∈R n 且置k :=0;步1 若‖g k ‖=0则停!否则转步2;步2 x k +1=x k +αk d k (αk ),这里αk 为满足下式的α∈{s k ,s k ρ,s kρ2,…}中的最大者f k -f (x k +αd k (α))≥-μα[g T k d k (α)+12α‖g k ‖2](3)其中d k (α)=-g k ,若k =0;-(1-α)g k +αd k -1,若k ≥1(4)s k =1若k =0;ρ‖g k ‖2‖g k ‖2+|g T k d k -1|若k ≥1(5)步3 置k :=k +1,转步1。
容易看出,该算法有一个重要特点,以每步迭代中,它的方向和步长是同时确定的。
这有利于找到更合适的搜索方向和步长。
为方便,有时记d k =d k (αk ).为以后证明需要,下面引入几个引理。
引理1 对任意k ≥0若α∈(0,s k )则有g T k d k (α)≤-(1-ρ)‖g k ‖2。
证明 当k =0时,上式显然成立。
当k ≥1时g Tk d k (α)=-(1-α)‖g k ‖2+αg T k d k -1≤-(1-α)‖g k ‖2+|αg T k d k -1|=-‖g k ‖2αρ‖g k ‖2/s k≤-(1-ρ)‖g k ‖2证毕引理2 对任意k ≥0,若α∈(0,s k ),则有g T k d k (α)+12α‖g k ‖2≤0证明 由引理1,及s k 定义可得。
引理3 对于k ≥0和α∈(0,s k ]有‖d k (α)‖≤max 0≤i ≤k{‖g i ‖}证明 利用(4)由数学归纳法即得。
引理4 步2中的搜索是可行的。
证明 假设不存在αk 为满足下式的α∈{s k ,s k ρ,s kρ2,…}中的最大者f k -f (x k +αd k (α))≥-μα[g T k d k (α)+12α‖g k ‖2]则知当αi =s kρi,i →+∞时f k -f (x k +αi d k (αk ))<-μαi [g T k d k (αi )+12αi ‖g k ‖2]对左边应用中值定理后,再对上述两边取极限,可得μ≥1,与已知矛盾,从而步2中的搜索是可行的。
证毕52第1期 张祖华,等:Armijo 搜索下的记忆梯度法及其收敛性2 全局收敛性引理5 如果(H 1)和(H 2)成立,算法(A )产生无穷点列{x k },则序列{‖g k ‖}和{‖d k ‖}有界。
证明 由引理3可知,我们只要证明{‖g k ‖}有界即可。
令δk =max 0≤j ≤k{‖g j ‖}若{‖g k ‖}无界,则lim k →+∞δk =+∞因而必存在无穷子列N <{0,1,2,…}使δk =‖g k ′‖,Πk ′∈N (6)且‖g k ′‖=δk →+∞(k ′∈N ,k ′→+∞).(7)由引理1和(3)式可得f k -f (x k +αk d k )≥-μαk [g Tk d k (αk )+12αk ‖g k ‖2]≥μαk [(1-ρ)‖g k ‖2-12s k ‖g k ‖2]≥μαk [(1-ρ)‖g k ‖2-12ρ‖g k ‖2]≥μαk [(1-32ρ)‖g k ‖2由(H 1)可知∑∞k =0αk ‖g k ‖2<+∞(8)从而∑k ∈Nαk‖g k‖2≤∑∞k =0αk‖g k‖2<+∞.(9)由引理3和(6),当α∈(0,s k ]时有‖d k (α)‖2≤max 0≤i ≤k{‖g i ‖2}≤δ2k =‖g k ′‖2,Πk ′∈N.(10)由(9)和(10)可得∑k ∈Nαk‖d k(α)‖2<+∞,(11)故αk ‖d k (α)‖2→0(k ∈N ,k →+∞).(12)由引理1和Cauchy 2Schwarz 不等式得,当α∈(0,s k ]时有‖g k ‖・‖d k (α)‖≥-g T k d k (α)≤(1-ρ)‖g k ‖2从而‖d k (α)‖≥(1-ρ)‖g k ‖(13)由(7)和(13)式可得‖d k (α)‖→+∞(k ∈N ,k →+∞).再由(12)式可得αk ‖d k (α)‖→0(k ∈N ,k →+∞).(14)从而lim k ∈N ,k →∞αk =0这说明当k ∈N 充分大时,αk =αk /ρ∈(0,s k ]使得不等式(3)反向,即f k -f (x k +αk d k (αk ))<-μαk [g T k d k (αk )+12αk ‖g k ‖2]从而f k -f (x k +αk d k (αk )<-μαk g T k d k (αk ).在上式左端利用中值定理,则存在θk ∈[0,1]使f k -f (x k +αk d k (αk ))=-αk g (x k +θk αk d k (αk )Td k (αk )由此可得g (x k +θk αk d k (αk ))T d k (αk )>μg Tk d k (αk )由引理1,上式和(10)知当k ∈N 且充分大时,有62运 筹 与 管 理 2007年第16卷(1-ρ)(1-μ)‖g k ‖2≤(1-μ)(-g T k d k (αk ))≤[g (x k +θk αk d k (αk ))-g k ]Td k (αk )≤‖d k (αk )‖・‖g (x k +θk αk d k (αk ))-g k ‖≤‖g k ‖・‖g (x k +θk αk d k (αk ))-g k ‖,Πk ∈N.从而(1-ρ)(1-μ)‖g k ‖≤‖g (x k +θk αk d k (αk ))-g k ‖,Πk ∈N.由引理2可知f k -f (x k +1)≥-μαk [g Tk d k (αk )+12αk ‖g k ‖2]≥0从而x k ∈L 0<B ,再根据(H 2),P (5B |L 0)>0,因此由(14)式知,当k 充分大时,x k +θk αk d k (αk )∈B.故由g (x )在B 上的一致连续性,即得‖g k ‖→0(k ∈N ,k →+∞).这与(7)式相矛盾,故{‖g k ‖}有界,从而{‖d k ‖}有界。