含时滞和脉冲的双向联想记忆神经网络模型的全局鲁棒一致渐近稳定性分析
机器学习中的模型稳定性与鲁棒性分析方法(Ⅰ)
机器学习中的模型稳定性与鲁棒性分析方法随着人工智能技术的不断发展,机器学习在各个领域中得到了广泛应用。
然而,机器学习模型在实际应用中常常面临着诸多挑战,其中之一便是模型的稳定性与鲁棒性。
模型的稳定性指的是当输入数据发生微小变化时,模型的输出结果能否保持稳定;而模型的鲁棒性则是指模型对于异常值、噪声等干扰的抵抗能力。
为了确保机器学习模型的可靠性和实用性,研究者们一直在不断探索模型稳定性与鲁棒性的分析方法。
一、对抗性训练对抗性训练是一种常见的提高模型鲁棒性的方法。
其基本思想是通过向输入数据中引入微小的扰动,来训练模型对抗干扰的能力。
对抗性训练可以有效提高模型对抗攻击的能力,但同时也会增加模型的训练成本。
因此,在实际应用中需要权衡训练成本和模型鲁棒性之间的关系。
二、数据增强数据增强是另一种提高模型鲁棒性的常用方法。
通过对训练数据进行一定的变换或扩增,可以使模型更加稳健地适应各种情况。
常见的数据增强方法包括随机裁剪、旋转、翻转等操作。
数据增强可以有效减小模型对于噪声和干扰的敏感度,提高模型的泛化能力。
三、模型解释与可解释性除了提高模型鲁棒性,对模型的稳定性进行分析也是至关重要的。
模型解释与可解释性是指通过解释模型的预测结果来理解模型的工作原理和决策过程。
通过模型解释,可以发现模型在不同情况下的预测规律,从而评估模型在特定场景下的稳定性。
目前,模型解释与可解释性已成为机器学习领域的热门研究方向,各种模型解释方法层出不穷,如LIME、SHAP等。
四、对抗攻击与防御在实际应用中,机器学习模型往往面临着各种对抗攻击。
对抗攻击是指故意设计特定的输入数据,使模型产生错误的预测结果。
为了提高模型的鲁棒性,研究者们也在不断探索对抗攻击与防御的方法。
对抗攻击与防御是一场持续的博弈,研究者们通过设计对抗攻击算法来评估模型的鲁棒性,并提出相应的防御策略来抵御对抗攻击。
五、不确定性建模不确定性建模是机器学习中另一个重要的研究方向,它旨在量化模型预测的不确定性,并评估模型对于不确定性的鲁棒性。
具有混合时滞的随机Hopfield神经网络的稳定性分析
矩 阵 , 是离散 时滞 的连 接权矩 阵 ; 是 分布 时滞 的 D
3 S 1 , 2 T h S2 O ) 1 <0 S2 -sa 1 . s <
引理 38 对 任 意 的常 对 角 矩 阵 M , =M r [ 3 M ,
常数 7 , >0 有
连接权矩阵; ( () = I ,z £) …, ( ( ) , z z) f ( () , z f ] ) ∈R ; z() 一 [ 1 ( ) …, £) ∈R ; “g( ) g ( £ , g ( )] ) ( ” 特别 的 , 这个 离散 时滞是 时 变时滞 的 , 布 时滞是 多 分 时 变时滞 的 ;≤ ^ () ^ ÷ ≤ < 1O r ≤ 0 £≤ , () , ≤ ()
变时滞的双向联想记忆神经网络的全局指数稳定性
第 3 卷 7
A=da (l…a ,1 , ∈R ,J =(1…S,l , ) ig a, b… b ) ” o S, h… ∈R , ”
( 一 ()=( (l -"/) ( (一 ()g( (- 1), ( 一 ()r ,) f Y( Z ), ) t l )…, , ,) l 8 t) ( ), x t ()…, ,) . ))
d i O3 6  ̄i n1 0 —4 32 1.7 7 o :1 .99 .s . 32 8 . 1 . s 0 0 O0
文献[ 讨论 了双层双 向联想记忆神经 网络模型(A ) 1 ] B MN 的稳定性, 在此基础上, 文献[ 5得到了稳定性 的 1] . 不少判定方法, 文献【 1] 6 O分析了时滞为常数的双向联想记忆神经 网络模型指数的吸引性, — 得到了很好的结果. 但在时滞是 时间变量的情况下, 其全局吸引性和全局指数稳定性 的应用更加广泛, 但这方面的研究和文献却很 少.
=
( 1 w
, =i(,L, , ∈ , ( ,, L dg . )R M = a L… … 1 , … +
定理 2 【 如果系统( 满足下列条件 : .9 1】 I 3 )
1I() UIL“ U, )g ) l一: , ) j ̄ () j 一2 一 : “ l fu~ 2< l I l g I
{ , , J2, I) ∈0 = 辜 =… y )S 】 1m j ( s [, , - ,
其中 , : ,] R是连续函数. 卜r0
令 f :( f ,f, “ .( ) ( ) ( , ( …, f =(, )X ( , , f Y ( , ,f …, ∈R , ) ) ) ( , ,f … x ( , f Y ( , Y ( ) f ) ) ) ) )
具时滞和脉冲的随机BAM型Cohen-Grossberg神经网络的稳定性分析
J= 1 z= l
=( %)
和 =( i )
表示
扩散 系数 矩 阵; w( t ) =( W1 ( ) , 叫 2 ( £ ) , …, W ( £ ) ) T、 面( t ) =( 面1 ( ) , 面 2 ( ) , …, 面 ( ) ) T为定 义 在概 率 空 间 ( , { } t 0 , P) 上具有 自然滤 波 { } t > o B r o w n运 动 .
M R( 2 0 0 0 )主题分 类: 9 3 D2 0 ; 3 4 K 2 0 中图分类号 : O1 7 5 文献标识码: A 文章编号:1 0 0 3 — 3 9 9 8 ( 2 0 1 3 ) 0 5 — 9 3 7 — 1 4
l 引言
1 9 8 3年 由 C o h e n和 Gr o s s b e r g提 出的 C — G[ ] 神 经 网络 被人 们逐 步关 注:在这类 神经 网 络里 考虑 时滞 [ 2 - 2 1 ] 和脉 冲 [ 5 - 1 0 , 2 2 - 2 7 ] 已经很 常见 ;单 纯地 在 C — G 神经 网络里 引入随 机 因
+ ∑ ( y j ( t ) ) d f J j ( t ) ,i ∈ , t ≠t k , t ( + ) = t ( t 一 ) +厶 % ( t ( 一 ) ) ,t =t k , ∈N,
I / 扎 、 J
d y j ( t ) :l L — c j ( ( t ) ) ( \ d j ( y j ( t ) ) 一∑的 t ( t ) ( ( ) ) 一 ∑叫 J ( t ) ( t ( 一 ) ) 一 J j ( t ) ) I d t 1 t =1 /J
一类双向联想记忆神经网络概周期解的全局渐近稳定性
T● J
O
r
a
滨 摘 要 : 用 B n n h空 间 中 的 不 动 点 定 理 、 数 二 分 法 和 L a u o 利 aac 指 y p n v函 数 方 法 研 究 了一 类
州
分布 实例说 明 了判据 的有 效性. 学 时滞双 向联 想记 忆神 经 网络 概周期 解 的全局 渐近 稳 定性 , 院 关 学 u 键词 : 向联 想记 忆神 经 网络 ; 双 时滞 ; 概周 期 解 ; 全局 渐近 稳 定性
则S 什 构 成 一 个 B n c a a h空 间 .
2 主要 结 果
定理 1 1 炭设 条 件 ( )和 ( 2 HI H )成 立 , 糸 貌 ( )仔 征 唯 一 的 概 周 别 { z () 满 足 则 1 I t, 弹
一 l≤
,
。(。:d(s ,。:)(s , e “s,』e “(s =』elI)…’ ( d - -(f)… 一(,) = 一( 1d je “s,『 I) (s ,。:d s) 。』U , f“ )…r :d d 。 6 . d. au ) 。 ad nJ _ 6 “ 一“ 』)
则 B 是 s 的凸闭子 集. 计 由文 献[ ]知 ,l 。l≤ , 以 , 6 l l Z 所
Il l z +l _ } j I ≤l 。 l l 举+—_ I ≤ z z — z 。 _ .
p R S U ∈
第6 期
邓 星,林 一 双向 想 忆 经 络 周 解 全 渐 稳m性 明 王 山 类 联 记 神 网概 期 的 局 近定
. 一
1
√ u
“ [
)
(
( s ud) - ) u
神经网络中的稳定性分析与鲁棒性改善
神经网络中的稳定性分析与鲁棒性改善近年来,神经网络在人工智能领域取得了巨大的突破,成为了许多任务的首选模型。
然而,与其广泛应用相伴随的是神经网络的不稳定性和对扰动的敏感性。
为了解决这个问题,研究人员们开始关注神经网络的稳定性分析和鲁棒性改善。
首先,我们来探讨神经网络的稳定性分析。
神经网络是由多个神经元组成的复杂系统,其稳定性分析是指在输入扰动下,网络输出的变化情况。
稳定性分析可以帮助我们了解网络对于不同输入的响应程度,进而评估网络的可靠性和性能。
稳定性分析的一个重要概念是鲁棒性。
鲁棒性指的是网络对于输入扰动的抵抗能力。
在现实应用中,网络往往需要面对各种噪声和干扰,鲁棒性的提高可以使网络更加稳定和可靠。
因此,研究人员们开始探索如何通过改进网络结构和训练方法来提高网络的鲁棒性。
一种常见的改进方法是引入正则化技术。
正则化技术可以通过约束网络的参数范围或者增加额外的惩罚项来减少过拟合现象,从而提高网络的鲁棒性。
例如,L1和L2正则化可以通过对网络参数进行稀疏化,减少不必要的特征,从而提高网络对于输入扰动的鲁棒性。
另一种改进方法是增加数据的多样性。
通过引入更多的训练样本或者进行数据增强,可以使网络更好地适应不同的输入扰动。
数据增强可以通过对原始数据进行旋转、平移、缩放等操作来生成更多的样本,从而提高网络的鲁棒性。
此外,生成对抗网络(GAN)也可以用于数据增强,通过生成具有扰动的样本来训练网络,提高鲁棒性。
除了改进网络结构和训练方法,还可以通过集成学习来提高网络的鲁棒性。
集成学习通过组合多个模型的预测结果,可以减少单个模型的误差,提高整体的鲁棒性。
例如,通过投票或者加权平均的方式,将多个网络的预测结果融合起来,可以减少由于单个网络的错误而引起的误判。
此外,对于神经网络的稳定性分析和鲁棒性改善,还可以从理论层面进行研究。
例如,通过数学模型和分析方法,可以推导出网络的稳定性条件和鲁棒性界限,从而指导网络设计和训练。
脉冲随机混合系统的稳定性与鲁棒稳定性分析
脉冲随机混合系统的稳定性与鲁棒稳定性分析
杨莹;李俊民;刘晓芬
【期刊名称】《控制与决策》
【年(卷),期】2008(23)5
【摘要】针对一类在切换时刻具有脉冲行为的Markov切换随机系统,首先,利用多Lyapunov函数的方法研究系统的稳定性,得到系统依概率稳定的充分条件,该条件以线性矩阵不等式(LMI)的形式给出;然后,进一步对系统的稳定化以及鲁棒稳定性问题进行分析与设计,给出相应的状态反馈增益矩阵和脉冲增益矩阵的求解方法;最后,数值算例说明了所设计方法的有效性.
【总页数】5页(P555-559)
【关键词】脉冲系统;Markov切换;依概率稳定;线性矩阵不等式;鲁棒稳定性
【作者】杨莹;李俊民;刘晓芬
【作者单位】西安电子科技大学应用数学系;浙江财经学院数学与统计学院
【正文语种】中文
【中图分类】TP13
【相关文献】
1.含时滞和脉冲的双向联想记忆神经网络模型的全局鲁棒一致渐近稳定性分析 [J], 赵亮;李树勇;杜启凤;张秀英
2.基于LMI的一类脉冲切换系统的稳定性与鲁棒稳定性分析 [J], 王后能;王仁明;蹇继贵
3.不确定脉冲系统的鲁棒指数稳定性分析 [J], 刘斌;刘新芝;廖晓昕
4.一类模糊随机神经网络的鲁棒稳定性分析 [J], 杨璐;刘德友
5.具有时变滞后的随机系统的时滞依赖鲁棒稳定性与H_∞分析 [J], 孙继涛;王庆国;高含俏
因版权原因,仅展示原文概要,查看原文内容请购买。
含时滞的双向联想记忆神经网络的全局吸引性和全局指数稳定性
I I
0
●f
拓扑 的有关知识 ,易证定理 2 [1 . . 1 定理 21 如果系统( 满足下列条件 : . 3 )
1 j )f l / 一 , )g I I一 , , 1,,f1… ) ) ( -j ) J Jg 一, ) I ∈ , , =, l ( ≤ f I( ( =2 ; 2 … ,
维普资讯
第 4期
董彪等: 含时滞的双向联想记忆神经网络的全局吸引性和全局指数稳定性
71 5
=
da ( . , 一 ,∈R , ig r - , , )
F一=(一, ( 。, 一, (一) = o ( ( … g … [ I ) 1, 卜)( ), ) , 是 ) ) ) ) ) ) ,
一
(+) ( +) m n × m n矩阵 ,其 中 :( ) ,V:( … V)
a ( u t )
— —
则() 1 可改写为 :
母
,L ,
、,
_
一
:
一
() E( f )+J , f f+W (— ) o ≥0.
+
() 3
at
∑
,
2 预备知识
含 时 滞 的双 向联 想 记 忆神 经 网络 的全 局 吸 引性和 全局 指 数稳 定 性
董彪,蒋 自国,吴文权
(阿坝师范高等专科 学校数 学系,四川汶川 6 3 0 2 0 0) 摘 要 :本文研 究 了具有时滞的双向联 想记忆神经 网络模型 ,在 非线性神 经元激励 函数是 Lpc i ish z连 续的条件 下 ,通过 t
●l
I I
2
2C =A—W )
是 M一 矩阵,
带有时滞和脉冲扰动的Hopfield神经网络的稳定性质
带有时滞和脉冲扰动的Hopfield 神经网络的稳定性质摘要 本文考虑的是带有时滞脉冲扰动的Hopfield 神经网络的平衡点的一致渐近稳定性、全局渐近稳定性和全局指数稳定性。
用Lyapunov 函数方法和LMI 技术可得到关于此系统稳定性的一些新法则。
结论与时滞和扰动的大小有关。
本文结果比已有文献的结果条件要弱。
最后给出两个数值例子说明此结果的有效性。
关键词 Hopfield 神经网络;一致渐近稳定;全局渐近稳定;全局指数稳定;时滞;脉冲扰动1 引言Hopfield 神经网络(HNN)被认为是信息处理系统的候补者,已经成功应用于联想记忆、模式识别、自动控制、模型分析、优化问题等领域[1-21]。
因而,HNN 的稳定性的研究引起了很多学者的关注。
时滞Hopfield 神经网络已经广泛地被研究很多年了,通过各种不同的方法也得到了关于此类型神经网络平衡点的稳定性的各种充分条件。
在[1],Liu 用固定点定理和微分不等式技巧得到了带有连续分布时滞的HNN 的殆周期解的存在性和指数稳定性的充分条件。
在[4],Zhang 运用Lyapunov 函数方法和LMI 技术得到了关于时滞HNN 的全局渐近稳定性的一些结果。
另一方面,脉冲扰动可使得不稳定的系统变得稳定,使稳定的系统变得不稳定(见[22-30]),因而它被广泛的应用在许多领域,如人口动力学、化学、工业机器人学、生物学等领域。
HNN 的目标是瞬间扰动系统或使系统状态突变,也就是呈现出脉冲效应 [6,7,9,19] 。
此种系统不能用单纯的连续HNN 或离散HNN 模型很好的描述出来。
最近,通过不同的方法得到了脉冲时滞HNN 模型的稳定性的一些结果。
例如,Zhang[12]用Lyapunov 函数方法和分析技巧得到了关于脉冲时滞HNN 系统的平衡点的一致稳定性的一个结果。
然而,[12]的结果仅仅只涉及到一致稳定。
因而,时滞和脉冲的效应被忽略。
事实上,时滞和脉冲可导致系统稳定性的很多性质。
时滞双向联想记忆神经网络的全局指数稳定新条件
o fBAM ewo k Ane a l Sas r e u O d mo srt h d a tg so u e ut n ies mea lss n t r. x mpei lo wo k do tt e n taet ea v n a e fo rrs l a dg v o n y i s a o h a ii fc n eg n ef rB M e rln t r n te rpdt o o v r e c o A y n u a ewo k .
(ilgIsi t f cn lg .Naj g2 00 Jni n tueo h oo y n t Te ni 10 1) n
A tc B epyghiq l I l ≤ 6+ 口(≥ , ,>O r , )n c — Mmt ymli e e ayI=  ̄ ÷。 f ÷ o ont uia rb n t 口 ≥o k ' q= 一1 >1a n q 。 r do
sr cig an w a u o u cin l tu t e Ly p n vf n t a 。wegv a l fn w uf in o d t n o lb l x n n il tbl yo h n o ieafmi o e s fi e tc n ii sf r o a p e ta a it ft e y c o g eo s i d ly d bdrein la s caieme r e rln t r. Th e ut l w rt ec n ieaino l u b u d d n u ea e ii t a so it mo y n u a ewo k e o v ers l al f h o sd rt fal n o n e e — s o o o
关于脉冲滞神经网络的全局稳定性
关于脉冲滞神经网络的全局稳定性
赵军;胡军浩;黄文玲
【期刊名称】《佛山科学技术学院学报(自然科学版)》
【年(卷),期】2005(023)003
【摘要】本文扩展双向联想记忆神经网络(BAMNN)的研究范围,在时滞型BAMNN的基础上,提出脉冲型时滞BAMNN的概念,并对其全局一致渐近稳定性进行了讨论.便于从新的途径实现BAMNN分析和综合利用.
【总页数】4页(P1-4)
【作者】赵军;胡军浩;黄文玲
【作者单位】海军工程大学,兵器工程系,湖北,武汉,430033;中南民族大学,计算机学院,湖北,武汉,430074;海军工程大学,兵器工程系,湖北,武汉,430033
【正文语种】中文
【中图分类】TP183
【相关文献】
1.脉冲多比例时滞细胞神经网络全局指数稳定性准则 [J], 王小伟;胡霁芳;肖玉柱;宋学力
2.具分布时滞和脉冲的BAM神经网络的全局指数稳定性 [J], 陈超
3.一类具脉冲的非自治高阶BAM神经网络周期解的全局指数稳定性 [J], 贾秀玲;王继禹;李耀堂
4.一类具比例时滞脉冲递归神经网络的全局多项式稳定性 [J], 周立群;宋协慧
5.具有脉冲的混合时滞Hopfield神经网络的全局渐近稳定性 [J], 张雪莹;陈展衡
因版权原因,仅展示原文概要,查看原文内容请购买。
带时变时滞细胞神经网络的全局渐近稳定性
带时变时滞细胞神经网络的全局渐近稳定性
胡春燕;杨德刚;胡志强
【期刊名称】《重庆交通大学学报(自然科学版)》
【年(卷),期】2010(029)001
【摘要】研究了带时变时滞的细胞神经网络的全局渐近稳定性问题,给出了带时变时滞细胞神经网络平衡点全局渐近稳定的新充分判定准则.首先,提出所研究的时滞细胞神经网络模型、系统激活函数所需满足的条件及需要的引理.然后,将所研究的系统通过一个等式进行线性变换,在定义一个与系统相关的映射操作基础上,基于Lyapunov-Krasovskii稳定性定理和线性矩阵不等式技术来讨论时滞细胞神经网络的全局渐近稳定性.所得条件是时滞相关的.最后,用一个数值例子验证所得的稳定性条件是有效的.
【总页数】6页(P151-156)
【作者】胡春燕;杨德刚;胡志强
【作者单位】重庆师范大学,数学与计算机科学学院,重庆,400047;重庆师范大学,数学与计算机科学学院,重庆,400047;重庆交通大学,重庆,400074
【正文语种】中文
【中图分类】TP183
【相关文献】
1.一类时变时滞模糊细胞神经网络的时滞依赖指数稳定性判据 [J], 刘振伟;张化光;佟绍成
2.多时滞和分布时滞细胞神经网络的全局渐近稳定性 [J], 王占山;张化光;关焕新
3.一类具比例时滞细胞神经网络的全局渐近稳定性 [J], 郭盼盼;周立群
4.多时变时滞细胞神经网络的全局渐近稳定性分析 [J], 陈钢;王占山
5.具有区间时变时滞的细胞神经网络的时滞相关渐近稳定性分析 [J], 杨海;施大发因版权原因,仅展示原文概要,查看原文内容请购买。
联想记忆类脑忆阻神经网络同步控制及稳定性分析
联想记忆类脑忆阻神经网络同步控制及稳定性分析摘要本文提出了一种基于联想记忆类脑忆阻神经网络的同步控制方法,并对其稳定性进行了分析。
首先介绍了类脑忆阻神经网络的结构和工作原理,以及联想记忆的概念和特点。
然后针对忆阻网络容易产生异步运动的问题,提出了同步控制策略,通过引入适当的耦合强度和反馈机制,实现了网络的同步运动。
接着,利用Lyapunov稳定性理论对同步控制器的稳定性进行了分析,证明了网络可以在一定范围内保持同步运动。
最后,通过数值仿真验证了所提出的同步控制方法的有效性和稳定性。
关键词:联想记忆;类脑忆阻神经网络;同步控制;稳定性分析;Lyapunov理论一、引言类脑忆阻神经网络是一种新型的神经计算模型,它在结构和功能上都类似于人脑,具有自适应、学习、记忆等特点。
联想记忆是人脑中最基本、最广泛应用的记忆方式之一,是指在给定一个刺激的情况下,能够自动提取关联信息并激活相关的神经元,从而恢复相关的记忆内容。
因此,联想记忆是类脑忆阻神经网络的一种重要应用场景,对其性能和稳定性具有重要意义。
然而,由于网络的异质性、非线性以及噪声等因素的影响,类脑忆阻神经网络在实际应用中容易出现异步运动的现象,即网络中的各个神经元运动速度不同、相位不同,从而导致网络的性能下降。
因此,对忆阻网络的同步控制和稳定性分析成为了一个重要的研究方向。
本文基于类脑忆阻神经网络结构,提出了一种基于联想记忆的同步控制方法,并利用Lyapunov稳定性理论对其稳定性进行了分析。
具体来说,本文的贡献包括:(1)提出了一种利用反馈机制实现忆阻网络同步控制的方法,该方法能够保证网络的同步运动,并抑制网络的异步运动。
(2)利用Lyapunov稳定性理论对同步控制器的稳定性进行了分析,证明了网络可以在一定范围内保持同步运动。
(3)通过数值仿真验证了所提出的同步控制方法的有效性和稳定性。
二、联想记忆类脑忆阻神经网络模型类脑忆阻神经网络是一种基于生物神经元模型的计算模型,模拟了生物神经元之间的兴奋、抑制关系以及突触传递机制等。
一般时滞双向联想记忆神经网络的稳定性分析的开题报告
一般时滞双向联想记忆神经网络的稳定性分析的开题报告一、研究背景随着神经网络技术的快速发展,越来越多的任务都可以通过神经网络来完成。
其中,双向联想记忆神经网络是一种常见的神经网络模型,在语音识别、图像识别、自然语言处理等领域得到了广泛应用。
然而,由于双向联想记忆神经网络存在时滞因素,因此其稳定性问题也成为了研究的重点之一。
目前,国内外学者已经提出了许多关于双向联想记忆神经网络稳定性分析的方法和理论,但仍存在一些问题亟待解决。
因此,本文旨在针对一般时滞双向联想记忆神经网络的稳定性进行研究,探讨其在实际应用中的性能和局限性,为该领域的研究提供新思路和方法。
二、研究内容本研究将使用控制理论中的稳定性分析方法,通过建立动态模型和状态空间表达式,对一般时滞双向联想记忆神经网络进行稳定性分析。
具体研究内容如下:1. 构建一般时滞双向联想记忆神经网络的动态模型,包括神经元的输入输出关系、时间滞后单元的特性等。
2. 利用状态空间分析方法对双向联想记忆神经网络的稳定性进行分析,推导出系统的状态转移矩阵和传递函数。
3. 分析双向联想记忆神经网络的稳定性条件,并给出其解析解表达式,探讨系统稳定性的数学原理和物理机制。
4. 利用MATLAB等数学工具进行仿真实验,验证理论分析的正确性和可靠性,并对双向联想记忆神经网络在实际应用中的性能和局限性进行讨论。
三、研究意义本研究的主要意义在于:1. 对一般时滞双向联想记忆神经网络的稳定性进行了深入分析,揭示了系统稳定性的数学原理和物理机制。
这有助于提高人们对神经网络系统的理解和认识,并为进一步研究提供了新的思路和方法。
2. 建立了稳定性分析模型,可以快速准确地对系统稳定性进行预测和评估。
这在实际工程应用中具有重要意义,可以帮助人们设计更加稳定、可靠的神经网络控制系统,提高系统的工作效率和性能。
3. 通过仿真实验验证了理论分析的正确性和可靠性,对双向联想记忆神经网络在实际应用中的性能和局限性进行了讨论。
双向联想记忆神经网络的指数输入-状态稳定性
2016年7月重庆师范大学学报(自然科学版)J u l.2016第33卷第4期J o u r n a l o fC h o n g q i n g N o r m a lU n i v e r s i t y(N a t u r a l S c i e n c e)V o l.33N o.4D O I:10.11721/c q n u j20160422双向联想记忆神经网络的指数输入-状态稳定性*李建军,杨志春(重庆师范大学数学科学学院,重庆401331)摘要:研究关于具有多个时滞效应和时变外部输入双向联想记忆神经网络模型的指数输入-状态稳定性分析㊂首先,建立了双向联想记忆神经网络模型,该模型具有多个时滞效应并且外部输入是时变的㊂而且模型中非线性神经元激励函数不要求是有界的,也不要求是光滑的㊂然后给出双向联想记忆神经网络指数输入-状态稳定性的一个定义,利用L y a p u n o v 泛函和线性矩阵不等式-m X T Q X+2l X TπYɤl2Y TπT(m Q)-1πY和X T Y+Y T XɤεX TΛX+ε\Y TΛ-1Y的方法,获得含有多时滞效应和时变外部输入的双向联想记忆神经网络模型指数输入-状态稳定性的一个充分条件㊂关键词:时滞;双向联想记忆神经网络;指数输入-状态稳定;L y a p u n o v泛函中图分类号:O175文献标志码:A文章编号:1672-6693(2016)04-0079-06 1研究背景双向联想记忆(B i d i r e c t i o n a l a s s o c i a t i v em e m o r y,B AM)神经网络模型[1-3]是由K o s k o首次提出来的一种经典的递归神经网络㊂K o s k o假设神经元在处理输入信号和输出信号的过程都是被即时处理的,同时处理输入信号时也是被神经元即时的吸收㊂但是由于神经元轴突种类大小比较繁多㊁传输路径比较长以及神经元的个数较大等各种因素的影响,神经元在传输信号过程中并不一定总是即时被传输的,所以处理过程通常有时间延迟[4-5],由于双向联想记忆神经网络模型的应用比较广泛,在模式辨识和模式分类等各领域应用中具有较大的实际应用前景,从而目前已有许多学者获得了不少判别稳定性的一些相关判据[6-15]㊂比如,W a n和T a n等人[7]研究了双向联想记忆神经网络模型平衡点的局部稳定的性质,得到了在平衡点指数收敛速度的一些估计以及确定指数吸引域的若干方法和技巧㊂D o n g和J i a n g等人[12]通过构造线性矩阵不等式的方法以及构造新的L y a p u n o v 泛函技术,得到了关于神经网络的稳定性㊁指数稳定性的一些条件与结果㊂但是,神经网络输入-状态稳定的研究成果不多[16-17]㊂J i a n g和S h e n等人[16]针对非自治的动态神经网络模型,将其等效成非线性仿射控制系统,建立数学模型,给出了输入-状态稳定的一些充分条件,并分析了平衡点的存在唯一性以及渐近稳定性,通过构造新的L y a p u n o v函数的方法,获得了该模型渐近稳定性的若干充分条件㊂Y a n g和Z h o u[17]研究了有时变的动态神经网络,通过运用一些线性矩阵不等式的方法以及构造新的L y a p u n o v泛函的技术,得到该神经网络模型的输入-状态稳定性的一个充分条件㊂然而,相对于神经网络的输入-状态稳定,神经网络指数输入-状态稳定的结果更少[18-19]㊂比如,Y a n g和Z h o u等人[18]对含有变时滞递归神经网络模型的指数对输入-状态稳定性进行了分析,从而得到了变时滞递归神经网络模型指数输入-状态稳定性的一些充分条件㊂X u和Z h o u等人[19]研究了变时滞的C o h e n-G r o s s b e r g神经网络模型,利用R a z u m i k h i n技术和构造新的H a l a n a y微分不等式方法,获得了该模型指数输入-状态稳定性的一些充分条件㊂但是仍然未涉及到对含多时滞和外部输入含时延的双向联想记忆神经网络模型的指数输入-状态稳定性的研究㊂下面将主要研究外部输入随时间变化和多时滞效应的双向联想记忆神经网络模型,建立双向联想记忆神经网络模型指数输入-状态稳定性的一个判据㊂*收稿日期:2015-10-23修回日期:2016-05-16网络出版时间:2016-07-0716:33资助项目:国家自然科学基金(N o.11471061);重庆市自然科学基金(N o.C Q C S T C2014J C Y J A40004);重庆市高校创新团队计划(N o.K J T D201308);重庆市研究生科研创新项目(N o.C Y S16149)作者简介:李建军,男,研究方向为微分方程与动力系统,E-m a i l:c q n u l i j i a n j u n@163.c o m;通信作者:杨志春,教授,E-m a i l:y a n g z h c h@126.c o m网络出版地址:h t t p://w w w.c n k i.n e t/k c m s/d e t a i l/50.1165.N.20160707.1633.036.h t m l2模型建立主要研究如下形式的双向联想记忆神经网络:d x i (t )d t =-a i x i (t )+ðnj =1u i j f j y j t -τ()()j +s i (t ),i =1, ,n ,d y j (t )d t =-b j y j (t )+ðni =1v j i g i (x i (t -σi ))+h j (t ),j =1, ,n ìîíïïïï㊂(1)其中x i (t ),y j (t )为神经元的状态,f j ,g i 在R 上连续,a i ,b j 是正常数,τj ,σi 为非负常数,u i j ,v j i ,s i ,h j 是常数,双向联想记忆神经网络模型是由两层神经元构成,分别记为第X 层和第Y 层,其中第X 层是由n 个神经元组成的,其对应的状态向量的表示记为x =(x 1,x 2, ,x n )T,外部输入记为s i (t );同样,第Y 层是由n 个神经元组成的,其对应的状态向量的表示记为y =(y 1,y 2, ,y n )T ,外部输入记为h j (t )㊂为了叙述方便,记:A =d i a g {a 1,a 2, ,a n },B =d i a g {b 1,b 2, ,b n },W =(u i j )n ˑn ɪR n ˑn ,V =(v ji )n ˑn ɪR n ˑn,f (y (t -τ))=(f 1(y 1(t -τ1)),f 2(y 2(t -τ2)), ,f n (yn (t -τn )))T,g (x (t -σ))=(g 1(x 1(t -σ1)),g 2(x 2(t -σ2)), ,gn (x n (t -σn )))T ,s (t )=(s 1(t ),s 2(t ), ,s n (t ))T,h (t )=(h 1(t ),h 2(t ), ,h n (t ))T㊂那么(1)式可简写为:d x (t )d t=-A x (t )+W f (y (t -τ))+s (t ),d y (t )dt =-B y (t )+V g (x (t -σ))+h (t ìîíïïïï)㊂(2)对∀x ,y ɪR n ,ξ,ψɪC ,其中C :C ([-r ,0],R n)(r >0)为连续函数映射,s ,h 为有界函数,定义x =(x T x )12,(x ;y )=(x T x +y T y )12,(ξ;ψ)r =s u p t ɪ[-r ,0](ξ(t );ψ(t )),r =m a x (τ,σ),(s ;h )ɕ=s u p t ɪ[0,+ɕ)(s (t );h (t ))㊂定义γ:R +ңR +为连续函数,如果满足严格递增且γ(0)=0,称函数γ为K -函数㊂定义函数β:R +ˑR +ңR +,如果满足对每一个t ȡ0函数β(㊃,t )为一个K -函数,且对于每一个s ȡ0,当t ңɕ都有函数β(㊃,t )递减且趋于0,称函数β(㊃,t )为K L -函数㊂为了证明结论,下面引入一些定义与引理㊂定义1 双向联想记忆神经网络(2)称为输入-状态稳定的㊂若存在一个K L -函数β:R +ˑR +ңR +和一个K -函数γ(㊃)满足:(x (t );y (t ))ɤβ((ξ;ψ),t )+γ((s ;h )ɕ),(3)其中ξ,ψɪC ,s (t ),h (t )ɪL nɕ,t >0,(x (t );y (t ))=(x (t ,[ξ;ψ]);y (t ,[ξ;ψ]))为模型(2)神经元的状态量,而x (s )=ξ(s )y (s )=ψ(s {)为该模型的初始值㊂定义2 双向联想记忆神经网络(2)称为指数输入-状态稳定的㊂若存在一个λ>0和两个K -函数γ,β满足:(x (t );y (t ))ɤβ((ξ;ψ)τ)e -λt+γ((s ;h )ɕ),(4)其中ξ,ψɪC 为初值,s (t ),h (t )ɪL nɕ,t >0㊂引理1[20] 设X 和Y 为两个n 维向量,Q 和π为两个n 阶矩阵并且Q >0,对于任意两个正数m >0和l >0有以下不等式成立:-m X ΤQ X +2l X T πY ɤl 2Y T πT (m Q )-1πY ㊂(5)引理2[21] 设X 和Y 为两个n 阶矩阵,Λ是一个n 阶矩阵且ΛT =Λ>0,对于任意ε>0有,X T Y +Y T X ɤεX T ΛX +1εY T Λ-1Y ㊂(6)3主要结果为了获得神经网络(2)的指数输入状态稳定性,假设激励函数f ,g 满足:(A 1)存在βj ,αi >0使得对于∀θ,ρɪR ,有0ɤf j (θ)-f j (ρ)θ-ρɤβj ,0ɤg i (θ)-g i (ρ)θ-ρɤαi ,i ,j =1,2, ,n ㊂定理 假设(A 1)成立,如果:08重庆师范大学学报(自然科学版) h t t p ://w w w.c q n u j.c n 第33卷-α-1A α-1+WW T -2A α-1+I +V T B -1V +ε2I <0,(7)-β-1B β-1+V V T -2B β-1+I +W T A -1W +ε4I <0,(8)其中I 为单位矩阵,ε1,ε2,ε3,ε4为正实数,f j (0)=0,g i (0)=0,β=d i a g (β1,β2, ,βn )T,α=d i a g (α1,α2, ,αn ),i ,j =1,2, ,n ,那么双向联想记忆神经网络(2)是指数输入-状态稳定的㊂证明 首先选择两个适当的数ξ*,ζ*<0和正数ε>0使得:g T (x (t ))(-α-1A α-1+WW T -2A α-1+I +V T B -1V +ε2I )g (x (t ))ɤξ*g T(x (t ))g (x (t )),(9)f T (y (t ))(-β-1B β-1+V V T -2B α-1+I +W T A -1W +ε4I )f (y (t ))ɤζ*f T(y (t ))f (y (t )),(10)并且满足:ε+εαi +ε1+ξ*α2i +(α2i +η1α2i )σεe εσ<0,(11)ε+εβj +ε3+ζ*β2j +(β2j +η2β2j )τεe ετ<0,(12)其中η1,η2满足g T (x (r ))V T B -1V g (x (r ))ɤη1g T (x (r ))g (x (r )),f T (y (σ))W T A -1W f (y (σ))ɤη2f T(y (σ))f (y (σ))㊂下面构造如下的L y a pu n o v 函数:V (x (t ),y (t ))=x T(t )x (t )+2ðni =1ʏx i (t)0g i (ξ)d ξ+ðni =1ʏtt-σg 2i(x i (ζ))d ζ+y T(t )y (t )+2ðnj =1ʏy j(t )0f j (ρ)d ρ+ðnj =1ʏtt -τf 2j(y j (η))d η+ʏtt -σg T(x (r ))V T B -1V g (x (r ))d r +ʏtt -τf T(y (σ))W T A -1W f (y (σ))d σ㊂(13)(13)式沿方程组(2)式关于t 求导,可得:V ㊃(x (t ),y (t ))=-2x T (t )A x (t )+2x T (t )W f (y (t -τ))+2x T (t )s (t )-2g T(x (t ))A x (t )+2g T (x (t ))W f (y (t -τ))+2g T (x (t ))s (t )+g T (x (t ))g (x (t ))-g T(x (t -σ))g (x (t -σ))-y T (t )B y (t )-y T (t )B y (t )+2y T (t )V g (x (t -σ))+2y T (t )h (t )-2f T(y (t ))B y (t )+2f T (y (t ))V g (x (t -σ))+2f T(y (t ))h (t )+f T (y (t ))f (y (t ))-f T (y (t -τ))f (y (t -τ))+g T (x (t ))V T B -1V g (x (t ))-g T(x (t -σ))V T B -1V g (x (t -σ))+f T(y (t ))W T A -1W f (y (t ))-f T (y (t -τ))W T A -1W f (y (t -τ))㊂(14)由引理1有:-x T (t )A x (t )+2x T (t )W f (y (t -τ))-f T (y (t -τ))W T A -1W f (y (t -τ))=-(A 12x (t )-A -12W f (y (t -τ)))T (A 12x (t )-A -12W f (y (t -τ)))ɤ0,-y T (t )B y (t )+2y T (t )V g (x (t -σ))-g T(x (t -σ))V T B -1V g (x (t -σ))=-(B 12y (t )-B -12V g (x (t -σ)))T(B 12y (t )-B -12V g (x (t -σ)))ɤ0,-g T (x (t -σ))g (x (t -σ))+2f T(y (t ))V g (x (t -σ))ɤf T (y (t ))V V T f (y (t )),-f T (y (t -τ))f (y (t -τ))+2g T (x (t ))W f (y (t -τ))ɤg T(x (t ))WW T g (x (t ))㊂(15)由引理2有:2x T (t )s (t )ɤε1x T (t )x (t )+1ε1s T (t )s (t ),2g T (x (t ))s (t )ɤε2g T(x (t ))g (x (t ))+1ε2s T (t )s (t ),2y T (t )h (t )ɤε3y T (t )y (t )+1ε3h T (t )h (t ),2f T (y (t ))h (t )ɤε4f T(y (t ))f (y (t ))+1ε4h T (t )h (t )㊂(16)将(15),(16)式以及假设条件(A 1)代入(14)式以及由(9),(10)式可得:V ㊃(x (t ),y (t ))ɤ-g T (x (t ))α-1A α-1g (x (t ))+g T (x (t ))WW T g (x (t ))-2g T(x (t ))A α-1g (x (t ))+g T (x (t ))g (x (t ))+g T (x (t ))V T B -1V g (x (t ))-f T (y (t ))β-1Bβ-1f (y (t ))+f T (y (t ))V V T f (y (t ))-2f T (y (t ))B β-1f (y (t ))+f T (y (t ))f (y (t ))+f T (y (t ))W T A -1W f (y (t ))+ε1x T (t )x (t )+ε2g T (x (t ))g (x (t ))+ε3y T (t )y (t )+ε4f T(y (t ))f (y (t ))+1ε1+1εæèçöø÷2s (t )2+1ε3+1εæèçöø÷4h (t )2=g T (x (t ))(-α-1A α-1+WW T -2A α-1+I +V T B -1V +ε2I )g (x (t ))+ε1x T (t )x (t )+ε3y T (t )y (t )+f T (y (t ))(-β-1B β-1+V V T -2B β-1+I +W T A -1W +ε4I )f (y (t ))+εᶄ1s (t )2+εᶄ2h (t )2ɤξ*g (x (t ))2+ζ*f (y (t ))2+ε1x T (t )x (t )+ε3y T(t )y (t )+εᶄ1s (t )2+εᶄ2h (t )2,(17)18第4期 李建军,等:双向联想记忆神经网络的指数输入-状态稳定性其中εᶄ1=1ε1+1ε2,εᶄ2=1ε3+1ε4㊂下面对e εtV (x (t ),y (t ))求导并将(17)式带入有:d (e εt V (x (t ),y (t )))d t =εe εt V (x (t ),y (t ))+e εt V ㊃(x (t ),y (t ))ɤεe εt [x T(t )x (t )+2ðn i =1ʏx i (t)0g i (ξ)d ξ+ðni =1ʏtt-σg 2i(x i (ζ))d ζ+y T(t )y (t )+2ðnj =1ʏy j(t )0f j (ρ)d ρ+ðnj =1ʏtt -τf 2j(y j (η))d η+ʏt t -σg T(x (r ))V T B -1V g (x (r ))d r +ʏtt -τf T (y (σ))W T A -1W f (y (σ))d σ]+e εt [ξ*g (x (t ))2+ζ*f (y (t ))2+ε1x T (t )x (t )+ε3y T(t )y (t )+εᶄ1s (t )2+εᶄ2h(t )2]ɤεe εt[x T(t )x (t )+2x T(t )αx (t )+ðni =1ʏtt-σg 2i (x i (ζ))d ζ+y T(t )y (t )+2y T(t )y (t )+ðnj =1ʏtt -τf 2j(y j(η))d η+ʏtt -σg T (x (r ))V TB -1V g (x (r ))d r +ʏtt -τf T(y (σ))W TA -1W f (y (σ))d σ]+e εt ξ*ðni =1α2i x2i(t )+ζ*ðnj =1β2j y 2i(t )+ε1x (t )2+ε3y (t )2+εᶄ1s (t )2+εᶄ2h(t )[]2ɤeεtðn i =1(ε+εαi+ε1+ξ*α2i)x i(t )2+ðnj =1(ε+εβj +ε3+ζ*β2j)y j (t )2+ðni =1εᶄ1s i (t )2[+ðn j =1εᶄ2h j (t )2+ðni =1ʏtt -σεg 2i(x i (ζ))d ζ+ðnj =1ʏtt -τεf 2j (y j (η))d η+ʏtt -σεg T(x (r ))V T B -1V g (x (r ))d r +ʏtt -τεf T(y (σ))W T A -1W f (y (σ))d ]σ㊂(18)(18)式两边同时积分可得:e εtV (x (t ),y (t ))-V (x (0),y (0))ɤðni =1(ε+εαi +ε1+ξ*α2i )ʏt 0e εsx i (s )2d s +ðnj =1(ε+εβj +ε3+ζ*β2j)ʏte εsy j (s )2d s +ðn i =1εα2iʏteεsʏss -σx i (ξ)2d ξd s +ðnj =1εβ2j ʏt 0e εsʏss -τy j (ζ)2d ζd s +ðni =1η1εα2iʏte εs ʏss -σx i(ξ)2d ξd s +ðnj =1η2εβ2jʏte εsʏss -τy i(ζ)2d ζd s +ðni =1εᶄ1ʏte εss i(s )2d s +ðnj =1εᶄ2ʏte εsh j(s )2ds (19)通过交换积分顺序,有下面两个积分成立:ðni =1(α2i+η1α2i)ʏteεsʏss -σx i (ξ)2d ξd s =ðni =1(α2i+η1α2i)ʏ0-σx i (ξ)2ʏm i n (t ,ξ+σ)m a x (0,ξ)e εsd s d ξɤðni =1(α2i+η1α2i)ʏt-σσe εγe εξx i(ξ)2d ξɤðni =1(α2i+η1α2i )σe εγʏ0-σx i(s )2d s +σe εσʏte εsx i(s )2d()s ,ðnj =1(β2j+η2β2j)ʏte εsʏss -τy j(ζ)2d ζd s =ðnj =1(β2j+η2β2j)ʏt-τy j(ξ)2ʏm i n (t ,ξ+τ)m a x (0,ξ)e εsd s d ξɤðnj =1(β2j+η2β2j)ʏt-ττe ετe εξy j(ξ)2d ξɤðnj =1(β2j+η2β2j)τe ετʏ0-τy j(s )2d s +τe ετʏte εsy j(ξ)2d()s (20)将(20)式带入(19)式可得:e εtV (x (t ),y (t ))-V (x (0),y (0))ɤðni =1(ε+εαi +ε1+ξ*α2i +(α2i +η1α2i )σεe εσ)ʏte εsx i (s )2d s +ðn j =1(ε+εβj+ε3+ζ*β2j+(β2j+η2β2j)ετe ετ)ʏte εsy j(s )2d s +ðmi =1(α2i+η1α2i)σεe εσʏ0-σx i(s )2d s +ðnj =1(β2j+η2β2j)τεe ετʏ0-τy j(s )2d s +ðni =1εᶄ1ʏte εss i(s )2d s +ðmj =1εᶄ2ʏte εsh j(s )2ds (21)由(21),(11),(12)式可得:28重庆师范大学学报(自然科学版) h t t p ://w w w.c q n u j.c n 第33卷V (x (t ),y (t ))ɤðn i =1α2i+η1α2()iσεe εσʏ-σx i (s )2d s +ðn i =1x i (0)2+ðni =1α2i ʏ-σx i (ξ)2d ξ{+2ðnj =1ʏy j(0)0f j (ρ)d ρ+ðni =1η1α2i ʏ0-σx i (s )2d s +ðnj =1β2j+η2β2()jτεe ετʏ0-τy j (s )2d s +ðnj =1y j (0)2+2ðn i =1ʏx i (0)0g i(ξ)d ξ+ðnj =1β2jʏ0-τy j(ξ)2d ξ+ðnj =1η2β2jʏ0-τy j(ξ)2d ξ}e -εt +n εᶄ1εs 2ɕ+n εᶄ2εh 2ɕ㊂则:x (t )2+y (t )2ɤ{x (0)2+y (0)2+ðni =1α2i+η1α2()iσεe εσ+ðni =1α2i(+ðni =1η1α2)iʏ-σx i (s )2d s +ðnj =1βjx i (0)2+ðni =1αi yi (0)2+ðnj =1β2j+η2β2()jτεe ετ+ðnj =1β2j (+ðnj =1η2β2)jʏ-τy j (s )2d s }e -εt +n εᶄ1εs 2ɕ+n εᶄ2εh 2ɕɤ췍(x (0)2+y (0)2)+ðn i =1(α2i+η1α2i )σεe εσ+ðn i =1α2i+ðni =1η1α2()iʏ-σx i (s )2d s +ðnj =1(β2j+η2β2j )τεe ετ({+ðnj =1β2j+ðnj =1η2β2)jʏ-τyi (s )2d }s e -εt +n εᶄ1ε S 2ɕ+n εᶄ2ε h 2ɕ,其中췍:=m a x 1ɤi ,j ɤn{1+βj ,1+αi }㊂由定义的范数可得:(x (t );y (t ))ɤe -εt22췍(x (0)2+y (0)2)+ðni =1(α2i+η1α2i)σεe εσ+ðni =1α2i+ðni =1η1α2()i ʏ0-σx i (s )2d s {[+ðnj =1(β2j+η2β2j)τεe ετ+ðnj =1β2j+ðnj =1η2β2()jʏ-τy j (s )2d }]s 12+2n εᶄæèçöø÷ε12s2ɕ+h2()ɕ12,其中εᶄ=m a x (εᶄ1,εᶄ2),θ=m a x ðn i =1(α2i+η1α2i)σεe εσ+ðni =1α2i+ðni =1η1α2i,ðnj =1(β2j+η2β2j)τεe ετ+ðnj =1β2j+ðnj =1η2β2{}j ㊂下面将定义两个新的函数为β(s )=2췍s +4θ,γ(s )=s 2n εᶄæèçöø÷ε12㊂显然β(㊃),γ(㊃)为K -函数㊂取λ=ε2,则有(x (t );y (t ))ɤβ((ξ;ψ)r )e -λt+γ((s ;h )ɕ)㊂根据定义,双向联想记忆神经网络(2)是指数输入-状态稳定的㊂证毕4结束语主要研究了外部输入随时间变化的多时滞双向联想记忆神经网络,通过L y a pu n o v 泛函方法及构造新的线性矩阵不等式的技术,获得了关于双向联想记忆神经网络模型的指数对输入-状态稳定性分析的一个充分条件,后期将通过构造新的积分微分不等式的技术进一步研究含脉冲和随机的神经网络模型的输入-状态稳定性问题㊂参考文献:[1]K o s k oB .A d a p t i v eb i d i r e c t i o n a l a s s o c i a t i v e m e m o r i e s [J ].A p p l i e dO pt i c s ,1987,26(23):4947-4960.[2]K o s k oB .B i d i r e c t i o n a l a s s o c i a t i v em e m o r i e s [J ].I E E ET r a n s a c -t i o n so nS y s t e m s ,M a n a n dC y b e r n e t i c s ,1988,18(1):49-60.[3]K o s k oB .U n s u p e r v i s e d l e a r n i n g i nn o i s e [J ].I E E E T r a n s -a c t i o n s o nN e u r a lN e t w o r k s ,1990,1(1):44-57.[4]L i a oX ,Y u JB .Q u a l i t a t i v e a n a l y s i s o f b i -d i r e c t i o n a l a s s o c i -a t i v e m e m o r y n e t w o r k s w i t h t i m e d e l a y s [J ].I n tJ C i r c T h e o r y,1998,26:219-229.[5]Z h a o H Y ,D i n g N.D y n a m i c a n a l y s i so f s t o c h a s t i cb i d i r e c -t i o n a l a s s o c i a t i v em e m o r y n e u r a l n e t w o r k sw i t hd e l a ys [J ].C h a o s ,S o l i t o n s a n dF r a c t a l s ,2007,32:1692-1702.[6]M i c h e lA N ,F a r r e l l JA ,P o r o d W.Q u a l i t a t i v ea n a l ys i so f n e u r a l n e r w o r k s [J ].I E E E T r a n s C i r c u i t sS ys t ,1989,36(1):229-243.[7]W a n g LS ,T a nZ ,Z h a n g ZP .S u f f i c i e n t a n dn e c e s s a r y c o n -d i t i o n f o r l o c a l e x p o n e n t i a l s t a b i l i t y o f c o n t i n u o u sb i d i r e c -t i o n a l a s s o c i a t i v em e m o r y n e t w o r k [J ].E l e c t r o n i cJ o u r n a l ,1997,27(7):119-121.[8]G u a nH X ,W a n g ZS ,Z h a n g H G.S t a b i l i t y a n a l y s i so f u n -c e r n t a i nb i -d i r e c t i o n a l a s s o c i a t i v em e m o r y n e u r a l n e t w o r k s w i t hv a r i a b l ed e l a y s [J ].C o n t r o lT h e o r y a n d A p p l i c a t i o n ,38第4期 李建军,等:双向联想记忆神经网络的指数输入-状态稳定性2008,25(3):421-426.[9]赵洪涌,徐道义.具有分布时滞的双向联想记忆神经网络稳定性分析[J].四川大学学报:自然科学版,2001,38(4): 465-467.Z h a oH Y,X uD Y.S t a b i l i t y a n a l y s i so f b i d i r e c t i o n a l a s s o-c i a t i v em e m o r y n e u r a l n e t w o r k sw i t hd i s t r i b u t e dd e l a y[J]. J o u r n a lo fS i c h u a n U n i v e r s i t y:N a t u r a lS c i e n c e,2001,38 (4):465-467.[10]张强,马润年.具有连续分布时滞的双向联想记忆神经网络的全局稳定[J].中国科学,2003,33(6):481-487.Z h a n g Q,M aRN.G l o b a l s t a b i l i t y o f b i d i r e c t i o n a l a s s o c i a-t i v em e m o r y n e u r a l n e t w o r k sw i t hc o n t i n u o u sd i s t r i b u t e dd e l a y s[J].C h i n e s eS c i e n c e,2003,33(6):481-487.[11]张强,高琳,王超,等.时滞双向联想记忆神经网络的全局稳定性[J].物理学报,2003,52(7):1600-1605.Z h a n g Q,G a oL,W a n g C,e t a l.G l o b a l s t a b i l i t y o f t i m e d e-l a y e d b i d i r e c t i o n a la s s o c i a t i v e m e m o r y n e u r a ln e t w o r k s [J].J o u r n a l o fP h y s i c s,2003,52(7):1600-1605. [12]董彪,蒋自国,蒲志林.变时滞的双向联想记忆神经网络的全局指数稳定性[J].西南民族大学学报,2011,379(4):521-524.D o n g B,J i a n g ZG,P uZL.G l o b a l e x p o n e n t i a l s t a b i l i t y o f b i d i r e c t i o n a la s s o c i a t i v e m e m o r y n e u r a l n e t w o r k s w i t h t i m e v a r y i n g d e l a y s[J].J o u r n a lo fS o u t h w e s tU n i v e r s i t yf o rN a t i o n a l i t i e s,2011,379(4):521-524.[13]N i u JR,Z h a n g ZF,X uDY.M e a n s q u a r e e x p o n e n t i a l s t a-b i l i t y o f s t oc h a s t i cn e u r a l n e t w o r k sw i t hv a r i a b l e t i m ed e-l a y C o he n-G r o s s b e r g[J].J o u r n a lo fE n g i n e e r i n g M a t h e-m a t i c s,2005,6:1001-1005.[14]高潮,周山雪.双向联想记忆神经网络的全局指数稳定性[J].中山大学学报,2002,41(6):14-17.G a oC,Z h o uS X.G l o b a l e x p o n e n t i a l s t a b i l i t y o fb i d i r e c-t i o n a l a s s o c i a t i v e m e m o r y n e u r a ln e t w o r k[J].J o u r n a lo f Z h o n g s h a nU n i v e r s i t y,2002,41(6):14-17.[15]Y a n g Z C,X u D Y.G l o b a l e x p o n e n t i a l s t a b i l i t y o fH o p f i e l d n e u r a ln e t w o r k s w i t ht i m e-v a r y i n g d e l a y sa n d i m p u l s i v ee f f e c t s[J].A p p l i e d M a t h e m a t i c sa n d M e c h a n-i c s,2006,27(11):1329-1334.[16]沈艳霞,纪志成,姜建国.动态神经网络的输入-状态稳定性分析[J].控制与决策,2004,19(12):1391-1394.S h e nYX,J i ZC,J i a n g JG.A n a l y s i s o f i n p u t s t a t e s t a b i l i-t y o f d y n a m i cn e u r a l n e t w o r k s[J].C o n t r o l a n dD e c i s i o n, 2004,19(12):1391-1394.[17]Z h o u WS,Y a n g ZC.I n p u t-t o-s t a t e s t a b i l i t y f o r d y n a m i c a l n e u r a ln e t w o r k s w i t ht i m e-v a r y i n g d e l a y s[J].A b s t r a c tA p p l i e dA n a l y s i s,2012(4):665-681.[18]Y a n g ZC,Z h o u W S,H a n g T W.C o g n i t i v en e u r o d y n a m-i c s e x p o n e n t i a l i n p u t-t o-s t a t es t a b i l i t y o f r e c u r r e n tn e u r a l n e t w o r k sw i t h m u l t i p l e t i m e-v a r y i n g d e l a y s[J].C o g nN e u r o-d y n,2014,8:47-54.[19]Z h o u W,T e n g L Y,X uD.M e a n-s q u a r ee x p o n e n t i a l l y i n-p u t-t o-s t a t e s t a b i l i t y o f s t o c h a s t i cC o h e n-G r o s s b e r g n e u r a l n e t w o r k sw i t h t i m e-v a r y i n g d e l a y s[J].N e u r oC o m p u t i n g, 2015,153:54-61.[20]Z h a n g H G,W a n g ZS,L i uDR.G l o b a l a s y m p t o t i c s t a b i l i-t y o fr e c u r r e n tn e u r a ln e t w o r k s w i t h m u l t i p l et i m e-v a r-y i n g d e l a y s[J].I E E E T r a n s a c t i o no n N e u r a lN e t w o r k s, 2008,19(5):855-873.[21]H o r nR A,J o h n s o nC R.T o p i c s i n m a t r i xa n a l y s i s[M].L o n d o n:C a m b r i d g eU n i v e r s i t y P r e s s,1991.E x p o n e n t i a l I n p u t-t o-S t a t e S t a b i l i t y o fB i d i r e c t i o n a l A s s o c i a t i v eM e m o r y N e u r a lN e t w o r k sL I J i a n j u n,Y A N GZ h i c h u n(C o l l e g e o fM a t h e m a t i c sS c i e n c e,C h o n g q i n g N o r m a lU n i v e r s i t y,C h o n g q i n g401331,C h i n a)A b s t r a c t:W e s t u d y e x p o n e n t i a l i n p u t-t o-s t a t e s t a b i l i t y o f b i d i r e c t i o n a l a s s o c i a t i v em e m o r y n e u r a l n e t w o r k sw i t hm u l t i p l e t i m e d e l a y s e f f e c t s a n de x t e r n a l i n p u tw i t ht i m ev a r y i n g.F i r s t l y,am o d e l o fB AM n e u r a l n e t w o r k i se s t a b l i s h e d,i nw h i c ht h e r ea r em u l t i p l e t i m e d e l a y e f f e c t s a n d t h e e x t e r n a l i n p u t sw i t h t i m e v a r y i n g.W ed o n t r e q u i r e t h a t a c t i v e f u n c t i o n s a r eb o u n d e da n ds m o o t h i n t h e B AM n e t w o r k s.T h e n,t h e d e f i n i t i o n o f e x p o n e n t i a l i n p u t-t o-s t a t e s t a b i l i t y f o r B AMn e u r a l n e t w o r k s i s g i v e n.W e o b t a i n a s u f f i c i e n t c o n d i t i o n e n s u r i n g e x p o n e n t i a l i n p u t-t o-s t a t es t a b i l i t y o fB AM n e u r a ln e t w o r k sw i t h m u l t i p l et i m ed e l a y sa n de x t e r n a l i n p u tw i t h t i m e v a r y i n g b y u s i n g L y a p u n o v f u n c t i o nm e t h o da n d t h e l i n e a rm a t r i x i n e q u a l i t y-m X T Q X+2l X TπYɤl2Y TπT(m Q)-1πY a n d X T Y+ Y T XɤεX TΛX+ε\Y TΛ-1Y.K e y w o r d s:d e l a y s;b i d i r e c t i o n a l a s s o c i a t i v em e m o r y n e u r a l n e t w o r k s;e x p o n e n t i a l i n p u t-t o-s t a t e s t a b i l i t y;L y a p u n o v f u n c t i o n a l(责任编辑黄颖) 48J o u r n a l o fC h o n g q i n g N o r m a lU n i v e r s i t y(N a t u r a l S c i e n c e)h t t p://w w w.c q n u j.c n V o l.33N o.4。
含脉冲的变时滞静态神经网络的渐近稳定性
含脉冲的变时滞静态神经网络的渐近稳定性孙变妮;高兴宝【期刊名称】《西安工业大学学报》【年(卷),期】2011(031)002【摘要】研究了变时滞的静态神经网络在含有脉冲情况下的稳定性.通过构造恰当的Laypunov泛函,利用线性矩阵不等式方法,证明了该模型在延迟依赖条件下的全局渐近稳定性.同时考虑了时滞和脉冲的影响,因而考虑的情况更具普遍性,适用的范围更广.仿真实例说明所得结果适用范围宽、保守性小、易于验证.%In this paper, the global asymptotic stability of the static neural networks with impulsive effect and time-varying delays is investigated.By using Lyapunov function and linear matrix inequality approach,the sufficient conditions for delay dependent stability are obtained.An example is given to illustrate the effectiveness of the theoretical results.【总页数】5页(P194-198)【作者】孙变妮;高兴宝【作者单位】陕西师范大学数学与信息科学学院,西安,710062;陕西师范大学数学与信息科学学院,西安,710062【正文语种】中文【中图分类】O231.1【相关文献】1.变时滞静态神经网络的概周期解存在性与全局渐近稳定性 [J], 贺鑫2.含脉冲的变时滞静态神经网络的稳定性分析 [J], 孙变妮;高兴宝3.含时滞和脉冲的双向联想记忆神经网络模型的全局鲁棒一致渐近稳定性分析 [J], 赵亮;李树勇;杜启凤;张秀英4.一类离散时滞静态神经网络系统的时滞相依全局渐近稳定性分析 [J], 毛凯; 杨树杰; 刘丹5.一类离散时滞静态神经网络系统的时滞相依全局渐近稳定性分析 [J], 毛凯; 杨树杰; 刘丹因版权原因,仅展示原文概要,查看原文内容请购买。
神经网络导论-双向联想记忆
神经网络导论-双向联想记忆神经网络是近年来备受研究和关注的领域,是模拟人类神经系统,集成大量的神经元并通过神经元之间的连接形成模型的计算系统。
神经网络的主要功能是通过学习和训练实现对数据的处理和分析,这种能力被广泛应用于数据挖掘、图像识别、自然语言处理等领域。
双向联想记忆是神经网络中常用的一种模型,其基本概念和模型结构将在下面的内容中详细介绍。
双向联想记忆基本概念双向联想记忆是一种基于神经网络模型的学习和记忆方式,其主要思想是将输入数据通过神经网络的连接和计算结构进行映射,形成一个输入和输出之间的联想记忆关系。
双向联想记忆通常要求输入和输出之间都是向量形式的数据,然后通过神经元之间的连接生成权重矩阵,将各种输入和输出信息进行相应的映射,从而实现数据的记忆和关联。
双向联想记忆模型结构双向联想记忆模型的基本结构包括输入层、输出层和隐藏层三个部分。
输入层接收输入的向量数据,经过神经元之间的连接计算后发送到隐藏层,隐藏层对这些数据进行处理和加工,并将处理结果发送到输出层。
输出层接收隐藏层发送的数据,经过神经元之间的连接计算后将输出结果发送到下一级处理层或输出层。
在双向联想记忆模型中,输入与输出彼此兼容,输入层和输出层都可以为任意维度的向量或矩阵。
隐藏层的神经元数量和维度也是可以调整的,不同的数量和维度可以实现不同的学习和记忆效果。
双向联想记忆的应用和优势双向联想记忆在许多领域都有广泛的应用,其中最常见的应用是在自然语言处理和图像识别领域。
在自然语言处理应用中,双向联想记忆可以识别和理解语句中的关键词汇,并将其映射为对应的含义和语义。
在图像识别领域,双向联想记忆可以通过对图像信息进行处理和分析,实现对图像中物体的定位和识别。
双向联想记忆在处理复杂数据和分析复杂场景时具有优势,其具有较高的自适应性和变换鲁棒性,可以有效处理各种数据变换和噪声干扰。
双向联想记忆是神经网络中一种广泛应用的学习和记忆方式,其基本概念和模型结构都较为简单明了。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
≤6 , ≤6 ; 和 : 表示第 i 个神经元对第 个神经元
在时间 t 和t 一7 ( t ) 的关联强度 , 且存在 常数 、 、
、
[ 2 1 ] 的结 果 . 文献 [ 2 3 ] 将 其 推 广 到 可 变 时 滞 的情 形. 然而, 据我 们所 知 , 关 于含 时 滞 和脉 冲的 双 向联
式技 巧和构造 恰 当的 L y a p u n o v函数 , 获得 了含 常 时 滞的双 向联 想 记 忆 神经 网络 模 型鲁 棒 指 数 稳 定 的
( £ ) ) )+ , t>O , t ≠t √ =1 , 2 , …, n , △ ( )=. ( v j ( t ) ) √=1 , 2 , …, n , k E Z ,
阵不 等 式 技 巧 和 L y a p u n o v—K r a s o v s k i i 稳 定 性 理
吨 ( £ )= 一 a i u ( ) +∑ ( ( £ ) ) +∑嘶 r - ( ( 一
,= 1 , =1
r ( t ) ) )+C i , t>O , t ≠t , =1 , 2 , …, m,
含 时滞 和脉 冲的 双 向联 想 记 忆神 经 网络 模 型
网络模 型
由于在 模型 识 别 、 人工智能、 自动 控 制 等 领 域 的广 泛应 用 而倍受 关 注 , 文献[ 1—1 8 ] 报 道 了关 于其 解 的渐近 行为 的诸多研 究成 果 . 由于测 量 等原 因会 导 致 模型 参数 的偏差 , 因而 关 于该 模 型鲁 棒稳 定 性 的 分析 - 2 3 ] 也 为学者 所 关 注 . 文献 [ 1 9 ] 利 用 线 性 矩
A u ( t )= ( ( £ ) ) , :1 , 2 , …, m, k∈z , ( 1 )
呼 ( £ )= 一 ( ) +∑ 禹( ( £ ) ) +∑ 籀( ( £ 一
‘=1 ‘: 1
论, 获 得 了含 常时滞 的双 向联 想 记忆 神 经 网络 模 型 鲁棒稳 定 的充分条 件. 文献 [ 2 0 ] 利用 线性 矩 阵不 等
使得 ≤ ≤w — j i , ≤ ≤ - r ; 和h ; 表
示第 个神经元对第 i 个神经元在 时间 t 和t 一 ( £ )
的关联强度 , 且存在 常数 、 、 、 使得 ^ ≤h ≤
,
≤h ; ≤ ; T j ( £ ) 和盯 ( £ ) 表示时滞; c i 和D J 为
摘要 : 讨论 了一类含时滞和 脉 冲的双 向联 想记 忆 神经 网络模 型 的鲁棒 渐近稳 定性. 通 过构造 恰 当的 L y a p u n o v 泛 函和使用线性矩阵不等式技巧 , 获得 了该模型全局鲁棒 一致渐 近稳 定 的充 分条件. 通过 2个 例 子说明 了结论 的有效性. 关键词 : 时滞 ; 脉冲; 双向联想记忆神经网络模型 ; 全局鲁棒一致渐近稳定性
充分条件. 文献 [ 2 1 ] 利 用构造恰 当的 L y a p u n o v泛
函, 获 得 了含 常时滞 的双 向联 想 记忆 神 经 网络 模 型 鲁棒渐 近稳定 的充 分 条 件 . 文献 [ 2 2 ] 利 用 矩 阵
理 论 和构 造 恰 当 的 L y a p u n o v泛 函获 得 了优 于文 献
想记忆 神经 网络 的鲁棒 一 致 渐 近稳 定 性 分 析 还 不 多见 . 基于此 , 在本 文 中 , 考虑 了一类 含 时滞 和脉 冲 的双 向联 想 记 忆 神 经 网 络 模 型 , 通 过 构 造 恰 当 的
L y a p u n o v泛 函和使用线 性矩 阵不 等式 技 巧 , 建立 了
Vo 1 . 36. No. 2
ቤተ መጻሕፍቲ ባይዱ
第3 6卷
第 2期
含时滞和脉冲 的双 向联想记忆神经 网络模型的 全 局 鲁棒 一 致 渐 近 稳定 性 分 析
赵 亮 , 李树 勇 , 杜启凤 , 张秀英
( 四川 师 范 大 学 数 学 与 软 件 科 学 学 院 ,四川 成 都 6 1 0 0 6 6 )
使该模 型全 局鲁棒 一致 渐近稳 定 的充分 条件 .
外部 输 入; △ ( t )=M ( £ ) 一u ( £ ) , A v j ( t )= ( £ )一 ( £ i ) 是在 t 时刻 的脉 冲算 子 , 其中, t , t ,
1 准 备 知 识
2 0 1 3年 3月
四川师范大学学报 ( 自然 科 学 版 )
J o u na r l o f S i c h u a n N o r m a l U n i v e r s i t y ( N a t u r a l S c i e n c e )
Ma r ., 2 0 1 3
其 中, n和 m分别是 两层 神经 网络模 型中神经元 的个 数; ( t ) 表示 第一层第 i 个神经元 ; ( t ) 表示第 二层 中第 个 神经元 ; 凸 和6 表示被动衰 变率 , a 、 6 f >0 , 且 存在正常数 。 、 瓦 、 使 得 0<0 ≤口 ; ≤ , 0<6 ,
考虑一类 含 时 滞 和 脉 冲 的 双 向联 想 记 忆 神 经
中图分类号 : 0 1 7 5 . 2 6 文献 标 志 码 : A 文章编号 : 1 0 0 1— 8 3 9 5 ( 2 0 1 3 ) 0 2— 0 1 7 7— 0 8
d o i : 1 0 . 3 9 6 9 / j . i s s n . 1 0 0 1 —8 3 9 5 . 2 0 1 3 . 0 2 . 0 0 4