一类非光滑非凸优化问题的神经网络方法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
为了降低网络模 型 的 复 杂 度,文 献 [12~16]提 出 了 一 些 一层递归神经网络。Gou等人 提 [14] 出了一种解决线性等式约 束的伪凸优化的一层递归神经网络,并证明了在等式约束条件 下,解轨迹能 在 有 限 时 间 收 敛 到 可 行 域 中。基 于 惩 罚 函 数 方 法,Liu等人[15]提出了一种新的一层递归神经网络来解决线性 等式约束 的 伪 凸 最 优 化 问 题。 为 解 决 线 性 规 划 问 题,Liu等 人[16]早期同样提出一种基于次梯度的神经网络,证明了该神 经网络定义域内是全局收敛的。国内有关神经网络解决最优 化的研究可参考文献[17~19]。传统的神经网络模型解决工 程优问题大多要求求解适当的罚函数,而这个参数在某些目标 函数下是难以计算的,这为网络执行计算带来困难。本文结合 传统的递归神经网络模型,提出新的一种解决带等式约束和不
Abstract:Thispaperproposedanovelneuralnetworktosolvenonsmoothnonconvexoptimizationproblemswithequalityand inequalityconstraints.Itprovedthatwhentheobjectivefunctionhadalowerbound,theneuralnetworkconvergedtoafeasible domaininafinitetime.Meanwhile,thesolutiontrajectoryofneuralnetworkconvergedtooptimalsolutionsetofthecorre spondingoptimizationproblems,whichfinallyconvergedtocriticalpointsetofoptimizationproblems.Comparingwithtradi tionalneuralnetworkwhichbasedonpenaltyfunction,theneuralnetworkmodeldidnotneedtocalculateanypenaltyparame ters.Finally,theeffectivenessoftheproposedmodelisverifiedbysimulationexperiments. Keywords:neuralnetwork;nonconvexnonsmoothoptimization;limitedtimeconvergence
第 36卷第 9期 2019年 9月
计算机应用研究 ApplicationResearchofComputers
Vol.36No.9 Sep.2019
一类非光滑非凸优化问题的神经网络方法
喻 昕,陈昭蓉
(广西大学 计算机与电子信息学院,南宁 530004)
摘 要:提出了解决一类带等式与不等式约束的非光滑非凸优化问题的神经网络模型。证明了当目标函数有 下界时,神经网络的解轨迹在有限时间收敛到可行域。同时,神经网络的平衡点集与优化问题的关键点集一致, 且神经网络最终收敛于优化问题的关键点集。与传统基于罚函数的神经网络模型不同,提出的模型无须计算罚 因子。最后,通过仿真实验验证了所提出模型的有效性。 关键词:神经网络;非凸非光滑优化;有限时间收敛 中图分类号:TP183 文献标志码:A 文章编号:10013695(2019)09003257504 doi:10.19734/j.issn.10013695.2018.03.0150
0 引言
1986年,Tank等人[1]介绍了模拟神经网络方法解决限制 性最优化问题,并在文献[2]中得到更进一步的阐述。其核心 思想是利用动力学神经网络同时模拟目标函数与约束函数,并 利用神经网络的模拟与并行处理能力计算问题的最优解。文 献[1]提出了 递 归 神 经 网 络 解 决 线 性 规 划 问 题,在 此 基 础 上, Kennedy等人[2]对文献[1]中的神经网络进行改进,通过构建 一个有限的惩罚参数的神经网络来解决非线性规划问 题。 Zhang等人[3]在早期惩罚参数研究的基础上,提出了一种基于 Lagrange乘子法 的 递 归 神 经 网 络 以 解 决 非 线 性 凸 优 化 问 题。 Lagrange神经网络模型中有两种神经元,即变量神经元和 La grange神经元。其中,变量神经元负责寻找目标函数的最小点 以及提供解决问题的平衡点;而拉格朗日神经元负责将动态轨 迹快速地引入可行域。有关 Lagrange神经网络的详细研究请 参考文献[4~6]。在 最 优 化 问 题 的 研 究 发 展 中,早 期 的 神 经 网络模型均为光滑非线性规划问题而设计,为了解决非光滑非 线性规划问题,Forti等人[7]提出了一种 GNPC神经网络模型, GNPC是基于 NPC的一个微分包含形式的梯度系统,其目标 函数和约束函数不需要是光滑的而仅仅是正则函数即可。为 了使非光滑规划更具普遍性,文献[8,9]提出了一些基于惩罚 函数和次梯度的递归神经网络解决非光滑凸与非光滑非凸规 划Biblioteka Baidu题。神经网络的收敛行为,包括全局收敛和局部收敛。如 果规划问题的目标函数的定义域中任意的初始点的解轨迹收 敛于最优解(或近似最优解),则该神经网络模型是全局收敛
Neuralnetworkoptimizationmethodforclassof nonconvexnonsmoothoptimizationproblems
YuXin,ChenZhaorong
(SchoolofComputer& ElectronicInformation,GuangxiUniversity,Nanning530004,China)
的,如文献[10]的神经网络模型,在满足一些条件的情况下是 全局收敛。然而,如果限制条件是初始状态的解必须从可行域 中选取,则其收敛是局部的。基于惩罚参数和函数的神经网络 模型,其解集在很大程度上是非全局收敛的,因为此类神经网 络模型,其可行域上发现的一个内部点通常是一个特殊域包含 的可行域的中心,因此,为了保证收敛,初始解集必须在可行域 范围内部选取,并且惩罚参数必须保证足够大。再者,惩罚函 数神经网络模型的有效性依赖于确定的或非确定的惩罚参数, 而确定性惩罚参数在实际应用是很难估算的。为解决这个问 题,Cheng等人 [11]提 出 了 一 种 新 的 解 决 非 光 滑 凸 优 化 的 递 归 神经网络,文献 [11]所 提 出 的 神 经 网 络 在 解 决 带 约 束 的 非 光 滑凸规划问题的同时,不需要任何的 惩 罚 参 数。然 而,文 献 [11]提出的神经网络的结构却异常复杂。
相关文档
最新文档