当前位置:问答库>论文摘要

题目:两类变分不等式问题的神经网络

关键词:变分不等式,神经网络,收敛性,稳定性,指数稳定性

  摘要

变分不等式问题是一类重要的优化问题,它广泛地出现在信号和图像 处理、系统识别、滤波设计、自动控制、经济科学、运输科学、运筹学、非线性分 析等领域.特别地,数学、物理和工程领域的许多问题都可以转化为它.在许多 科学和工程技术领域中,往往要求实时并行求解变分不等式问题,然而传统数值 方法由于计算时间依赖问题的规模和结构以及所采用的算法,因而并不能实时求 解.而基于电路实现的神经网络是一种自组织、自适应、自学习的非线性网络, 它具有大规模并行处理、分布式存贮、高度的容错能力以及计算时间几乎为零等 优点,被认为是实时并行求解优化问题的一种有效途径.近年来,应用神经网络 求解优化问题已取得了很好的成果,因此,研究用神经网络实时求解变分不等式 具有重要的理论价值和实际意义.   本文基于优化理论、射影理论、微分方程组的稳定性理论和LaSalle不变原 理对求解广义变分不等式的神经网络进行了深入研究.从理论上严格证明了这些 网络的各种稳定性,特别是指数稳定性.数值实验还表明这些网络不仅可行,而 且非常有效.   全文分四部分研究了求解两类变分不等式的神经网络及其稳定性.   第一部分是绪论,综述了变分不等式的意义及其发展,并给出了射影理论、 微分方程组的稳定性理论和LaSalle不变原理等基本理论.   第二部分进一步分析了广义射影神经网络的稳定性,网络模型为   du/dt=P_Ω[G(u)-αF(u)]-G(u). 该网络的平衡点是相应的广义变分不等式问题的解,因此,可以用它来求解广义变 分不等式问题.本章分三种情形用射影理论、稳定性理论和LaSalle不变原理严格 证明了该网络的稳定性、渐近稳定性和指数稳定性.与已有结果相比,前两种情形 的结论不需要▽F(u)+▽G(u)对称,并且文中所有结论均不需要‖▽F(u)+▽G(u)‖ 有界.   在第三部分,根据广义变分不等式问题的结构特点及其解的充要条件,构造 了一个求解它的新的神经网络模型:   du/dt=[▽F(u)+▽G(u)]ˉ-1{PΩ[G(u)-F(u)]-G(u)}, 其中▽F(u)表示映射F(u)的JaCObia矩阵,(▽F(u)+▽G(u))ˉ-1表示矩阵▽F(u)+ ▽G(u)的逆矩阵.理论结果表明,新网络的稳定性仅需要F(u)是G单调的,并 且其轨线收敛于广义变分不等式的解;当F(u)是G严格单调时,该网络全局渐 近稳定;当F(u)是G强单调时,该网络指数稳定.显然,上述两个模型还可以 用来求解常义变分不等式(G(u)=u),变量变分不等式(F(u)=u),广义非线性互 补问题(Ω={u∈Rˉn|≥0})和非线性方程组(Ω=Rˉn)等.   第四部分讨论一类单调常义线性变分不等式的神经网络解法.根据问题的特 点,构造了求解它的一个新的神经网络.定义了恰当的能量函数,严格证明了该 网络是Lyapunov稳定的,并且大范围渐近收敛于原问题的一个精确解.此外, 凸二次极大极小问题的鞍点条件可以转化为该变分不等式,因此,该网络还可用 来求解凸二次极大极小问题.