论文部分内容阅读
神经动力学优化理论因其具有高效的、实时求解最优化问题的特性,而受到众多学者的广泛关注。目前,学者们已经构造了各种各样的神经网络来求解优化问题,尤其是凸优化问题。根据自变量所在数域的不同,优化问题可以分为复数域上的优化问题(简称“复优化问题”)和实数域上的优化问题(简称“实优化问题”)。本文将分别构造两个单层神经网络来求解这两类问题。 针对复优化问题,传统的求解办法是分离实虚部法,将复优化问题转换为求解实值优化问题。但该方法存在很多弊端,例如,增大原优化问题维数,破坏原有信息结构问题等。因为复数域内的实值函数是非解析的,而函数的导数信息在求解优化问题中占有重要地位,所以求解实值优化问题的神经动力学方法不能直接用来求解复优化问题。为了克服这一困难,本文构造了一个结构简单的单层复值神经网络。该复值神经网络的状态解在有限时间内进入到可行域,且最终收敛到复优化问题的一个最优解。最后,利用该复值神经网络求解复值矩阵的Moore-Penrose逆,以此说明相关结论的有效性。 针对非光滑实值凸优化问题,目前,大部分求解该问题的神经网络依赖于惩罚参数,并且在较强的假设条件下才能保证状态解的收敛性。然而,选取合适的惩罚参数是比较困难的。为避免这些困难,本文将构造不涉及惩罚参数的单层实值神经网络来求解该问题。在更一般的条件下,证明该神经网络过任意初始点的状态解都在有限时间内进入到该优化问题的可行域,且最终收敛到该问题的一个最优解。