基于单层神经网络的凸优化问题研究

来源 :哈尔滨工业大学 | 被引量 : 0次 | 上传用户:mx520ht
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
神经动力学优化理论因其具有高效的、实时求解最优化问题的特性,而受到众多学者的广泛关注。目前,学者们已经构造了各种各样的神经网络来求解优化问题,尤其是凸优化问题。根据自变量所在数域的不同,优化问题可以分为复数域上的优化问题(简称“复优化问题”)和实数域上的优化问题(简称“实优化问题”)。本文将分别构造两个单层神经网络来求解这两类问题。  针对复优化问题,传统的求解办法是分离实虚部法,将复优化问题转换为求解实值优化问题。但该方法存在很多弊端,例如,增大原优化问题维数,破坏原有信息结构问题等。因为复数域内的实值函数是非解析的,而函数的导数信息在求解优化问题中占有重要地位,所以求解实值优化问题的神经动力学方法不能直接用来求解复优化问题。为了克服这一困难,本文构造了一个结构简单的单层复值神经网络。该复值神经网络的状态解在有限时间内进入到可行域,且最终收敛到复优化问题的一个最优解。最后,利用该复值神经网络求解复值矩阵的Moore-Penrose逆,以此说明相关结论的有效性。  针对非光滑实值凸优化问题,目前,大部分求解该问题的神经网络依赖于惩罚参数,并且在较强的假设条件下才能保证状态解的收敛性。然而,选取合适的惩罚参数是比较困难的。为避免这些困难,本文将构造不涉及惩罚参数的单层实值神经网络来求解该问题。在更一般的条件下,证明该神经网络过任意初始点的状态解都在有限时间内进入到该优化问题的可行域,且最终收敛到该问题的一个最优解。
其他文献
经典Turán型问题的变形:对于给定的图H,确定最小的正偶数σ(H,n)使得对于每一个n项可图序列π=(d1,d2,…,dn),当σ(π)=d1+d2+…+dn≥σ(H,n)时,π有一个实现G包含H作为子图
学位
本文主要利用箭图方法研究了张量积代数的表示型与遗传代数的余秩.其研究方法来源于组合数学,特别是图论方法在有限维结合代数的表示理论中应用,论文包含以下三个方面的工作,  
变分不等式理论已经成为研究在纯数学和应用科学等不同领域中出现的诸多问题的有效工具.近年来,变分不等式为来自优化,平衡和弹性等领域的诸多有意义的问题的讨论提供一个很
学位
随机变量的指数不等式, 特别是独立随机变量的Bernstein不等式 (见Hoeffding, 1963),在许多极限理论证明中扮演着重要角色.关于相依序列, Boente和Fraiman (1988)对?-混合序