论文部分内容阅读
将隐式曲线曲面构造原理与多层前馈神经网络相结合,提出了基于神经网络的隐式曲线曲面构造方法和基于隐式曲线构造原理的神经网络隐式法,并对其进行了深入研究,取得如下研究成果:1、提出了隐层激活函数为Sigmoid型、输出层为线性函数的多层前馈神经网络构造隐式曲线曲面方法,给出了用约束点来描述、控制曲面形状、构造输入与输出,通过智能学习、仿真模拟、等值面抽取构造隐式曲线曲面的算法过程;理论上证明了此方法所构造的隐式曲线曲面具有任意高的逼近性。在算法稳定性、收敛速度等方面较其它方法有很大的提高。实验表明该方法对约束点的个数、误差、内外点与边点的距离等不敏感,表现出良好的稳定性与可操作性。2、首次提出了对物体边界拓扑结构不敏感的内外点选择及约束点自适应选择算法:由于物体边界的表达式一般是未知的,因而必须基于图像的内外点选择算法。对凸形的物体边界,最理想的约束点选择算法是找到物体的中心,然有利用边界上的点与中心构成直线获得内外点。获得物体内外点的常用方法是利用物体边界的法线进行选取的,但此方法仅对凸物体边界是有效的,对凹物体存在内外点错误选择的情形。利用二值数学形态学腐蚀、膨胀操作,提出了不受物体边界拓扑结构影响的内外点选择算法,即通过腐蚀操作获得内点集合,通过膨胀操作获得外点集合,克服了基于法线选择约束点存在的问题;在此基础上提出了自适应约束点选取算法,根据曲率变化进行约束点的抽稀,克服了平均抽稀难以刻画细节的缺点。3、首次将隐式曲线、曲面的构造原理与神经网络相结合,提出了神经网络隐式法,极大拓展了神经网络的应用范围:虽然多层前馈神经网络具有高度非线性映射能力,被广泛地应用诸多领域,但仍有很多类数据无法处理。多层前馈神经网络仅能描述显式函数y=f(x),对隐式函数f(X)=0无法描述,必须分割为若干部分,其中X为向量。论文首次将隐式曲线、曲面的构造原理与神经网络相结合,使其能够描述隐式函数。通过对数据的修补、变换等操作,使神经网络能够处理:(1)不能由显式函数描述的数据;(2)由多元向量值函数描述的数据。该方法首先将数据变换为封闭曲线,通过约束点简化神经网络的输入与输出;然后通过神经网络的智能学习、仿真模拟、零等值线抽取,得到封闭曲线;再经过逆变换即可得到最终的结果。该方法克服了神经网络只能对显式函数进行逼近或插值的缺陷,极大拓展了神经网络的应用范围。4、首次提出时间向量值序列隐式处理方法,将函数映射、数值逼近、散乱数据插值等曲面重建等方法融于一体,实现了“曲线”的整体插值:工程中,存在一类复杂数据,可形式描述为y=f(X,t),其中X为多维向量,为二维或更高维数据。记Y_t={(X_i,t,f(X_i,t))|i=1,…,n},t不变,Q={Y_t|t=1,…,m}。整体上数据Q更多体现时间变化的影响,但对每个Y_t其数据随X变化。对于数据Q的理想处理方法是既能反映时间变化的影响,又能反映X变化的影响。现有方法或对单个Y_t进行处理,忽略时间t变化;或固定X,考虑时间t的变化,割裂了上下的关联;或引入滑动窗口技术,但仍无本质变化。基于隐式曲线构造原理及数据映射,首次提出时间向量值序列数据隐式处理方法,将数值逼近、曲面重建等方法应用于时间向量数据处理,实现了“曲线”的整体插值。该方法通过构造一一映射将时间向量序列变换为封闭曲线;将封闭曲线所对应的时间作为其函数值,得到更高维空间的一组数据;然后利用各种合适方法对该组数据进行拟合与插值,所得到的拟合或插值函数即为映射后数据所蕴含的规律;将给定的时间代入到拟合或插值函数,就获得新时间所对应的封闭曲线;通过逆变换就可获得最终结果。该方法可用于时间向量序列数据的预测、修补、可视化等,具有广泛的用途。论文就BP神经网络给出了方法实例,实现了整体处理与双重约束的目标。