论文部分内容阅读
大脑作为中枢神经的主要组成部分,是生物体最复杂、最重要的器官之一,其结构和功能机制是当前脑科学研究领域的热点和难点。近年来随着神经元标记技术和成像技术的发展,尤其是全脑范围、亚微米级高分辨光学显微成像技术的出现为脑科学研究提供了有力的工具。然而,由于研究目的和染色方法的多样性以及成像系统的差异性,使得脑科学研究过程中产生了海量、复杂、多样、质量存在差异的数据集,给数据分析和应用带来了困难。因此,在数据产生的过程中,如何解决数据分析与应用中面临的困难、实现海量图像数据的标准化已成为重要的问题。本文对标准化数据的基本要求是数据及相关信息完整、拼接和配准结果准确、全局灰度一致、解剖坐标系统统一、存储格式和命名规则一致。为了获取标准化的数据,提高图像质量,使获得的数据符合应用需求,使用者能直接分析和应用,本文针对MOST系列海量图像数据集的标准化问题进行研究,对数据的特点进行全面分析,以求实现基于海量MOST系列图像数据集的标准化。本研究主要由以下三部分组成:(1)为了获取标准化的数据集,对图像处理流程进行标准化,提出了基于互相关信息的图像拼接方法以实现全景图像的自动拼接,利用基于相位相关的方法实现了多通道数据的融合,研究了基于图像灰度补偿的校正算法和图像增强算法以实现数据集灰度的全局一致性,通过坐标统一、二维对齐及三维配准实现了数据集解剖坐标系统标准化,并对衍生数据进行了标准化;(2)为了对经标准化流程处理后的数据集进行快速有效评估,建立了主观与客观相结合的评估体系,可对数据完整性、全局灰度一致性及数据质量等进行综合评估;(3)为了实现规模化数据生产中的流程管理,对数据文件系统进行管理,开发自动快速校验的方法以确保数据集的完整性,避免数据从成像系统到存储中心传输和计算过程中发生丢失,结合信息管理系统对数据集及数据相关信息进行实时管理以实现数据的生产调度。本文从数据处理到数据评估再到流程管理,构建标准化处理流程,开发自动的、适用性强的图像处理方法,尽量减少海量数据处理过程中人工参与,避免人为因素导致的误差。采用主观与客观相结合的评价方法,对处理后的数据快速评估,保证数据质量的同时也可以提高图像处理算法的可靠性。对数据处理流程进行管理,可以为脑科学研究积累标准化数据,为脑科学研究者快速、便捷获取脑科学数据提供重要资源,为科学共享和管理脑科学数据提供基础和保障。