论文部分内容阅读
消化道病变的内镜诊断一直是临床上的一个难题。人工诊断过程易受多种负面因素的影响,例如医生的经验不足、疲劳、诊断时间的限制、巨大的图像基数以及复杂多变的病灶外观等。因此,借助计算机技术,基于内镜提供的影像信息发展消化道病变辅助诊断方法,将对现有内镜诊断提供有力的补充,有利于降低消化道病变的漏诊和误诊,提高诊断效率,具有十分重要的科学意义。为此,本文对病变图像自动识别和病变区域自动注释方法进行了深入研究。主要研究内容如下:(1)基于机器学习特征和传统特征结合的消化道内镜病变图像自动识别方法研究。提出了结合机器学习特征和传统特征识别病变图像的新思路。在机器学习特征的提取上,设计了一种新的联合对角化算法,该算法无需迭代、求逆和取近似等操作,解决了传统联合对角化算法速度慢和精度低的问题,大幅提升了对角化运算的精准度与速度。以上述联合对角化算法为基础,对非对称主成分分析算法(一种传统的机器学习算法)进行了改进,在充分保留其特征提取性能的同时大幅减少了原有算法的计算量。此外,使用了颜色聚合向量算法提取图像的传统颜色特征。结合上述两种特征,发展了一种从大量内镜图像中自动识别病变图像的方法,并在具有1330张内镜图像的数据集上进行了实验验证。结果表明,该方法识别食管早癌和胃早癌图像的受试者工作特性曲线下面积分别达到了0.9471和0.9532,识别小肠出血图像的曲线下面积达到0.9776,优于基于颜色纹理特征的传统识别方法。(2)基于两级视觉显著性的消化道早癌区域自动注释方法研究。首先对传统注释方法采用的注释框架进行了改进,提出了利用内镜图像的两级视觉显著性对上消化道早癌区域进行“两步注释”的新思路。同时,对传统的图像分割算法SLIC(Simple Linear Iterative Clustering)进行了改进,减少了其计算量并使其能够适应任意形状区域的分割。基于上述改进,发展了一种消化道早癌病变区域注释方法。该方法在具有871张食管早癌内镜图像的数据集上达到了97.24%的早癌检出率,注释结果与医生标注结果的平均Dice相似度系数达到了75.15%,优于现有其他方法。而且该方法还具有更少的假阳性输出以及更快的运行速度。此外,该方法还能够较好地改善传统方法在小病灶上检出率和注释准确率偏低的问题。(3)基于深度信息与深度学习技术的消化道早癌区域自动注释方法研究。首先提出了将原始RGB图像与深度信息结合辅助语义分割的新思路,并将现有的语义分割网络:Deeplabv3+改进为4通道模式,增强了其语义分割能力。然后根据上消化道早癌诊断的实际临床需求,设计了一个后处理步骤对注释结果进行优化,使最终结果获得了更好的视觉效果,更容易被医生所接受。基于上述改进,最终发展了一种基于深度信息与深度学习算法的早癌病灶区自动注释方法。采用4231张食管早癌内镜图像对该方法进行了实验验证,得到了97.54%的早癌检出率以及74.43%的平均Dice相似度系数。与其他基于深度学习的方法相比较,该方法具有更好的注释性能和更少的假阳性输出,证实了该方法的有效性和可行性。本文设计的消化道内镜病变图像识别方法和早癌区域注释方法具有良好的性能,有利于减少上消化道早癌等病变的漏诊率,提高临床内镜诊断的效率和准确率。其中的早癌病变区域注释方法还能够辅助临床上的内镜黏膜切除术和内镜下黏膜剥离术。因此本文方法具有良好的临床应用价值。