论文部分内容阅读
近年来,不断增长的发病率使得高度近视成为了全球眼科疾病中的关注热点。高度近视在其发展过程中通常伴随有视网膜病理性的改变。其中,条纹状损伤是高度近视病理性变化中的一种重要病症,它在吲哚菁绿荧光造影(Indocyanine Green Angiography,ICGA)图像中较清晰显影。在眼底ICGA图像中进行条纹状损伤的自动分割不仅有助于对条纹状损伤本身的诊断与分析,同时还可以有效地反映高度近视病程的发展,为后续的诊断治疗提供有价值的参考信息。由于小部分患者会对注射的吲哚菁绿荧光造影剂产生不良反应,因此基于无创光学相干断层扫描(Optical Coherence Tomography,OCT)图像的条纹状损伤自动检测,是条纹状损伤无创诊断的一个重要尝试。本文提出了一种基于改进条件生成对抗网络的眼底ICGA图像中条纹状损伤自动分割方法。生成器采用了增加部分密集连接的U-Net,以强化特征信息的提取与重复利用。网络的损失函数增加了 Dice损失函数和加权二进制交叉熵损失函数,用于解决数据不平衡问题。另外,本文将条纹状损伤与背景的二类分割问题转化为条纹状损伤、视网膜血管与背景的三类分割问题,使得网络可以学习到条纹状损伤与诸如视网膜血管等干扰项之间的差异。本方法在上海市第一人民医院提供的38例高度近视共计152张ICGA图像数据集上进行了四折交叉验证实验,分割平均Dice系数为69%,表明本文方法可以有效实现ICGA图像中条纹状损伤的自动分割。本文提出了一种基于视网膜OCT图像的条纹状损伤自动检测方法。本文通过带有部分密集连接的U-Net,在OCT图像的二维切片中分割出布鲁赫膜,从而生成布鲁赫膜垂直投影图。再使用残差网络对布鲁赫膜投影图进行分类训练,以实现基于OCT图像的条纹状损伤自动检测。本文方法在上海市第一人民医院提供的34例高度近视共计68个三维OCT图像数据集上进行了四折交叉验证实验,自动检测的平均准确率达到85%,表明本方法可以有效实现OCT图像中条纹状损伤的自动检测。