论文部分内容阅读
火灾的发生会给人民生命财产安全及社会稳定带来灾难性影响。尤其在森林、变电站、大型仓库等开阔场景下,温度、烟雾等在空气流动过程易被削弱,利用传统火灾传感器探测火灾存在精度低、稳定性差、甚至漏检的情况,因此近年来基于视频图像处理的火灾探测技术成为火灾监控领域的重要研究方向。本文针对视频流火焰数据,在图像增强的预处理基础上,通过深度学习方法,设计了两种视频火焰探测模型,在解放人工提取特征的同时,深入挖掘视频中火焰的动静特征,以此提高视频火焰探测的实时性和识别率,降低漏报及虚警率。(1)针对视频图像质量低、传统直方图增强会带来多余噪声的问题,在限制对比度自适应直方图均衡(CLAHE)算法的基础上,提出改进的CLAHE图像增强算法,根据灰度级的均匀程度自适应的设置裁断点位置,通过图像质量评估证明了改进的CLAHE算法处理的图像同质区域噪声不明显,图像信息更丰富、可读性更强。(2)本文构建了改进的双流卷积(ITCN)视频火焰探测模型,通过时间流卷积和空间流卷积网络分别提取到火焰的动态特征及空间静态特征,采用小卷积核代替大卷积核的方式减少模型参数量及计算量,并且加入O-inception模块来增强模型判别能力。实验结果表明,模型使用concat fusion网络特征融合效果最好,且该模型在满足系统实时性的同时,可达到95.15%的精确率,在公共数据集上的泛化能力测试也有较好的表现。(3)为深入挖掘火焰时间维度长时运动特征,增强火焰探测模型的可靠性,本文建立基于改进的双流卷积网络和长短时记忆网络(ITCN-LSTM)的视频火焰探测模型。该模型在改进的双流卷积网络基础上,添加了两层LSTM网络,每层拥有128个隐含神经元,由此充分利用了LSTM的时序数据处理能力。实验结果表明ITCN-LSTM视频火焰探测模型在性能对比实验、容错能力测试实验及泛化能力测试实验的综合表现均优于ITCN模型及其他算法,验证了ITCN-LSTM模型不仅具备高识别率、低误报漏报率,而且还具有优秀的容错能力,模型可靠性得到提升,进而说明了ITCN-LSTM模型能够深入挖掘视频火焰帧间的依赖关系,并获得相对全面的火焰动静特征。