论文部分内容阅读
视频烟雾检测技术因其灵活性高、对周围环境要求低等特点被广泛应用于火灾预警及消防救援过程中。传统的烟雾检测方法主要通过提取烟雾视频序列中丰富的纹理、颜色和飘散性等特征来实现对火灾烟雾图像的识别与检测,有一定的实际意义和参考价值,但应用场景比较单一且准确率有待提高。随着卷积神经网络的发展,通过不同的卷积网络架构可以提取更加高级、抽象的目标特征,从而使视频烟雾帧的检测分类得到不同程度的提升。针对传统烟雾检测方法误检率较高和常规的卷积分类模型无法获知烟雾位置信息等问题,本文利用深度学习方法对视频烟雾的位置信息、边缘信息及未来飘散趋势进行研究,旨在提高视频烟雾检测的准确率,并为消防救援提供全方位的烟雾位置及趋势信息保障。具体研究内容如下:(1)提出基于混合高斯和YOLOv2的融合烟雾检测方法。利用改进的混合高斯模型排除视频静态目标干扰,缩小烟雾检测范围;并基于YOLOv2目标检测网络实现对烟雾区域的二次筛选,实现对多场景视频烟雾的准确检测与位置预估。(2)针对烟雾边缘信息复杂难以检测等问题,提出了端到端的烟雾区域分割方法。搭建Deeplabv3+(Encoder-Decoder with Atrous Separable Convolution)网络实现对视频帧中烟雾区域的像素级检测与分割,并融入条件随机场DenseCRF(Fully Connected Conditional Random Field)方法实现对烟雾稀薄轮廓信息的精准定位。建立基于亮度和灰度颜色特征的烟雾分布热图,最终实现烟雾区域的时空厚度可视化分析。(3)基于GAN(Generative Adversarial Network)网络架构训练并学习到视频烟雾的上下文信息,从而迭代预测生成未来一段时间内的视频烟雾帧,并结合烟雾分割方法,实现对烟雾未来飘散趋势及厚度变化的预测分析,为后续的消防救援及制定疏散方案提供积极的建议与依据。