论文部分内容阅读
近几年,能够带给人们全新的交互体验的AR技术迅速壮大。而虚拟演播间作为应用AR技术的载体之一,也在迅速发展。传统的实景演播间在场地搭建实景,根据需要布置不同的节目场景,这会耗费大量人力物力。而应用了AR技术的虚拟演播间能够在有限的空间下实现无限大场景的搭建和转换,制作成本低廉,使用方便。虚拟演播间的虚拟场景合成技术就是通过算法全自动抠像、生成背景、合成背景,可以为节目的制作提供质量高、效果好的AR场景。相比于传统演播间,虚拟演播间可以极大的满足人们的视觉需求。目前虚拟演播间的技术经过多年的发展,不仅极大的改进了关键技术,而且完善了系统类型,拓展了应用领域,丰富了虚拟演播间的应用。虚拟场景合成工作的第一步,即是抠像技术。本文提出了一种在非控制环境下实现自动、光照不变且实时的抠像算法—“AIR”自动抠像算法。传统的绿幕抠像算法的抠像过程依赖人工和设备辅助,成本高昂。而在自动抠像方法里,基于深度学习模型的抠像算法以较高的鲁棒性为特点,但是抠像速度较慢,而应用浅层模型的算法则是有较快的抠像速度。本文提出的“AIR”算法是一种简单而有效的自动抠像算法,不需要额外的设备辅助,极大的降低了演播间成本,并且在提高实时性的同时,还能兼顾抠像质量。本文提出将深度学习模型的粗略输出和线性模型相结合的新思路,搭建了将深度学习模型和线性模型相结合的抠像框架。在解决了实时性和抠像质量的矛盾的同时,“AIR”算法还突破了传统直播间需要良好光照条件的限制,在非控制环境(自然光照条件)下也有较好的抠像效果。本文在原始数据集的基础上设计生成了一个更大的数据集—Green-2018,该数据集在前景种类、背景纹理等方面有更多的差异,更全面评估本文的方法。本文在Green-2018数据集上对“AIR”算法的效果进行了验证和分析。实验表明,“AIR”抠像算法具有不弱于手动抠像软件的抠像效果,在准确性和抠像效率上优于本文对比的三种自动抠像方法,在实时性上具有很大优势。实验分析进一步验证了“AIR”绿幕抠像算法具有优秀的抠像性能,能够在虚拟演播间的应用场景中有优秀表现。