论文部分内容阅读
H.264/AVC视频编码标准问世以后,国际标准化组织致力于新一代视频编码标准的研究制定。正在研究制定的新一代视频编码标准是高性能视频编码标准和三维立体视频编码标准。本文研究了提高高性能视频编码以及三维立体视频编码效率的多项技术。针对高性能视频,提出了两种提高编码效率的编码方法;针对三维立体视频,提出了虚拟视图的失真模型,并依据该模型设计了一种接近最优的纹理图与深度图的联合码率分配算法。本文的主要研究内容和成果如下:1.解码端可推导的帧内预测模式在H.264/AVC的帧内预测中,对于一些编码块,不论是哪种帧内预测模式,往往有相似的预测结果。对于这样的一些块,提出将所有的帧内预测模式得到的预测值加权平均作为该块的预测值。这种新的帧内预测模式,不必采用率失真优化就可以得到最终的预测结果,降低了编码复杂度;并且不必编码预测模式信息,降低了编码比特数。实验结果表明,与H.264/AVC帧内预测方法相比,在恢复视频质量相同的条件下,提出的方法编码比特率平均下降2.62%,编码复杂度平均下降39.25%。2.针对变焦运动的位移矢量预测变焦运动是指视频中物体的大小呈现由近致远或者由远至近的渐变运动,这是视频中经常发生的现象。依据摄像机成像的几何原理,推导了变焦运动的数学模型。在该模型的基础上,设计了一种适用于变焦运动的位移矢量预测器。对于含有变焦运动的实验序列,实验结果表明,相比H.264/AVC,提出方法的编码效率更高。在恢复视频质量相同的条件下,采用CABAC熵编码时编码比特率最多可减少7.66%,平均减少4.9%。3.三维立体视频编码中的合成虚拟视图失真模型详细分析了合成虚拟视图失真与邻近视点视图的纹理视频和深度图的压缩失真之间的关系。合成虚拟视图的失真由三个部分组成,纹理视频的压缩失真引起的虚拟视图失真,深度图的压缩失真引起的虚拟视图失真,以及深度图固有的几何失真引起的虚拟视图失真。通过分析发现合成虚拟视图的失真与纹理视频的压缩失真、深度图的压缩失真之间都存在线性关系,并由此确定了合成虚拟视图的失真模型。实验结果验证了提出模型的准确性,由该模型计算所得的虚拟视图失真与真实的虚拟视图失真之间的拟合系数全部高于0.98,最大的拟合误差(采用MSE衡量)仅为2.4828。4.基于模型的纹理视频与深度图联合码率分配算法在总的编码码率确定的情况下,纹理视频与深度图的码率分配对合成虚拟视图质量产生严重影响,是三维立体视频编码中的关键技术之一。采用提出的虚拟视图失真模型设计了一种接近最优的纹理视频与深度图联合码率分配算法。依据提出的虚拟视图失真模型,将纹理视频与深度图之间的联合码率分配问题表示为约束最优化的数学问题,采用拉格朗日乘数法确定了该问题的最优解,进而为纹理视频和深度图分配码率。提出的算法无需遍历所有的量化参数,仅需要简单计算即可实现最优的纹理视频与深度图的码率分配,极大的降低了计算复杂度。实验结果表明提出的算法率失真性能接近基于搜索的码率分配算法的率失真性能,但是其复杂度仅为基于搜索的码率分配算法的7.69%。