[go: up one dir, main page]

CN101867813B - 面向交互式应用的多视点视频编码方法 - Google Patents

面向交互式应用的多视点视频编码方法 Download PDF

Info

Publication number
CN101867813B
CN101867813B CN 201010155912 CN201010155912A CN101867813B CN 101867813 B CN101867813 B CN 101867813B CN 201010155912 CN201010155912 CN 201010155912 CN 201010155912 A CN201010155912 A CN 201010155912A CN 101867813 B CN101867813 B CN 101867813B
Authority
CN
China
Prior art keywords
viewpoint
frame
key frame
mode
macroblock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201010155912
Other languages
English (en)
Other versions
CN101867813A (zh
Inventor
刘峰
郑海棠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN 201010155912 priority Critical patent/CN101867813B/zh
Publication of CN101867813A publication Critical patent/CN101867813A/zh
Application granted granted Critical
Publication of CN101867813B publication Critical patent/CN101867813B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及多视点视频编码技术领域,公开了一种面向交互式应用的多视点视频编码方法。为提高多视点视频的交互式性能,本发明首先修改了关键帧图像视点间的预测关系,并将视差补偿预测只应用于关键帧图像,而对非关键帧图像只进行运动补偿预测。其次,多视点视频除了视频内容具有高度相关性外,视点间参考图像的运动信息同样具有高度依赖性。根据这个原理,本发明又提出一种运动信息跳过模式的自适应运动矢量精细化算法,用于优化非关键帧图像的运动补偿预测的性能。本发明在保证高压缩效率的前提下,优化多视点视频随机访问性能,支持快速的视点切换,从而提高多视点视频的交互式性能。

Description

面向交互式应用的多视点视频编码方法
技术领域
本发明涉及到多视点视频信号的编码压缩方法,尤其是涉及基于运动信息跳过编码的面向交互式应用的视频信号压缩方法。
背景技术
多视点视频是当前多媒体领域的研究热点。作为FTV(自由视点电视)、3DTV(三维电视)等三维音视频应用中的核心技术,多视点视频技术旨在解决3D交互式视频的压缩、交互、存储和传输等问题。多视点视频信号是由相机阵列对实际场景进行拍摄得到的一组视频信号,它能提供拍摄场景不同角度的视频图像信息,利用其中的一个或多个视频信息可以合成任意视点的信息,使用户在观看时可以任意改变视点或者视角,以实现对同一场景进行的多方位体验。因此,多视点视频将广泛应用于面向带宽与高密度存储介质的交互式多媒体应用领域,如数字娱乐、远程监控、远程教育等。
多视点视频系统可以进行多视点视频信号的采集、编码压缩、传输、接收、解码、显示等,而其中多视点视频信号的编码压缩是整个系统的核心部分。一方面,多视点视频信号存在着数据量巨大,不利于网络传输和存储,如何高效地压缩多视点视频数据是其应用面临的一个重要挑战。另一方面,多视点视频是一种具有立体感和交互操作功能的视频序列,在保证视频高压缩率同时,也要关注其交互式性能,使系统具有灵活的随机访问、部分解码和绘制等性能。
利用多视点视频信号的时间相关性、视点间相关性,采用运动补偿预测、视差补偿预测是进行多视点视频信号编码压缩的基本思路。目前大量的研究集中于寻找一种能最大限度地去除多视点视频序列时间上和视点间冗余的编码方案,如图2所示的基于空间-时间分层B帧的多视点视频编码方案。但是对于大多数多视点视频序列而言,虽然存在时间相关性和视点间相关性,但时间相关性却占了主导地位,所以对于基于空间-时间的分层B帧预测结构,在关键帧图像利用视点间预测关系的情况下,再对非关键帧进行视点间预测对压缩效率改善不明显,并且反过来会大大增加编码复杂度以及在解码端由于视点间的密切耦合会大大降低了视点的随机访问性能。
另外,多视点视频序列除了具有相似的视频内容外,还具有相似的运动特性,即其运动信息同样具有高度的空间相关性,特别对运动剧烈的区域,其运动信息的空间相关性要大于时间相关性。运动信息跳过模式利用了这个原理,即通过全局视差矢量找到相邻视点中当前宏块的对应宏块,并导出对应宏块的运动信息作为当前宏块的运动信息。运动信息跳过模式对传统的运动补偿预测进行优化。当运动信息跳过模式为当前编码宏块的最佳编码模式时,只需要用一个模式标志位表明,而不需要对残差进行编码,从而能减少需要传输的比特数,提高压缩效率。然而通过全局视差有时不能得到当前编码宏块的最佳运动匹配信息。
针对以上问题,本发明采用一种面向交互式应用的多视点视频编码方法,在保证高压缩效率的条件下获得了低复杂度利低时延随机访问性能。
发明内容
技术问题:本发明所要解决的技术是提供一种面向交互式应用的多视点视频编码方法,在保证高压缩率的同时,改善多视点视频的交互式性能。
技术方案:本发明面向交互式应用的多视点视频编码方法,包括以下步骤:
步骤1:多视点视频序列分为基本视点和增强视点,每个视点序列都分为关键帧和非关键帧,选择中间视点为基本视点,并确定各视频序列关键帧的视点间参考关系,
步骤2:基本视点不参考其它视点,关键帧采用帧内预测编码方法;非关键帧选择本视点内的时间方向帧为参考帧,进行运动补偿预测编码,
步骤3:增强视点的关键帧参考其它视点的关键帧,采用帧内预测编码方法或视差补偿预测法进行编码,同时计算出与参考视点的关键帧之间的全局视差,
步骤4:对增强视点的非关键帧,利用前后相邻两个关键帧图像的全局视差进行插值计算得到每个非关键帧图像与参考视点同一时刻非关键帧之间的全局视差,
步骤5:增强视点的非关键帧不进行视差补偿预测,只进行运动补偿预测,在传统的H.264的宏块编码模式的基础上,根据运动信息的视点间高度相关性原理,采用自适应运动矢量精细化的运动信息跳过编码对图像进行编码,
步骤6:增强视点非关键帧编码后设置每个宏块的运动信息跳过模式标志位,并写入码流发送到解码端。
步骤7:在解码端进行图像重建,首先根据判断当前帧图像类型,对参考视点进行部分解码,然后再解码当前帧图像。
对多视点视频序列分为基本视点和增强视点,基本视点不参考其它视点,增强视点可参考其它视点,包括基本视点或其它增强视点。
所述步骤4中对增强视点的非关键帧,利用前后相邻两个关键帧图像的全局视差进行插值计算得到每个非关键帧图像与参考视点同一时刻非关键帧之间的全局视差:前后相邻两个关键帧图像,即为当前图像组的第一帧以及下一个图像组的第一帧,全局视差的插值计算是以当前非关键帧在图像组中的序列号为依据的。
所述步骤5中增强视点的非关键帧根据运动信息的视点间高度相关性原理,采用自适应运动矢量精细化的运动信息跳过模式对图像进行编码:首先通过全局视差找到当前编码宏块在参考视点中的对应宏块,并导出对应宏块的运动信息,包括宏块分割模式、运动矢量等,作为当前宏块的候选编码模式和运动矢量;然后对当前宏块和对应宏块进行图像区域判断,决定是否扩大搜索范围,即是否要把参考视点中对应宏块的8个相邻宏块的编码模式和运动矢量,作为当前宏块的候选编码模式和运动矢量;最后利用所有候选编码模式和运动矢量,在本视点内进行运动补偿预测。
自适应运动矢量精细化的运动信息跳过模式对当前宏块和对应宏块进行图像区域判断,决定是否扩大搜索范围:如果当前宏块通过传统运动补偿预测后得到的最佳编码模式以及参考视点的对应宏块的编码模式都属于背景静态模式,则不扩大搜索范围,即将对应宏块的运动信息作为当前编码宏块的运动信息;否则则扩大搜索范围。
在解码端进行图像重建,首先根据判断帧图像类型,对参考视点进行部分解码,然后再解码当前图像:要解码关键帧图像,要先对其参考视点的关键帧进行完全解码;要解码非关键帧图像,只需先对其参考视点的对应帧进行解析得到参考帧的运动信息,不需要对参考视点的对应帧进行完全解码。
有益效果:本发明针对多视点视频的交互式应用,提出了一种面对交互式应用的多视点视频编码方法,修改了帧图像视点间的预测关系,并采用一种自适应运动矢量精细化的运动信息跳过模式,优化非关键帧图像的运动补偿预测的性能。
与现有技术相比,本发明的优点在于在保证高压缩效率的前提下,优化多视点视频随机访问性能,支持快速的视点切换,从而提高多视点视频的交互式性能。
附图说明
图1为多视点视频系统示意图;
图2为空间-时间分层B帧多视点视频预测结构示意图;
图3为本发明的面向交互视应用的多视点视频预测结构示意图;
图4为运动信息跳过模式预测编码示意图;
图5为H.264/AVC标准中可变宏块分割图;
图6为运动信息跳过模式的自适应运动矢量精细化算法的流程图;
图7为自适应运动矢量精细化算法示意图;
图8为增强视点的解码流程图;
图9为测试用例Ballroom在不同多视点视频编码方法下的率失真曲线;
图10为测试用例Racel在不同多视点视频编码方法下的率失真曲线。
方法一为基于空间-时间分层B帧的多视点视频编码方案,
方法二为图3中对非关键帧不进行视点间预测的多视点视频编码方案。
方法三为图3中对非关键帧应用原始运动信息跳过模式。
方法四为图3中对非关键帧应用基于自适应运动矢量精细化的运动信息跳过模式。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述,这里以8×8多视点图像组结构为例(如图3所示,每个图像组共有8个视点、8个时刻,共64帧)。
参照图1,多视点视频编码中,由具有N个摄像机的多视点采集系统从不同角度拍摄同一场景得到的一组视频,即N路原始视点;N路原始视点视频经过多视点视频编解码系统后得到N路恢复视点。多视点视频编解码系统中,发送端通过多视点视频编码器,在保证信息质量和传输安全的情况下,编码压缩数据,传输到接收端后,由多视点视频解码器解码。
参照图3,给出了本发明的一种面向交互式应用的图像组GOP长度为8的多视点视频预测结构示意图。首先选择中间视点为基本视点;其次,确定关键帧图像视点间的参考关系为P-P-B-I-B-P-B-P,则此多视点视频序列的编码顺序为S4-S2-S3-S1-S6-S5-S8-S7;而对非关键帧只进行运动补偿预测法,在本视点内的参考关系采用分层B帧预测结构单视点内的预测关系,在视点间根据对应的关键帧图像的视点间参考关系,利用视点间参考图像的运动信息依赖性原理,运用运动信息跳过模式编码视点图像(如图3中虚线所示),模式标志位为motion_skip_flag。编码后获得的当前图像的运动信息都存储在运动信息缓存区中作为后续图像编码的信息参考。
参照图4,给出了运动信息跳过模式的预测编码示意图。运动信息跳过模式主要分成两个步骤:
(1)通过GDV找到相邻视点的对应宏块。
(2)从这个对应宏块中拷贝其运动信息为当前宏块的运动信息,包括宏块分割模式、运动矢量以及图像参考索引号。
非关键帧处的全局视差则是对前后相邻的两个关键帧的全局视差加权平均得到的,如式(1)所示。
Figure GSA00000097416700041
其中,GDVahead和GDVbehind为当前非关键帧前后相邻两个关键帧的全局视差矢量,POCcur、POCahead和POCbehind分别表示当前非关键帧、前关键帧和后关键帧在时间轴上的图像序列号。
图5为H.264/AVC标准中可变宏块分割技术。一般来说,大尺寸的宏块编码模式通常用于背景静态区域,如P_Skip、B_skip、Direct、Inter 16×16编码模式。而小尺寸的宏块编码模式通常用于前景运动区域,如Inter 16×8、Inter 8×16、Inter 8×8等编码模式。则我们称P_Skip、B_skip、Direct以及Inter 16×16编码模式为背景静态模式,其他编码模式则为前景运动模式。
图6为运动信息跳过模式的自适应运动矢量精细化算法的流程图,该算法的主要步骤为:
1)对非关键帧图像进行传统的运动补偿预测,其中当前宏块的运动矢量预测值MVP为其相邻宏块的运动矢量的中值,通过率失真最优化技术得到最佳的编码宏块模式MODEcur_opt和运动矢量MVcur_opt
通过全局视差得到的参考视点的对应宏块,提取该对应宏块的运动信息,即宏块编码模式MODEco以及运动矢量MVco。从参考视点中得到当前宏块的候选编码模式和运动矢量。若MODEcur_opt和MODEco相同且都属于背景静态模式,则可判断通过全局视差所导出的运动信息是准确的,则对应宏块导出的编码模式MODEco和MVco直接作为当前宏块的候选编码模式和运动矢量;否则认为通过全局视差所得到的运动信息是不精确的,此时则扩大搜索窗口,提取对应宏块的MODEco和MVco,同时将该对应宏块的8个相邻宏块的编码模式和MV提取出来,作为当前宏块的候选编码模式和运动矢量。对于一些编码模式,每个宏块被分割成多个子块,则每个子块拥有各自的运动矢量,假如所得到的对应宏块的宏块分割模式为16×8模式,则当前宏块也被分割成两个16×8,并分别提取各自对应的运动矢量,其他模式也是依此类推。
2)对得到的每个候选编码模式以及其对应的运动矢量,分别在时间参考帧中进行运动估计找到一个匹配块,最后根据率失真最优化技术确定运动信息跳过模式的最佳编码模式MODEms_opt和MVms_opt
通过以上方法得到运动信息跳过模式的最佳编码模式MODEms_opt和MVms_opt后,再根据率失真最优化技术,与传统的运动补偿预测所得的MODEcur_opt和MVcur_opt进行比较得到当前宏块所用的最终的最优编码模式和运动矢量。
图7为自适应运动矢量精细化算法示意图。IS,T中为视点S在T时刻的非关键帧,ISref,T为IS,T在其参考视点Sref中同一时刻的参考帧。IS,T中当前编码宏块(xi,yi),通过全局视差矢量GDV(xG,yG)找到ISref,T中的对应宏块(xi+xG,yi+yG)后,经过自适应运动矢量精细化算法得到当前编码宏块的最佳运动信息匹配宏块为宏块(xi+xG+Δxi,yi+yG+Δyi),则视差偏移量为ΔDi(Δxi,Δyi),若当前编码宏块的最佳运动信息匹配块为其对应宏块(xi+xG,yi+yG),则视差偏移量ΔDi设为0。把每个宏块的视差偏移量传输到解码端,用于图像的重建。
图8为增强视点的解码流程图。解码当前图像,首先要判断帧图像类型,当当前帧为关键帧时,要对其参考帧进行解码;当当前帧为非关键帧时,不需要对其参考帧进行解码,只需要对其进行解析,通过全局视差矢量GDV以及视差偏移量ΔD找到对应宏块,并从存放运动信息缓存区中得到对应宏块的运动信息。解码后得到的当前图像的运动信息存储在运动信息缓存区中作为后续图像解码的信息参考。
以下就本实施例进行多视点视频编码的性能进行说明:
1)面向交互式应用的多视点视频编码方法的率失真性能
图9和图10分别为测试用例Ballroom和Racel在不同多视点视频编码方法下的率失真曲线,其横坐标和纵坐标分别表示8个视频序列的平均比特率和平均信噪比。其中JMVM为基于空间-时间分层B帧的多视点编码方案(如图2所示),JMVM_AP为图3中只对关键帧进行视点间预测的编码方案,JMVM_MS为图3中对非关键帧应用原始的运动信息跳过模式,JMVM_AFMS则是应用了采用自适应运动矢量精细化的运动信息跳过模式。JMVM_AP中所有视点都不对非关键帧图像进行视点间预测,JMVM中只有对B视点中的非关键帧图像进行视点间预测,而JMVM_MS和JMVM_AFMA中的运动信息跳过模式应用于所有增强视点的非关键帧图像。
由图9可知,由于Ballroom视频序列运动较平缓、时域相关性大,视点间的参考关系对非关键帧图像的编码性能影响不大,所以这4种编码方案的压缩性能相差不大。而对于Racel视频序列,由于镜头移动、运动剧烈且存在时间全局运动,导致时间预测的有效性差。因此,视点间的参考关系以及它的准确性对压缩性能是至关重要的。从图10可知,不采用非关键帧视点间参考关系的JMVM_AP的压缩性能最差,而本发明所提的JMVM_AFMS能得到当前编码宏块更为匹配的运动矢量,与JMVM_MS相比编码性能改善明显,在相同的比特率条件下其平均PSNR最大增加了0.2dB,与JMVM相比最大增加了0.35dB。因此,本发明所提算法对于Ballroom等运动缓慢的视频序列,其压缩性能接近基于空间-时间分层B帧的多视点编码方案,而对于racel等运动剧烈的视频序列其压缩性能优于基于空间-时间分层B帧的多视点视频编码方案。
2)面向交互式应用的多视点视频编码方法的随机访问性能
为了评价多视点视频的随机访问性能,我们使用FAV和FMAX来分别表示随机访问一帧所需要解码的平均和最大帧数。假设现要访问(i,j)处的帧,其随机访问代价FAV和FMAX可分别用式(2)和式(3)定义。
F AV = Σ i = 1 n Σ j = 1 m x i , j p i , j - - - ( 2 )
FMAX=max{xi,j|0<i≤n,0<j≤m}             (3)
其中,n为一个GOP包含的帧数,m为总的视点数。xi,j表示访问该帧之前所必须要解码的帧数,pi,j为用户选择观看该帧的概率,通常pi,j=1/(n×m)。
由于运动信息跳过模式不影响随机访问性能,所以本发明所提的编码方案JMVM_AFMS与JMVM_AP具有相同的随机访问性能。表1给出了本发明所提编码方案和基于空间-时间分层B帧的多视点编码方案在随机访问性能方面的比较。从表1可知本发明所提的编码方法的随机访问性能明显优于JMVM,平均提高了36.6%/44.4%。
表1 随机访问性能比较
  编码方案   JMVM   JMVM_AFMS   改进(%)
  RA(FAV/FMAX)/frame   10.1/18.0   6.4/10.0   36.6/44.4
综上所述,与现有技术相比,本发明的优点在于在保证高压缩效率的前提下,优化多视点视频随机访问性能,支持快速的视点切换,从而提高多视点视频的交互式性能。

Claims (2)

1.一种面向交互式应用的多视点视频编码方法,其特征在于该方法包括以下步骤:
步骤1:多视点视频序列分为基本视点和增强视点,每个视点序列都分为关键帧和非关键帧,选择中间视点为基本视点,并确定各视频序列关键帧的视点间参考关系,
步骤2:基本视点不参考其它视点,关键帧采用帧内预测编码方法;非关键帧选择本视点内的时间方向帧为参考帧,进行运动补偿预测编码,
步骤3:增强视点的关键帧参考其它视点的关键帧,采用帧内预测编码方法或视差补偿预测法进行编码,同时计算出与参考视点的关键帧之间的全局视差,
步骤4:对增强视点的非关键帧,利用前后相邻两个关键帧图像的全局视差进行插值计算得到每个非关键帧图像与参考视点同一时刻非关键帧之间的全局视差,
步骤5:增强视点的非关键帧不进行视差补偿预测,只进行运动补偿预测,在传统的H.264的宏块编码模式的基础上,根据运动信息的视点间高度依赖性原理,采用自适应运动矢量精细化的运动信息跳过模式对图像进行编码,
其中,增强视点的非关键帧根据运动信息的视点间高度依赖性原理,采用自适应运动矢量精细化的运动信息跳过模式对图像进行编码:首先通过全局视差找到当前编码宏块在参考视点中的对应宏块,并导出参考视点中对应宏块的运动信息,包括宏块分割模式、运动矢量,作为当前宏块的候选编码模式MODEcur_opt和运动矢量MVcur_opt;同时,在非关键帧所在同一视点内进行运动预测,得出当前编码宏块在非关键帧所在同一视点内宏块的编码模式MODEco和运动矢量MVco,如果候选编码模式MODEcur_opt与编码模式MODEco相同,则直接提取由本视点内运动预测得到的编码模式MODEco和运动矢量MVco作为当前编码宏块的编码模式和运动矢量,如果候选编码模式MODEcur_opt与编码模式MODEco不相同,则在参考视点对应宏块周围扩大搜索范围,即把参考视点中对应宏块的8个相邻宏块的编码模式和运动矢量,作为当前宏块的候选编码模式和运动矢量;最后利用所有候选编码模式和运动矢量,在本视点内进行运动补偿预测;
步骤6:增强视点非关键帧编码后设置每个宏块的运动信息跳过模式标志位,并写入码流以发送到解码端, 
步骤7:在解码端进行图像重建,即,首先判断当前帧图像类型,如果当前帧图像类型为关键帧,则对参考视点进行完全解码;如果当前帧图像类型为非关键帧,只需先对其参考视点的对应帧进行解析得到运动信息,不需要对参考视点的对应帧进行完全解码,然后,再解码当前帧图像。
2.如权利要求1所述的一种面向交互式应用的多视点视频编码方法,其特征在于,所述步骤4中对增强视点的非关键帧,利用前后相邻两个关键帧图像的全局视差进行插值计算得到每个非关键帧图像与参考视点同一时刻非关键帧之间的全局视差,前后相邻两个关键帧图像,即为当前图像组的第一帧以及下一个图像组的第一帧,全局视差的插值计算是以当前非关键帧在图像组中的序列号为依据的。 
CN 201010155912 2010-04-23 2010-04-23 面向交互式应用的多视点视频编码方法 Expired - Fee Related CN101867813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010155912 CN101867813B (zh) 2010-04-23 2010-04-23 面向交互式应用的多视点视频编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010155912 CN101867813B (zh) 2010-04-23 2010-04-23 面向交互式应用的多视点视频编码方法

Publications (2)

Publication Number Publication Date
CN101867813A CN101867813A (zh) 2010-10-20
CN101867813B true CN101867813B (zh) 2012-05-09

Family

ID=42959339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010155912 Expired - Fee Related CN101867813B (zh) 2010-04-23 2010-04-23 面向交互式应用的多视点视频编码方法

Country Status (1)

Country Link
CN (1) CN101867813B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101539108B1 (ko) 2011-10-18 2015-07-24 주식회사 케이티 영상 부호화 방법, 영상 복호화 방법, 영상 부호화기 및 영상 복호화기
KR102641723B1 (ko) 2011-11-11 2024-02-29 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
WO2013072484A1 (en) 2011-11-18 2013-05-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with efficient residual handling
CN103379348B (zh) * 2012-04-20 2016-11-16 乐金电子(中国)研究开发中心有限公司 一种编码深度信息时的视点合成方法、装置及编码器
WO2014107853A1 (en) * 2013-01-09 2014-07-17 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
EP2981090A4 (en) * 2013-04-05 2016-11-02 Samsung Electronics Co Ltd METHOD FOR DETERMINING INTERPRETATION CANDIDATES FOR INTERMEDIATE LAYER DECODING AND CODING METHOD AND DEVICE
WO2015006899A1 (en) * 2013-07-15 2015-01-22 Mediatek Singapore Pte. Ltd. A simplified dv derivation method
CN105612746A (zh) * 2013-10-11 2016-05-25 瑞典爱立信有限公司 视频编码中的层切换
US10453207B2 (en) * 2015-07-31 2019-10-22 Versitech Limited Method and system for global motion estimation and compensation
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN113949873B (zh) * 2021-10-15 2024-12-06 北京奇艺世纪科技有限公司 一种视频编码方法、装置及电子设备
CN119856485A (zh) * 2022-10-14 2025-04-18 Oppo广东移动通信有限公司 编解码方法、装置、设备、及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007035042A1 (en) * 2005-09-21 2007-03-29 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
CN100438632C (zh) * 2006-06-23 2008-11-26 清华大学 一种交互式多视点视频的编码方法
CN101668205B (zh) * 2009-09-25 2011-04-20 南京邮电大学 基于残差宏块自适应下采样立体视频压缩编码方法

Also Published As

Publication number Publication date
CN101867813A (zh) 2010-10-20

Similar Documents

Publication Publication Date Title
CN101867813B (zh) 面向交互式应用的多视点视频编码方法
CN102308585B (zh) 多视点视频编码/解码方法和设备
CN102017627B (zh) 使用基于深度信息的视差估计的多视点视频编码
CN101540926B (zh) 基于h.264的立体视频编解码方法
CN102055982A (zh) 三维视频编解码方法及装置
CN101617537A (zh) 用于处理视频信号的方法和装置
WO2019184639A1 (zh) 一种双向帧间预测方法及装置
CN103037218B (zh) 一种基于分形和h.264的多目立体视频压缩与解压缩方法
CN104704835A (zh) 视频编码中运动信息管理的装置与方法
CN103051894B (zh) 一种基于分形和h.264的双目立体视频压缩与解压缩方法
CN101895749B (zh) 一种快速视差估计和运动估计方法
CN101404766A (zh) 一种多视点视频信号的编码方法
CN100415002C (zh) 多模式多视点视频信号编码压缩方法
CN103079067A (zh) 运动矢量预测值列表构建方法和视频编解码方法及装置
Xiang et al. A novel error concealment method for stereoscopic video coding
CN101568038B (zh) 基于视差/运动联合估计的多视点容错编码框架
CN101243692A (zh) 对多视角视频进行编码的方法和设备
CN100571401C (zh) 确定参考帧的方法及其装置
CN105704497B (zh) 面向3d-hevc的编码单元尺寸快速选择算法
CN101986713B (zh) 基于视点合成的多视点容错编码框架
CN101272496A (zh) 一种264视频降低分辨率转码的模式选择方法
Liu et al. Low-delay view random access for multi-view video coding
CN101511016B (zh) 基于hhi分层b帧预测结构的多视点视频编码的改进方法
CN105472367A (zh) 基于gop片划分的支持空域随机访问的自适应多视点视频编码方法
Xiang et al. Auto-regressive model based error concealment scheme for stereoscopic video coding

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20101020

Assignee: Jiangsu Nanyou IOT Technology Park Ltd.

Assignor: NANJING University OF POSTS AND TELECOMMUNICATIONS

Contract record no.: 2016320000208

Denomination of invention: Multi-view video coding method oriented for interactive application

Granted publication date: 20120509

License type: Common License

Record date: 20161110

LICC Enforcement, change and cancellation of record of contracts on the licence for exploitation of a patent or utility model
EC01 Cancellation of recordation of patent licensing contract

Assignee: Jiangsu Nanyou IOT Technology Park Ltd.

Assignor: NANJING University OF POSTS AND TELECOMMUNICATIONS

Contract record no.: 2016320000208

Date of cancellation: 20180116

EC01 Cancellation of recordation of patent licensing contract
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120509

CF01 Termination of patent right due to non-payment of annual fee