CN104380744B - 处理视频信号的方法和设备 - Google Patents
处理视频信号的方法和设备 Download PDFInfo
- Publication number
- CN104380744B CN104380744B CN201380032501.1A CN201380032501A CN104380744B CN 104380744 B CN104380744 B CN 104380744B CN 201380032501 A CN201380032501 A CN 201380032501A CN 104380744 B CN104380744 B CN 104380744B
- Authority
- CN
- China
- Prior art keywords
- block
- view
- motion vector
- residual data
- current texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000033001 locomotion Effects 0.000 claims abstract description 196
- 230000002123 temporal effect Effects 0.000 claims description 22
- 238000005070 sampling Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 15
- 238000013139 quantization Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及视图间残留预测,并且其特征在于:通过使用邻近块的运动矢量获得第一参考块的残留数据,通过使用参考视图运动矢量或者视差矢量获得第二参考块的残留数据,通过使用第一参考块的残留数据和第二参考块的残留数据获得残留数据预测值,以及通过使用残留数据预测值编译当前纹理块。本发明可以通过使用属于相同时间范围的另一个视点的编译数据获得的预测值执行视图间残留预测,以通过使用在视点之间的相关性提高视频数据预测的精度,并且减小要发送的残留数据量,从而改善编译效率。此外,在编译过程中的复杂度可以通过增加用于应用视图间残留预测的条件而减小。
Description
技术领域
本发明涉及用于处理视频信号的方法和设备。
背景技术
压缩指的是用于经由通信线路发送数字信息,或者以应用于存储介质的形式存储数字信息的信号处理技术。压缩的对象包括音频、视频和文字信息。特别地,压缩图像的技术称作视频压缩。多视图视频具有空间冗余、时间冗余和视图间冗余的特征。
发明内容
技术问题
本发明的一个目的是改善视频信号编译效率。
技术方案
本发明涉及视图间残留预测,并且从邻近块获得运动矢量。
本发明通过使用邻近块的运动矢量获得第一参考块的残留数据,并且通过使用参考视图运动矢量或者视差矢量获得第二参考块的残留数据。
本发明通过使用第一参考块的残留数据和第二参考块的残留数据获得当前纹理块的残留数据预测值,并且通过使用当前纹理块的残留数据预测值编译当前纹理块。
当使用参考视图运动矢量检测的第二参考块位于图片内的时候,本发明应用视图间残留预测。
当相应块对应于中间预测的时候,本发明应用视图间残留预测。
本发明使用对应于当前纹理块的深度数据将用于检测相应块的视图间运动矢量与视差矢量比较,并且当在视图间运动矢量和视差矢量之间的差值小于阈值的时候,应用视图间残留预测。
本发明将邻近块的时间运动矢量与用于检测相应块的视图间运动矢量比较,并且当在时间运动矢量和视图间运动矢量之间的差值小于阈值的时候,应用视图间残留预测。
有益效果
通过使用当前纹理块的残留数据预测值,其是使用属于相同时间段的不同的视图的编译数据获得的,来执行视图间残留预测,本发明可以使用在视图之间的相关性改善视频数据预测精度,并且通过减小发送的残留数据量提高编译效率。此外,本发明可以从当前纹理块的邻近块获得用于检测第一参考块和第二参考块的运动矢量,从而改善视图间残留预测精度和视频编译效率。此外,本发明可以通过增加用于应用视图间残留预测的条件减小在编译过程中的复杂度。
附图说明
图1是根据本发明应用于的一个实施例的视频解码器的方框图。
图2图示根据本发明应用于的一个实施例示例性空间邻近块。
图3图示根据本发明应用于的一个实施例示例性时间邻近块。
图4图示根据本发明应用于的一个实施例的时间中间预测和视图间中间预测的示例。
图5是图示根据本发明应用于的一个实施例使用深度数据推导当前纹理块的视差矢量方法的流程图。
图6图示根据本发明应用于的一个实施例的视图间残留预测的示例。
图7是图示根据本发明应用于的一个实施例示例性视图间残留预测的流程图。
图8图示根据本发明应用于的一个实施例的对应于图7的流程图的视图间残留预测的示例。
图9是图示根据本发明应用于的一个实施例示例性视图间残留预测的流程图。
图10图示根据本发明应用于的一个实施例的对应于图9的流程图的视图间残留预测的示例。
图11图示根据使用参考视图运动矢量搜索的第一参考块的位置的示例性视图间残留预测条件。
最佳实施方式
为了实现本发明的目的,根据本发明用于处理视频信号的方法可以从当前纹理块的邻近块获得视图间运动矢量,邻近块被根据视图间中间预测被编译,使用视图间运动矢量获得相应块的参考视图运动矢量,使用相应块的参考视图运动矢量获得第一参考块的残留数据,获得相应块的参考视图运动矢量作为当前纹理块的参考视图运动矢量,使用当前纹理块的参考视图运动矢量获得第二参考块的残留数据,使用第一参考块的残留数据和第二参考块的残留数据获得残留数据预测值,以及使用残留数据预测值解码当前纹理块。
当第二参考块不位于第二参考图片中的时候,第二参考块的残留数据可以被推导为0。
根据本发明用于处理视频信号的方法可以使用当前纹理块的深度值获得视差矢量,将视图间运动矢量与视差矢量比较,以及当在视图间运动矢量和视差矢量之间的差值小于阈值的时候,获得第一参考块的残留数据和第二参考块的残留数据。
根据本发明用于处理视频信号的方法可以从当前纹理块的邻近块获得时间运动矢量,邻近块通过时间中间预测被编译,以及将时间运动矢量与参考视图运动矢量比较,其中当在时间运动矢量和参考视图运动矢量之间的差值小于阈值的时候,获得第一参考块的残留数据和第二参考块的残留数据。
视图间运动矢量可以从空间邻近块的视图间运动矢量、时间邻近块的视图间运动矢量和参考视图间运动矢量的至少一个中推导出。
空间邻近块的视图间运动矢量可以具有比时间邻近块的视图间运动矢量更高的优先级,并且时间邻近块的视图间运动矢量可以具有比参考视图间运动矢量更高的优先级。
参考视图间运动矢量可以是当空间邻近块和时间邻近块的至少一个被使用参考视图运动矢量推导的时候与参考视图运动矢量相对应的视图间运动矢量。
具体实施方式
压缩或者解码多视图视频信号数据的技术考虑空间冗余、时间冗余和视图间冗余。在多视图图像的情况下,在两个或更多个视图处获得的多视图纹理图像可以被编译以便产生三维图像。此外,对应于多视图纹理图像的深度数据可以根据需要被编译。深度数据可以考虑到空间冗余、时间冗余或者视图间冗余被压缩。深度数据是有关在相机和相应的像素之间距离的信息。在本说明书中,深度数据可以被灵活地解释为深度相关的信息,诸如深度信息、深度图像、深度图片、深度序列和深度比特流。此外,在本说明书中编译(coding)可以包括编码(encoding)和解码(decoding),并且可以在本发明的技术精神和技术范围中灵活地解释。
图1是根据本发明应用于的一个实施例的视频解码器的方框图。
参考图1,视频解码器可以包括NAL分析单元100、熵解码单元200、反量化/反变换单元300、内部预测单元400、环内滤波单元500、解码图片缓存单元600和中间预测单元700。NAL分析单元100可以接收包括多视图纹理数据的比特流。此外,当深度数据是为纹理数据编译所必需的时候,NAL分析单元100可以进一步接收包括编码的深度数据的比特流。输入纹理数据和深度数据可以作为一个比特流,或者作为单独的比特流发送。NAL分析单元100可以在NAL基础上执行分析以便解码输入的比特流。当输入的比特流是多视图相关的数据(例如,3维视频)的时候,输入的比特流可以进一步包括相机参数。相机参数可以包括内在相机参数和外在相机参数,并且内在相机参数可以包括焦距、长宽比、主点等等,并且外在相机参数可以包括在全球坐标系统中的相机位置信息等等。
熵解码单元200可以经由熵解码提取量化的变换系数、用于纹理图片预测的编译信息等等。
反量化/反变换单元300可以通过将量化参数应用于量化的变换系数来获得变换系数,并且通过反向地变换该变换系数来解码纹理数据或者深度数据。在这里,解码的纹理数据或者深度数据可以包括根据预测的残留数据。此外,可以考虑到纹理数据的复杂度来获得用于深度块的量化参数。例如,当对应于深度块的纹理块具有高的复杂度的时候,可以设置低的量化参数,并且当纹理块具有低的复杂度的时候,可以设置高的量化参数。
内部预测单元400可以使用在当前纹理图片中重建的纹理数据执行内部预测。内部预测可以以与对于纹理图片相同的方式对于深度图片执行。例如,用于纹理图片的中间预测的编译信息可以同样地用于深度图片。用于中间预测的编译信息可以包括内部预测模式和内部预测的分割信息。
环内滤波单元500可以将环内滤波器应用于每个编译块以便减小块失真。滤波器可以平滑块的边缘以便改善解码的图片的质量。滤除的纹理图片或者深度图片可以输出或者存储在解码图片缓存单元600中以用作参考图片。
解码图片缓存单元600可以存储或者开放先前编译的纹理图片或者深度图片以便执行中间预测。为了在解码图片缓存单元600存储先前编译的纹理图片或者深度图片或者开放该图片,可以使用每个图片的图片顺序计数(POC)和frame_num(帧编号)。此外,由于先前编译的图片包括与在深度编译时当前的深度图片的视图所不同的视图相对应的深度图片,所以可以使用用于标识深度图片视图的视图标识信息,以便将对应于不同视图的深度图片用作参考图片。在深度编译时,深度图片可以被标记以与在解码图片缓存单元中的纹理图片区别,并且在标记过程期间可以使用用于标识每个深度图片的信息。
中间预测单元700可以使用存储在解码图片缓存单元600中的参考图片和运动信息执行当前块的运动补偿。在本说明书中,从广义来说,运动信息可以包括运动矢量和参考索引信息。此外,中间预测单元700可以执行用于运动补偿的时间中间预测。
在本发明中,邻近块可以包括空间邻近块和时间邻近块。应用于本发明的空间邻近块和时间邻近块在下文中定义。
图2图示根据本发明应用于的一个实施例示例性空间邻近块。
参考图2(a)空间邻近块可以包括左下邻近块A0、左侧邻近块A1、右上邻近块B0、上侧邻近块B1和左上邻近块B2的至少一个。前面提到的空间邻近块可以搜索用于推导运动矢量的块,并且搜索到的邻近块的运动矢量可以作为当前纹理块的运动矢量获得。空间邻近块可以考虑到其优先级来搜索。因此,空间邻近块可以以左侧邻近块、上侧邻近块、右上邻近块、左下邻近块和左上邻近块的顺序搜索。例如,在当前纹理块的视图间运动矢量从邻近块推导出的时候,如果左侧邻近块是根据视图间中间预测编译的块,那么,左侧邻近块的视图间运动矢量可以被获得作为当前纹理块的视图间运动矢量,并且搜索可以结束。但是,当左侧邻近块没有根据视图间中间预测编译的时候,其可以检查是否上侧邻近块已经根据视图间中间预测编译。做为选择,对于根据视图间中间预测编译的块,空间邻近块可以以左下邻近块、左侧邻近块、右上邻近块、上侧邻近块和左上邻近块的顺序搜索。但是,空间邻近块的优先级不局限于以上描述的实施例。
图2(b)图示空间邻近块候选者的扩展。当左侧邻近块A1的尺寸小于当前纹理块的尺寸的时候,当前纹理块可以进一步具有至少一个左侧邻近块。例如,根据本发明的空间邻近块可以进一步包括位于左侧邻近块A1和左上邻近块B4之间的左侧邻近块A2和A3,如图2(b)所示。以相同的方式,当上侧邻近块B1的尺寸小于当前纹理块的尺寸的时候,根据本发明的空间邻近块可以进一步包括位于上侧邻近块B1和左上邻近块B4之间的上侧邻近块B2和B3。在这种情况下,也可以考虑到空间邻近块的优先级(例如,A1->B1->B0->A0->B2->C0->C1->D0->D1)来检测根据视图间中间预测编译的块。如上所述,有可能提高通过扩展用于推导当前纹理块的视图间运动矢量的空间邻近块候选者可以获得当前纹理块的视图间运动矢量的概率。
图3图示根据本发明应用于的一个实施例示例性时间邻近块。
参考图3,时间邻近块可以指的是在当前纹理块的参考图片内与当前纹理块相同的位置中的块(在下文中,称为并置块)。在这里,参考图片可以指的是在对应于不同的时间时对应于与包括当前纹理块的当前图片相同的视图的图片。根据本发明的并置块可以经由如图4所示的两种方法定义。
参考图3(a),并置块可以定义为在参考图片中包括位置C的块,该参考图片对应于当前纹理块的中心像素的位置C。参考图3(b),并置块可以定义为在参考图片中包括位置X的块,该参考图片对应于当前纹理块的左上像素的位置X。本发明的时间邻近块不局限于并置块,并且可以指的是邻近于并置块的邻近块。如图3(a)所示,左下邻近块A0、左侧块A1、右上邻近块B0、上侧块B1和左上邻近块B2的至少一个可以用作邻近于并置块的邻近块。此外,由于参考图片在当前的图片之前已经被解码,所以并置块的下侧邻近块和右侧邻近块也可以用作时间邻近块。例如,右下邻近块C0、下侧邻近块C1和右侧邻近块C2可以用作时间邻近块,如图3(a)所示。可以考虑到优先级搜索用于时间邻近块的a)并置块,和b)邻近于并置块的邻近块,其被认为是时间邻近块候选者。
图4图示根据本发明应用于的一个实施例的运动补偿预测和视差补偿的预测的示例。
时间中间预测(运动补偿的预测(MCP))可以指的是使用参考图片和当前纹理块的运动信息的中间预测,参考图片对应于与当前纹理块相同的视图同时位于不同于当前纹理块的时间段。在使用多个相机获得的多视图图像的情况下,除了运动补偿的预测之外,还可以执行视图间中间预测。视图间中间预测或者视差补偿预测(DCP)可以指的是使用对应于不同于当前纹理块的视图的参考图片和当前纹理块的运动信息的中间预测。为了方便起见,用于运动补偿预测的运动信息称为时间运动矢量和时间参考索引信息,并且用于视差补偿预测的运动信息称为视图间运动矢量和视图间参考索引信息。因此,运动矢量可以灵活地解释为包括时间运动矢量、时间参考索引信息、视图间运动矢量和视图间参考索引信息的概念。
残留预测可以是使用参考图片的残留数据用于预测当前纹理块的残留数据的方法。视图间残留预测可以是使用在参考视图内的参考块的残留数据用于预测当前纹理块的残留数据的方法。视图间残留预测将参考图6详细描述。
将给出用于确定是否邻近块已经根据时间中间预测或者视图间中间预测编译的方法的描述。
现在将描述用于确定是否邻近块已经根据时间中间预测编译的方法。在一个实施例中,是否邻近块已经根据时间中间预测编译可以基于邻近块的运动矢量标识信息确定。当运动矢量标识信息表示使用时间中间预测的运动矢量的时候,可以确定邻近块已经根据时间中间预测编译。
将给出用于确定是否以上定义的空间邻近块和时间邻近块根据视图间中间预测编译的方法的描述。在一个实施例中,能够基于是否相应的邻近块使用视图间参考图片列表,来确定是否邻近块根据视图间中间预测被编译。视图间参考图片列表可以指的是由位于不同于相应邻近块的视图的视图处的参考图片组成的列表。做为选择,可以基于相应的邻近块的参考索引信息确定是否邻近块根据视图间中间预测被编译。例如,当相应的邻近块的参考索引信息指定位于不同于相应的邻近块的视图处的参考图片的时候,可以指定相应的邻近块根据视图间中间预测被编译。做为选择,基于是否包括相应的邻近块的图片的POC与相应的邻近块的参考图片的POC相同,可以确定是否邻近块根据视图间中间预测被编译。POC是输出序列信息,并且在相同的接入单元中的图片可以具有相同的POC。因此,当两个POC相同的时候,这指的是包括相应的邻近块的图片和参考图片位于不同的视图。在这种情况下,可以指定相应的邻近块根据视图间中间预测被编译。
当空间邻近块和时间邻近块两者没有根据视图间中间预测编译的时候,视图间运动矢量可以使用根据时间中间预测编译的邻近块推导出。当邻近块使用参考视图运动矢量根据时间中间预测被编译的时候,用于确定参考视图运动矢量的视图间运动矢量(在下文中,称为参考视图间运动矢量)可以被设置为当前纹理块的视图间运动矢量。
图5是图示根据本发明应用于的一个实施例的使用深度数据推导当前纹理块的视差矢量方法的流程图。
参考图5,在对应于当前图片的当前纹理块的深度图片中的深度块(在下文中,称为当前的深度块)的位置信息可以基于当前图片的当前纹理块的位置信息获得(S500)。当前深度块的位置可以考虑到深度图片和当前图片的空间分辨率来确定。例如,当深度图片和当前图片被以相同的空间分辨率编译的时候,当前深度块的位置可以确定为与当前图片的当前纹理块相同的位置。就表示在相机和对象之间距离的深度信息的特征而言,甚至当深度信息以减小的空间分辨率编译时,由于编译效率没有显著地恶化,所以当前图片和深度图片可以以不同的空间分辨率编译。因此,当深度图片被以低于当前图片的空间分辨率编译的时候,在获得当前深度块的位置信息之前,解码器可以上采样深度图片。此外,当上采样的深度图片的长宽比与当前图片的长宽比不一致的时候,当获得在上采样的深度图片内的当前深度块的位置信息的时候,可以另外考虑偏移信息。在这里,该偏移信息可以包括上偏移信息、左偏移信息、右偏移信息和下偏移信息的至少一个。上偏移信息可以指的是在位于上采样的深度图片的顶端上的至少一个像素和位于当前图片的顶端上的至少一个像素之间的位置差值。左偏移信息、右偏移信息和下偏移信息可以以相同的方式定义。
可以获得对应于当前的深度块的位置信息的深度数据(S510)。在当前深度块包括多个像素的时候,可以使用对应于当前深度块的角部像素的深度数据。否则,可以使用对应于当前深度块的中心像素的深度数据。做为选择,在对应于多个像素的多个深度数据片之中的最大值、最小值和模式中的一个可以有选择地使用,并且可以使用多个深度数据片的干均值。当前纹理块的视差矢量可以使用获得的深度数据和相机参数推导出(S520)。现在将参考公式1和2描述推导当前纹理块的视差矢量的方法。
[公式1]
参考公式1,Z表示在相应的像素和相机之间的距离,D是通过量化Z获得的值,并且对应于本发明的深度数据,并且Znear和Zfar分别表示对于包括深度图片的视图限定的Z的最小值和最大值。Znear和Zfar可以经由序列参数集、片头等等从比特流提取,并且可以是在解码器中预先确定的信息。因此,当在相应的像素和相机之间的距离以256的级别量化的时候,Z可以使用如由公式1表示的深度数据Znear和Zfar重建。随后,用于当前纹理块的视差矢量可以使用重建的Z推导出,如由公式2表示的。
[公式2]
在公式2中,f表示相机的焦距,并且B表示在相机之间的距离。可以假设所有相机具有相同的f和B,并且因此,f和B可以是在解码器中预先确定的信息。
当仅仅多视图图像的纹理数据被编译的时候,有关相机参数的信息不能使用,并且因此,不能使用从深度数据推导视差矢量的方法。因此,当仅仅多视图图像的纹理数据被编译的时候,可以使用存储视差矢量的视差矢量映射。该视差矢量映射可以是其每个由水平分量和垂直分量组成的视差矢量以二维阵列存储的映射。本发明的视差矢量映射可以以各种尺寸表示。例如,当每个图片仅仅使用一个视差矢量的时候,该视差矢量映射可以具有1×1的尺寸。当在图片中每4×4块使用视差矢量的时候,由于视差矢量映射具有该图片的1/4的宽度和高度,所以视差矢量映射可以具有对应于图片尺寸的1/16的尺寸。此外,当前纹理块的尺寸可以在一个图片中自适应地确定,并且可以每个相应的纹理块存储视差矢量。
将给出在中间预测单元700中用于当前纹理块的视图间预测方法,特别地,用于使用参考块的残留数据获得残留数据预测值的视图间残留预测方法的描述。
图6图示根据本发明应用于的一个实施例示例性视图间残留预测。
视图间残留预测是使用残留数据获得当前纹理块的残留数据预测值的方法,在多视图图像中,残留数据对应于不同于当前纹理块的视图,同时属于与当前纹理块相同的时间段。当前的视图视频编译效率可以通过使用视图间残留预测来预测当前纹理块的残留数据而改善。在图6中,在当前纹理块的中心是X的时候,当前纹理块的视差矢量使用其对应于X的当前纹理块的深度值d获得。在这里,该视差矢量表示当前纹理块的参考块。当前纹理块的参考块可以使用获得的视差矢量从参考视图检测。换句话说,在参考视图中参考块的位置可以通过将视差矢量值增加给当前纹理块的左上点来检测。当残留数据存在于参考块中的时候,仅仅在对应于参考块的残留数据和当前纹理块的残留数据之间的差值被变换以便改善编译效率。当由视差矢量表示的参考视图块的位置对应于子采样位置的时候,残留数据预测值可以使用参考视图的残留数据采样和线性滤波获得。
表示是否视图间残留预测应用于当前纹理块的标记inter_view_residual_prediction_flag可以包括在比特流中,并且被发送给解码器。一旦确定当前纹理块的视图间残留预测是高效的,Inter_view_residual_prediction_flag可以被设置为1,而一旦确定当前纹理块的视图间残留预测不是高效的,inter_view_residual_prediction_flag可以被设置为0。
图7是图示根据本发明应用于的一个实施例示例性视图间残留预测的流程图。
图8图示示例性对应于图7的流程图的视图间残留预测。
如图8所示,在当前纹理块的邻近块包括使用时间中间预测的邻近块的时候,当前纹理块的时间运动矢量800可以从邻近块的运动信息中获得(S700)。邻近块可以包括空间邻近块和时间邻近块。空间邻近块可以包括作为当前纹理块的邻近块的左下邻近块、左侧邻近块、右上邻近块、上侧邻近块和左上邻近块的至少一个。当空间邻近块被时间中间预测编译的时候,时间运动矢量可以从空间邻近块中获得作为当前纹理块的时间运动矢量800。当时间邻近块通过时间中间预测编译的时候,时间运动矢量可以从时间邻近块中获得作为当前纹理块的时间运动矢量800。可以考虑到邻近块的优先级在根据时间中间预测编译的块中搜索邻近块。可以首先搜索空间邻近块,然后可以搜索时间邻近块。另外,可以首先搜索时间邻近块,然后可以搜索空间邻近块。考虑到空间邻近块的优先级,可以搜索根据时间中间预测编译的块。空间邻近块的优先级可以以左侧邻近块、上侧邻近块、右上邻近块、左下邻近块和左上邻近块的顺序给出。
第一参考块的位置可以使用作为当前纹理块的时间运动矢量获得的时间运动矢量800来检测,并且残留数据可以从第一参考块中获得(S710)。第一参考块的位置可以使用在当前纹理块中的时间运动矢量800来检测。第一参考块的左上点可以通过将时间运动矢量800增加给当前纹理块的左上点来检测。第一参考块可以位于对应于与当前纹理块相同的视图的图片中,同时属于不同于当前纹理块的时间段。
可以获得第一参考块的视图间运动矢量810(S720)。第一参考块的视图间运动矢量810可以是使用对应于第一参考块的深度数据获得的视差矢量。在第一参考块的邻近块之中,根据视图间中间预测编译的块的视图间运动矢量可以被获得作为第一参考块的视图间运动矢量810。邻近块可以包括空间邻近块和时间邻近块。空间邻近块可以包括作为当前纹理块的邻近块左下邻近块、左侧邻近块、右上邻近块、上侧邻近块和左上邻近块的至少一个。当空间邻近块被通过视图间中间预测编译的时候,视图间运动矢量可以作为当前纹理块的视图间运动矢量810从空间邻近块中获得。当时间邻近块通过视图间中间预测编译的时候,视图间运动矢量可以作为当前纹理块的视图间运动矢量810从时间邻近块中获得。可以考虑到邻近块的优先级,在根据视图间中间预测编译的块中搜索邻近块。
第二参考块的位置可以使用第一参考块的视图间运动矢量810指定,并且残留数据可以从第二参考块中获得(S730)。第二参考块可以位于与不同于第一参考块的视图相对应的图片处,同时属于与第一参考块相同的时间。第二参考块的位置可以使用视图间运动矢量810检测。第二参考块的左上点可以通过将视图间运动矢量810增加给第一参考块的左上点指定。
残留数据预测值可以通过从第一参考块的残留数据中减去第二参考块的残留数据获得(S740)。
用于解码当前纹理块的视图间残留预测可以使用残留数据预测值执行(S750)。
图9是图示根据本发明应用其的一个实施例示例性视图间残留预测的流程图。
图10图示对应于图9的流程图的示例性视图间残留预测。
可以获得当前纹理块的视图间运动矢量(S900)。当前纹理块的视图间运动矢量1000可以从当前纹理块的邻近块中获得。在当前纹理块的邻近块包括使用视图间运动矢量编译的块的时候,该块的视图间运动矢量可以作为当前纹理块的视图间运动矢量1000获得。邻近块可以包括空间邻近块和时间邻近块。空间邻近块可以包括作为当前纹理块的邻近块的左下邻近块、左侧邻近块、右上邻近块、上侧邻近块和左上邻近块的至少一个。当空间邻近块通过视图间中间预测编译的时候,视图间运动矢量可以从空间邻近块中获得作为当前纹理块的视图间运动矢量1000。当时间邻近块通过视图间中间预测编译的时候,视图间运动矢量可以从时间邻近块中获得作为当前纹理块的视图间运动矢量1000。可以考虑到邻近块的优先级,在根据视图间中间预测编译的块中搜索邻近块。
相应块的位置可以使用获得的视图间运动矢量来检测(S910)。相应块的左上采样的位置可以通过将在步骤S900中获得的视图间运动矢量增加给当前纹理块的左上采样的位置来确定。相应块可以位于不同于当前纹理块的图片中,同时属于与当前纹理块相同的时间段。
可以获得搜索的相应块的参考视图运动矢量1010(S920)。相应块的参考视图运动矢量1010可以从相应块的邻近块中获得。当相应块的邻近块包括使用时间中间预测编译的邻近块的时候,用于邻近块的时间中间预测的时间运动矢量可以作为相应块的参考视图运动矢量1010获得。邻近块可以包括空间邻近块和时间邻近块。空间邻近块可以包括作为相应块的邻近块的左下邻近块、左侧邻近块、右上邻近块、上侧邻近块和左上邻近块的至少一个。当空间邻近块通过时间中间预测编译的时候,时间运动矢量可以从空间邻近块中获得作为相应块的参考视图运动矢量1010。当时间邻近块通过时间中间预测编译的时候,时间运动矢量可以从时间邻近块中获得作为相应块的参考视图运动矢量1010。可以考虑到邻近块的优先级,在根据时间中间预测编译的块中搜索邻近块。可以首先搜索空间邻近块,然后可以搜索时间邻近块。另外,可以首先搜索时间邻近块,然后可以搜索空间邻近块。考虑到空间邻近块的优先级,可以搜索根据时间中间预测编译的块。空间邻近块的优先级可以以左侧邻近块、上侧邻近块、右上邻近块、左下邻近块和左上邻近块的顺序给出。
第二参考块的残留数据可以使用获得的相应块的参考视图运动矢量1010来获得(S930)。第二参考块的左上可以通过将参考视图运动矢量1010增加给相应块的左上采样来检测。残留数据可以从使用参考视图运动矢量1010检测的第二参考块中获得。第二参考块可以位于与相应块相同的视图中,同时属于不同于相应块的时间段。
相应块的参考视图运动矢量1010可以作为当前纹理块的参考视图运动矢量1020被获得(S940)。从参考视图的相应块中获得的参考视图运动矢量可以被带给当前视图,并且相应块的参考视图运动矢量1010可以作为当前纹理块的参考视图运动矢量1020被获得。
第一参考块的残留数据可以使用当前纹理块的参考视图运动矢量1020来获得(S950)。第二参考块的左上可以通过将参考视图运动矢量1020增加给当前纹理块的左上采样来检测。残留数据可以从使用参考视图运动矢量1020检测的第二参考块中获得。第一参考块可以位于与当前纹理块相同的图片中,同时属于不同于当前纹理块的时间段。第一参考块可以位于不同于第二参考块的视图中,同时属于与第二参考块相同的时间段。
残留数据预测值可以通过从第一参考块的残留数据中减去第二参考块的残留数据获得(S960)。
用于解码当前纹理块的视图间残留预测可以使用残留数据预测值执行(S970)。
将给出用于应用视图间残留预测的条件的描述。
图11图示根据本发明应用于的一个实施例的用于根据使用参考视图运动矢量检测的第一参考块的位置应用视图间残留预测的条件的示例。
当从参考视图中获得的参考视图运动矢量和当前纹理块的左上采样被求和的时候,如果第一参考块的左上点包括在图片中,那么,可以获得第一参考块的残留数据,并且可以应用视图间残留预测。当从参考视图中获得的参考视图运动矢量和当前纹理块的左上采样被求和的时候,如果第一参考块的左上点是在图片的边缘以外,那么,可以确定由于在当前视图和参考视图之间的差值而隐藏的区域被表示。因此,当第一参考块的左上点在图片的边缘以外的时候,第一参考块的残留数据可以被推导为0。否则,可以不应用视图间残留预测。
当使用视图间运动矢量检测的相应块被以中间模式编译的时候,可以应用视图间残留预测。当使用视图间运动矢量检测的相应块已经以内部模式编译的时候,运动矢量不存在,并且因此,可以不应用视图间残留预测。
是否应用视图间残留预测可以通过使用当前纹理块的深度数据获得视差矢量,并且将获得的视差矢量与视图间运动矢量比较来确定。当视差矢量与视图间运动矢量相比较,并且在视差矢量和视图间运动矢量的y方向分量之间的差值大于预先确定的阈值的时候,可以不使用视图间运动矢量,并且可以不应用视图间残留预测。当视图间运动矢量的y值很大的时候,一旦确定视图间运动矢量不同于视差矢量的可能性高,则可以不使用视图间运动矢量,并且可以不应用视图间残留预测。
在当前纹理块的邻近块包括通过时间中间预测编译的邻近块的时候,邻近块的运动矢量可以与参考视图运动矢量相比较,并且可以确定是否将参考视图运动矢量应用于视图间残留预测。当在邻近块的运动矢量和参考视图运动矢量之间的差值小于预先确定的阈值的时候,参考视图运动矢量可以被获得以应用于视图间残留预测。当在邻近块的运动矢量和参考视图运动矢量之间的差值大于预先确定的阈值的时候,参考视图运动矢量可以被获得,使得参考视图运动矢量不应用于视图间残留预测。
当用于应用视图间残留预测的前面提到的条件满足,或者仅一些条件满足的时候,inter_view_residual_prediction_标记作为1被获得,并且因此,可以应用视图间残留预测。
当用于应用视图间残留预测的前面提到的条件不满足,或者仅一些条件不满足的时候,inter_view_residual_prediction_flag被推导为0,并且因此,不应用视图间残留预测。
如上所述,本发明应用于的解码/编码设备可以被包括在诸如DMB(数字多媒体广播)系统的多媒体广播传输/接收装置中,以用于解码视频信号、数据信号等等。此外,多媒体广播传输/接收装置可以包括移动通信终端。
本发明应用于的解码/编码方法可以作为计算机可执行程序实现,并且存储在计算机可读的记录介质中,并且具有根据本发明的数据结构的多媒体数据也可以存储在计算机可读的记录介质中。计算机可读的记录介质包括存储由计算机系统可读的数据的各种存储设备。计算机可读的记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备,和使用载波(例如,经由互联网传输)的介质。此外,根据该编码方法产生的比特流可以存储在计算机可读的记录介质中,或者使用有线/无线通信网络发送。
工业实用性
本发明可以用于编译视频信号。
Claims (14)
1.一种用于处理视频信号的方法,包括:
从当前纹理块的邻近块获得视图间运动矢量,所述邻近块使用视图间中间预测被编译,其中,所述视图间运动矢量指示被用于视差补偿预测的运动矢量;
使用所述视图间运动矢量获得相应块的参考视图运动矢量,其中,通过将获得的视图间运动矢量应用到所述当前纹理块的左上采样的位置来确定参考视图中的相应块的左上采样的位置,以及其中参考视图是与包括当前纹理块的当前视图不同的视图;
使用所述相应块的所述参考视图运动矢量获得第二参考块的残留数据;
使用所述相应块的参考视图运动矢量获得所述当前纹理块的参考视图运动矢量;
使用所述当前纹理块的所述参考视图运动矢量获得第一参考块的残留数据;
通过获得在所述第二参考块的残留数据和所述第一参考块的残留数据之间的差获得残留数据预测值;以及
使用所述残留数据预测值解码所述当前纹理块,
其中,所述第二参考块位于所述参考视图中以及所述第一参考块位于所述当前视图中,以及
其中,所述相应块的参考视图运动矢量指示被用于所述相应块的运动补偿预测的运动矢量。
2.根据权利要求1所述的方法,其中,所述第二参考块位于与所述相应块相同的视图的第二参考图片中,并且所述第一参考块位于与所述当前纹理块相同的视图的第一参考图片中。
3.根据权利要求1所述的方法,进一步包括:
使用所述当前纹理块的深度值获得视差矢量;以及
将所述视图间运动矢量与所述视差矢量比较,
其中,当在所述视图间运动矢量和所述视差矢量之间的差值小于阈值时,获得所述第二参考块的残留数据和所述第一参考块的残留数据。
4.根据权利要求1所述的方法,进一步包括:
从所述当前纹理块的邻近块获得时间运动矢量,所述邻近块通过时间中间预测来编译;以及
将所述时间运动矢量与所述参考视图运动矢量比较,
其中,当在所述时间运动矢量和所述参考视图运动矢量之间的差值小于阈值时,获得所述第二参考块的残留数据和所述第一参考块的残留数据。
5.根据权利要求1所述的方法,其中,从空间邻近块的视图间运动矢量、时间邻近块的视图间运动矢量和参考视图间运动矢量的至少一个中推导出所述视图间运动矢量。
6.根据权利要求5所述的方法,其中,所述空间邻近块的视图间运动矢量具有比所述时间邻近块的视图间运动矢量更高的优先级,并且所述时间邻近块的视图间运动矢量具有比所述参考视图间运动矢量更高的优先级。
7.根据权利要求6所述的方法,其中,当所述空间邻近块和所述时间邻近块的至少一个使用所述参考视图运动矢量来推导时,所述参考视图间运动矢量是对应于参考视图运动矢量的视图间运动矢量。
8.一种用于处理视频信号的设备,包括:
解码图片缓存单元;以及
中间预测单元,所述中间预测单元耦合到所述解码图片缓存单元,其用于:
从当前纹理块的邻近块获得视图间运动矢量,所述邻近块根据视图间中间预测被编译,其中,所述视图间运动矢量指示被用于视差补偿预测的运动矢量;
使用所述视图间运动矢量获得相应块的参考视图运动矢量,其中,通过将获得的视图间运动矢量应用到所述当前纹理块的左上采样的位置来确定参考视图中的相应块的左上采样的位置,以及其中所述参考视图是与包括当前纹理块的当前视图不同的视图;
使用所述相应块的所述参考视图运动矢量获得第二参考块的残留数据;
使用所述相应块的参考视图运动矢量获得所述当前纹理块的参考视图运动矢量;
使用所述当前纹理块的所述参考视图运动矢量获得第一参考块的残留数据;
通过获得在所述第二参考块的残留数据和所述第一参考块的残留数据之间的差获得残留数据预测值;以及
使用所述残留数据预测值解码所述当前纹理块,
其中,所述第二参考块位于所述参考视图中以及所述第一参考块位于所述当前视图中,以及
其中,所述相应块的参考视图运动矢量指示被用于所述相应块的运动补偿预测的运动矢量。
9.根据权利要求8所述的设备,其中,所述第二参考块位于与所述相应块相同的视图的第一参考图片中,并且所述第一参考块位于与所述当前纹理块相同的视图的第二参考图片中。
10.根据权利要求8所述的设备,其中,所述中间预测单元被配置为:使用所述当前纹理块的深度值获得视差矢量;以及将所述视图间运动矢量与所述视差矢量比较,
其中,当在所述视图间运动矢量和所述视差矢量之间的差值小于阈值时,获得所述第二参考块的残留数据和所述第一参考块的残留数据。
11.根据权利要求8所述的设备,其中,所述中间预测单元被配置为:从所述当前纹理块的邻近块获得时间运动矢量,所述邻近块通过时间中间预测被编译;以及将所述时间运动矢量与所述参考视图运动矢量比较,
其中,当在所述时间运动矢量和所述参考视图运动矢量之间的差值小于阈值时,获得所述第二参考块的残留数据和所述第一参考块的残留数据。
12.根据权利要求8所述的设备,其中,从空间邻近块的视图间运动矢量、时间邻近块的视图间运动矢量和参考视图间运动矢量的至少一个中推导出所述视图间运动矢量。
13.根据权利要求12所述的设备,其中,所述空间邻近块的视图间运动矢量具有比所述时间邻近块的视图间运动矢量更高的优先级,并且所述时间邻近块的视图间运动矢量具有比所述参考视图间运动矢量更高的优先级。
14.根据权利要求13所述的设备,其中,当所述空间邻近块和所述时间邻近块的至少一个使用所述参考视图运动矢量来推导时,所述参考视图间运动矢量是对应于参考视图运动矢量的视图间运动矢量。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261661797P | 2012-06-19 | 2012-06-19 | |
US61/661,797 | 2012-06-19 | ||
PCT/KR2013/005349 WO2013191436A1 (ko) | 2012-06-19 | 2013-06-18 | 비디오 신호 처리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104380744A CN104380744A (zh) | 2015-02-25 |
CN104380744B true CN104380744B (zh) | 2018-05-04 |
Family
ID=49768983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380032501.1A Expired - Fee Related CN104380744B (zh) | 2012-06-19 | 2013-06-18 | 处理视频信号的方法和设备 |
Country Status (11)
Country | Link |
---|---|
US (1) | US10021417B2 (zh) |
EP (1) | EP2854399B1 (zh) |
JP (1) | JP6231560B2 (zh) |
KR (1) | KR102148650B1 (zh) |
CN (1) | CN104380744B (zh) |
AU (1) | AU2013278195B2 (zh) |
CA (1) | CA2877268C (zh) |
IN (1) | IN2014KN02890A (zh) |
MX (1) | MX341103B (zh) |
RU (1) | RU2653258C2 (zh) |
WO (1) | WO2013191436A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102137266B1 (ko) * | 2012-09-28 | 2020-07-23 | 삼성전자주식회사 | 움직임 벡터와 변이 벡터를 예측하는 영상 처리 방법 및 장치 |
JP6139953B2 (ja) * | 2013-04-12 | 2017-05-31 | 日本電信電話株式会社 | 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体 |
WO2014168238A1 (ja) * | 2013-04-12 | 2014-10-16 | 日本電信電話株式会社 | 映像符号化装置及び方法、映像復号装置及び方法、及びそれらのプログラム |
US9288507B2 (en) * | 2013-06-21 | 2016-03-15 | Qualcomm Incorporated | More accurate advanced residual prediction (ARP) for texture coding |
WO2017090965A1 (ko) * | 2015-11-24 | 2017-06-01 | 삼성전자 주식회사 | 영상을 부호화/복호화 하는 방법 및 그 장치 |
KR20180075557A (ko) * | 2015-11-24 | 2018-07-04 | 삼성전자주식회사 | 영상을 부호화/복호화 하는 방법 및 그 장치 |
JP7437426B2 (ja) * | 2019-09-24 | 2024-02-22 | オッポ広東移動通信有限公司 | インター予測方法および装置、機器、記憶媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1568015A (zh) * | 2003-06-27 | 2005-01-19 | 中国科学院计算技术研究所 | 多视角视频编解码预测补偿方法及装置 |
CN101529918A (zh) * | 2006-10-30 | 2009-09-09 | 日本电信电话株式会社 | 预测参照信息生成方法、活动图像的编码及解码方法、其装置、以及其程序和记录程序的记录介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3263807B2 (ja) | 1996-09-09 | 2002-03-11 | ソニー株式会社 | 画像符号化装置および画像符号化方法 |
KR100774296B1 (ko) | 2002-07-16 | 2007-11-08 | 삼성전자주식회사 | 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치 |
WO2007011147A1 (en) * | 2005-07-18 | 2007-01-25 | Electronics And Telecommunications Research Institute | Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same |
US7944965B2 (en) * | 2005-12-19 | 2011-05-17 | Seiko Epson Corporation | Transform domain based distortion cost estimation |
KR101365575B1 (ko) | 2007-02-05 | 2014-02-25 | 삼성전자주식회사 | 인터 예측 부호화, 복호화 방법 및 장치 |
KR20090095317A (ko) * | 2008-03-05 | 2009-09-09 | 삼성전자주식회사 | 영상 부호화 및 복호화 방법 및 장치 |
CN101926175A (zh) | 2008-03-07 | 2010-12-22 | 株式会社东芝 | 运动图像编码/解码方法以及装置 |
KR101369171B1 (ko) | 2009-02-26 | 2014-03-07 | 에스케이 텔레콤주식회사 | 영상 부호화/복호화 장치 및 방법 |
KR101681303B1 (ko) | 2010-07-29 | 2016-12-01 | 에스케이 텔레콤주식회사 | 블록 분할예측을 이용한 영상 부호화/복호화 방법 및 장치 |
US20130176390A1 (en) * | 2012-01-06 | 2013-07-11 | Qualcomm Incorporated | Multi-hypothesis disparity vector construction in 3d video coding with depth |
-
2013
- 2013-06-18 JP JP2015518329A patent/JP6231560B2/ja active Active
- 2013-06-18 RU RU2014150564A patent/RU2653258C2/ru active
- 2013-06-18 MX MX2014015341A patent/MX341103B/es active IP Right Grant
- 2013-06-18 US US14/406,604 patent/US10021417B2/en active Active
- 2013-06-18 KR KR1020157001373A patent/KR102148650B1/ko active Active
- 2013-06-18 EP EP13806999.2A patent/EP2854399B1/en not_active Not-in-force
- 2013-06-18 CN CN201380032501.1A patent/CN104380744B/zh not_active Expired - Fee Related
- 2013-06-18 CA CA2877268A patent/CA2877268C/en not_active Expired - Fee Related
- 2013-06-18 AU AU2013278195A patent/AU2013278195B2/en not_active Ceased
- 2013-06-18 WO PCT/KR2013/005349 patent/WO2013191436A1/ko active Application Filing
- 2013-06-18 IN IN2890KON2014 patent/IN2014KN02890A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1568015A (zh) * | 2003-06-27 | 2005-01-19 | 中国科学院计算技术研究所 | 多视角视频编解码预测补偿方法及装置 |
CN101529918A (zh) * | 2006-10-30 | 2009-09-09 | 日本电信电话株式会社 | 预测参照信息生成方法、活动图像的编码及解码方法、其装置、以及其程序和记录程序的记录介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2015524228A (ja) | 2015-08-20 |
EP2854399A1 (en) | 2015-04-01 |
AU2013278195A2 (en) | 2015-04-30 |
KR20150037847A (ko) | 2015-04-08 |
US20150181230A1 (en) | 2015-06-25 |
KR102148650B1 (ko) | 2020-08-28 |
EP2854399A4 (en) | 2016-02-24 |
IN2014KN02890A (zh) | 2015-05-08 |
RU2014150564A (ru) | 2016-08-10 |
WO2013191436A1 (ko) | 2013-12-27 |
MX341103B (es) | 2016-08-08 |
JP6231560B2 (ja) | 2017-11-15 |
EP2854399B1 (en) | 2017-11-22 |
AU2013278195B2 (en) | 2017-01-19 |
RU2653258C2 (ru) | 2018-05-07 |
CN104380744A (zh) | 2015-02-25 |
AU2013278195A1 (en) | 2015-01-22 |
US10021417B2 (en) | 2018-07-10 |
MX2014015341A (es) | 2015-03-05 |
CA2877268A1 (en) | 2013-12-27 |
CA2877268C (en) | 2020-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104380744B (zh) | 处理视频信号的方法和设备 | |
CN105379282B (zh) | 用于纹理译码的先进残余预测(arp)的方法和设备 | |
CN104769949B (zh) | 用于视差向量导出的图片的选择的方法和装置 | |
CN104365102B (zh) | 处理视频信号的方法和装置 | |
CN106105191B (zh) | 用于处理多视图视频信号的方法和装置 | |
CN105075265B (zh) | 3d视频译码中针对跳过和直接模式的视差向量导出 | |
CN105052146B (zh) | 对3d视频译码中的视差向量导出和运动向量预测的简化 | |
CN105191315B (zh) | 一种用于对视频信息进行译码的方法和设备 | |
US9973772B2 (en) | Filtering mode for intra prediction inferred from statistics of surrounding blocks | |
CN104980762B (zh) | 用于对视频数据进行编码和解码的方法及装置 | |
CN104904217B (zh) | 用于视频译码扩展的时间运动向量预测 | |
CN109076218A (zh) | 在视频译码中自适应环路滤波中的多个滤波器的混淆 | |
CN104429072B (zh) | 自适应差域空间和时间参考重构及平滑 | |
CN109804628A (zh) | 用于图像编译系统中的块分割和帧内预测的方法和装置 | |
CN105874788B (zh) | 对3d视频译码中较大预测块的逐段dc译码的简化 | |
TW201808006A (zh) | 基於幾何轉換之自適應迴路濾波 | |
CN107925758A (zh) | 视频编译系统中的帧间预测方法和设备 | |
CN105474646B (zh) | 子pu级先进残余预测 | |
CN115243039A (zh) | 一种视频图像预测方法及装置 | |
CN104604228B (zh) | 图像解码方法和使用其的装置 | |
CN108353194A (zh) | 编码和解码视频信号的方法和装置 | |
CN106105190A (zh) | 用于3d‑hevc的简化高级残余预测 | |
CN105103553B (zh) | 用于对视频信息译码的设备与方法以及非暂时性计算机可读媒体 | |
US20150281734A1 (en) | Method and device for processing video signal | |
CN104871541A (zh) | 处理视频信号的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180504 |
|
CF01 | Termination of patent right due to non-payment of annual fee |