CN103918255B - 对多视点视频数据的深度图进行编码的方法和装置以及对编码的深度图进行解码的方法和装置 - Google Patents
对多视点视频数据的深度图进行编码的方法和装置以及对编码的深度图进行解码的方法和装置 Download PDFInfo
- Publication number
- CN103918255B CN103918255B CN201280049632.6A CN201280049632A CN103918255B CN 103918255 B CN103918255 B CN 103918255B CN 201280049632 A CN201280049632 A CN 201280049632A CN 103918255 B CN103918255 B CN 103918255B
- Authority
- CN
- China
- Prior art keywords
- block
- color video
- video frame
- multiple views
- subregion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/005—Aspects relating to the "3D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种用于对多视点视频数据的深度图进行编码的方法和设备以及对多视点视频数据的深度图进行解码的方法和设备。所述对多视点视频数据的深度图进行编码的方法包括:基于被预测编码并恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
Description
技术领域
本发明涉及对包括深度图像的多视点视频数据进行编码和解码。
背景技术
近来,随着数字图像处理和计算机图形技术的发展,已积极地对三维(3D)视频技术和多视点视频技术进行了研究,其中,所述三维(3D)视频技术和多视点视频技术使真实世界能够被再现并使用户能够真实地体验被再现的真实世界。使用多视点视频的3D电视(TV)能够通过显示由再现真实世界而获得的内容来向用户提供真实的感受,并因此作为下一代广播技术而备受关注。3D视频编码系统具有支持多视点图像的功能,经由此功能,用户可自由地改变视点或使得3D视频编码系统可应用于各种类型的3D再现设备。然而,由于多视点视频的数据量高,因此需要开发一种有效降低多视点视频的数据量的编码方法。
发明内容
技术问题
本发明提供一种对用于将3D视频提供给多视点视频数据的深度图图像进行有效编码的方法和设备,以及对深度图进行有效解码的方法和设备。
技术方案
根据本发明,获得彩色图像的外围像素与深度图像的外围像素之间的相关性,并使用相应彩色图像的块通过帧内预测来对当前深度图像的块进行编码。
有益效果
根据本发明,可通过从多视点彩色视频帧预测相应深度图帧,来对具有大量数据的多视点视频数据进行有效压缩。此外,根据本发明,从先前编码的外围像素值来确定指示相关性的参数,因此不必发送额外的参数。
附图说明
图1是根据本发明的实施例的多视点视频系统的框图。
图2示出经由图1的多视点相机获得的多视点视频帧和经由图1的深度相机获得的深度图帧。
图3是根据本发明的实施例的多视点视频数据编码设备的框图。
图4是图3的深度图帧编码单元的框图。
图5A和图5B是用于解释由图4的划分单元420执行的将多视点彩色视频帧的块划分为分区(partition)的方法的示图。
图6是用于解释由图4的相关性参数获得单元430执行的参数获得处理和由深度图帧预测单元440执行的帧内预测处理的示图。
图7示出根据本发明的实施例的用于预测深度图帧块的多视点彩色视频帧块。
图8是示出根据本发明的实施例的对多视点视频数据的深度图进行编码的方法的流程图。
图9是根据本发明的实施例的多视点视频数据解码设备的框图。
图10是根据本发明的实施例的图9的深度图帧解码单元930的框图。
图11是示出根据本发明的实施例的对多视点视频数据的深度图进行解码的方法的流程图。
图12示出根据本发明的实施例的基于对多视点视频进行编码的方法而编码并基于对多视点视频进行解码的方法而解码的多视点彩色视频帧。
图13是根据本发明的实施例的能够基于具有树结构的编码单元执行视频预测的视频编码设备的框图。
图14是根据本发明的实施例的能够基于具有树结构的编码单元执行视频预测的视频解码设备的框图。
图15示出根据本发明的实施例的编码单元的概念。
图16是根据本发明的实施例的基于编码单元的图像编码器的框图。
图17是根据本发明的实施例的基于编码单元的图像解码器的框图。
图18是示出根据本发明的实施例的与深度相应的编码单元以及分区的示图。
图19是示出根据本发明的实施例的编码单元与变换单元之间的相关性的示图。
图20是示出根据本发明的实施例的与深度相应的编码信息的示图。
图21是示出根据本发明的实施例的与深度相应的编码单元的示图。
图22、图23和图24是示出根据本发明的实施例的编码单元、预测单元和变换单元之间的相关性的示图。
图25是示出根据表1的编码模式信息的编码单元、预测单元和变换单元之间的相关性的示图。
图26A示出根据本发明的实施例的存储程序的盘的物理结构。
图26B示出通过使用盘来记录和读取程序的盘驱动器。
图27示出提供内容分配服务的内容供应系统的整体结构。
图28和图29示出根据本发明的实施例的应用了视频编码方法和视频解码方法的移动电话的内部结构和外部结构。
图30示出根据本发明的实施例的采用通信系统的数字广播系统。
图31示出根据本发明的实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构。
最佳实施方式
根据本发明的一方面,提供了一种对多视点视频数据的深度图进行编码的方法,所述方法包括:获得多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧;对获得的多视点彩色视频帧进行预测编码和恢复;基于恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
根据本发明的另一方面,提供了一种用于对多视点视频数据的深度图进行编码的设备,所述设备包括:图像获得单元,获得多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧;彩色视频帧编码单元,对获得的多视点彩色视频帧进行预测编码;恢复单元,恢复编码的彩色视频帧;划分单元,基于恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;相关性参数获得单元,针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;深度图帧预测单元,通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
根据本发明的另一方面,提供了一种对多视点视频数据的深度图进行解码的方法,所述方法包括:接收通过对多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧进行编码而获得的比特流;对多视点彩色视频帧进行解码;基于解码的多视点彩色视频帧的块的像素值,将解码的多视点彩色视频帧的块划分为至少一个分区;针对解码的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;通过使用获得的参数,从解码的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
根据本发明的另一方面,提供了一种用于多视点视频数据的深度图进行解码的设备,所述设备包括:接收单元,接收通过对多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧进行编码而获得的比特流;彩色视频帧解码单元,对从比特流获得的编码的多视点彩色视频帧进行解码;划分单元,基于恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;相关性参数获得单元,针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;深度图解码单元,通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
具体实施方式
以下,将参照附图详细描述本发明的示例性实施例。
图1是示出根据本发明的实施例的多视点视频系统100的框图。
多视点视频系统100包括多视点视频数据编码设备110和多视点视频数据解码设备120。多视点视频数据编码设备110通过对经由至少两个多视点相机130获得的多视点视频帧和经由深度相机140获得的与多视点视频帧相应的深度图帧进行编码,来产生比特流。多视点视频数据解码设备120对比特流进行解码,来获得解码的多视点视频帧,并根据观看者的需要,以任意各种格式提供解码的多视点视频帧。
至少两个多视点相机130通过将多个不同视点相机进行组合来制造,并可以以帧为单位提供多视点视频。深度相机140提供使用具有256个灰度级别的8比特图像表示场景的深度信息的深度图帧。深度相机140可通过使用红外线,来测量深度相机140本身与对象或背景之间的距离,并可提供与距离成正比或成反比的深度图帧。
如果多视点视频数据编码设备110对多视点视频数据和与多视点视频数据相应的深度图帧进行编码,并通过比特流发送编码的结果,则多视点视频数据解码设备120可不仅使用现有的立体图像或三维(3D)视频来提供立体效果,还基于比特流中包括的多视点视频帧和深度图帧,从观看者期望的视点对3D视频进行合成。
将编码的多视点视频数据量与视点的数量成正比地增加,应还对深度图图像进行编码,从而将立体效果添加到多视点视频数据。因此,为了实现如图1所示的多视点视频系统,应有效地对大量的多视点视频数据量进行压缩。
图2示出经由图1的至少两个多视点相机130获得的多视点视频帧,以及经由图1的深度相机140获得的深度图帧。
图2示出与从第一视点(视点0)捕捉的彩色视频帧211相应的从第一视点(视点0)捕捉的深度图帧221、与从第二视点(视点1)捕捉的彩色视频帧212相应的从第二视点(视点1)捕捉的深度图帧222,以及与从第三视点(视点2)捕捉的彩色视频帧213相应的从第三视点(视点2)捕捉的深度图帧223。虽然图2示出从三个视点(视点0、视点1、视点2)捕捉的多视点彩色视频帧210和与多视点彩色视频帧210相应的深度图帧220,但是视点的总数不限于此。在图2中,多视点彩色视频帧210可以是亮度分量视频帧或色度分量视频帧。
参照图2,由于通过使用颜色和深度表示在相同时间点从相同视点捕捉的图像来获得从相同视点捕捉的彩色视频帧和彩色视频帧的深度图帧,因此,彩色视频帧和彩色视频帧的深度图帧之间存在特定相关性。也就是说,当将多视点彩色视频帧210和相应的深度图帧220进行比较时,在它们之间存在特定相关性,例如,对象的轮廓可被识别。因此,根据当前实施例的多视点视频数据编码设备110和多视点视频数据解码设备120可考虑多视点彩色视频帧210和相应的深度图帧220之间的相关性,基于对多视点彩色视频帧210进行编码的结果,对相应的深度图帧220进行预测编码,从而增加多视点视频数据的压缩效率。具体地,根据当前实施例的多视点视频数据编码设备110和多视点视频数据解码设备120基于像素值将多视点彩色视频帧210的块划分为分区,以与多视点彩色视频帧210的块相同的方式将相应的深度图帧220的块划分为分区,通过使用多视点彩色视频帧210的块分区的外围像素值和相应深度图帧220的块分区的外围像素值,来获得指示多视点彩色视频帧210的块分区与相应深度图帧220的块分区之间的相关性的参数,并通过利用使用获得的参数确定的相关性,来从多视点彩色视频帧210的块分区预测相应深度图帧220的块分区。
图3是根据本发明的实施例的多视点视频数据编码设备300的框图。
参照图3,多视点视频数据编码设备300包括图像获得单元310、彩色视频帧编码单元320和深度图编码单元330。
图像获得单元310通过使用多视点视频获得单元(诸如,图1的所述至少两个多视点相机130)来获得多视点彩色视频帧,并通过使用深度图帧获得单元(诸如,深度相机140)来获得与多视点彩色视频帧相应的深度图帧。
彩色视频帧编码单元320对获得的多视点彩色视频帧进行预测编码。具体地,如下面参照图13至图25的描述,根据当前实施例的彩色视频帧编码单元320可基于具有分层结构的编码单元而不是基于普通宏块来对多视点彩色视频帧进行编码。彩色视频帧编码单元320可针对从多视点视频帧划分的至少一个最大编码单元中的每一个,从与深度相应的分层编码单元中,确定包括与编码深度相应的编码单元的具有树结构的编码单元,其中,每个深度都表示至少一个最大编码单元被空间地划分的次数。彩色视频帧编码单元320可确定用于对与编码深度相应的编码单元中的每个进行预测编码的分区,并可通过基于具有分层结构的变换单元执行变换,来确定具有树结构的变换单元。
深度图帧编码单元330通过使用在被预测编码之后被恢复的多视点彩色视频帧来对相应深度图帧进行帧内预测编码。如上所述,具体地,根据当前实施例的深度图帧编码单元330在深度图帧被编码时考虑深度图帧与相应多视点彩色视频帧之间的相关性,将在被预测编码之后被恢复的多视点彩色视频帧的块划分为分区以确定相关性,考虑邻近外围像素之间的相关性确定指示每个分区的彩色图像和深度图图像之间的相关性的参数,并通过使用确定的参数从在被预测编码之后被恢复的多视点彩色视频帧的块分区预测相应深度图帧的块分区。
图4是图3的深度图帧编码单元330的框图。
参照图4,深度图帧编码单元400包括缩放单元410、划分单元420、相关性参数获得单元430、深度图帧预测单元440和减法单元450。
缩放单元410在深度图帧的块的尺寸与多视点彩色视频帧的块的尺寸不同的情况下,以这样的方式对多视点彩色视频帧的块进行采样:使多视点彩色视频帧的块的尺寸与深度图帧的块的尺寸相同。例如,如果多视点彩色视频帧的块的尺寸是2N×2N(N是整数),相应深度图帧的块的尺寸是N×N,则缩放单元410可通过按1:2的比例对多视点彩色视频帧的块进行下采样来产生多视点彩色视频帧的块。
划分单元420基于在被编码之后被恢复多视点彩色视频帧的恢复的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区。划分单元420还按与多视点彩色视频帧的块分区相同的方式,将深度图帧的块划分为分区。
图5A和图5B是用于解释由图4的划分单元420执行的将多视点彩色视频帧的块划分为分区的方法的示图。
划分单元420可基于多视点彩色视频帧的块的像素值的分布,将多视点彩色视频帧的块划分为分区,使得具有与预定像素值相似的像素值的像素可被包括在相同分区中。划分单元420可分析多视点彩色视频帧的块的像素值的分布,确定作为分区划分的参照的预定像素值,并将在预定像素值的±x(x是整数)的范围内的像素划分到单个分区中。例如,参照图5A,划分单元420可将具有在像素值125的±10的范围内的像素值的像素划分到第一分区510中,将具有在像素值70的±10的范围内的像素值的像素划分到第二分区520中。基于像素值的分布将块划分为分区的方法不限于此。划分单元420可通过应用各种数据聚类方法基于像素值的分布将块划分为多个分区。
参照图5B,划分单元420可通过应用各种边缘检测方法(诸如索贝尔算法)来检测多视点彩色视频帧的块中存在的边缘,并基于检测的边缘将多视点彩色视频帧的块划分到第一分区530和第二分区540中。
如果通过使用划分单元420将多视点彩色视频帧的块划分为多个分区,则相关性参数获得单元430针对多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,来获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数。
深度图帧预测单元440通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得相应深度图帧的块分区的预测值。
图6是用于解释由图4的的相关性参数获得单元430执行的参数获得处理和由深度图帧预测单元440执行的帧内预测处理的概念图。
参照图6,假设通过划分单元420将多视点彩色视频帧的块610划分为两个分区P1和P2。划分单元420将深度图帧的块640划分为两个分区P1’和P2’,使得两个分区P1’和P2’具有与多视点彩色视频帧的块610的两个分区P1和P2相同的尺寸和形状。
相关性参数获得单元430针对多视点彩色视频帧的块610的两个分区P1和P2中的每个来获得指示相关性的参数。更具体地说,相关性参数获得单元430通过使用多视点彩色视频帧的块610的分区P1的外围像素值620和相应深度图帧的块640的分区P1’的外围像素值650,获得指示多视点彩色视频帧的块610的分区P1和深度图帧的块640的分区P1’之间的相关性的第一参数。此外,相关性参数获得单元430通过使用多视点彩色视频帧的块610的分区P2的外围像素值630和相应深度图帧的块640的分区2’的外围像素值660,获得指示多视点彩色视频帧的块610的分区P2和深度图帧的块640的分区P2’之间的相关性的第二参数。
如果多视点彩色视频帧的像素是R,具有与像素R的位置相同的位置的深度图帧的相应像素的预测值是D,则可通过指示多视点彩色视频帧和深度图帧之间的相关性的函数f()(诸如等式:D=f(R))来获得预测值D。如果假设指示相关性的函数是线性函数(诸如等式:f(x)=ax+b(a和b是实数)),则通过使用权重a和偏移量b来定义线性关系。
根据本发明的实施例的相关性参数获得单元430通过使用在被编码之后被恢复的多视点彩色视频帧的块分区的外围像素值620和630以及深度图帧的外围像素值650和660,来获得每个分区的权重a和偏移量b,使得指示线性关系的权重a和偏移量b可在不单独用信号发送的情况下在接收端被获得。
相关性参数获得单元430独立地处理多视点彩色视频帧的块分区和深度图帧的块分区,通过使用块分区的外围像素620、630、650和660来获得指示相关性的参数。参照图6,相关性参数获得单元430通过使用多视点彩色视频帧的块分区P1的外围像素值620来预定相应深度图帧的块分区P1’的外围像素值650。例如,通过等式D’(x,y)=a×R(x,y)+b来获得使用多视点彩色视频帧的块分区P1的外围像素值R(x,y)621的在相同位置的相应深度图帧的块分区P1’的外围像素值D(x,y)651的预测值D’(x,y)。相关性参数获得单元430通过使用多视点彩色视频帧的块分区P1的外围像素值620中的每个来预测相应深度图帧的块分区P1’的外围像素值650,并确定权重a和偏移量b使得相应深度图帧的块分区P1’的预测的外围像素值650与相应深度图帧的块分区P1’的原始外围像素值660之间的差(D(x,y)-D'(x,y))最小化。在这点上,相关性参数获得单元430可针对多视点彩色视频帧的块分区P1的外围像素值620中的每个来预测相应深度图帧的块分区P1’的外围像素值650,并确定权重a和偏移量b使得差(D(x,y)-D'(x,y))的平方和最小化(最小二乘解)。
类似地,相关性参数获得单元430通过使用多视点彩色视频帧的块分区P2的外围像素值630,来预测相应深度图帧的块分区P2’的外围像素值660。相关性参数获得单元430通过使用多视点彩色视频帧的块分区P2的外围像素值630中的每个,来预测相应深度图帧的块分区P2’的外围像素值660,并确定权重a和偏移量b使得相应深度图帧的块分区P2’的预测的外围像素值660和相应深度图帧的块分区P2’的原始外围像素值660之间的差最小化。
如上所述,相关性参数获得单元430通过使用每个分区的外围像素来独立地预测指示相关性的参数。如果多视点彩色视频帧的块分区的外围像素值是Rec_Y’,深度图帧的块分区的相应外围像素值的预测值是Pred_D,则相关性参数获得单元430通过等式Pred_D=a×Rec_Y’+b预测深度图帧的外围像素,并确定参数a和b使得原始外围像素与预测的外围像素之间的差最小化。虽然上面假设主要线性关系来描述确定参数的处理,但是本发明的思想不限于此,并可被应用到当获得用于定义第n线性关系等式或另一非线性关系等式的参数时使用外围像素获得最佳参数的处理。
如果相关性参数获得单元430针对每个分区获得指示相关性的参数,则深度图帧预测单元440使用获得的参数,从恢复的多视点彩色视频帧的块分区获得相应深度图帧的块分区的预测值。返回参照图6,假设针对在被编码之后被恢复的多视点彩色视频帧的块分区P1确定的权重和偏移量分别是a1和b1。深度图帧预测单元440使用线性关系等式(诸如等式:D1’=a1×R1+b1),从多视点彩色视频帧的块分区P1的像素R1611,产生深度图帧的块分区P1’的相应像素D1’641的预测值。类似地,如果假设针对在被编码之后而被恢复的多视点彩色视频帧的块分区P2而确定的权重和偏移量分别是a2和b2,则深度图帧预测单元440通过使用线性关系等式(诸如等式:D2’=a2×R2+b2),从多视点彩色视频帧的块分区P2的像素R2612,产生深度图帧的分区P2’的相应像素D2’642的预测值。如上所述,深度图帧预测单元440通过使用指示在分区单元中确定的指示相关性的参数,从多视点彩色视频帧的块分区预测深度图帧的块分区。
返回参照图4,减法单元450通过计算深度图帧的原始像素值与深度图帧的预测的像素值之间的差值来产生深度图残差。像普通残差一样,通过变换、量化和熵编码处理来对深度图残差进行编码。
图7示出根据本发明的实施例的用于预测深度图帧块740的多视点彩色视频帧块。
参照图7,可通过使用与将被编码的当前深度图帧块740共同观看(相同视点)和共同定位(相同位置)的彩色视频帧块710来预测深度图帧块740。如果与将被编码的当前深度图帧块740共同观看和共同定位的彩色视频帧块710的尺寸与将被编码的当前深度图帧块740的尺寸不同,则可如上所述使用被缩放的块以具有相同尺寸。此外,可通过使用与将被编码的当前深度图帧块共同观看和共同定位的彩色视频帧块710的外围块711和712来预测将被编码的当前深度图帧块740。如果外围块711和712的尺寸与将被编码的当前深度图帧块740的尺寸不同,则可使用被缩放的外围块以具有与将被编码的当前深度图帧块740相同的尺寸。还可使用不同视点的彩色视频帧块730及其外围块731和732来预测将被编码的当前深度图帧块740,其中,通过基于指示多视点视频之间的视点差的视差矢量来移动与将被编码的当前深度图帧块740共同观看和共同定位的彩色视频帧块710来确定所述不同视点的彩色视频帧块730及其外围块731和732。如果不同视点的彩色视频帧块730和外围块731和732的尺寸与将被编码的当前深度图帧块740的尺寸不同,则不同视点的彩色视频帧块730和外围块731和732被缩放以具有与将被编码的当前深度图帧块740相同的尺寸,并且被缩放的不同视点的彩色视频帧块730和外围块731和732可被用于预测将被编码的当前深度图帧块740。
图8是示出根据本发明的实施例的对多视点视频数据的深度图进行编码的方法的流程图。
参照图8,在操作810,图像获得单元310获得多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧。
在操作820,彩色视频帧编码单元320对获得的多视点彩色视频帧进行预测编码和恢复。
在操作830,深度图帧编码单元330基于恢复的多视点彩色视频帧的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区。
在操作840,深度图帧编码单元330针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区和深度图帧的块分区中的每个之间的相关性的参数。
在操作850,深度图帧编码单元330通过使用获得的参数,从恢复的多视点彩色视频帧的块分区,获得深度图帧的相应块分区的预测值。深度图帧编码单元330通过对残差进行变换、量化和熵编码来对深度图帧进行编码,其中,所述残差是深度图帧的预测值和原始块分区之间的差值。
图9是根据本发明的实施例的多视点视频数据解码设备900的框图。
参照图9,多视点视频数据解码设备900包括接收单元910、彩色视频帧解码单元920和深度图帧解码单元930。
接收单元910接收包含对多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧进行编码的结果的比特流。
彩色视频帧解码单元920对从比特流获得的编码的多视点彩色视频帧进行解码。具体地,如下面将参照图13至图25所描述的,根据本发明的实施例的彩色视频帧解码单元920可基于分层编码单元对多视点彩色视频帧进行解码。彩色视频帧解码单元920从比特流获得关于以下项的信息:从多视点彩色视频帧划分的至少一个最大编码单元中的每个的尺寸、指示至少一个最大编码单元中的每个被空间划分的次数的深度、用于对根据深度的分层编码单元进行预测编码的分区、以及具有分层结构的变换单元。此外,基于获得的信息,彩色视频帧解码单元920针对从多视点彩色视频帧划分的至少一个最大编码单元中的每个,从与深度相应的分层编码单元确定包括与编码深度相应的编码单元的具有树结构的编码单元,确定用于对与编码深度相应的编码单元中的每个进行预测解码的分区,并确定具有树结构的变换单元,其中,每个深度指示至少一个最大编码单元中的一个被空间划分的次数。
深度图帧解码单元930基于对多视点彩色视频帧进行解码的结果,对相应深度图帧进行预测解码。特别地,深度图帧解码单元930使用恢复的多视点彩色视频帧对相应深度图帧进行解码。具体地说,根据本发明的实施例的深度图帧解码单元930在深度图帧被解码时考虑深度图帧与相应多视点彩色视频帧之间的相关性,基于像素值将解码的多视点彩色视频帧的块划分为分区以确定相关性,考虑邻近外围像素之间的相关性来针对每个分区确定指示彩色图像和深度图图像的参数,并使用确定的参数从解码的多视点彩色视频帧的块分区预测相应深度图帧的块分区。
图10是根据本发明的实施例的图9的深度图帧解码单元930的详细结构的框图。
参照图10,深度图帧解码单元1000包括缩放单元1010、划分单元1020、相关性参数获得单元1030、深度图帧预测单元1040和加法单元1050。
缩放单元1010在深度图帧的块的尺寸与多视点彩色视频帧的块的尺寸不同的情况下,以这样的方式对多视点彩色视频的块进行采样:使多视点彩色视频帧的块的尺寸与深度图帧的块的尺寸相同。划分单元1020基于解码的多视点彩色视频帧的像素值将多视点彩色视频帧的块划分为至少一个分区。划分单元1020还以与多视点彩色视频帧的块分区相同的方式来将深度图帧的块划分为分区。
如果通过划分单元1020将多视点彩色视频帧的块划分为多个分区,则相关性参数获得单元1030针对多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的先前解码的深度图帧的块分区的外围像素值,来获得指示多视点彩色视频帧的块分区中的每个和深度图帧的块分区中的每个之间的相关性的参数。
深度图帧预测单元1040通过使用获得的参数,从解码的多视点彩色视频帧的块分区获得相应深度图帧块分区的预测值。与如上所述的通过图4的深度图帧预测单元440执行的预测值获得处理类似,深度图帧预测单元1040通过使用针对解码的多视点彩色视频帧的块分区中的每个而确定的权重和偏移量,从多视点彩色视频帧的块分区预测相应深度图帧的块分区。
添加单元1050从比特流获得深度图残差,将通过深度图帧预测单元1040获得的预测值与深度图残差相加,并恢复深度图帧的块分区,其中,深度图残差是原始深度图帧的像素值和预测的深度图帧的像素值之间的差值。可像普通残差一样,通过熵解码、反量化和逆变换来恢复深度图残差。
图11是示出根据本发明实施例的对多视点视频数据的深度图进行解码的方法的流程图。
参照图11,在操作1110,接收单元910接收并解析通过对多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧进行编码而获得的比特流。
在操作1120,彩色视频帧解码单元920对多视点彩色视频帧进行解码。如将在下面所描述的,彩色视频帧解码单元920可基于分层结构的编码单元对多视点彩色视频帧进行解码。
在操作1130,深度图帧解码单元930基于解码的多视点彩色视频帧的块的像素值,将解码的多视点彩色视频帧的块划分为至少一个分区。
在操作1140,深度图帧解码单元930针对解码的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,来获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数。
在操作1150,深度图帧解码单元930通过使用获得的参数,从解码的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。深度图帧解码单元930通过将获得的预测值与深度图残差相加来恢复深度图帧的块分区。
图12示出根据本发明的实施例的基于对多视点视频进行编码的方法而编码并基于对多视点视频进行解码的方法而解码的多视点彩色视频帧。
图3的彩色视频帧编码单元320基于间隔视点的相机之间的时间相关性和空间相关性,对多视点视频进行压缩编码。
在图12中,x轴表示时间,y轴表示视点。在x轴中,“T0”至“T8”表示图像的采样时间。在y轴中,“S0”至“S8”表示不同的视点。在图12中,每一行指示从相同视点捕捉的图像画面组,每一列表示在相同时间点捕捉的多视点视频。
图3的彩色视频帧编码单元320周期性针对从基本视点捕捉的图像产生帧内画面,并通过基于帧内画面执行时间预测或视点间预测来对其它画面进行预测编码。
使用从相同视点捕捉的图像(即,图12中的同一行中的图像)之间的时间关系来执行时间预测。对于时间预测,可使用利用分层B画面的预测方案。使用在相同时间点的图像(即,图12中的同一列中的图像)之间空间关系来执行视点间预测。
在通过使用分层B画面来对多视点视频画面进行预测的预测方案中,当使用来自相同视点的图像(即,同一行中的像素)之间的时间关系来执行预测时,基于锚画面(anchorpicture)将来自相同视点的图像画面组预测编码为双向画面(以下称为“B画面”)。这里,锚画面表示位于图12的列之中的在第一时间点T0的列110和在最后时间点T8的列120中的画面,每个锚画面包括帧内画面。除了帧内画面(以下称为“I画面”)之外,仅通过视点间预测来对位于列110和120中的锚画面进行预测编码。位于除了列110和120之外的其它列中的包括I画面的画面被称为非锚画面(non-anchorpicture)。
例如,现在将描述使用分层B画面对在预定时间内从第一视点S0捕捉的图像画面进行编码的情况。在从第一视点S0捕捉的图像画面中,将在第一时间点T0捕捉的画面111和在最后时间点T8捕捉的画面121编码为I画面。随后,基于作为锚画面的I画面111和121将在时间点T4捕捉的画面131双向预测编码为B画面。基于I画面111和B画面131将在时间点T2捕捉的画面132双向预测编码为B画面。类似地,基于I画面111和B画面132对在时间点T1捕捉的画面133双向预测编码,基于B画面132和B画面131对在时间点T3捕捉的画面134双向预测编码。如上所述,由于使用锚画面对从相同视点捕捉的图像序列进行分层和双向预测编码,因此该预测编码方法被称为分层B画面。在图12的“Bn”中,n表示被第n次双向预测的B画面(n=1、2、3和4)。例如,“B1”表示使用作为I画面或P画面的锚画面被第一次双向预测的画面,“B2”表示在B1画面之后被双向预测的画面,“B3”表示在B2画面之后被双向预测的画面,“B4”表示在B3画面之后被双向预测的画面。
如为对多视点视频帧进行编码,首先,使用上述的分层B画面对从作为基本视点的第一视点S0捕捉的图像画面组进行编码。为了对从其它视点捕捉的图像序列进行编码,首先,通过使用来自第一视点S0的I画面111和121的视点间预测,使用P画面对从列110和120中的奇数视点S2、S4和S6以及最后视点S7捕捉的图像画面进行预测编码。通过视点间预测,使用来自邻近视点的图像画面将从列110和120中的偶数视点S1、S3和S5捕捉的图像画面双向预测为B画面。例如,使用来自视点S1的I画面111和来自视点S2的P画面112来对在时间点T0从第二视点S1捕捉的B画面113进行双向预测,其中,视点S1和视点S2是邻近视点。
如上所述,当使用I画面、B画面和P画面中的至少一个对来自列110和120中的所有视点的图像画面中的每个进行编码时,通过使用分层B画面的时间预测以及视点间预测,来对非锚画面130进行双向预测编码。
在非锚画面中,通过使用分层B画面的时间预测,使用来自相同视点的锚画面对从奇数视点S2、S4和S6以及最后视点S7捕捉的画面中的每一个进行双向预测编码。在非锚画面130中,不仅通过使用分层B画面的时间预测,还通过使用来自邻近视点的画面的视点间预测,对从偶数视点S1、S3、S5和S7捕捉的图像画面进行双向预测编码。例如,使用锚画面113和123以及来自邻近视点的画面131和135来对在时间点T4从视点S2捕捉的画面136进行预测。
如上所述,使用在相同时间点从不同视点捕捉的I画面或者先前P画面,对列110和120中包括的P画面中的每个进行预测编码。例如,使用在最后时间点T8从第一视点S0捕捉的I画面121,将在最后时间点T8从视点S2捕捉的P画面122预测编码为参考画面。
现在将参照图13至图25详细描述能够基于具有树结构的编码单元对预测单元和分区进行预测编码的视频编码方法和设备以及能够基于具有树结构的编码单元对预测单元和分区进行预测解码的视频解码方法和设备。以下将描述的视频编码方法和设备可被应用到图3的彩色视频帧编码单元320,以下将描述的视频解码方法和设备可被应用到图9的彩色视频帧解码单元920。
图13是根据本发明的实施例的能够基于具有树结构的编码单元执行视频预测的视频编码设备100的框图。
能够基于具有树结构的编码单元执行视频预测的视频编码设备100包括最大编码单元划分器110、编码单元确定器120和输出单元130。为了方便解释,将在下文中将能够基于具有树结构的编码单元执行视频预测的视频编码设备100称为“视频编码设备100”。
最大编码单元划分器110可基于图像的当前画面的最大编码单元,来对当前画面进行划分。如果当前画面大于最大编码单元,则当前画面的图像数据可被划分为至少一个最大编码单元。根据本发明的实施例的最大编码单元可以是具有32×32、64×64、128×128或256×256等尺寸的数据单元,其中,数据单元的形状是宽度和长度为2的若干次方的正方形。图像数据可根据所述至少一个最大编码单元被输出到编码单元确定器120。
根据本发明的实施例的编码单元可由最大尺寸和深度表征。深度表示编码单元从最大编码单元空间划分的次数,并且随着深度加深,与深度相应的编码单元可从最大编码单元被划分为最小编码单元。最大编码单元的深度可被确定为最高深度,最小编码单元的深度可被确定为最低深度。由于随着最大编码单元的深度加深,与每个深度相应的编码单元的尺寸减小,因此与更高深度相应的编码单元可包括多个与更低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸被划分为最大编码单元,并且每个最大编码单元可包括根据深度被划分的编码单元。由于根据深度对根据本发明的实施例的最大编码单元进行划分,因此可根据深度对包括在最大编码单元中的空间域的图像数据进行分层地分类。
可预先确定编码单元的最大深度和最大尺寸,所述最大深度和最大尺寸限制对最大编码单元的高度和宽度进行分层划分的次数。
编码单元确定器120对通过根据深度对最大编码单元的区域进行划分而获得的至少一个划分区域进行编码,并且根据所述至少一个划分区域来确定用于输出最终编码的图像数据的深度。换句话说,编码单元确定器120以当前画面的最大编码单元为单位,通过对与深度相应的编码单元中的图像数据进行编码,选择具有最小编码误差的深度,来确定编码深度。确定的编码深度和每个最大编码单元中的图像数据被输出到输出单元130。
根据等于或低于最大深度的至少一个深度,基于与深度相应的编码单元,对每个最大编码单元中的图像数据进行编码,并且将基于与深度相应的编码单元对图像数据进行编码的结果进行比较。在将与深度相应的编码单元的编码误差进行比较之后,可选择具有最小编码误差的深度。可针对每个最大编码单元选择至少一个编码深度。
随着编码单元根据深度而被分层地划分并且编码单元的数量增加,最大编码单元的尺寸被划分。另外,即使包括在一个最大编码单元中的编码单元与相同的深度相应,也通过测量每个编码单元的图像数据的编码误差来确定是否将每个编码单元划分为更低深度。因此,由于即使包括在一个最大编码单元中的数据根据数据的位置而具有与深度相应的不同编码误差,因此可根据数据的位置而不同地设置编码深度。因此,针对一个最大编码单元可设置至少一个编码深度,并且可根据所述至少一个编码深度的编码单元来对最大编码单元的图像数据进行划分。
因此,根据本发明的实施例的编码单元确定器120可确定包括在当前最大编码单元中的具有树结构的编码单元。根据本发明的实施例的“具有树结构的编码单元”包括在当前最大编码单元中包括的与深度相应的所有编码单元中的与确定为编码深度的深度相应的编码单元。可根据最大编码单元的相同区域中的深度来分层地确定与编码深度相应的编码单元,并可在最大编码单元的不同区域中独立地确定与编码深度相应的编码单元。类似地,可从另一区域的编码深度独立地确定当前区域中的编码深度。
根据本发明的实施例的最大深度是与从最大编码单元到最小编码单元的划分次数有关的索引。根据本发明的实施例的第一最大深度可表示从最大编码单元到最小编码单元的总划分次数。根据本发明实施例的第二最大深度可表示从最大编码单元到最小编码单元的深度等级的总数。例如,当最大编码单元的深度是0时,通过对最大编码单元划分一次而获得的编码单元的深度可被设置为1,通过对最大编码单元划分两次而获得的编码单元的深度可被设置为2。如果通过对最大编码单元划分四次而获得的编码单元是最小编码单元,则存在深度0、1、2、3和4的深度等级。因此,第一最大深度可被设置为4,并且第二最大深度可被设置为5。
可对最大编码单元执行预测编码和变换。类似地,基于与深度相应的编码单元,根据等于或小于最大深度的深度,以最大编码单元为单位执行预测编码和变换。
由于每当根据深度对最大编码单元进行划分,与深度相应的编码单元的数量均增加,因此应对随着深度加深产生的与深度相应的所有编码单元执行包括预测编码和变换的编码。为了便于描述,现在将基于包括在至少一个最大编码单元中的当前深度的编码单元来描述预测编码和变换。
视频编码设备100可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作。此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同数据单元。
例如,视频编码设备100不仅可选择用于对图像数据进行编码的编码单元,还可选择不同于编码单元的数据单元,以便对编码单元中的图像数据执行预测编码。
为了对最大编码单元执行预测编码,可基于与编码深度相应的编码单元(即,不再划分到与更低深度相应的编码单元的编码单元)来执行预测编码。以下,不再划分且成为用于预测编码的基本单元的编码单元将被称为“预测单元”。通过划分预测单元获得的分区可通过对预测单元的高度和宽度中的至少一个进行划分而获得的数据单元。分区可以是通过对编码单元的预测单元进行划分而获得的数据单元,预测单元可以是具有与编码单元相同的尺寸的分区。
例如,当2N×2N(N是正整数)的编码单元不再被划分时,该编码单元成为2N×2N的预测单元,并且分区的尺寸可以是2N×2N、N×N、N×2N或N×N。分区类型的示例包括通过对预测单元的高度或宽度进行对称地划分而获得的对称分区、通过对预测单元的高度或宽度进行非对称地划分(诸如,1:n或n:1)而获得的分区、通过对预测单元进行几何地划分而获得的分区、以及具有任意形状的分区。
预测单元的预测模式可以是帧内模式、帧间模式和跳过模式中的至少一个。例如,可对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。另外,可仅对2N×2N的分区执行跳过模式。可对每个编码单元中的一个预测单元独立地执行编码,可选择具有最小编码误差的预测模式。
另外,视频编码设备100不仅可基于用于对图像数据进行编码的编码单元还可基于与编码单元不同的数据单元,来对编码单元中的图像数据执行变换。为了对编码单元执行变换,可基于具有小于或等于编码单元的尺寸的尺寸的数据单元,来执行变换。例如,变换单元可包括帧内模式的数据单元和帧间模式的数据单元。
与根据本发明的实施例的具有树结构的编码单元类似,编码单元中的变换单元可被递归地划分为更小尺寸的变换单元。因此,可基于根据变换深度的具有树结构的变换单元,对编码单元中的残差数据进行划分。
根据本发明的实施例的变换单元还可被分配变换深度,所述变换深度表示对编码单元的高度和宽度进行划分以获得变换单元的次数。例如,当2N×2N的当前编码单元的变换单元的尺寸是2N×2N时,变换深度可以是0,当2N×2N的当前编码单元的变换单元的尺寸是N×N时,变换深度可以是1,并且当2N×2N的当前编码单元的变换单元的尺寸是N/2×N/2时,变换深度可以是2。也就是说,还可根据变换深度设置具有树结构的变换单元。
每个编码深度的编码信息不仅需要关于编码深度的信息,还需要关于与预测编码和变换相关的信息的信息。因此,编码单元确定器120不仅可确定具有最小编码误差的编码深度,还可确定预测单元中的分区类型、每个预测单元的预测模式和用于变换的变换单元的尺寸。
稍后将详细描述根据本发明的实施例的包括在最大编码单元中的具有树结构的编码单元以及确定预测单元/分区和变换单元的方法。
编码单元确定器120可通过使用基于拉格朗日乘数的率失真优化,来测量与深度相应的编码单元的编码误差。
输出单元130在比特流中输出最大编码单元的图像数据和关于每个深度的编码模式的信息,其中,所述最大编码单元的图像数据基于由编码单元确定器120确定的至少一个编码深度被编码。
编码图像数据可以是对图像的残差数据进行编码的结果。
关于每个深度的编码模式的信息可包括关于编码深度的信息、关于在预测单元中的分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。
可使用根据深度的划分信息来定义关于编码深度的信息,其中,根据深度的划分信息指示是否将对更低深度而不是当前深度的编码单元执行编码。如果当前编码单元的当前深度是编码深度,则使用与当前深度相应的编码单元对当前编码单元进行编码,因此可定义关于当前深度的划分信息,使得可不再将当前深度的当前编码单元划分到更低深度的编码单元。相反地,如果当前编码单元的当前深度不是编码深度,则应对更低深度的编码单元进行编码,并且可因此定义关于当前深度的划分信息,使得可将当前深度的当前编码单元划分为更低深度的编码单元。
如果当前深度不是编码深度,则对更低深度的编码单元执行编码。由于更低深度的至少一个编码单元存在于当前深度的一个编码单元中,因此对更低深度的每个编码单元重复执行编码,并因此可对具有相同深度的编码单元递归地执行编码。
由于应在一个最大编码单元中确定具有树结构的编码单元,并且针对编码深度的每个编码单元确定关于至少一个编码模式的信息,所以可针对一个最大编码单元确定关于至少一个编码模式的信息。另外,由于根据深度对图像数据进行分层划分,因此最大编码单元的图像数据可根据它的位置具有不同的编码深度。因此可针对图像数据设置关于编码深度和编码模式的信息。
因此,根据本发明的实施例的输出单元130可将关于相应的编码深度和编码模式的编码信息分配给包括在最大编码单元中的编码单元、预测单元和最小单元中的至少一个。
根据本发明的实施例的最小单元是通过将最低深度的最小编码单元划分为4份而获得的矩形数据单元。可选择地,最小单元可以是可被包括在最大编码单元中所包括的所有编码单元、预测单元、分区单元和变换单元中的最大矩形数据单元。
例如,经由输出单元130输出的编码信息可被分类为与深度相应的每个编码单元的编码信息和每个预测单元的编码信息。与深度相应的每个编码单元的编码信息可包括预测模式信息和分区尺寸信息。每个预测单元的编码信息可包括关于帧间模式的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息,以及关于帧内模式的插值方法的信息。
以画面、条带或GOP为单位定义的关于编码单元的最大尺寸的信息和关于最大深度的信息可被插入到比特流的头、序列参数集(SPS)或画面参数集(PPS)。
另外,可经由比特流的头、SPS或PPS发送关于当前视频中可用的变换单元的最大尺寸和最小尺寸的信息。输出单元130可对关于编码单元的可伸缩性的信息进行编码,并输出该信息。
在根据本发明的实施例的视频编码设备100中,与深度相应的编码单元可以是通过将更高深度的编码单元的高度或宽度划分成两份而获得的编码单元。换言之,当当前深度的编码单元的尺寸是2N×2N时,更低深度的编码单元的尺寸是N×N。另外,2N×2N的编码单元可包括最多4个更低深度的编码单元。
因此,视频编码设备100可基于考虑当前画面的特征而确定的每个最大编码单元的尺寸和最大深度,针对每个最大编码单元确定具有最优形状和最优尺寸的编码单元来形成具有树结构的编码单元。另外,由于可根据不同预测模式和变换方法中的任意一个对每个最大编码单元进行编码,因此可考虑不同图像尺寸的编码单元的特征来确定最优编码模式。
因此,如果以传统宏块为单位对具有非常高的分辨率或非常大的数据量的图像进行编码,则每个画面的宏块的数量极度增加。因此,针对每个宏块产生的压缩信息量增加,因此难以发送压缩的信息,并且数据压缩效率降低。然而,视频编码设备100能够考虑图像的尺寸,在增加编码单元的最大尺寸的同时,基于图像的特征来控制编码单元,从而增加图像压缩效率。
图14是根据本发明的实施例的能够基于具有树结构的编码单元执行视频预测的视频解码设备200的框图。
能够基于具有树结构的编码单元执行视频预测的视频解码设备200包括接收器210、图像数据和编码信息提取器220和图像数据解码器230。为了便于解释,能够基于具有树结构的编码单元执行视频预测的视频解码设备200现将被称为“视频解码设备200”。
下面用于解释视频解码设备200的解码操作的各种术语(诸如编码单元、深度、预测单元、变换单元和关于不同编码模式的信息)的定义与上面参照图13描述的视频编码设备100的定义相同。
接收器210接收和解析编码视频的比特流。图像数据和编码信息提取器220从解析的比特流,以最大编码单元为单位提取具有树结构的每个编码单元的编码图像数据,并随后将提取的图像数据输出到图像数据解码器230。图像数据和编码信息提取器220可从关于当前画面、SPS或PPS的头部提取关于当前画面的编码单元的最大尺寸的信息。
另外,图像数据和编码信息提取器220从解析的比特流,以最大编码单元为单位,提取关于具有树结构的编码单元的编码深度和编码模式的信息。提取的关于编码深度和编码模式的信息被输出到图像数据解码器230。换言之,比特流中的图像数据可被划分为最大编码单元,使得图像数据解码器230可以以最大编码单元为单位对图像数据进行解码。
可针对关于至少一个编码深度的信息设置关于每个最大编码单元的编码深度和编码模式的信息。关于每个编码深度的编码模式的信息可包括关于与编码深度相应的相应编码单元的分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。另外,根据深度的划分信息可被提取为关于编码深度的信息。
关于由图像数据和编码信息提取器220提取的每个最大编码单元的编码深度和编码模式的信息是关于编码深度和编码模式的信息,其中,所述编码深度和编码模式被确定为在编码端(诸如,视频编码设备100)以最大编码单元为单位对与深度相应的每个编码单元重复地执行编码时,产生最小编码误差。因此,视频解码设备200可通过根据产生最小编码误差的编码深度和编码模式对图像数据进行解码来恢复图像。
由于关于编码深度和编码模式的编码信息可被分配给相应的编码单元、预测单元和最小单元中的数据单元,因此图像数据和编码信息提取器220可以以数据单元为单位,提取关于编码深度和编码模式的信息。如果以数据单元为单位记录了关于每个最大编码单元的编码深度和编码模式的信息,则包括关于相同编码深度和相同编码模式的信息的数据单元可被推断为是包括在相同的最大编码单元中的数据单元。
图像数据解码器230基于关于每个最大编码单元的编码深度和编码模式的信息,通过对每个最大编码单元中的图像数据进行解码,来恢复当前画面。换言之,图像数据解码器230可基于包括在每个最大编码单元中的具有树结构的每个编码单元的解析的分区类型、预测模式和变换单元,对编码的图像数据进行解码。解码处理可包括预测处理(包含帧内预测和运动补偿)和逆变换处理。
图像数据解码器230可基于关于根据编码深度的每个编码单元的预测单元的分区类型和预测模式的信息,根据每个编码单元的分区和预测模式,对每个编码单元执行帧内预测或运动补偿。
另外,为了对每个最大编码单元执行逆变换,图像数据解码器230可对关于每个编码单元的具有树结构的变换单元的信息进行解析,并基于每个编码单元的变换单元,执行逆变换。通过逆变换,可恢复每个编码单元的空间域的像素值。
图像数据解码器230可基于根据深度的划分信息来确定当前最大编码单元的编码深度。如果划分信息指示图像数据在当前深度中不再划分,则当前深度是编码深度。因此,图像数据解码器230可通过使用关于与编码深度相应的编码单元的预测单元的分区类型、预测模式和变换单元的尺寸的信息,对当前最大编码单元的编码数据进行解码。
换言之,可通过观察分配给编码单元、预测单元和最小单元中的数据单元的编码信息来收集包含包括相同划分信息的编码信息的数据单元,并且收集的数据单元可被认为是将由图像数据解码器230根据相同编码模式进行解码的一个数据单元。
视频解码设备200可通过递归地对每个最大编码单元执行编码,来获得关于产生最小编码误差的编码单元的信息,并且可使用所述信息来对当前画面进行解码。换言之,以最大编码单元为单位被确定为最优编码单元的具有树结构的编码单元中的编码图像数据可被解码。
因此,即使图像数据具有高分辨率和非常大数据量,也可通过使用编码单元的尺寸和编码模式,对图像数据进行有效地解码以恢复图像数据,其中,基于从编码端接收到的关于最优编码模式的信息,根据图像数据的特征自适应地确定所述编码单元的尺寸和编码模式。
图15示出根据本发明的实施例的编码单元的概念。
编码单元的尺寸可被表示为宽度×高度,并可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据310中,分辨率是1920×1080,编码单元的最大尺寸是64,最大深度是2。在视频数据320中,分辨率是1920×1080,编码单元的最大尺寸是64,最大深度是3。在视频数据330中,分辨率是352×288,编码单元的最大尺寸是16,最大深度是1。图15中示出的最大深度表示从最大编码单元到最小编码单元的划分总次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可相对大,从而不仅提高编码效率,而且准确地反映图像的特征。因此,具有比视频数据330更高分辨率的视频数据310和320的编码单元的最大尺寸可以是64。
由于视频数据310的最大深度是2,因此由于通过对最大编码单元划分两次,深度加深两层,因此视频数据310的编码单元315可包括长轴尺寸为64的最大编码单元和长轴尺寸为32和16的编码单元。同时,由于视频数据330的最大深度是1,因此由于通过对最大编码单元划分一次,深度加深一层,因此视频数据330的编码单元335可包括长轴尺寸为16的最大编码单元和长轴尺寸为8的编码单元。
由于视频数据320的最大深度是3,因此由于通过对最大编码单元划分三次,深度加深3层,因此视频数据320的编码单元325可包括长轴尺寸为64的最大编码单元和长轴尺寸为32、16和8的编码单元。随着深度加深,详细信息可被精确地表示。
图16是根据本发明的实施例的基于编码单元的图像编码器400的框图。
图像编码器400执行视频编码设备100的编码单元确定器120的操作来对图像数据进行编码。具体地,帧内预测器410对当前帧405中的帧内模式下的编码单元执行帧内预测,运动估计器420和运动补偿器425通过使用当前帧405和参考帧495,对当前帧405中的帧间模式下的编码单元执行帧间预测和运动补偿。
从帧内预测器410、运动估计器420和运动补偿器425输出的数据通过变换器430和量化器440被输出为量化的变换系数。量化的变换系数通过反量化器460和逆变换器470被恢复为空间域中的数据。恢复的空间域中的数据在通过去块单元480和环路滤波单元490后处理之后被输出为参考帧495。量化的变换系数可通过熵编码器450被输出在比特流455中。
为了将图像编码器400应用于视频编码设备100,图像编码器400的所有元件(即,帧内预测器410、运动估计器420、运动补偿器425、变换器430、量化器440、熵编码器450、反量化器460、逆变换器470、去块单元480和环路滤波单元490)在考虑每个最大编码单元的最大深度的同时,基于具有树结构的编码单元中的每个编码单元执行操作。
具体地,帧内预测器410、运动估计器420和运动补偿器425在考虑当前最大编码单元的最大尺寸和最大深度的同时,确定具有树结构的编码单元中的每个编码单元的分区和预测模式。变换器430确定具有树结构的编码单元中的每个编码单元中的变换单元的尺寸。
图17是根据本发明的实施例的基于编码单元的图像解码器500的框图。
解析器510对比特流505进行解析,以获得将被解码的编码图像数据和对编码图像数据进行解码所需的编码信息。编码图像数据通过熵解码器520和反量化器530被输出为反量化的数据,反量化的数据通过逆变换器540被恢复为空间域中的图像数据。
针对空域中的图像数据,帧内预测器550对帧内模式的编码单元执行帧内预测,运动补偿器560通过使用参考帧585对帧间模式下的编码单元执行运动补偿。
通过帧内预测器550和运动补偿器560的空间域中的图像数据可在通过去块单元570和环路滤波单元580后处理之后被输出为恢复帧595。另外,通过去块单元570和环路滤波单元580后处理的图像数据可被输出为参考帧585。
为了通过使用视频解码设备200的图像数据解码器230对图像数据进行解码,图像解码器500可执行在解析器510的操作之后执行的操作。
为了将图像解码器500应用于视频解码设备200,图像解码器500的所有元件(即,解析器510、熵解码器520、反量化器530、逆变换器540、帧内预测器550、运动补偿器560、去块单元570和环路滤波单元580)以最大编码单元为单位,基于具有树结构的编码单元执行操作。
具体地,帧内预测器550和运动补偿器560确定具有树结构的每个编码单元的分区和预测模式,逆变换器540确定每个编码单元的变换单元的尺寸。
图18是示出根据本发明的实施例的与深度相应的编码单元以及分区的示图。
根据本发明的实施例的视频编码设备100和视频解码设备200使用分层编码单元以考虑图像的特征。可根据图像的特征自适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定与深度相应的编码单元的尺寸。
在根据本发明的实施例的编码单元的分层结构600中,编码单元的最大高度和最大宽度均是64最大深度是4最大深度表示从最大编码单元到最小编码单元的划分次数的总数。由于沿着分层结构600的垂直轴深度加深,因此与深度相应的每个编码单元的高度和宽度均被划分。另外,预测单元和分区沿着分层结构600的横轴被示出,其中,所述预测单元和分区是对与深度相应的每个编码单元进行预测编码的基础。
具体地,在分层结构600中,编码单元610是最大编码单元,并且深度为0,尺寸为64×64(即,高度乘宽度)。随着深度沿着垂直轴加深,存在尺寸为32×32和深度为1的编码单元620、尺寸为16×16和深度为2的编码单元630、尺寸为8×8和深度为3的编码单元640以及尺寸为4×4和深度为4的编码单元650。尺寸为4×4和深度为4的编码单元650是最小编码单元。
每个编码单元的预测单元和分区根据每个深度沿着水平轴被排列。如果尺寸为64×64和深度为0的编码单元610是预测单元,则可将预测单元划分成包括在编码单元610中的分区,即,尺寸为64×64的分区610、尺寸为64×32的分区612、尺寸为32×64的分区614或尺寸为32×32的分区616。
类似地,可将尺寸为32×32和深度为1的编码单元620的预测单元划分成包括在编码单元620中的分区,即,尺寸为32×32的分区620、尺寸为32×16的分区622、尺寸为16×32的分区624和尺寸为16×16的分区626。
类似地,可将尺寸为16×16和深度为2的编码单元630的预测单元划分成包括在编码单元630中的分区,即,尺寸为16×16的分区630、尺寸为16×8的分区632、尺寸为8×16的分区634和尺寸为8×8的分区636。
类似地,可将尺寸为8×8和深度为3的编码单元640的预测单元划分成包括在编码单元640中的分区,即,尺寸为8×8的分区640、尺寸为8×4的分区642、尺寸为4×8的分区644和尺寸为4×4的分区646。
尺寸为4×4和深度为4的编码单元650是具有最低深度的最小编码单元。编码单元650的预测单元仅被设置为尺寸为4×4的分区650。
为了确定最大编码单元610的编码深度,视频编码设备100的编码单元确定器120对包括在最大编码单元610中的与每个深度相应的所有编码单元进行编码。
随着深度加深,与每个深度相应并包括具有相同范围和相同尺寸的数据的编码单元的数量增加。例如,需要四个与深度2相应的编码单元来覆盖包括在与深度1相应的一个编码单元中的数据。因此,为了根据深度比较对相同数据进行编码的结果,与深度1相应的编码单元和四个与深度2相应的编码单元均被编码。
为了以深度为单位执行编码,可沿着分层结构600的水平轴,通过对与深度相应的每个编码单元中的预测单元执行编码,来将针对每个深度的最小编码误差选为代表编码误差。可选地,随着深度沿着分层结构600的纵轴加深,可通过以深度为单位执行编码,并比较根据深度的最小编码误差,来搜索最小编码误差。在最大编码单元610中的具有最小编码误差的深度和分区可被选为最大编码单元610的编码深度和分区类型。
图19是示出根据本发明的实施例的在编码单元710和变换单元720之间的关系的示图。
根据本发明的实施例的视频编码设备100(或视频解码设备200)基于具有小于或等于最大编码单元的尺寸的编码单元,以最大编码单元为单位对图像进行编码(或解码)。在编码期间,可基于不大于相应的编码单元的数据单元,来选择用于执行变换的每个变换单元的尺寸。
例如,在视频编码设备100(或视频解码设备200)中,如果编码单元710的尺寸是64×64,则可通过使用尺寸为32×32的变换单元720来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的每个变换单元执行变换来编码尺寸为64×64的编码单元710的数据,然后可选择具有最小编码误差的变换单元。
图20是示出根据本发明的实施例的与深度相应的编码信息的示图。
视频编码设备100的输出单元130可对与编码深度相应的每个编码单元的关于分区类型的信息800、关于预测模式的信息810以及关于变换单元尺寸的信息820进行编码,并将信息800、信息810和信息820作为关于编码模式的信息来发送。
信息800指示关于通过划分当前编码单元的预测单元而获得的分区的形状的信息,其中,所述分区是用于对当前编码单元进行预测编码的数据单元。例如,可将尺寸为2N×2N的当前编码单元CU_0划分成以下分区中的任意一个:尺寸为2N×2N的分区802、尺寸为2N×N的分区804、尺寸为N×2N的分区806以及尺寸为N×N的分区808。在这种情况下,信息800被设置来指示尺寸为2N×N的分区804、尺寸为N×2N的分区806以及尺寸为N×N的分区808中的一个。
信息810指示每个分区的预测模式。例如,信息810可指示对由信息800指示的分区进行预测编码的模式,即,帧内模式812、帧间模式814或跳过模式816。
信息820指示当对当前编码单元执行变换时所基于的变换单元。例如,变换单元可以是第一帧内变换单元822、第二帧内变换单元824、第一帧间变换单元826或第二帧内变换单元828。
视频解码设备200的图像数据和编码信息提取器220可提取并使用用于对与深度相应的编码单元进行解码的信息800、810和820。
图21是示出根据本发明的实施例的与深度相应的编码单元的示图。
划分信息可用来指示深度的改变。划分信息指示当前深度的编码单元是否被划分成更低深度的编码单元。
用于对深度为0和尺寸为2N_0×2N_0的编码单元900进行预测编码的预测单元910可包括以下分区类型的分区:尺寸为2N_0×2N_0的分区类型912、尺寸为2N_0×N_0的分区类型914、尺寸为N_0×2N_0的分区类型916和尺寸为N_0×N_0的分区类型918。图9仅示出了通过对称地划分预测单元910而获得的分区类型912至918,但是分区类型不限于此,并且预测单元910的分区可包括非对称分区、具有任意形状的分区和具有几何形状的分区。
根据每种分区类型,对尺寸为2N_0×2N_0的一个分区、尺寸为2N_0×N_0的两个分区、尺寸为N_0×2N_0的两个分区和尺寸为N_0×N_0的四个分区重复地执行预测编码。可根据帧内模式和帧间模式,对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行预测编码。可根据跳过模式,仅对尺寸为2N_0×2N_0的分区执行预测编码。
如果在分区类型912至916中的一个分区类型中编码误差最小,则可不将预测单元910划分到更低深度。
如果在分区类型918中编码误差最小,则深度从0改变到1以在操作920中划分分区类型918,并对具有深度为2和尺寸为N_0×N_0的分区的编码单元930重复地执行编码来搜索最小编码误差。
用于对深度为1和尺寸为2N_1×2N_1(=N_0×N_0)的编码单元930进行预测编码的预测单元940可包括以下分区类型的分区:尺寸为2N_1×2N_1的分区类型942、尺寸为2N_1×N_1的分区类型944、尺寸为N_1×2N_1的分区类型946以及尺寸为N_1×N_1的分区类型948。
如果在尺寸为N_1×N_1的分区类型948中编码误差最小,则深度从1改变到2以在操作950中划分分区类型948,并对深度为2和尺寸为N_2×N_2的编码单元960重复执行编码来搜索最小编码误差。
当最大深度是d时,与深度相应编码单元可被设置直到深度变成d-1,
并且划分信息可被设置直到深度是d-2。换句话说,当编码被执行直到在与d-2的深度相应的编码单元在操作970中被划分之后深度是d-1时,用于对深度为d-1和尺寸为2N_(d-1)×2N_(d-1)的编码单元980进行预测编码的预测单元990可包括以下分区类型的分区:尺寸为2N_(d-1)×2N(d-1)的分区类型992、尺寸为2N_(d-1)×N(d-1)的分区类型994、尺寸为N_(d-1)×2N(d-1)的分区类型996和尺寸为N_(d-1)×N(d-1)的分区类型998。
可对分区类型992至998中的尺寸为2N_(d-1)×2N_(d-1)的一个分区、尺寸为2N_(d-1)×N_(d-1)的两个分区、尺寸为N_(d-1)×2N_(d-1)的两个分区、尺寸为N_(d-1)×N_(d-1)的四个分区重复地执行预测编码,以搜索具有最小编码误差的分区类型。
即使当分区类型998具有最小编码误差时,由于最大深度是d,因此深度为d-1的编码单元CU_(d-1)也不再被划分到更低深度,当前最大编码单元900的编码深度被确定为d-1,并且编码单元900的分区类型可被确定为N_(d-1)×N(d-1)。此外,由于最大深度是d,因此不针对深度为d-1的编码单元952设置划分信息。
数据单元999可以是用于当前最大编码单元900的“最小单元”。根据本发明的实施例的最小单元可以是通过将具有最低编码深度的最小单元划分成4份而获得的矩形数据单元。通过如上所述重复地执行编码,视频编码设备100可通过比较根据编码单元900的深度的编码误差并选择具有最小编码误差的深度以确定编码深度,并将编码单元900的分区类型和预测模式设置为编码深度的编码模式。
这样,根据深度(即,0、1、…、d-1和d的深度)的最小编码误差被彼此比较,并且具有最小编码误差的深度可被确定为编码深度。编码深度、预测单元的分区类型和预测模式可作为关于编码模式的信息被编码并发送。另外,由于编码单元从0的深度被划分到编码深度,因此仅编码深度的划分信息被设置为0,并且除了编码深度以外的其它深度的划分信息被设置为1。
视频解码设备200的图像数据和编码信息提取器220可提取并使用关于编码单元900的编码深度和预测单元的信息,来对分区912进行解码。视频解码设备200可基于根据深度的划分信息,将与划分信息“0”相应的深度确定为编码深度,并且在解码处理期间,可使用关于编码深度的编码模式的信息。
图22、图23和图24是示出根据本发明的实施例的编码单元1010、预测单元1060和变换单元1070之间的关系的示图。
编码单元1010是与由视频编码设备100确定的最大编码单元的编码深度相应的编码单元。预测单元1060是各个编码单元1010中的预测单元的分区,变换单元1070是各个编码单元1010的变换单元。
在编码单元1010中,如果最大编码单元的深度是0,则编码单元1012和编码单元1054的深度是1,编码单元1014、1016、1018、1028、1050和1052的深度是2,编码单元1020、1022、1024、1026、1030、1032和1048的深度是3,编码单元1040、1042、1044和1046的深度是4。
在预测单元1060中,一些分区1014、1016、1022、1032、1048、1050、1052和1054被划分为从编码单元划分的分区。换句话说,分区1014、1022、1050和1054是2N×N分区类型,分区1016、1048和1052是N×2N分区类型,分区1032是N×N分区类型。编码单元1010的预测单元和分区小于或等于与它们相应的编码单元。
在变换单元1070中,基于小于编码单元1052的数据单元,对与编码单元1052相应的图像数据执行变换或逆变换。另外,在尺寸和形状方面,变换单元1014、1016、1022、1032、1048、1050、1052和1054是不同于预测单元1060中的相应的预测单元和分区的数据单元。换句话说,根据本发明的实施例的视频编码设备100和视频解码设备200可基于不同的数据单元,对相同的编码单元独立地执行帧内预测、运动估计、运动补偿、变换和逆变换。
因此,通过以每个最大编码单元的区域为单位,对具有分层结构的编码单元递归地执行编码来确定最优编码单元,从而获得具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。表1示出可由视频编码设备100和视频解码设备200设置的编码信息的示例。
[表1]
视频编码设备100的输出单元130可输出关于具有树结构的编码单元的编码信息,视频解码设备200的图像数据和编码信息提取器220可从接收到的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示是否将当前编码单元划分成更低深度的编码单元。如果当前深度d的划分信息是0,则当前编码单元不再被划分成更低深度的编码单元的深度是编码深度,从而可针对所述编码深度来定义关于分区类型、预测模式和变换单元的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对更低深度的四个划分编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一种。可针对所有分区类型定义帧内模式和帧间模式,仅针对2N×2N分区类型定义跳过模式。
关于分区类型的信息可指示通过对称地划分预测单元的高度或宽度而获得的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区类型,以及通过非对称地划分预测单元的高度或宽度而获得的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的非对称分区类型。可通过按1:3和3:1来划分预测单元的高度来分别获得尺寸为2N×nU和2N×nD的非对称分区类型,可通过按1:3和3:1来划分预测单元的宽度来分别获得尺寸为nL×2N和nR×2N的非对称分区类型。
可将变换单元的尺寸设置成帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果变换单元的划分信息是0,则变换单元的尺寸可以是与当前编码单元的尺寸相等的2N×2N。如果变换单元的划分信息是1,则可通过对当前编码单元进行划分来获得变换单元。另外,当尺寸为2N×2N的当前编码单元的分区类型是对称分区类型时,变换单元的尺寸可以是N×N,当当前编码单元的分区类型是非对称分区类型时,变换单元的尺寸可以是N/2×N/2。
关于具有树结构的编码单元的编码信息可被分配给与编码深度相应的编码单元、预测单元和最小单元中的至少一个。与编码深度相应的编码单元可包括包含相同编码信息的至少一个预测单元和至少一个最小单元。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否被包括在与相同编码深度相应的编码单元中。另外,可使用与编码深度相应的编码单元的数据单元的编码信息来确定与编码深度相应的编码单元。因此,可确定最大编码单元中的编码深度的分布。
因此,如果基于邻近数据单元的编码信息预测当前编码单元,则可直接参考并使用与当前编码单元邻近的与深度相应的编码单元中的数据单元的编码信息。
可选地,如果基于邻近编码单元对当前编码单元进行预测,则可通过基于与深度相应的邻近编码单元的编码信息,搜索与深度相应的编码单元中的与当前编码单元邻近的数据单元,参考邻近编码单元。
图25是示出根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
最大编码单元1300包括编码深度的编码单元1302、1304、1306、1312、1314、1316和1318。这里,由于编码单元1318是编码深度的编码单元,因此编码单元1318的划分信息可以被设置成0。可将关于尺寸为2N×2N的编码单元1318的分区类型的信息设置成以下分区类型中的一种:尺寸为2N×2N的分区类型1322、尺寸为2N×N的分区类型1324、尺寸为N×2N的分区类型1326、尺寸为N×N的分区类型1328、尺寸为2N×nU的分区类型1332、尺寸为2N×nD的分区类型1334、尺寸为nL×2N的分区类型1336以及尺寸为nR×2N的分区类型1338。
变换单元划分信息(即,Tu尺寸标志)是一类变换索引。与变换索引相应的变换单元的尺寸可根据编码单元的预测单元类型或分区类型而不同。
例如,如果分区类型被设置成对称分区类型(例如,分区类型1322、1324、1326或1328),则当TU尺寸标记是“0”时,设置尺寸为2N×2N的变换单元1342,当TU尺寸标记是1时,设置尺寸为N×N的变换单元1344。
如果分区类型被设置成非对称分区类型(例如,分区类型1332、1334、1336或1338),则当TU尺寸标志是0时,设置尺寸为2N×2N的变换单元1352,并且当TU尺寸标志是1时,则设置尺寸为N/2×N/2的变换单元1354。
通过将执行上面参照图1至图25描述的根据本发明的实施例的对多视点视频数据进行编码的方法和对多视点视频数据进行解码的方法的程序存储在计算机可读记录介质上,个人计算机系统可容易地执行这些方法。
为了便于解释,上面参照图1至图25描述的对多视点数据进行编码的方法以及对多视点视频数据进行解码的方法将分别被称为“根据本发明的实施例的视频编码方法”以及“根据本发明的实施例的视频解码方法”。另外,上面参照图1至图25描述的多视点视频数据编码设备300和多视点视频数据解码设备900现在将分别被称为“根据本发明的实施例的视频编码设备”以及“根据本发明的实施例的视频解码设备”。
现在将详细描述根据本发明的实施例的存储程序的计算机可读记录介质(例如,盘260)。
图26A示出根据本发明的实施例的存储程序的盘260的物理结构。作为存储介质的盘260可以是硬盘驱动器、致密盘只读存储器(CD-ROM)盘、蓝光盘或数字多功能盘(DVD)。盘260包括多个同心磁道Tf,每个同心磁道Tf沿盘260的圆周方向被划分成特定数量的扇区Se。在盘260的特定区域中,可分配并存储执行以上所描述的以下方法的程序:预测多视点视频的方法、恢复多视点视频的预测方法、对多视点视频进行编码的方法、以及对多视点视频进行解码的方法。
现在将参照图26B来描述使用存储以下程序的存储介质来实现的计算机系统,其中,所述程序用于执行如上所描述的视频编码方法和视频解码方法。
图26B示出通过使用盘260来记录并读取程序的盘驱动器268。计算机系统267可经由盘驱动器268将执行根据本发明的实施例的视频编码方法和视频解码方法中的至少一个的程序存储在盘260中。为了在计算机系统267中运行存储在盘260中的程序,可通过使用盘驱动器268从盘260读取程序并将程序发送到计算机系统267。
执行根据本发明的实施例的视频编码方法和视频解码方法中的至少一个的程序不仅可被存储在图26A或图26B中示出的盘260中,还可被存储在存储卡、ROM卡带或固态驱动器(SSD)中。
以下将描述应用以上所描述的视频编码方法和视频解码方法的系统。
图27示出提供内容分布服务的内容供应系统1100的整体结构。将通信系统的服务区域划分成预定尺寸的小区,并将无线基站1170、1180、1190和1200分别安装在这些小区中。
内容供应系统1100包括多个独立装置。例如,诸如计算机1210、个人数字助理(PDA)1220、视频相机1230和移动电话1250的多个独立装置经由互联网服务提供商1120、通信网络1140和无线基站1170、1180、1190和1200连接到互联网1110。
然而,内容供应系统1100不限于如图26中所示,并且装置可选择性地被连接到内容供应系统1100。多个独立装置可不经由无线基站1170、1180、1190和1200而直接连接到通信网络1140。
视频相机1230是能够捕捉视频图像的成像装置,例如,数字视频相机。移动电话1250可利用各种协议(例如,个人数字通信(PDC)、码分多址(CDMA)、宽带码分多址(W-CDMA)、全球移动通信系统(GSM)和个人手持电话系统(PHS))中的至少一种通信方法。
视频相机1230可经由无线基站1190和通信网络1140连接到流服务器1130。流服务器1130允许经由视频相机1230从用户接收到的内容经由实时广播被流传输。可使用视频相机1230或流服务器1130来对从视频相机1230接收到的内容进行编码。通过视频相机1230捕捉到的视频数据可经由计算机1210被发送到流服务器1130。
通过相机1230捕捉到的视频数据也可经由计算机1210被发送到流服务器1130。与数码相机类似,相机1260是能够捕捉静止图像和视频图像两者的成像装置。可使用相机1260或计算机1210对通过相机1260捕捉到的视频数据进行编码。可将执行对视频进行编码和解码的软件存储在可由计算机1210访问的计算机可读记录介质(例如,CD-ROM盘、软盘、硬盘驱动器、SSD或存储卡)中。
如果视频数据通过内置在移动电话1250中的相机被捕捉到,则可从移动电话1250接收视频数据。
还可通过安装在视频相机1230、移动电话1250或相机1260中的大规模集成电路(LSI)系统来对视频数据进行编码。
根据本发明的实施例,内容供应系统1100可对由用户使用视频相机1230、相机1260、移动电话1250或其它成像装置所记录的内容数据(例如,在音乐会期间记录的内容)进行编码,并将编码后的内容数据发送到流服务器1130。流服务器1130可将编码后的内容数据以流形式发送到请求内容数据的其它客户端。
客户端是能够对编码后的内容数据进行解码的装置,例如,计算机1210、PDA1220、视频相机1230或移动电话1250。因此,内容供应系统1100允许客户端接收并再现编码后的内容数据。此外,内容供应系统1100允许客户端实时接收编码后的内容数据并对编码后的内容数据进行解码和再现,从而能够个人广播。
包括在内容供应系统1100中的多个独立装置的编码和解码操作可类似于根据本发明的实施例的视频编码设备和视频解码设备的编码和解码操作。
现在将参照图28和图29更加详细地描述包括在根据本发明的实施例的内容供应系统1100中的移动电话1250。
图28示出根据本发明的实施例的应用视频编码方法和视频解码方法的移动电话1250的外部结构。移动电话1250可以是智能电话,所述智能电话的功能不受限,并且所述智能电话的大部分功能可被改变或扩展。
移动电话1250包括可与图26的无线基站1200交换射频(RF)信号的内部天线1251,并包括用于显示由相机1253捕捉到的图像或经由天线1251接收到的和解码的图像的显示屏1252(例如,液晶显示器(LCD)或有机发光二极管(OLED)屏幕)。智能手机1251包括包含有控制按钮和触摸面板的操作面板1254。如果显示屏1252是触摸屏,则操作面板1254还包括显示屏1252的触摸感测面板。智能电话1251包括用于输出语音和声音的扬声器或其它类型声音输出单元、以及用于输入语音和声音的麦克风1255或其它类型声音输入单元。智能电话1251还包括用于捕捉视频和静止图像的相机1253,诸如电荷耦合器件(CCD)相机。智能电话1251还可包括:存储介质1257,用于存储通过相机1253捕捉到的、经由电子邮箱接收到的、或根据其它方式获得的编码/解码数据(例如,视频或静止图像);插槽1256,存储介质1257经由插槽1256被装入移动电话1250中。存储介质1257可以是闪存,例如,包括在塑料壳中的安全数字(SD)卡或电可擦和可编程只读存储器(EEPROM)。
图29示出根据本发明的实施例的移动电话1250的内部结构。为了系统地控制包括显示屏1252和操作面板1254的移动电话1250的部件,电源电路1270、操作输入控制器1264、图像编码单元1272、相机接口1263、LCD控制器1262、图像解码单元1269、复用器/解复用器1268、记录/读取单元1267、调制/解调单元1266以及声音处理器1265经由同步总线1273被连接到中央控制器1271。
如果用户操作电源按钮,并从“电源关闭”状态设置为“电源开启”状态,则电源电路1270从电池组向移动电话1250的所有部件供电,从而将移动电话1250设置为操作模式。
中央控制器1271包括中央处理单元(CPU)、ROM和随机存取存储器(RAM)。
在移动电话1250将通信数据发送到外部的同时,在中央控制器的控制下,在移动电话1250中产生数字信号。例如,声音处理器1265可产生数字声音信号,图像编码单元1272可产生数字图像信号,并且消息的文本数据可经由操作面板1254和操作输入控制器1264被产生。当在中央控制器1271的控制下数字信号被传送到调制/解调单元1266时,调制/解调单元1266对数字信号的频带进行调制,并且通信电路1261对频带调制数字信号执行数模转换(DAC)和频率转换。从通信电路1261输出的发送信号经由天线1251被发送到语音通信基站或无线基站1200。
例如,当移动电话1250处于通话模式时,在中央控制器1271的控制下,经由麦克风1255获得的声音信号通过声音处理器1265被变换成数字声音信号。数字声音信号可经由调制/解调单元1266和通信电路1261被变换成发送信号,并可经由天线1251被发送。
当文本消息(例如,电子邮件)在数据通信模式下被发送时,文本消息的文本数据经由操作面板1254被输入,并经由操作输入控制器1264被发送到中央控制器1261。在中央控制器1261的控制下,文本数据经由调制/解调单元1266和通信电路1261被变换成发送信号,并经由天线1251被发送到无线基站1200。
为了在数据通信模式下发送图像数据,由相机1253捕捉到的图像数据经由相机接口1263被提供给图像编码单元1272。捕捉到的图像数据可经由相机接口1263和LCD控制器1262被直接显示在显示屏1252上。
图像编码单元1272的结构可与以上描述的视频编码设备100的结构相应。图像编码单元1272可根据由以上描述的视频编码设备100或图像编码器400所使用的视频编码方法,将从相机1253接收到的图像数据变换为压缩和编码后的图像数据,并然后将编码后的图像数据输出到复用器/解复用器1268。在相机1253的记录操作期间,由移动电话1250的麦克风1255获得的声音信号可经由声音处理器1265被变换成数字声音数据,并且数字声音数据可被传送到复用器/解复用器1268。
复用器/解复用器1268对从图像编码单元1272接收到的编码后的图像数据以及从声音处理器1265接收到的声音数据进行复用。对数据进行复用的结果可经由调制/解调单元1266和通信电路1261被变换成发送信号,然后可经由天线1251被发送。
当移动电话1250从外部接收通信数据时,可对经由天线1251接收到的信号执行频率恢复和ADC以将信号变换成数字信号。调制/解调单元1266对数字信号的频带进行调制。根据频带调制后的数字信号的类型将所述数字信号发送到视频解码单元1269、声音处理器1265或LCD控制器1262。
在通话模式下,移动电话1250对经由天线1251接收到的信号进行放大,并通过对放大后的信号执行频率转换和ADC来获得数字声音信号。在中央控制器1271的控制下,接收到的数字声音信号经由调制/解调单元1266和声音处理器1265被变换成模拟声音信号,并且模拟声音信号经由扬声器1258被输出。
当在数据通信模式下时,接收在互联网网站上访问的视频文件的数据,经由调制/解调单元1266将经由天线1251从无线基站1200接收到的信号输出为复用数据,并将复用数据发送到复用器/解复用器1268。
为了对经由天线1251接收到的复用数据进行解码,复用器/解复用器1268将复用数据解复用成编码后的视频数据流和编码后的音频数据流。经由同步总线1273,编码后的视频数据流和编码后的音频数据流分别被提供给视频解码单元1269和声音处理器1265。
图像解码单元1269的结构可与以上描述的视频解码设备200的结构相应。图像解码单元1269可根据由以上描述的视频解码设备200或图像解码器500所使用的视频解码方法,对编码后的视频数据进行解码来获得恢复后的视频数据,并经由LCD控制器1262将恢复后的视频数据提供给显示屏1252。
因此,可将在互联网网站上访问的视频文件的数据显示在显示屏1252上。同时,声音处理器1265可将音频数据变换成模拟声音信号,并将模拟声音信号提供给扬声器1258。因此,也可经由扬声器1258再现在互联网网站上访问的视频文件中包含的音频数据。
移动电话1250或其它类型的通信终端可以是包括根据本发明的实施例的视频编码设备和视频解码设备两者的收发终端,可以是仅包括视频编码设备的收发终端,或者可以是仅包括视频解码设备的收发终端。
根据本发明的通信系统不限于以上参照图27描述的通信系统。例如,图30示出根据本发明的实施例的使用通信系统的数字广播系统。图30的数字广播系统可通过使用根据本发明的实施例的视频编码设备和视频解码设备来接收经由卫星或地面网络发送的数字广播。
具体地,广播站1289通过使用电波将视频数据流发送到通信卫星或广播卫星1290。广播卫星1290发送广播信号,广播信号经由家用天线1286被发送到卫星广播接收器。在每个房屋中,可通过TV接收器1281、机顶盒1287或另一装置对编码后的视频流进行解码并再现。
当根据本发明的实施例的视频解码设备被包括在再现设备1283中时,再现设备1283可对记录在存储介质1282(诸如用于恢复原始视频信号的盘或存储卡)上的编码后的视频流进行解析和解码。因此,可在例如监视器1284上再现恢复后的视频信号。
在用于卫星/地面广播的天线1286或用于接收有线电视(TV)节目的被连接到线缆天线1285的机顶盒1287中,可安装根据本发明的实施例的视频解码设备。从机顶盒1287输出的数据也可被再现在TV监视器1288上。
如另一示例,可将根据本发明的实施例的视频解码设备安装在TV接收器1281中,而不是机顶盒1287中。
包括适当天线1291的汽车1292可接收从卫星1290或图26的无线基站1170发送的信号。可在内置在汽车1292中的汽车导航系统1293的显示屏上再现解码后的视频。
视频信号可由根据本发明的实施例的视频编码设备来编码,然后可被存储在存储介质中。具体地,可由DVD记录器将图像信号存储在DVD盘1296中,或可由硬盘记录器1295将图像信号存储在硬盘中。如另一示例,可将视频信号存储在SD卡1297中。如果硬盘记录器1295包括根据本发明的实施例的视频解码设备,则记录在DVD盘1296、SD卡1297或另一存储介质上的视频信号可被再现于TV监视器1288上。
汽车导航系统1293可不包括图28的相机1253、相机接口1263和图像编码单元1272。例如,计算机1210和TV接收器1281可不包括在图28的相机1253、相机接口1263和图像编码单元1272中。
图31示出根据本发明的实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构。
云计算系统可包括云计算服务器1400、用户数据库(DB)1410、多个计算资源1420和用户终端。
响应于来自用户终端的请求,云计算系统经由信息通信网络(例如,互联网)提供多个计算资源1420的点播外包服务。在云计算环境下,服务提供商通过使用虚拟技术组合位于不同的物理位置的数据中心处的计算资源,来为用户提供想要的服务。服务用户不必将计算资源(例如,应用、存储器、操作系统(OS)和安全)安装在他/她拥有的终端中以使用它们,但可在想要的时间点在通过虚拟技术产生的虚拟空间中从服务中选择和使用想要的服务。
被指定的服务用户的用户终端经由包括互联网和移动通信网络的信息通信网络被连接到云计算服务器1410。可从云计算服务器1410向用户终端提供云计算服务,特别是运动画面再现服务。用户终端可以是能够被连接到互联网的各种类型的电子装置,例如,桌上型PC1430、智能TV1440、智能电话1450、笔记本计算机1460、便携式多媒体播放器(PMP)1470、平板PC1480等。
云计算服务器1410可组合分布在云网络中的多个计算资源1420,并向用户终端提供组合的结果。所述多个计算资源1420可包括各种数据服务,并可包括从用户终端上载的数据。如上所描述的,云计算服务器1410可通过根据虚拟技术组合分布在不同区域中的运动画面数据库来向用户终端提供想要的服务。
将关于已经订购云计算服务的用户的用户信息存储在用户DB1410中。用户信息可包括用户的注册信息、地址、姓名和个人信用信息。用户信息还可包括运动画面的索引。这里,所述索引可包括已经被再现的运动画面的列表、正在被再现的运动画面的列表,之前被再现的运动画面的暂停点等。
可在用户装置之间共享存储在用户DB1410中的关于运动画面的信息。例如,当响应于来自笔记本计算机1460的请求将运动画面服务提供给笔记本计算机1460时,运动画面服务的再现历史被存储在用户DB1410中。当从智能电话1450接收到用于再现此运动画面服务的请求时,云计算服务器1410基于用户DB1410搜索并再现此运动画面服务。当智能电话1450从云计算服务器1410接收到运动画面数据流时,通过对运动画面数据流进行解码来再现视频的处理与以上参照图29描述的移动电话1250的操作类似。
云计算服务器1410可参考存储在用户DB1410中的想要的运动画面服务的再现历史。例如,云计算服务器1410从用户终端接收用于再现存储在用户DB1410中的运动画面的请求。如果此运动画面之前被再现过,则由云计算服务器1410执行的对此运动画面进行流传输的方法可根据来自用户终端的请求(即,根据是将从运动画面的起点还是运动画面的暂停点来再现运动画面)而不同。例如,如果用户终端请求从运动画面的起点开始再现运动画面,则云计算服务器1410将从运动画面的第一帧开始的运动画面的以流形式发送到用户终端。如果用户终端请求从运动画面的暂停点开始再现运动画面,则云计算服务器1410将从与暂停点相应的帧开始的运动画面以流形式发送到用户终端。
在此情况下,用户终端可包括如以上参照图1至图25描述的视频解码设备。如另一示例,用户终端可包括如以上参照图1至图25描述的视频编码设备。可选地,用户终端可包括如以上参照图1至图25描述的视频解码设备和视频编码设备两者。
以上已经参照图26A至图31描述了以上参照图1至图25描述的根据本发明的实施例的视频编码方法、视频解码方法、视频编码设备和视频解码设备的各种应用。然而,根据本发明的各种实施例的将视频编码方法和视频解码方法存储在存储介质中的方法,或者将视频编码设备和视频解码设备包括在装置中的方法不限于以上参照图26A至图31描述的实施例。
本领域普通技术人员将把本公开中公开的框图理解为用于实现本发明原理的电路的概念性示图。类似地,本领域普通技术人员将清楚,任意流程图表、流向图、状态转移图、伪代码等表示可基本地存储在计算机可读记录介质中并且可由计算机或处理器执行的各种处理,无论计算机或处理器是否明确示出。因此,上述本发明的实施例可被实现为计算机程序。计算机程序可被存储在计算机可读记录介质中,并使用一般数字计算机被执行。计算机可读介质的示例是磁记录介质(ROM、软盘、硬盘等)和光学记录介质(CD-ROM、DVD等)。
在附图中示出的各种元件的功能可与适当软件相关,并且不仅可由能够执行所述软件的硬件还可由专用硬件来提供所述功能。可还经由单个专用处理器、单个共享处理器或多个单独处理器(其中一些可被共享)提供这些功能。另外,明确使用术语“处理器”或“控制器”不限于专门地使用能够执行软件的硬件,并且可隐含地包括数字信号处理器(DSP)硬件、以及用于存储软件的只读存储器(ROM)、随机存取存储器(RAM)或非易失性存储介质。
在本说明书的权利要求书中,建议作为用于执行特定操作的装置的元件包括执行特定操作的任何任意方法。元件的示例可包括能够执行特定操作的电路元件或具有任意形式的软件(例如,固件或微代码)的组合,这与用于执行特定操作的执行软件的适当电路组合。
在本公开中,本发明的原理的“实施例”的表达以及这个表达的各种修改表示与本实施例有关的特定特征、结构和特性被包括在本发明的原理的至少一个实施例中。因此,本公开中公开的“实施例”的表达和它的任意其它修改不总指示相同的实施例。
在本发明中,使用“A和B中的至少一个”中的“至少一个”的表达所包含的意思是仅第一选项(A)被选择、仅第二选项(B)被选择或第一和第二操作(A和B)均被选择。此外,使用“A、B和C中的至少一个”的表达所包含的意思是仅第一选项(A)被选择、仅第二选项(B)被选择、仅第三选项(C)被选择、仅第一和第二选项(A和B)被选择、仅第二和第三选项(B和C)被选择,仅第一和第三选择(A和C)被选择,或所有三个选项(A、B和C)被选择。当关于这个表达列出了多于三个的项时,对本领域的普通技术人员而言,其含义将是清楚的。
已在上面描述了本发明的示例性实施例。
虽然已参照本发明的示例性实施例具体示出并描述了本发明,但是本领域的普通技术人员将理解,在不脱离由权利要求书限定的本发明的精神和范围的情况下,可在其中进行形式和细节上的各种改变。示例性实施例应被认为是描述意义,而不是为了限制的目的。因此,本发明的范围不是由本发明的详细描述限定,而是由权利要求书限定,所述范围内的所有差异将被解释为包括在本发明中。
Claims (15)
1.一种对多视点视频数据的深度图进行编码的方法,所述方法包括:
获得多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧;
对获得的多视点彩色视频帧进行预测编码并恢复被预测编码的多视点彩色视频帧;
基于恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;
针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;
通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
2.如权利要求1所述的方法,其中,对多视点彩色视频帧进行预测编码的步骤包括:针对从多视点彩色视频帧划分的至少一个最大编码单元中的每个,确定与深度相应的分层编码单元之中的包括编码深度的编码单元的具有树结构的编码单元;确定用于对与编码深度相应的编码单元中的每个进行预测编码的分区;通过基于分层变换单元执行变换来确定具有树结构的变换单元,其中,每个深度表示所述至少一个最大编码单元被空间划分的次数,编码深度是指编码单元不再被空间划分成更低深度的编码单元时的深度。
3.如权利要求1所述的方法,其中,获得参数的步骤包括:通过使用所述相关性确定所述参数,使得从多视点彩色视频帧的块分区的外围像素值获得的深度图帧的块分区的外围像素值与深度图帧的块分区的原始外围像素值之间的差最小化。
4.如权利要求3所述的方法,其中,所述相关性是线性关系,所述参数包括定义多视点彩色视频帧的块分区的外围像素值与深度图帧的块分区的相应外围像素值之间的线性关系的权重和偏移值。
5.如权利要求4所述的方法,其中,如果多视点彩色视频帧的块分区的外围像素值是Rec_Y’,深度图帧的块分区的相应外围像素值的预测值是Pred_D,权重是a,偏移值是b,则所述相关性被定义为等式Pred_D=a×Rec_Y’+b。
6.如权利要求1所述的方法,其中,获得深度图帧的相应块分区的预测值的步骤包括:
通过使用具有不同颜色分量的恢复的多视点彩色视频帧的块分区,获得深度图帧的相应块分区的预测值;
对从具有不同颜色分量的恢复的多视点彩色视频帧的块分区获得的预测值的代价进行比较,并确定将被用于预测深度图帧的块分区的多视点彩色视频帧的块分区。
7.一种用于对多视点视频数据的深度图进行编码的设备,所述设备包括:
图像获得单元,获得多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧;
彩色视频帧编码单元,对获得的多视点彩色视频帧进行预测编码;
恢复单元,恢复被预测编码的多视点彩色视频帧;
划分单元,基于恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;
相关性参数获得单元,针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;
深度图帧预测单元,通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
8.一种对多视点视频数据的深度图进行解码的方法,所述方法包括:
接收通过对多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧进行编码而获得的比特流;
对多视点彩色视频帧进行解码;
基于解码的多视点彩色视频帧的块的像素值,将解码的多视点彩色视频帧的块划分为至少一个分区;
针对解码的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;
通过使用获得的参数,从解码的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
9.如权利要求8所述的方法,其中,对多视点彩色视频帧进行解码的步骤包括:
从比特流获得关于以下项的信息:从多视点彩色视频帧划分的至少一个最大编码单元中的每个的尺寸、指示所述至少一个最大编码单元被空间划分的次数的深度、用于对根据深度分层构造的编码单元进行预测编码的分区、以及具有分层结构的变换单元;
针对从多视点彩色视频帧划分的所述至少一个最大编码单元中的每个,确定与深度相应的分层编码单元之中的包括与编码深度相应的编码单元的具有树结构的编码单元;确定用于对与编码深度相应的编码单元中的每个进行预测解码的分区;基于获得的信息确定具有树结构的变换单元,其中,每个深度表示所述至少一个最大编码单元被空间划分的次数,编码深度是指编码单元不再被空间划分成更低深度的编码单元时的深度。
10.如权利要求8所述的方法,其中,获得参数的步骤包括:通过使用所述相关性确定所述参数,使得从多视点彩色视频帧的块分区的外围像素值获得的深度图帧的块分区的外围像素值与深度图帧的块分区的原始外围像素值之间的差最小化。
11.如权利要求10所述的方法,其中,所述相关性是线性关系,所述参数包括定义多视点彩色视频帧的块分区的外围像素值与深度图帧的块分区的相应外围像素值之间的线性关系的权重和偏移值。
12.如权利要求11所述的方法,其中,如果多视点彩色视频帧的块分区的外围像素值是Rec_Y’,深度图帧的块分区的相应外围像素值的预测值是Pred_D,权重是a,偏移值是b,则所述相关性被定义为等式Pred_D=a×Rec_Y’+b。
13.如权利要求8所述的方法,其中,获得深度图帧的相应块分区的预测值的步骤包括:
通过使用具有不同颜色分量的恢复的多视点彩色视频帧的块分区,获得深度图帧的相应块分区的预测值;
对从具有不同颜色分量的恢复的多视点彩色视频帧的块分区获得的预测值的代价进行比较,并确定将被用于预测深度图帧的块分区的多视点彩色视频帧的块分区。
14.如权利要求8所述的方法,其中,多视点彩色视频帧的块是以下块之一:具有与深度图帧块相同视点的彩色视频帧块、被缩放为具有与深度图帧块相同尺寸的具有相同视点的彩色视频帧块、具有与深度图帧块相同的视点的彩色视频帧块的外围块、被缩放为具有与深度图帧块相同的尺寸的具有相同视点的彩色视频帧块的外围块、基于指示多视点视频的视点之间的差的视差矢量确定的具有与深度图帧块不同的视点的彩色视频帧块、被缩放为具有与深度图帧块相同的尺寸并基于视差矢量确定的具有不同视点的彩色视频帧块、基于视差矢量确定的具有与深度图帧块不同的视点的彩色视频帧块的外围块、被缩放为具有与深度图帧块相同的尺寸并基于视差矢量确定的具有不同视点的彩色视频帧块的外围块。
15.一种用于多视点视频数据的深度图进行解码的设备,所述设备包括:
接收单元,接收通过对多视点彩色视频帧和与多视点彩色视频帧相应的深度图帧进行编码而获得的比特流;
彩色视频帧解码单元,对从比特流获得的编码的多视点彩色视频帧进行解码;
划分单元,基于恢复的多视点彩色视频帧的块的像素值,将恢复的多视点彩色视频帧的块划分为至少一个分区;
相关性参数获得单元,针对恢复的多视点彩色视频帧的块分区中的每个,通过使用多视点彩色视频帧的块分区的外围像素值和与多视点彩色视频帧的块分区相应的深度图帧的块分区的外围像素值,获得指示多视点彩色视频帧的块分区中的每个与深度图帧的块分区中的每个之间的相关性的参数;
深度图解码单元,通过使用获得的参数,从恢复的多视点彩色视频帧的块分区获得深度图帧的相应块分区的预测值。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161521529P | 2011-08-09 | 2011-08-09 | |
US61/521,529 | 2011-08-09 | ||
PCT/KR2012/006357 WO2013022297A2 (ko) | 2011-08-09 | 2012-08-09 | 다시점 비디오 데이터의 깊이맵 부호화 방법 및 장치, 복호화 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103918255A CN103918255A (zh) | 2014-07-09 |
CN103918255B true CN103918255B (zh) | 2016-06-22 |
Family
ID=47669100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280049632.6A Expired - Fee Related CN103918255B (zh) | 2011-08-09 | 2012-08-09 | 对多视点视频数据的深度图进行编码的方法和装置以及对编码的深度图进行解码的方法和装置 |
Country Status (11)
Country | Link |
---|---|
US (1) | US9402066B2 (zh) |
EP (1) | EP2744201A4 (zh) |
JP (1) | JP2014529214A (zh) |
KR (1) | KR101927967B1 (zh) |
CN (1) | CN103918255B (zh) |
AU (1) | AU2012295044B2 (zh) |
BR (1) | BR112014003165A2 (zh) |
CA (1) | CA2844602A1 (zh) |
MX (1) | MX2014001614A (zh) |
TW (1) | TWI561066B (zh) |
WO (1) | WO2013022297A2 (zh) |
Families Citing this family (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
DK3876510T3 (da) | 2008-05-20 | 2024-11-11 | Adeia Imaging Llc | Optagelse og behandling af billeder ved hjælp af monolitisk kameraarray med heterogene billedoptagere |
US9549190B2 (en) * | 2009-10-01 | 2017-01-17 | Sk Telecom Co., Ltd. | Method and apparatus for encoding/decoding image using variable-size macroblocks |
KR101807886B1 (ko) | 2009-10-14 | 2017-12-11 | 돌비 인터네셔널 에이비 | 깊이 맵 처리를 위한 방법 및 디바이스 |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
CN103004180A (zh) | 2010-05-12 | 2013-03-27 | 派力肯影像公司 | 成像器阵列和阵列照相机的架构 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2012155119A1 (en) | 2011-05-11 | 2012-11-15 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
EP2748794B1 (en) | 2011-08-26 | 2017-07-12 | Thomson Licensing DTV | Depth coding |
US9191646B2 (en) * | 2011-08-29 | 2015-11-17 | Nokia Technologies Oy | Apparatus, a method and a computer program for video coding and decoding |
WO2013043751A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
KR102002165B1 (ko) | 2011-09-28 | 2019-07-25 | 포토내이션 리미티드 | 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법 |
EP2727366B1 (en) * | 2011-10-11 | 2018-10-03 | MediaTek Inc. | Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc |
WO2013055148A2 (ko) * | 2011-10-12 | 2013-04-18 | 엘지전자 주식회사 | 영상 인코딩 방법 및 디코딩 방법 |
US9412206B2 (en) | 2012-02-21 | 2016-08-09 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
CN104365104B (zh) * | 2012-04-16 | 2018-11-06 | 三星电子株式会社 | 用于多视点视频编码和解码的方法和设备 |
KR20150023907A (ko) | 2012-06-28 | 2015-03-05 | 펠리칸 이매징 코포레이션 | 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들 |
AU2013284038B2 (en) * | 2012-06-28 | 2015-11-05 | Hfi Innovation Inc. | Method and apparatus of disparity vector derivation in 3D video coding |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
CN107346061B (zh) | 2012-08-21 | 2020-04-24 | 快图有限公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
WO2014043828A1 (en) * | 2012-09-24 | 2014-03-27 | Qualcomm Incorporated | Depth map coding |
EP2904773A4 (en) * | 2012-10-03 | 2016-12-07 | Hfi Innovation Inc | METHOD AND APPARATUS FOR DIMINISHING BUFFER DATA RECORDING FOR THREE-DIMENSIONAL VIDEO ENCODING PURPOSES |
WO2014056150A1 (en) * | 2012-10-09 | 2014-04-17 | Nokia Corporation | Method and apparatus for video coding |
KR101421411B1 (ko) | 2012-11-14 | 2014-07-22 | 에스케이플래닛 주식회사 | 지도정보 제공 방법, 이를 위한 시스템, 이를 위한 단말기 및 이를 위한 서비스장치 |
EP2941883A4 (en) * | 2013-01-07 | 2016-07-06 | Mediatek Inc | METHOD AND DEVICE FOR DEPTH-IN-DISPARITY VECTOR CONVERSION FOR THREE-DIMENSIONAL VIDEO-CODING |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
WO2014153098A1 (en) | 2013-03-14 | 2014-09-25 | Pelican Imaging Corporation | Photmetric normalization in array cameras |
EP2974316B1 (en) | 2013-03-15 | 2018-08-22 | Qualcomm Incorporated | Predictor for depth map intra coding |
US9633442B2 (en) * | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9596448B2 (en) * | 2013-03-18 | 2017-03-14 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
KR102049080B1 (ko) * | 2013-03-28 | 2020-01-08 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
WO2014163459A1 (ko) * | 2013-04-05 | 2014-10-09 | 삼성전자주식회사 | 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 디스패리티 벡터 예측 방법 |
KR102300036B1 (ko) | 2013-04-11 | 2021-09-08 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US10154271B2 (en) | 2013-07-12 | 2018-12-11 | Samsung Electronics Co., Ltd. | Method and apparatus for inter-layer decoding video using depth-based disparity vector, and method and apparatus for inter-layer encoding video using depth-based disparity vector |
US10045014B2 (en) * | 2013-07-15 | 2018-08-07 | Mediatek Singapore Pte. Ltd. | Method of disparity derived depth coding in 3D video coding |
KR101672008B1 (ko) * | 2013-07-18 | 2016-11-03 | 경희대학교 산학협력단 | 변이 벡터 예측 방법 및 장치 |
KR20150012206A (ko) | 2013-07-24 | 2015-02-03 | 한국전자통신연구원 | 3차원 콘텐츠의 부호화 방법 및 장치 |
US9294766B2 (en) * | 2013-09-09 | 2016-03-22 | Apple Inc. | Chroma quantization in video coding |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
US9355468B2 (en) * | 2013-09-27 | 2016-05-31 | Nvidia Corporation | System, method, and computer program product for joint color and depth encoding |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
KR102281283B1 (ko) * | 2013-12-20 | 2021-07-23 | 삼성전자주식회사 | 인터 뷰 예측을 이용한 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US20170127060A1 (en) * | 2014-06-18 | 2017-05-04 | Samsung Electronics Co., Ltd. | Multi-layer video encoding method and multi-layer video decoding method using depth blocks |
WO2015199376A1 (ko) * | 2014-06-26 | 2015-12-30 | 주식회사 케이티 | 다시점 비디오 신호 처리 방법 및 장치 |
US20160050440A1 (en) * | 2014-08-15 | 2016-02-18 | Ying Liu | Low-complexity depth map encoder with quad-tree partitioned compressed sensing |
WO2016054089A1 (en) | 2014-09-29 | 2016-04-07 | Pelican Imaging Corporation | Systems and methods for dynamic calibration of array cameras |
KR102350235B1 (ko) * | 2014-11-25 | 2022-01-13 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
CN105812797B (zh) * | 2014-12-31 | 2019-03-26 | 浙江大华技术股份有限公司 | 一种编码单元选择方法及装置 |
US9948920B2 (en) | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US10068338B2 (en) | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
KR20160147448A (ko) | 2015-06-15 | 2016-12-23 | 한국전자통신연구원 | 컬러 영상정보를 이용한 깊이영상 부호화 방법 및 컬러 영상정보를 이용한 깊이정보 복원 방법 |
WO2017014693A1 (en) * | 2015-07-21 | 2017-01-26 | Heptagon Micro Optics Pte. Ltd. | Generating a disparity map based on stereo images of a scene |
WO2017020808A1 (en) * | 2015-07-31 | 2017-02-09 | Versitech Limited | A depth discontinuity-based method for efficient intra coding for depth videos |
US9635339B2 (en) * | 2015-08-14 | 2017-04-25 | Qualcomm Incorporated | Memory-efficient coded light error correction |
US9846943B2 (en) | 2015-08-31 | 2017-12-19 | Qualcomm Incorporated | Code domain power control for structured light |
KR101764531B1 (ko) * | 2016-02-29 | 2017-08-04 | 한경대학교 산학협력단 | 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 |
KR102365937B1 (ko) * | 2016-04-29 | 2022-02-22 | 세종대학교산학협력단 | 영상 신호 부호화/복호화 방법 및 장치 |
CN116915992A (zh) | 2016-04-29 | 2023-10-20 | 世宗大学校产学协力团 | 视频信号编码/解码方法和设备 |
US10776992B2 (en) * | 2017-07-05 | 2020-09-15 | Qualcomm Incorporated | Asynchronous time warp with depth data |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
KR20200071302A (ko) * | 2018-12-11 | 2020-06-19 | 가온미디어 주식회사 | 움직임 예측을 사용하는 영상 복호화 및 부호화 방법 |
DE112020004391B4 (de) | 2019-09-17 | 2024-08-14 | Intrinsic Innovation Llc | Systeme und Verfahren zur Oberflächenmodellierung unter Verwendung von Polarisationsmerkmalen |
BR112022006617A2 (pt) | 2019-10-07 | 2022-06-28 | Boston Polarimetrics Inc | Sistemas e métodos para detecção por sensor de normais à superfície com polarização |
KR20230116068A (ko) | 2019-11-30 | 2023-08-03 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법 |
US11546592B2 (en) | 2020-01-08 | 2023-01-03 | Tencent America LLC | Flexible block partitioning for chroma component |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
EP4115145A4 (en) * | 2020-03-05 | 2023-08-02 | Magic Leap, Inc. | SYSTEMS AND METHODS FOR DEPTH ESTIMATION BY LEARNING TRIANGULATION AND SPREAD POINT DENSIFICATION FOR MULTIVIEW STEREO |
CN111476835B (zh) * | 2020-05-21 | 2021-08-10 | 中国科学院自动化研究所 | 多视角图像一致性的无监督深度预测方法、系统、装置 |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
CN115956256A (zh) * | 2020-06-09 | 2023-04-11 | 交互数字Vc控股法国有限公司 | 作为平面扫描体的替代方案的局部光场流 |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101925925A (zh) * | 2008-01-21 | 2010-12-22 | 艾利森电话股份有限公司 | 基于预测的图像处理 |
WO2010151279A1 (en) * | 2009-06-25 | 2010-12-29 | Thomson Licensing | Depth map coding |
WO2011046607A2 (en) * | 2009-10-14 | 2011-04-21 | Thomson Licensing | Filtering and edge encoding |
WO2011050304A2 (en) * | 2009-10-23 | 2011-04-28 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2d video data to 3d video data |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2364843A (en) * | 2000-07-14 | 2002-02-06 | Sony Uk Ltd | Data encoding based on data quantity and data quality |
KR20060105408A (ko) * | 2005-04-01 | 2006-10-11 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
US20050047502A1 (en) * | 2003-08-12 | 2005-03-03 | Mcgowan James William | Method and apparatus for the efficient representation of interpolated video frames for motion-compensated coding |
BRPI0616745A2 (pt) * | 2005-10-19 | 2011-06-28 | Thomson Licensing | codificação / decodificação de vìdeo com múltiplas visualizações usando codificação / decodificação de vìdeo escalonável |
KR101200865B1 (ko) * | 2006-03-23 | 2012-11-13 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 복호화 방법 및 장치 |
JP5143120B2 (ja) * | 2006-03-23 | 2013-02-13 | サムスン エレクトロニクス カンパニー リミテッド | 画像の符号化方法及び装置、復号化方法及び装置 |
JP5255558B2 (ja) * | 2006-03-29 | 2013-08-07 | トムソン ライセンシング | マルチビュービデオ符号化方法および装置 |
EP2126627B1 (en) * | 2007-03-26 | 2014-08-27 | Pelco. Inc. | Method of improving the video images from a video camera |
US8023562B2 (en) | 2007-09-07 | 2011-09-20 | Vanguard Software Solutions, Inc. | Real-time video coding/decoding |
US8351685B2 (en) * | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
CN101472190B (zh) * | 2007-12-28 | 2013-01-23 | 华为终端有限公司 | 多视角摄像及图像处理装置、系统 |
BRPI0821500A2 (pt) * | 2008-01-11 | 2015-06-16 | Thomson Licensing | Codificação de vídeo e profundidade |
JP5346076B2 (ja) * | 2008-04-25 | 2013-11-20 | トムソン ライセンシング | 奥行きを用いた視点間スキップモード |
BRPI0911447A2 (pt) * | 2008-04-25 | 2018-03-20 | Thomson Licensing | codificação de sinal de profundidade |
KR101158491B1 (ko) | 2008-12-08 | 2012-06-20 | 한국전자통신연구원 | 다시점 영상 부호화, 복호화 방법 및 그 장치. |
KR101660312B1 (ko) | 2009-09-22 | 2016-09-27 | 삼성전자주식회사 | 3차원 비디오의 움직임 탐색 장치 및 방법 |
US8659592B2 (en) * | 2009-09-24 | 2014-02-25 | Shenzhen Tcl New Technology Ltd | 2D to 3D video conversion |
CN102792699A (zh) * | 2009-11-23 | 2012-11-21 | 通用仪表公司 | 作为到视频序列的附加通道的深度代码化 |
KR20110088334A (ko) * | 2010-01-28 | 2011-08-03 | 삼성전자주식회사 | 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치 |
TW201312995A (zh) * | 2011-08-09 | 2013-03-16 | Samsung Electronics Co Ltd | 多視角視訊資料之編碼和解碼的方法及其裝置 |
-
2012
- 2012-08-09 CN CN201280049632.6A patent/CN103918255B/zh not_active Expired - Fee Related
- 2012-08-09 KR KR1020120087359A patent/KR101927967B1/ko active IP Right Grant
- 2012-08-09 JP JP2014524940A patent/JP2014529214A/ja active Pending
- 2012-08-09 TW TW101128831A patent/TWI561066B/zh not_active IP Right Cessation
- 2012-08-09 CA CA2844602A patent/CA2844602A1/en not_active Abandoned
- 2012-08-09 BR BR112014003165A patent/BR112014003165A2/pt not_active IP Right Cessation
- 2012-08-09 AU AU2012295044A patent/AU2012295044B2/en not_active Ceased
- 2012-08-09 EP EP12822820.2A patent/EP2744201A4/en not_active Withdrawn
- 2012-08-09 WO PCT/KR2012/006357 patent/WO2013022297A2/ko active Application Filing
- 2012-08-09 US US14/238,037 patent/US9402066B2/en not_active Expired - Fee Related
- 2012-08-09 MX MX2014001614A patent/MX2014001614A/es active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101925925A (zh) * | 2008-01-21 | 2010-12-22 | 艾利森电话股份有限公司 | 基于预测的图像处理 |
WO2010151279A1 (en) * | 2009-06-25 | 2010-12-29 | Thomson Licensing | Depth map coding |
WO2011046607A2 (en) * | 2009-10-14 | 2011-04-21 | Thomson Licensing | Filtering and edge encoding |
WO2011050304A2 (en) * | 2009-10-23 | 2011-04-28 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2d video data to 3d video data |
Also Published As
Publication number | Publication date |
---|---|
KR101927967B1 (ko) | 2018-12-12 |
TWI561066B (en) | 2016-12-01 |
CA2844602A1 (en) | 2013-02-14 |
US20140192154A1 (en) | 2014-07-10 |
WO2013022297A3 (ko) | 2013-04-04 |
EP2744201A2 (en) | 2014-06-18 |
CN103918255A (zh) | 2014-07-09 |
KR20130018629A (ko) | 2013-02-25 |
US9402066B2 (en) | 2016-07-26 |
BR112014003165A2 (pt) | 2017-03-01 |
JP2014529214A (ja) | 2014-10-30 |
AU2012295044B2 (en) | 2016-06-16 |
MX2014001614A (es) | 2014-05-28 |
EP2744201A4 (en) | 2016-03-23 |
AU2012295044A1 (en) | 2014-02-27 |
TW201313034A (zh) | 2013-03-16 |
WO2013022297A2 (ko) | 2013-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103918255B (zh) | 对多视点视频数据的深度图进行编码的方法和装置以及对编码的深度图进行解码的方法和装置 | |
CN104754356B (zh) | 用于在视频编码或解码中的运动矢量确定的方法和设备 | |
CN104365101B (zh) | 用于确定用于帧间预测的参考图像的方法及设备 | |
TWI615018B (zh) | 視訊解碼方法 | |
CN104488272B (zh) | 用于预测用于对视频进行编码或用于对视频进行解码的运动矢量的方法和设备 | |
CN107197250B (zh) | 用于视频的帧内预测的方法和设备 | |
CN103858431A (zh) | 多视点数据编码方法和装置以及解码方法和装置 | |
CN105532004B (zh) | 层间视频解码方法及设备 | |
CN104396252A (zh) | 使用用于多视点视频预测的参考画面集的多视点视频编码方法及其装置、使用用于多视点视频预测的参考画面集的多视点视频解码方法及其装置 | |
CN105308966A (zh) | 视频编码方法及其设备以及视频解码方法及其设备 | |
CN103875249A (zh) | 用于多视点视频预测编码的方法和装置以及用于多视点视频预测解码的方法和装置 | |
CN107277532A (zh) | 帧间预测的方法及其装置和运动补偿的方法及其装置 | |
CN106031175B (zh) | 使用亮度补偿的层间视频编码方法及其装置、以及视频解码方法及其装置 | |
CN104365104A (zh) | 用于基于树结构编码单元进行多视点视频编码的方法和设备以及用于基于树结构编码单元进行多视点视频解码的方法和设备 | |
CN105264894A (zh) | 针对层间解码和编码方法以及设备的确定帧间预测候选的方法 | |
CN104396251A (zh) | 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置 | |
CN106416256B (zh) | 用于对深度图像进行编码或解码的方法和设备 | |
CN107409214A (zh) | 用于对层间视频进行解码的方法和设备以及用于对层间视频进行编码的方法和设备 | |
CN105325002A (zh) | 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备 | |
CN105340275A (zh) | 使用视点合成预测的多视点视频编码方法及其设备以及多视点视频解码方法及其设备 | |
CN105340274A (zh) | 深度图编码方法及其设备以及深度图解码方法及其设备 | |
CN105308958A (zh) | 用于使用视点合成预测的层间视频编码方法和设备以及用于使用视点合成预测的层间视频解码方法和设备 | |
CN105308961A (zh) | 用于补偿亮度差的层间视频编码方法和设备以及层间视频解码方法和设备 | |
CN105308970A (zh) | 针对整数像素的位置对视频进行编码和解码的方法和设备 | |
CN104662905B (zh) | 使用多个假设估计因子的帧间预测方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160622 Termination date: 20210809 |
|
CF01 | Termination of patent right due to non-payment of annual fee |