JP4490351B2 - Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor - Google Patents
Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor Download PDFInfo
- Publication number
- JP4490351B2 JP4490351B2 JP2005248065A JP2005248065A JP4490351B2 JP 4490351 B2 JP4490351 B2 JP 4490351B2 JP 2005248065 A JP2005248065 A JP 2005248065A JP 2005248065 A JP2005248065 A JP 2005248065A JP 4490351 B2 JP4490351 B2 JP 4490351B2
- Authority
- JP
- Japan
- Prior art keywords
- segment
- layer
- information
- unit
- inter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011229 interlayer Substances 0.000 title claims description 36
- 238000003672 processing method Methods 0.000 title claims description 10
- 239000010410 layer Substances 0.000 claims description 124
- 238000000034 method Methods 0.000 claims description 72
- 230000008569 process Effects 0.000 claims description 63
- 238000013139 quantization Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
本発明は,高能率画像信号符号化方法に関し,特に階層間予測符号化において各階層毎に与えられる付加情報を少なく抑えることを可能にした階層間予測処理方法に関するものである。 The present invention relates to a high-efficiency image signal encoding method, and more particularly to an inter-layer prediction processing method that can suppress additional information given to each layer in inter-layer prediction encoding.
近年,多様化するネットワーク環境・端末環境などに対応するためのスケーラブル符号化が注目を集めている。スケーラブル符号化では,画像信号を階層的に分割し,各階層毎に符号化が行われる。階層分割の方法としては,(i)空間周波数に関する帯域分割,(ii)時間周波数に関する帯域分割などがある。(i)としては,wavelet分割(非特許文献1参照),(ii)としては,Motion Compensation Temporal Fitering (MCTF)(非特許文献2参照)が代表例である。 In recent years, scalable coding to deal with diversifying network environments and terminal environments has attracted attention. In scalable coding, an image signal is divided hierarchically and coding is performed for each layer. Hierarchical division methods include (i) band division related to spatial frequency and (ii) band division related to time frequency. Typical examples of (i) are wavelet division (see Non-Patent Document 1), and (ii) is Motion Compensation Temporal Fitering (MCTF) (see Non-Patent Document 2).
各階層信号に対する符号化効率を向上させる目的から,各階層のフレーム内を局所的な性質に応じて分割し,分割された各領域毎に独立に符号化を行う方式が検討されている。この場合,各領域毎に符号化パラメータが与えられる。こうした領域毎に個別の符号化パラメータを与える例としては,輝度補償があげられる。輝度補償は以下に示すように動き補償のフレーム間予測部分を改良した技術である。 For the purpose of improving the coding efficiency for each layer signal, a method of dividing the frame of each layer according to the local property and performing the coding independently for each divided region has been studied. In this case, an encoding parameter is given for each region. An example of giving individual coding parameters for each region is luminance compensation. Luminance compensation is a technique that improves the inter-frame prediction part of motion compensation as described below.
動き補償では,まず,符号化対象フレームf(p,t)(p∈{(x,y)|0≦x≦X−1,0≦y≦Y−1})(画面サイズX×Y)をいくつかの領域に分割し,領域毎に動き補償(MC)を用いた次のようなフレーム間予測が行われる。 In motion compensation, first, an encoding target frame f (p, t) (pε {(x, y) | 0 ≦ x ≦ X−1, 0 ≦ y ≦ Y−1}) (screen size X × Y). Is divided into several regions, and the following inter-frame prediction using motion compensation (MC) is performed for each region.
予測誤差の低減が変換係数の符号量低減につながることから,予測誤差の低減を目的として,次のようなフレーム間予測の改良が検討されている。これを輝度補償と呼ぶ(非特許文献3,非特許文献4参照)。 Since reducing the prediction error leads to a reduction in the code amount of the transform coefficient, the following improvement of inter-frame prediction has been studied for the purpose of reducing the prediction error. This is called luminance compensation (see Non-Patent Document 3 and Non-Patent Document 4).
前述の輝度補償はスケーラブル符号化における各階層の符号化効率向上にも寄与する。しかし,各階層を独立に符号化したのでは,符号化効率の向上は望めない。そこで,符号化効率向上を目的として,階層間の相関を利用した符号化方法を検討する。具体的には,空間解像度の異なる2つの階層に対して,低い空間解像度の画像信号から高い空間解像度の画像信号を予測する階層間予測を行う。この場合,予測により,付加情報をいかに少なく抑えるかが符号化効率向上の鍵となる。 The luminance compensation described above also contributes to improving the coding efficiency of each layer in scalable coding. However, if each layer is encoded independently, improvement in encoding efficiency cannot be expected. Therefore, for the purpose of improving the coding efficiency, a coding method using the correlation between layers is examined. Specifically, inter-layer prediction for predicting a high spatial resolution image signal from a low spatial resolution image signal is performed for two layers having different spatial resolutions. In this case, how to suppress the additional information by prediction is the key to improving the coding efficiency.
本発明はかかる事情に鑑みてなされたものであって,スケーラブル符号化において各階層毎に与えられる付加情報に対する効率的な符号化方法を確立することを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to establish an efficient encoding method for additional information given to each layer in scalable encoding.
以下では,第j階層の時刻tフレーム内の座標(x,y)における画素値をfj (x,y,t)とし,fj (x,y,t)に対する復号信号をgj (x,y,t)とする。fj+1 (x,y,t)は,fj (x,y,t)の2倍の空間解像度となる。例えば,f0 (x,y,t)がQCIFサイズであれば,f1 (x,y,t)はCIFサイズとなる。 In the following, coordinates in time t th frame j hierarchical (x, y) and the pixel value at f j (x, y, t) and, f j (x, y, t) of the decoded signal for g j (x , Y, t). f j + 1 (x, y, t) has a spatial resolution twice that of f j (x, y, t). For example, if f 0 (x, y, t) is a QCIF size, f 1 (x, y, t) is a CIF size.
第j階層の時刻tのフレーム内がMj 個の領域に分割され,各領域毎に独立な符号化パラメータ(例えば,輝度補償パラメータ)を持つとする。ここで,同一の符号化パラメータをもつ領域をセグメントと呼ぶ。また,セグメントの最小単位をL×L画素領域とし,同領域を単位セグメントと呼ぶ。また,フレーム内のセグメントによる領域分割を表す情報をセグメント情報と呼ぶ。 The frame at time t in the j-th layer is divided into M j regions, and each region has an independent encoding parameter (for example, luminance compensation parameter). Here, an area having the same coding parameter is called a segment. The minimum unit of the segment is an L × L pixel area, and the same area is called a unit segment. Also, information representing area division by segments in a frame is called segment information.
本発明では,第j階層のセグメント情報から第j+1階層のセグメント情報を予測し,予測誤差を符号化することをもっとも主要な特徴とする。 The most important feature of the present invention is that the segment information of the (j + 1) -th layer is predicted from the segment information of the j-th layer and the prediction error is encoded.
詳しくは,本発明は,画像信号を空間解像度の異なる階層に分割し,分割された領域毎に符号化パラメータを求め,符号化処理を行う画像符号化において,低い空間解像度の信号(下位階層信号)の領域分割情報から高い空間解像度の信号(上位階層信号)の領域分割情報を予測し,単位セグメント毎に方向情報を用いて予測誤差情報を表すことを特徴とする。 Specifically, the present invention divides an image signal into layers having different spatial resolutions, obtains encoding parameters for each of the divided regions, and performs image encoding processing in which low spatial resolution signals (lower layer signals) are obtained. ) Region division information of a high spatial resolution signal (upper layer signal) is predicted, and prediction error information is expressed using direction information for each unit segment.
また,本発明は,上記予測誤差情報に対する方向情報を符号化する際,その符号化対象の方向情報を,
(1)予測形状に対する補正が不要な場合,
(2)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
(3)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの侯補を持つ場合,
からなる3通りに分類し,符号化する。
In the present invention, when the direction information for the prediction error information is encoded, the direction information to be encoded is
(1) When correction for the predicted shape is unnecessary,
(2) When the predicted shape needs to be corrected and the number of segments to which the unit segment that needs correction belongs is limited to one,
(3) When the prediction shape needs to be corrected and the segment to which the unit segment that needs correction has two types of compensation,
It is classified into three types consisting of and encoded.
また,本発明は,上記予測誤差情報に対する方向情報を符号化する際,その符号化対象の方向情報を,
(1)予測形状に対する補正が不要な場合,
(2)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
(3)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの候補を持つ場合,
(4)予測形状に対する補正が必要であり,補正が必要な単位セグメントが隣接セグメントに属さない場合,
からなる4通りに分類し,符号化することもできる。
In the present invention, when the direction information for the prediction error information is encoded, the direction information to be encoded is
(1) When correction for the predicted shape is unnecessary,
(2) When the predicted shape needs to be corrected and the number of segments to which the unit segment that needs correction belongs is limited to one,
(3) When the prediction shape needs to be corrected and the segment to which the unit segment that needs correction has two candidates,
(4) When the predicted shape needs to be corrected and the unit segment that needs correction does not belong to the adjacent segment,
It is also possible to classify and encode into 4 types.
さらに上記発明において,補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際,方向情報に対して順序を定めた法則に従い,符号化シンボルを設定する。 Furthermore, in the above invention, when encoding two types of segment candidates to which a unit segment that needs correction belongs, an encoded symbol is set according to a rule that determines the order of the direction information.
また,上記発明において,補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際,候補となるセグメント内の画素数に応じて,符号化シンボルを設定することもできる。 Further, in the above invention, when encoding two candidate segments to which a unit segment that needs correction belongs, an encoding symbol can be set according to the number of pixels in the candidate segment.
また,上記発明において,補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際,候補となるセグメント内に対応する下位階層のセグメントでの量子化ステップ幅に応じて,符号化シンボルを設定することもできる。 Further, in the above invention, when encoding two candidate segments to which a unit segment requiring correction belongs, the encoding is performed according to the quantization step width in the lower layer segment corresponding to the candidate segment. You can also set a symbol.
なお,セグメントは同一の符号化パラメータをもつ領域としたが,本発明の特徴とするところは,空間解像度の異なる階層間で下位階層信号の領域分割情報から上位階層信号の領域分割情報を予測し,その予測誤差情報を符号化/復号する点にあるので,セグメントは,必ずしも同一の符号化パラメータを持つ領域でなくてもよく,何らかの領域分割の基準となり得る特定の符号化パラメータをもつ領域であってもよい。 Although the segment is an area having the same coding parameter, the feature of the present invention is that the area division information of the upper layer signal is predicted from the area division information of the lower layer signal between layers having different spatial resolutions. Because the prediction error information is encoded / decoded, a segment does not necessarily have to have the same encoding parameter, but a segment having a specific encoding parameter that can be used as a basis for segmentation. There may be.
スケーラブル符号化において空間解像度の異なる階層毎に与えられるセグメント情報に対して,オーバヘッド情報の抑圧を図り,符号化効率の向上を実現する。これは,スケーラブル符号化における分割損の低減につながる。 In scalable coding, overhead information is suppressed for segment information given to each layer with different spatial resolution, and coding efficiency is improved. This leads to a reduction in division loss in scalable coding.
各階層のセグメント数は付加情報として,別途,伝送されるものとする。このセグメント数に対して,
・各階層でセグメント数が同一の場合(M0 =M1 =…=MJ ),
・上位階層でセグメント数が増加する場合(M0 ≦M1 ≦…≦MJ ),
について,以下に示す。
The number of segments in each layer shall be transmitted separately as additional information. For this number of segments,
・ When the number of segments is the same in each layer (M 0 = M 1 = ... = M J ),
When the number of segments increases in the upper layer (M 0 ≦ M 1 ≦… ≦ M J )
Is shown below.
〔各階層でセグメント数が同一の場合〕
図1は,画像のブロック分割の例を示す。図1を用いて各階層でセグメント数が同一の場合の例を説明する。ここで,破線で示した正方形が単位セグメントを表している。図1(a)は第j階層の時刻tのフレーム内の領域分割を示しており,図1(b)は第j+1階層の時刻tのフレーム内の領域分割を示している。
[When the number of segments is the same in each layer]
FIG. 1 shows an example of image block division. An example in which the number of segments is the same in each layer will be described with reference to FIG. Here, a square indicated by a broken line represents a unit segment. FIG. 1A shows region division in a frame at time t in the j-th layer, and FIG. 1B shows region division in a frame at time t in the j + 1-th layer.
図1(a)の各セグメントを縦/横方向,各々2倍に拡大すると,図1(c)に示す領域分割となる。これが,本発明における第j階層のセグメント情報から第j+1階層のセグメント情報を予測する処理にあたる。 When each segment in FIG. 1A is doubled in the vertical / horizontal direction, the area division shown in FIG. 1C is obtained. This corresponds to the process of predicting the segment information of the (j + 1) th layer from the segment information of the jth layer in the present invention.
図1(c)の領域分割(予測形状)と図1(b)の領域分割(真の形状)との差を,図1(d)に示す。ここで,図1(b)と図1(c)で異なる単位セグメントを網掛けにより示す。このように下位階層から予測されたセグメント(予測セグメント)と異なるセグメントに含まれる単位セグメントを補正単位セグメントと呼ぶ。一方,補正単位セグメントではない残りの単位セグメントを非補正単位セグメントと呼ぶ。また,補正単位セグメント上の矢印は,その補正単位セグメントが属するセグメントの方向を示す。 The difference between the area division (predicted shape) in FIG. 1C and the area division (true shape) in FIG. 1B is shown in FIG. Here, different unit segments in FIG. 1B and FIG. A unit segment included in a segment different from the segment predicted from the lower hierarchy (predicted segment) is referred to as a corrected unit segment. On the other hand, the remaining unit segments that are not correction unit segments are called non-correction unit segments. An arrow on the correction unit segment indicates the direction of the segment to which the correction unit segment belongs.
各単位セグメントの属するセグメントを示す情報を属性情報と呼び,以下,この属性情報の与え方を示す。まず,補正単位セグメントと非補正単位セグメントに分類する。さらに補正単位セグメントに対しては,属性情報として上下左右のいずれかの方向を指定することとする。ただし,隣接4近傍の単位セグメントのうち,それ自身の予測セグメント以外に含まれるものは最大でも2つに限定される。 Information indicating the segment to which each unit segment belongs is called attribute information, and the method of giving this attribute information is shown below. First, a correction unit segment and a non-correction unit segment are classified. Furthermore, for the correction unit segment, one of up, down, left and right directions is designated as attribute information. However, the unit segments in the vicinity of the four adjacent neighbors are limited to at most two other than their own predicted segments.
例えば,図1(d)において左向きの矢印が与えられた補正単位セグメントの場合,図1(c)により上/右方向は自身の予測セグメント内にあるため,補正単位セグメントの属性情報として取り得るのは,下/左方向の2方向に限定される。また,図1(d)において下向きの矢印が与えられた補正単位セグメントの場合,補正単位セグメントの属性情報として取り得るのは,上方向のみに限定される。このため,高々3種類のシンボルにより属性情報を表すことができる。3つのシンボルの与え方としては,例えば,以下に示す方法がある。 For example, in the case of a correction unit segment to which a left-pointing arrow is given in FIG. 1D, the up / right direction is in its own prediction segment according to FIG. 1C, and can be taken as attribute information of the correction unit segment. Is limited to two directions, down / left. Further, in the case of a correction unit segment to which a downward arrow is given in FIG. 1D, what can be taken as attribute information of the correction unit segment is limited only in the upward direction. Therefore, attribute information can be represented by at most three types of symbols. For example, there are the following methods for giving the three symbols.
《属性情報の例1》
(1−i)非補正単位セグメントの場合:属性情報を0で表す。
(1−ii)取り得る属性情報が1通りに限定される補正単位セグメントの場合:属性情報を1で表す。
(1−iii )取り得る属性情報が2通りある補正単位セグメントの場合:取り得る属性情報に対応する2通りの方向を上方向,右方向,下方向,左方向の順で並べ,この順に,シンボル1および2を割り振るものとし,属性情報を1または2で表す。なお,この方向の順序付けは一例であり,他の方法でも同様に行うことができる。
<< Example 1 of attribute information >>
(1-i) Uncorrected unit segment: Attribute information is represented by 0.
(1-ii) In the case of a correction unit segment in which the possible attribute information is limited to one: The attribute information is represented by 1.
(1-iii) In the case of a correction unit segment having two possible attribute information: The two directions corresponding to the possible attribute information are arranged in the order of upward, rightward, downward, and leftward.
《属性情報の例2》
(2−i)前述(1−i)に同じ
(2−ii)前述(1−ii)に同じ
(2−iii )取り得る属性情報が2通りある補正単位セグメントの場合:取り得る属性情報に対応する2通りのセグメント内の画素数を降順に並べ,この順に,シンボル1および2を割り振るものとし,属性情報を1または2で表す。なお,各属性情報により示されるセグメント内の画素数が等しい場合は,前述(1−i)に同じとする。
<< Example 2 of attribute information >>
(2-i) Same as (1-i) above (2-ii) Same as (1-ii) above (2-iii) Correction unit segment with two possible attribute information: Possible attribute information The numbers of pixels in the corresponding two types of segments are arranged in descending order,
《属性情報の例3》
(3−i)前述(1−i)に同じ
(3−ii)前述(1−ii)に同じ
(3−iii )取り得る属性情報が2通りある補正単位セグメントの場合:属性情報に対応する各予測セグメントにおいて,単位セグメントあたりの平均量子化ステップ幅を求め,同平均量子化ステップ幅を昇順に並べ,この順に,シンボル1および2を割り振るものとし,属性情報を1または2で表す。なお,上述の予測誤差が等しい場合は,前述(1−i)に同じとする。
<< Example 3 of attribute information >>
(3-i) Same as (1-i) above (3-ii) Same as (1-ii) above (3-iii) In the case of a correction unit segment having two possible attribute information: corresponding to attribute information In each prediction segment, an average quantization step width per unit segment is obtained, the average quantization step widths are arranged in ascending order,
〔上位階層でセグメント数が増加する場合〕
図2は,画像のブロック分割の他の例を示す。図2を用いて上位階層でセグメント数が増加する場合の例を説明する。ここでは,第j階層は3つのセグメントに分割されるのに対し,第j+1階層は4つのセグメントに分割される例を示している。図2(a)および(c)は,図1(a)および(c)に同じである。図2(b)は,4つ目のセグメントが追加された場合を示している。これに対応して,図2(d)では,濃い網掛けで表した補正セグメントが追加されている。このセグメントは,隣接するいずれのセグメントにも属していない。こうした補正単位セグメントを特異単位セグメントと呼ぶ。上位階層でセグメント数が増加する場合は,属性情報として前述の3種類のシンボルに加えて,特異単位セグメントであることを表すシンボルが必要である。つまり,最大4種類のシンボルにより属性情報を表すことになる。
[When the number of segments increases in the upper layer]
FIG. 2 shows another example of image block division. An example in which the number of segments increases in the upper layer will be described with reference to FIG. Here, an example is shown in which the j-th layer is divided into three segments, while the j + 1-th layer is divided into four segments. FIGS. 2A and 2C are the same as FIGS. 1A and 1C. FIG. 2B shows a case where a fourth segment is added. Corresponding to this, in FIG. 2 (d), a correction segment represented by dark shading is added. This segment does not belong to any adjacent segment. Such a correction unit segment is called a singular unit segment. When the number of segments increases in the upper layer, a symbol indicating a unique unit segment is required in addition to the above three types of symbols as attribute information. That is, attribute information is represented by a maximum of four types of symbols.
〔階層間予測処理〕
図3は,本発明の実施形態に係る符号化処理の流れを示している。各階層でセグメント数が同一の場合の実施形態について,図3を参照して説明する。
[Inter-layer prediction process]
FIG. 3 shows the flow of the encoding process according to the embodiment of the present invention. An embodiment in which the number of segments is the same in each layer will be described with reference to FIG.
ステップS1:j階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。 Step S1: Using a j-layer signal as input, perform processing for obtaining a segment, and write segment information to a register.
ステップS2:j階層のセグメント情報を入力とし,縦/横方向に各々2倍に拡大する処理を行い,拡大後のセグメント情報(予測セグメント)をレジスタに書き出す。 Step S2: The segment information of the j-th layer is input, a process of enlarging each in the vertical / horizontal direction is performed twice, and the expanded segment information (predicted segment) is written to the register.
ステップS3:一方,j+1階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。 Step S3: On the other hand, with the j + 1 layer signal as input, a process for obtaining a segment is performed and the segment information is written to the register.
ステップS4:予測セグメントおよびj+1階層のセグメント情報を入力とし,両者の差分を求める処理を行い,差分情報をレジスタに書き出す。その後,以下の処理を各単位セグメントに対して行う。 Step S4: The prediction segment and the segment information of the j + 1 layer are input, a process for obtaining the difference between the two is performed, and the difference information is written to the register. Thereafter, the following processing is performed for each unit segment.
ステップS5:処理対象の単位セグメントに対するステップS4で書き出された差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,ステップS6の処理に移り,偽の場合には,ステップS7の処理に移る。 Step S5: Using the difference information written in step S4 for the unit segment to be processed as an input, a determination process is performed to determine whether or not the unit segment to be processed is an uncorrected unit segment. If the result is false, the process proceeds to step S7.
ステップS6:処理対象の単位セグメントに対する属性情報を0として,レジスタに書き出す。 Step S6: The attribute information for the unit segment to be processed is set to 0 and written to the register.
ステップS7:処理対象の単位セグメントに対するステップS4で書き出された差分情報を入力とし,処理対象の単位セグメントが属性情報の侯補を1つしか持たないか否かの判定処理を行い,真の場合には,ステップS8の処理に移り,偽の場合には,ステップS9の処理に移る。 Step S7: Using the difference information written in step S4 for the unit segment to be processed as an input, determine whether or not the unit segment to be processed has only one complement of attribute information, If so, the process proceeds to step S8. If not, the process proceeds to step S9.
ステップS8:処理対象の単位セグメントに対する属性情報を1として,レジスタに書き出す。 Step S8: The attribute information for the unit segment to be processed is set to 1 and written to the register.
ステップS9:予測セグメントおよびj+1階層のセグメント情報を入力とし,処理対象の補正単位セグメントが属するセグメントを決定する処理を行い,同セグメントを示す方向情報をレジスタに書き出す。 Step S9: The prediction segment and the segment information of the j + 1 layer are input, a process for determining the segment to which the correction unit segment to be processed belongs is performed, and direction information indicating the segment is written to the register.
ステップS10:ステップS9で書き出された方向情報を入力とし,同方向情報を属性情報に変換する処理を行い,同属性情報をレジスタに書き出す。具体的な変換処理は,(1−iii ),または(2−iii ),または(3−iii )を用いる。 Step S10: Using the direction information written in step S9 as an input, a process for converting the same direction information into attribute information is performed, and the attribute information is written to the register. A specific conversion process uses (1-iii), (2-iii), or (3-iii).
ステップS11:フレーム内の全単位セグメントに対して以上の処理が終了したか否かを判定し,真の場合には,処理を終了し,偽の場合には,ステップS5へ戻って同様に次の単位セグメントに対する処理を行う。 Step S11: It is determined whether or not the above processing has been completed for all the unit segments in the frame. If true, the processing is terminated, and if false, the processing returns to step S5 and similarly The process for the unit segment is performed.
図4は,本発明の他の実施形態に係る符号化処理の流れを示している。上位階層でセグメント数が増加する場合の実施形態について,図4を参照して説明する。 FIG. 4 shows the flow of encoding processing according to another embodiment of the present invention. An embodiment in which the number of segments increases in the upper layer will be described with reference to FIG.
ステップS21:j階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。 Step S21: The j-layer signal is input, the process for obtaining the segment is performed, and the segment information is written to the register.
ステップS22:j階層のセグメント情報を入力とし,縦/横方向に各々2倍に拡大する処理を行い,拡大後のセグメント情報(予測セグメント)をレジスタに書き出す。 Step S22: The segment information of the j hierarchy is input, a process of enlarging the vertical / horizontal direction twice is performed, and the expanded segment information (predicted segment) is written to the register.
ステップS23:一方,j+1階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。 Step S23: On the other hand, with the j + 1 layer signal as an input, the process for obtaining the segment is performed, and the segment information is written to the register.
ステップS24:予測セグメントおよびj+1階層のセグメント情報を入力とし,両者の差分を求める処理を行い,差分情報をレジスタに書き出す。その後,以下の処理を各単位セグメントに対して行う。 Step S24: The prediction segment and the segment information of the j + 1 layer are input, a process for obtaining the difference between the two is performed, and the difference information is written to the register. Thereafter, the following processing is performed for each unit segment.
ステップS25:処理対象の単位セグメントに対するステップS24で書き出された差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,ステップS26の処理に移り,偽の場合には,ステップS27の処理に移る。 Step S25: Using the difference information written in step S24 for the unit segment to be processed as an input, a determination process is performed to determine whether or not the unit segment to be processed is an uncorrected unit segment. If the result is false, the process proceeds to step S27.
ステップS26:処理対象の単位セグメントに対する属性情報を0として,レジスタに書き出す。 Step S26: The attribute information for the unit segment to be processed is set to 0 and written to the register.
ステップS27:処理対象の単位セグメントに対するステップS24で書き出された差分情報を入力とし,処理対象の単位セグメントが特異単位セグメントか否かの判定処理を行い,真の場合には,ステップS28の処理に移り,偽の場合には,ステップS29の処理に移る。 Step S27: Using the difference information written in step S24 for the processing target unit segment as an input, a determination process is performed to determine whether the processing target unit segment is a singular unit segment. If true, the processing of step S28 is performed. If NO, the process proceeds to step S29.
ステップS28:処理対象の単位セグメントに対する属性情報を3として,レジスタに書き出す。 Step S28: The attribute information for the unit segment to be processed is set to 3 and written to the register.
ステップS29:処理対象の単位セグメントに対するステップS24で書き出された差分情報を入力とし,処理対象の単位セグメントが属性情報の侯補を1つしか持たないか否かの判定処理を行い,真の場合には,ステップS30の処理に移り,偽の場合には,ステップS31の処理に移る。 Step S29: The difference information written in step S24 with respect to the unit segment to be processed is input, and it is determined whether or not the unit segment to be processed has only one attribute information compensation. If so, the process proceeds to step S30. If not, the process proceeds to step S31.
ステップS30:処理対象の単位セグメントに対する属性情報を1として,レジスタに書き出す。 Step S30: The attribute information for the unit segment to be processed is set to 1 and written to the register.
ステップS31:予測セグメントおよびj+1階層のセグメント情報を入力とし,処理対象の単位セグメントが属するセグメントを決定する処理を行い,同セグメントを示す方向情報をレジスタに書き出す。 Step S31: The prediction segment and the segment information of the j + 1 layer are input, a process for determining the segment to which the processing target unit segment belongs is performed, and the direction information indicating the segment is written to the register.
ステップS32:ステップS31で書き出された方向情報を入力とし,同方向情報を属性情報に変換する処理を行い,同属性情報をレジスタに書き出す。具体的な変換処理は,(1−iii ),または(2−iii ),または(3−iii )を用いる。 Step S32: Using the direction information written in step S31 as input, a process for converting the same direction information into attribute information is performed, and the same attribute information is written into the register. A specific conversion process uses (1-iii), (2-iii), or (3-iii).
ステップS33:フレーム内の全単位セグメントに対して以上の処理が終了したか否かを判定し,真の場合には,処理を終了し,偽の場合には,ステップS25へ戻って同様に次の単位セグメントに対する処理を行う。 Step S33: It is determined whether or not the above processing has been completed for all the unit segments in the frame. If true, the processing is terminated. If false, the processing returns to step S25 and the same as described above. The process for the unit segment is performed.
〔階層間予測処理装置〕
図5は,各階層でセグメント数が同一の場合の実施形態に係る階層間予測処理装置の構成例を示している。以下,図5を参照して説明する。
[Inter-layer prediction processor]
FIG. 5 shows a configuration example of the inter-layer prediction processing apparatus according to the embodiment when the number of segments is the same in each layer. Hereinafter, a description will be given with reference to FIG.
符号化対象信号を階層毎に,j+1階層信号記憶部101,j階層信号記憶部104に書き出す。
The encoding target signal is written to the j + 1 layer signal storage unit 101 and the j layer
セグメント算出部102は,j+1階層信号記憶部101から読み出したj+1階層の信号を入力とし,セグメントを求める処理を行い,求めたセグメント情報をセグメント記憶部103に書き出す。
The
また,j階層のセグメント算出部105は,j階層信号記憶部104から読み出したj階層の信号を入力とし,セグメントを求める処理を行い,求めたセグメント情報をセグメント記憶部106に書き出す。セグメント拡大処理部107は,セグメント記憶部106から読み出したj階層のセグメント情報を入力とし,縦/横方向に各々2倍に拡大する処理を行い,拡大後のセグメント情報(予測セグメント)をセグメント記憶部108に書き出す。
Further, the j-layer
セグメント差分算出部109は,セグメント記憶部103から読み出したj+1階層のセグメント情報およびセグメント記憶部108から読み出した予測セグメントのセグメント情報を入力とし,両者の差分を求める処理を行い,差分情報をセグメント差分記憶部110に書き出す。その後,以下の処理を各単位セグメントに対して行う。
The segment
非補正単位セグメント判定部111は,セグメント差分記憶部110から読み出した差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,属性情報算出部112の処理に移り,偽の場合には,補正単位セグメント候補数判定部114の処理に移る。
The non-correction unit
属性情報算出部112は,処理対象の単位セグメントに対する属性情報を0として,属性情報記憶部113に書き出す。
The attribute information calculation unit 112 writes the attribute information for the unit segment to be processed as 0 to the attribute
補正単位セグメント候補数判定部114は,セグメント差分記憶部110から読み出した差分情報を入力とし,処理対象の単位セグメントが属性情報の侯補を1つしか持たないか否かの判定処理を行い,真の場合には,属性情報算出部115の処理に移り,偽の場合には,方向情報算出部117の処理に移る。
The correction unit segment candidate
属性情報算出部115は,現在の処理対象の単位セグメントに対する属性情報を1として,属性情報記憶部116に書き出す。
The attribute
方向情報算出部117は,セグメント記憶部103から読み出したj+1階層のセグメント情報およびセグメント記憶部108から読み出した予測セグメントを入力とし,処理対象の単位セグメントが属するセグメントを決定する処理を行い,同セグメントを示す方向情報を方向情報記憶部118に書き出す。
The direction
属性情報算出部119は,方向情報記憶部118から読み出した方向情報を入力とし,同方向情報を属性情報に変換する処理を行い同属性情報を属性情報記憶部120に書き出す。具体的な変換処理は,(1−iii ),または(2−iii ),または(3−iii )を用いる。
The attribute information calculation unit 119 receives the direction information read from the direction
図6は,上位階層でセグメント数が増加する場合の実施形態に係る階層間予測処理装置の構成例を示している。図5に示した階層間予測処理装置との違いは,特異単位セグメント判定部221,属性情報算出部222,属性情報記憶部223が加えられている点である。他のj+1階層信号記憶部201〜属性情報記憶部220の部分は,それぞれ図5に示したj+1階層信号記憶部101〜属性情報記憶部120の部分と同様である。以下,図5の階層間予測処理装置と違う部分について説明する。
FIG. 6 shows a configuration example of the inter-layer prediction processing apparatus according to the embodiment when the number of segments increases in the upper hierarchy. The difference from the inter-layer prediction processing apparatus shown in FIG. 5 is that a singular unit
非補正単位セグメント判定部211は,セグメント差分記憶部210から読み出した差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,属性情報算出部212の処理に移り,偽の場合には,特異単位セグメント判定部221の処理に移る。
The non-correction unit
特異単位セグメント判定部221は,セグメント差分記憶部210から読み出した差分情報を入力とし,処理対象の単位セグメントが特異単位セグメントか否かの判定処理を行い,真の場合には,属性情報算出部222の処理に移り,偽の場合には,補正単位セグメント候補数判定部214の処理に移る。
The singular unit
属性情報算出部222は,処理対象の単位セグメントに対する属性情報を3として,属性情報記憶部223に書き出す。
The attribute
以上のようにして算出された属性情報を用いることにより,例えば輝度補償パラメータ等の符号化パラメータを,下位階層と上位階層とで独立に符号化する必要がなくなり,下位階層の符号化パラメータを上位階層で利用することにより,その符号量を大きく削減することができるようになる。もちろん,輝度補償パラメータ等の符号化パラメータに限らず,同様に下位階層信号の領域と上位階層信号の領域とで関連が大きい情報の符号化に,本発明に係る領域の属性情報を利用することができることは明らかである。 By using the attribute information calculated as described above, for example, it is not necessary to separately encode encoding parameters such as luminance compensation parameters in the lower layer and the upper layer, and the lower layer encoding parameter is not used in the upper layer. By using it in the hierarchy, the amount of codes can be greatly reduced. Of course, not only the encoding parameters such as the luminance compensation parameter, but also the attribute information of the region according to the present invention is used for encoding information that is similarly related to the region of the lower layer signal and the region of the upper layer signal. Obviously you can.
また,第j階層のセグメント情報から第j+1階層のセグメント情報を予測し,予測誤差を符号化する例を説明したが,これによって符号化された符号化情報を復号する場合にも,まったく同様の処理によって第j階層のセグメント情報から第j+1階層のセグメント情報を予測し,予測誤差を復号することができることは明らかである。 Further, the example in which the segment information of the (j + 1) -th layer is predicted from the segment information of the j-th layer and the prediction error is encoded has been described, but the same is true when decoding the encoded information encoded thereby. It is obvious that the segment information of the (j + 1) -th layer can be predicted from the segment information of the j-th layer by the process, and the prediction error can be decoded.
以上の階層間予測処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。 The above-described inter-layer prediction process can be realized by a computer and a software program, and can be provided by recording the program on a computer-readable recording medium or via a network.
図7は,本発明を適用したスケーラブル符号化装置の全体構成の例を示す図である。図5および図6で説明した階層間予測処理装置は,例えば図7に示すスケーラブル符号化装置の一部として用いる。図7中,30は基本階層符号化部であり,31は拡張階層符号化部である。 FIG. 7 is a diagram illustrating an example of the overall configuration of a scalable encoding device to which the present invention is applied. The inter-layer prediction processing apparatus described with reference to FIGS. 5 and 6 is used as a part of the scalable encoding apparatus illustrated in FIG. 7, for example. In FIG. 7, 30 is a base layer encoding unit, and 31 is an enhancement layer encoding unit.
まず,階層分離器300は,入力画像の符号化対象フレームを入力として,空間解像度の異なる階層に分離し,各階層の信号を各々,基本階層信号記憶部301,拡張階層信号記憶部302に書き出す。変換部303は,基本階層信号記憶部301から読み出した基本階層信号を入力とし,例えば離散コサイン変換処理などの変換処理を行い,算出された変換係数を変換係数記憶部304へ書き出す。量子化部305は,変換係数記憶部304から読み出した変換係数を入力とし,量子化処理を行い,量子化値を量子化値記憶部306へ書き出す。
First, the
逆量子化部307は,量子化値記憶部306から読み出した量子化値を入力とし,逆量子化処理を行い,逆量子化値記憶部308へ書き出す。逆変換部309は,逆量子化値記憶部308から読み出した変換係数を入力とし,逆変換処理を行い,ローカル復号信号記憶部310へ書き出す。
The inverse quantization unit 307 receives the quantization value read from the quantization
予測処理部311は,ローカル復号信号記憶部310から読み出したローカル復号画像と遅延器313の出力との加算値を入力とし,予測処理を行い,予測信号記憶部312に書き出す。予測処理部311における処理は,ブロックベースの動き補償,輝度補償のようなセグメント情報を必要とする予測処理である。予測信号記憶部312から読み出した予測信号は,遅延器313に入力され1フレーム分遅延される。
The
エントロピ符号化部314は,量子化値記憶部306から読み出した量子化値を入力とし,エントロピ符号化処理を行い,符号化結果を符号化ストリーム記憶部315へ書き出す。
The
階層間予測処理部316は,図3〜図6を用いて説明した本発明の実施形態に係る階層間予測処理を行う。
The inter-layer
拡張階層符号化部31における変換部317から遅延器327までの処理は,基本階層符号化部30における変換部303から遅延器313までの処理と同様である。
The processing from the
多重化器330は,符号化ストリーム記憶部315および符号化ストリーム記憶部329から読み出した符号化ストリームを多重化する処理を行い,スケーラブル符号化結果として出力する。
The
図8は,本発明を適用したスケーラブル復号装置の全体構成の例を示す図である。図5および図6で説明した階層間予測処理装置は,例えば図8に示すスケーラブル復号装置の一部としても用いられる。図8中,40は基本階層復号部であり,41は拡張階層復号部である。 FIG. 8 is a diagram illustrating an example of the overall configuration of a scalable decoding device to which the present invention is applied. The inter-layer prediction processing device described with reference to FIGS. 5 and 6 is also used as a part of the scalable decoding device shown in FIG. 8, for example. In FIG. 8, 40 is a base layer decoding unit, and 41 is an enhancement layer decoding unit.
分離器401は,図7に示すスケーラブル符号化装置から出力された符号化ストリームを入力とし,同ストリームを基本階層符号化ストリームと拡張階層符号化ストリームとに分離する処理を行い,基本階層符号化ストリームおよび拡張階層符号化ストリームを各々,基本階層符号化ストリーム記憶部402,拡張階層符号化ストリーム記憶部414に書き出す。
The
エントロピ復号部403は,基本階層符号化ストリーム記憶部402から読み出した符号化ストリームを入力とし,エントロピ復号処理を行い,復号された量子化値を量子化値記憶部404へ書き出す。逆量子化部405は,量子化値記憶部404から読み出した量子化値を入力とし,逆量子化処理を行い,変換係数記憶部406へ書き出す。逆変換部407は,変換係数記憶部406から読み出した変換係数を入力とし,逆変換処理を行い,復号信号記憶部408へ書き出す。
The
予測処理部411は,復号信号記憶部408から読み出した復号信号と予測信号記憶部412の出力である予測値との加算値を基本階層信号記憶部409に書き出す。また,基本階層信号記憶部409から読み出した基本階層信号を遅延器410によって1フレーム分遅延した信号を予測信号として予測信号記憶部412に書き出す。
The
階層間予測処理部413は,図3〜図6を用いて説明した本発明の実施形態に係る階層間予測処理を行う。 The inter-layer prediction processing unit 413 performs the inter-layer prediction process according to the embodiment of the present invention described with reference to FIGS.
拡張階層復号部41におけるエントロピ復号部415から予測処理部423までの処理は,基本階層復号部40におけるエントロピ復号部403から予測処理部411までの処理と同様である。
The processing from the
101,201 j+1階層信号記憶部
102,105,202,205 セグメント算出部
103,106,108,203,206,208 セグメント記憶部
104,204 j階層信号記憶部
107,207 セグメント拡大処理部
109,209 セグメント差分算出部
110,210 セグメント差分記憶部
111,211 非補正単位セグメント判定部
112,115,119,212,215,219,222 属性情報算出部
113,116,120,213,216,220,223 属性情報記憶部
114,214 補正単位セグメント候補数判定部
117,217 方向情報算出部
118,218 方向情報記憶部
101, 201 j + 1 layer
Claims (7)
前記第j階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める過程と,
前記第j+1階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める過程と,
前記第j階層の信号において求めたセグメント情報から,前記第j+1階層のセグメント情報を予測する過程と,
前記第j+1階層の信号から求めたセグメント情報と,前記第j階層の信号から予測した第j+1階層のセグメント情報との差分情報を算出する過程と,
算出した差分情報の予測誤差情報を符号化または復号する過程とを有する
ことを特徴とする階層間予測処理方法。 This is an inter-layer prediction processing method in an inter-layer prediction encoding / decoding device that divides an image signal into a j-th layer having a low spatial resolution and a j + 1-th layer having a high spatial resolution and performs encoding / decoding for each layer. And
Calculating a segment which is an area having the same or specific coding parameter in the signal of the j-th layer, and obtaining segment information representing area division by the segment;
Calculating a segment which is an area having the same or specific coding parameter in the signal of the (j + 1) th layer, and obtaining segment information representing area division by the segment;
Predicting the segment information of the (j + 1) th layer from the segment information obtained in the signal of the jth layer;
Calculating difference information between the segment information obtained from the j + 1 layer signal and the j + 1 layer segment information predicted from the j layer signal;
And a process of encoding or decoding prediction error information of the calculated difference information.
前記予測誤差情報を符号化または復号する過程では,
前記第j+1階層の信号から求めたセグメントの最小単位である単位セグメント毎に,各単位セグメントが前記第j階層の信号から予測した第j+1階層の予測セグメントと異なるセグメントに含まれるかどうかによって,前記予測セグメントの領域形状である予測形状の補正が必要かどうかを決定し,補正が必要なときの前記単位セグメントが属するセグメントへの上下左右の方向を示す方向情報を用いて予測誤差情報を表し,その予測誤差情報に対する方向情報を符号化または復号する際,
同方向情報を
予測形状に対する補正が不要な場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの侯補を持つ場合,
からなる3通りに分類し,符号化または復号する
ことを特徴とする階層間予測処理方法。 In the inter-layer prediction processing method according to claim 1,
In the process of encoding or decoding the prediction error information,
For each unit segment , which is the minimum unit of segments obtained from the signal of the j + 1th layer, whether each unit segment is included in a segment different from the predicted segment of the j + 1th layer predicted from the signal of the jth layer, Decide whether the prediction shape that is the region shape of the prediction segment needs to be corrected , and express the prediction error information using the direction information indicating the vertical and horizontal directions to the segment to which the unit segment belongs when correction is required , When encoding or decoding the direction information for the prediction error information,
If correction of the same direction information to the predicted shape is unnecessary,
When the predicted shape needs to be corrected and the segment to which the unit segment that needs correction belongs is limited to one,
When the predicted shape needs to be corrected and the segment to which the unit segment that needs correction has two types of compensation,
An inter-layer prediction processing method characterized in that it is classified into three types and encoded or decoded.
前記予測誤差情報を符号化または復号する過程では,
前記第j+1階層の信号から求めたセグメントの最小単位である単位セグメント毎に,各単位セグメントが前記第j階層の信号から予測した第j+1階層の予測セグメントと異なるセグメントに含まれるかどうかによって,前記予測セグメントの領域形状である予測形状の補正が必要かどうかを決定し,補正が必要なときの前記単位セグメントが属するセグメントへの上下左右の方向を示す方向情報を用いて予測誤差情報を表し,その予測誤差情報に対する方向情報を符号化または復号する際,
同方向情報を
予測形状に対する補正が不要な場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの候補を持つ場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが隣接セグメントに属さない場合,
からなる4通りに分類し,符号化または復号する
ことを特徴とする階層間予測処理方法。 In the inter-layer prediction processing method according to claim 1,
In the process of encoding or decoding the prediction error information,
For each unit segment , which is the minimum unit of segments obtained from the signal of the j + 1th layer, whether each unit segment is included in a segment different from the predicted segment of the j + 1th layer predicted from the signal of the jth layer, Determine whether or not the prediction shape that is the region shape of the prediction segment needs to be corrected , and express prediction error information using direction information that indicates the vertical and horizontal directions to the segment to which the unit segment belongs when correction is required , When encoding or decoding the direction information for the prediction error information,
If correction of the same direction information to the predicted shape is unnecessary,
When the predicted shape needs to be corrected and the segment to which the unit segment that needs correction belongs is limited to one,
If the predicted shape needs to be corrected and the segment to which the unit segment that needs correction has two candidates,
If the predicted shape needs to be corrected and the unit segment that needs to be corrected does not belong to the adjacent segment,
An inter-layer prediction processing method characterized by classifying and encoding or decoding into four types.
前記予測誤差情報を符号化または復号する過程では,
補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際に,方向情報に対して順序を定めた法則に従い符号化シンボルを設定する,または候補となるセグメント内の画素数に応じて符号化シンボルを設定する,または候補となるセグメント内に対応する下位階層のセグメントでの量子化ステップ幅に応じて符号化シンボルを設定する
ことを特徴とする階層間予測処理方法。 In the inter-layer prediction processing method according to claim 2 or claim 3,
In the process of encoding or decoding the prediction error information,
When encoding two candidate segments to which a unit segment that needs correction belongs, set an encoded symbol according to a rule that determines the order of the direction information, or according to the number of pixels in the candidate segment A coding symbol is set according to a quantization step width in a segment in a lower layer corresponding to a candidate segment in the candidate segment.
前記第j階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める手段と,
前記第j+1階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める手段と,
前記第j階層の信号において求めたセグメント情報から,前記第j+1階層のセグメント情報を予測する手段と,
前記第j+1階層の信号から求めたセグメント情報と,前記第j階層の信号から予測した第j+1階層のセグメント情報との差分情報を算出する手段と,
算出した差分情報の予測誤差情報を符号化または復号する手段とを備える
ことを特徴とする階層間予測処理装置。 An inter-layer prediction processing device in an inter-layer prediction encoding / decoding device that divides an image signal into a j-th layer having a low spatial resolution and a j + 1-th layer having a high spatial resolution and performs encoding / decoding for each layer. And
Means for calculating a segment which is an area having the same or specific encoding parameter in the signal of the j-th layer, and obtaining segment information representing area division by the segment;
Means for calculating a segment which is an area having the same or specific encoding parameter in the signal of the j + 1th layer, and obtaining segment information representing area division by the segment;
Means for predicting the segment information of the (j + 1) th layer from the segment information obtained in the signal of the jth layer;
Means for calculating difference information between the segment information obtained from the j + 1 layer signal and the segment information of the j + 1 layer predicted from the j layer signal;
An inter-layer prediction processing apparatus comprising: means for encoding or decoding prediction error information of the calculated difference information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005248065A JP4490351B2 (en) | 2005-08-29 | 2005-08-29 | Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005248065A JP4490351B2 (en) | 2005-08-29 | 2005-08-29 | Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007067552A JP2007067552A (en) | 2007-03-15 |
JP4490351B2 true JP4490351B2 (en) | 2010-06-23 |
Family
ID=37929299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005248065A Active JP4490351B2 (en) | 2005-08-29 | 2005-08-29 | Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4490351B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108401157B (en) | 2012-10-01 | 2022-06-24 | Ge视频压缩有限责任公司 | Scalable video decoder, scalable video encoder, and scalable video decoding and encoding methods |
CN116708768A (en) * | 2013-01-04 | 2023-09-05 | Ge视频压缩有限责任公司 | Efficient scalable coding concept |
CN117956143A (en) | 2013-04-08 | 2024-04-30 | Ge视频压缩有限责任公司 | Multi-view decoder |
JP6838918B2 (en) * | 2015-11-24 | 2021-03-03 | キヤノン株式会社 | Image data processing device and method |
EP3929881A4 (en) * | 2019-03-19 | 2022-04-20 | Sony Group Corporation | Information processing device and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10271510A (en) * | 1997-03-26 | 1998-10-09 | Sharp Corp | Coding and decoding method for image data and coder and decoder |
JP2001036914A (en) * | 1995-10-24 | 2001-02-09 | Sharp Corp | Picture encoder and picture decoder |
JP2001504296A (en) * | 1996-11-08 | 2001-03-27 | シャープ株式会社 | Generalized content / scalable shape representation and encoding method |
JP2002519955A (en) * | 1998-06-26 | 2002-07-02 | サーノフ コーポレイション | Image encoding device and image decoding device |
-
2005
- 2005-08-29 JP JP2005248065A patent/JP4490351B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001036914A (en) * | 1995-10-24 | 2001-02-09 | Sharp Corp | Picture encoder and picture decoder |
JP2001504296A (en) * | 1996-11-08 | 2001-03-27 | シャープ株式会社 | Generalized content / scalable shape representation and encoding method |
JPH10271510A (en) * | 1997-03-26 | 1998-10-09 | Sharp Corp | Coding and decoding method for image data and coder and decoder |
JP2002519955A (en) * | 1998-06-26 | 2002-07-02 | サーノフ コーポレイション | Image encoding device and image decoding device |
Also Published As
Publication number | Publication date |
---|---|
JP2007067552A (en) | 2007-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6073405B2 (en) | Video decoding method and apparatus | |
JP6347860B2 (en) | Image decoding apparatus, image decoding method, image encoding apparatus, and image encoding method | |
TWI643494B (en) | Portrait decoding device, portrait decoding method, portrait encoding device, portrait encoding method, and data structure of encoded data | |
KR100803611B1 (en) | Image encoding and decoding method and apparatus | |
KR100578682B1 (en) | Hierarchical Motion Estimation Apparatus and Method Using Variable Block Size | |
TWI565307B (en) | Moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, and memory storage | |
JP4732982B2 (en) | Improved motion estimation method, video encoding method and apparatus using the method | |
US20150016739A1 (en) | Methods and apparatuses for encoding/decoding high resolution images | |
WO2010004939A1 (en) | Image encoding device, image decoding device, image encoding method, and image decoding method | |
CA2934184A1 (en) | Low-complexity intra prediction for video coding | |
JP5216710B2 (en) | Decryption processing method | |
JP2002507339A (en) | Hierarchical motion estimation execution method and apparatus using nonlinear pyramid | |
KR100922510B1 (en) | Image encoding and decoding method, apparatus and application thereof | |
JP4195057B2 (en) | A method for determining an adaptive motion vector search region, and an image compression apparatus for determining an adaptive motion vector search region. | |
JPH05328333A (en) | Moving vector detector | |
JPWO2006100946A1 (en) | Image signal re-encoding device and image signal re-encoding method | |
JP4490351B2 (en) | Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor | |
JP4295236B2 (en) | Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof | |
JP4802885B2 (en) | Motion vector detection apparatus and method, program, and recording medium | |
JPWO2013001720A1 (en) | Image encoding device, image decoding device, image encoding method, and image decoding method | |
KR100266161B1 (en) | Method of predicting motion for digital image | |
JPH11136674A (en) | Image encoding method and storage medium | |
Nithya et al. | Scanned Document Compression Using High Efficiency Video Coding (HEVC) Standard | |
JP4034180B2 (en) | Moving picture compression coding apparatus and motion vector detection method | |
Zhao et al. | Adaptive Down-Sampling and Super-Resolution for Additional Video Compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070815 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100401 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140409 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |