[go: up one dir, main page]

JP4490351B2 - Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor - Google Patents

Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor Download PDF

Info

Publication number
JP4490351B2
JP4490351B2 JP2005248065A JP2005248065A JP4490351B2 JP 4490351 B2 JP4490351 B2 JP 4490351B2 JP 2005248065 A JP2005248065 A JP 2005248065A JP 2005248065 A JP2005248065 A JP 2005248065A JP 4490351 B2 JP4490351 B2 JP 4490351B2
Authority
JP
Japan
Prior art keywords
segment
layer
information
unit
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005248065A
Other languages
Japanese (ja)
Other versions
JP2007067552A (en
Inventor
幸浩 坂東
誠之 高村
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005248065A priority Critical patent/JP4490351B2/en
Publication of JP2007067552A publication Critical patent/JP2007067552A/en
Application granted granted Critical
Publication of JP4490351B2 publication Critical patent/JP4490351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は,高能率画像信号符号化方法に関し,特に階層間予測符号化において各階層毎に与えられる付加情報を少なく抑えることを可能にした階層間予測処理方法に関するものである。   The present invention relates to a high-efficiency image signal encoding method, and more particularly to an inter-layer prediction processing method that can suppress additional information given to each layer in inter-layer prediction encoding.

近年,多様化するネットワーク環境・端末環境などに対応するためのスケーラブル符号化が注目を集めている。スケーラブル符号化では,画像信号を階層的に分割し,各階層毎に符号化が行われる。階層分割の方法としては,(i)空間周波数に関する帯域分割,(ii)時間周波数に関する帯域分割などがある。(i)としては,wavelet分割(非特許文献1参照),(ii)としては,Motion Compensation Temporal Fitering (MCTF)(非特許文献2参照)が代表例である。   In recent years, scalable coding to deal with diversifying network environments and terminal environments has attracted attention. In scalable coding, an image signal is divided hierarchically and coding is performed for each layer. Hierarchical division methods include (i) band division related to spatial frequency and (ii) band division related to time frequency. Typical examples of (i) are wavelet division (see Non-Patent Document 1), and (ii) is Motion Compensation Temporal Fitering (MCTF) (see Non-Patent Document 2).

各階層信号に対する符号化効率を向上させる目的から,各階層のフレーム内を局所的な性質に応じて分割し,分割された各領域毎に独立に符号化を行う方式が検討されている。この場合,各領域毎に符号化パラメータが与えられる。こうした領域毎に個別の符号化パラメータを与える例としては,輝度補償があげられる。輝度補償は以下に示すように動き補償のフレーム間予測部分を改良した技術である。   For the purpose of improving the coding efficiency for each layer signal, a method of dividing the frame of each layer according to the local property and performing the coding independently for each divided region has been studied. In this case, an encoding parameter is given for each region. An example of giving individual coding parameters for each region is luminance compensation. Luminance compensation is a technique that improves the inter-frame prediction part of motion compensation as described below.

動き補償では,まず,符号化対象フレームf(p,t)(p∈{(x,y)|0≦x≦X−1,0≦y≦Y−1})(画面サイズX×Y)をいくつかの領域に分割し,領域毎に動き補償(MC)を用いた次のようなフレーム間予測が行われる。   In motion compensation, first, an encoding target frame f (p, t) (pε {(x, y) | 0 ≦ x ≦ X−1, 0 ≦ y ≦ Y−1}) (screen size X × Y). Is divided into several regions, and the following inter-frame prediction using motion compensation (MC) is performed for each region.

Figure 0004490351
ここで,Bi は第i番目の領域であり,vi は次式を満たす動きベクトルである。
Figure 0004490351
Here, B i is the i-th region, and v i is a motion vector that satisfies the following equation.

Figure 0004490351
ここで,
Figure 0004490351
here,

Figure 0004490351
は,次に続く関数を最小化するvを返す。すなわち,探索範囲Ri において,領域Bi 内での予測誤差を最小化するvが動きベクトルvi として選ばれる。次に,予測誤差に直交変換,量子化が施され,最後に,得られた変換係数がエントロピ符号化される。
Figure 0004490351
Returns v which minimizes the next function. That is, in the search range R i, v that minimizes the prediction error in the area B i is selected as the motion vector v i. Next, orthogonal transformation and quantization are performed on the prediction error, and finally, the obtained transform coefficient is entropy coded.

予測誤差の低減が変換係数の符号量低減につながることから,予測誤差の低減を目的として,次のようなフレーム間予測の改良が検討されている。これを輝度補償と呼ぶ(非特許文献3,非特許文献4参照)。   Since reducing the prediction error leads to a reduction in the code amount of the transform coefficient, the following improvement of inter-frame prediction has been studied for the purpose of reducing the prediction error. This is called luminance compensation (see Non-Patent Document 3 and Non-Patent Document 4).

Figure 0004490351
ここで,γi は,
Figure 0004490351
Where γ i is

Figure 0004490351
であり,式(1)のvi に対して,
Figure 0004490351
And for v i in equation (1),

Figure 0004490351
を最小化する値として求めたものである。
S.G.Mallat:“A theory for multiresolution signal decomposition: the wavelet representation ”,IEEE Trans. Pattern Analysis and Machine Intelligence ,Vol.11,No.7,pp.674-693,July,1989 J.R.Ohm :“Three-dimensional subband coding with motion compensation ”,IEEE Trans. Image Processing,Vol.3 ,No.5,pp.559-571,Sept. ,1994 K.H.Tzou,T.R.Hsing ,and N.A.Daly: “Block-recursive matching algorithm(BRMA)for displacement estimation of video images ”,IEEE Int. Conf. Accost. ,Speech,Signal Process. ,pp.359-362,1985 上倉一人,渡辺裕,小林直樹,一之瀬進,安田浩:“演算量低減を考慮したグローバル動き・輝度変化補償動画像符号化”,信学論,Vol.J82-B ,No.9,pp.1676-1688,1999
Figure 0004490351
Is obtained as a value that minimizes.
SGMallat: “A theory for multiresolution signal decomposition: the wavelet representation”, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.11, No.7, pp.674-693, July, 1989 JROhm: “Three-dimensional subband coding with motion compensation”, IEEE Trans. Image Processing, Vol.3, No.5, pp.559-571, Sept., 1994 KHTzou, TRHsing, and NADaly: “Block-recursive matching algorithm (BRMA) for displacement estimation of video images”, IEEE Int. Conf. Accost., Speech, Signal Process., Pp.359-362, 1985 Hitoshi Uekura, Hiroshi Watanabe, Naoki Kobayashi, Susumu Ichinose, Hiroshi Yasuda: “Global Motion / Brightness Change Compensated Video Coding Considering Computational Complexity”, IEICE, Vol.J82-B, No.9, pp. 1676-1688, 1999

前述の輝度補償はスケーラブル符号化における各階層の符号化効率向上にも寄与する。しかし,各階層を独立に符号化したのでは,符号化効率の向上は望めない。そこで,符号化効率向上を目的として,階層間の相関を利用した符号化方法を検討する。具体的には,空間解像度の異なる2つの階層に対して,低い空間解像度の画像信号から高い空間解像度の画像信号を予測する階層間予測を行う。この場合,予測により,付加情報をいかに少なく抑えるかが符号化効率向上の鍵となる。   The luminance compensation described above also contributes to improving the coding efficiency of each layer in scalable coding. However, if each layer is encoded independently, improvement in encoding efficiency cannot be expected. Therefore, for the purpose of improving the coding efficiency, a coding method using the correlation between layers is examined. Specifically, inter-layer prediction for predicting a high spatial resolution image signal from a low spatial resolution image signal is performed for two layers having different spatial resolutions. In this case, how to suppress the additional information by prediction is the key to improving the coding efficiency.

本発明はかかる事情に鑑みてなされたものであって,スケーラブル符号化において各階層毎に与えられる付加情報に対する効率的な符号化方法を確立することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to establish an efficient encoding method for additional information given to each layer in scalable encoding.

以下では,第j階層の時刻tフレーム内の座標(x,y)における画素値をfj (x,y,t)とし,fj (x,y,t)に対する復号信号をgj (x,y,t)とする。fj+1 (x,y,t)は,fj (x,y,t)の2倍の空間解像度となる。例えば,f0 (x,y,t)がQCIFサイズであれば,f1 (x,y,t)はCIFサイズとなる。 In the following, coordinates in time t th frame j hierarchical (x, y) and the pixel value at f j (x, y, t) and, f j (x, y, t) of the decoded signal for g j (x , Y, t). f j + 1 (x, y, t) has a spatial resolution twice that of f j (x, y, t). For example, if f 0 (x, y, t) is a QCIF size, f 1 (x, y, t) is a CIF size.

第j階層の時刻tのフレーム内がMj 個の領域に分割され,各領域毎に独立な符号化パラメータ(例えば,輝度補償パラメータ)を持つとする。ここで,同一の符号化パラメータをもつ領域をセグメントと呼ぶ。また,セグメントの最小単位をL×L画素領域とし,同領域を単位セグメントと呼ぶ。また,フレーム内のセグメントによる領域分割を表す情報をセグメント情報と呼ぶ。 The frame at time t in the j-th layer is divided into M j regions, and each region has an independent encoding parameter (for example, luminance compensation parameter). Here, an area having the same coding parameter is called a segment. The minimum unit of the segment is an L × L pixel area, and the same area is called a unit segment. Also, information representing area division by segments in a frame is called segment information.

本発明では,第j階層のセグメント情報から第j+1階層のセグメント情報を予測し,予測誤差を符号化することをもっとも主要な特徴とする。   The most important feature of the present invention is that the segment information of the (j + 1) -th layer is predicted from the segment information of the j-th layer and the prediction error is encoded.

詳しくは,本発明は,画像信号を空間解像度の異なる階層に分割し,分割された領域毎に符号化パラメータを求め,符号化処理を行う画像符号化において,低い空間解像度の信号(下位階層信号)の領域分割情報から高い空間解像度の信号(上位階層信号)の領域分割情報を予測し,単位セグメント毎に方向情報を用いて予測誤差情報を表すことを特徴とする。   Specifically, the present invention divides an image signal into layers having different spatial resolutions, obtains encoding parameters for each of the divided regions, and performs image encoding processing in which low spatial resolution signals (lower layer signals) are obtained. ) Region division information of a high spatial resolution signal (upper layer signal) is predicted, and prediction error information is expressed using direction information for each unit segment.

また,本発明は,上記予測誤差情報に対する方向情報を符号化する際,その符号化対象の方向情報を,
(1)予測形状に対する補正が不要な場合,
(2)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
(3)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの侯補を持つ場合,
からなる3通りに分類し,符号化する。
In the present invention, when the direction information for the prediction error information is encoded, the direction information to be encoded is
(1) When correction for the predicted shape is unnecessary,
(2) When the predicted shape needs to be corrected and the number of segments to which the unit segment that needs correction belongs is limited to one,
(3) When the prediction shape needs to be corrected and the segment to which the unit segment that needs correction has two types of compensation,
It is classified into three types consisting of and encoded.

また,本発明は,上記予測誤差情報に対する方向情報を符号化する際,その符号化対象の方向情報を,
(1)予測形状に対する補正が不要な場合,
(2)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
(3)予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの候補を持つ場合,
(4)予測形状に対する補正が必要であり,補正が必要な単位セグメントが隣接セグメントに属さない場合,
からなる4通りに分類し,符号化することもできる。
In the present invention, when the direction information for the prediction error information is encoded, the direction information to be encoded is
(1) When correction for the predicted shape is unnecessary,
(2) When the predicted shape needs to be corrected and the number of segments to which the unit segment that needs correction belongs is limited to one,
(3) When the prediction shape needs to be corrected and the segment to which the unit segment that needs correction has two candidates,
(4) When the predicted shape needs to be corrected and the unit segment that needs correction does not belong to the adjacent segment,
It is also possible to classify and encode into 4 types.

さらに上記発明において,補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際,方向情報に対して順序を定めた法則に従い,符号化シンボルを設定する。   Furthermore, in the above invention, when encoding two types of segment candidates to which a unit segment that needs correction belongs, an encoded symbol is set according to a rule that determines the order of the direction information.

また,上記発明において,補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際,候補となるセグメント内の画素数に応じて,符号化シンボルを設定することもできる。   Further, in the above invention, when encoding two candidate segments to which a unit segment that needs correction belongs, an encoding symbol can be set according to the number of pixels in the candidate segment.

また,上記発明において,補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際,候補となるセグメント内に対応する下位階層のセグメントでの量子化ステップ幅に応じて,符号化シンボルを設定することもできる。   Further, in the above invention, when encoding two candidate segments to which a unit segment requiring correction belongs, the encoding is performed according to the quantization step width in the lower layer segment corresponding to the candidate segment. You can also set a symbol.

なお,セグメントは同一の符号化パラメータをもつ領域としたが,本発明の特徴とするところは,空間解像度の異なる階層間で下位階層信号の領域分割情報から上位階層信号の領域分割情報を予測し,その予測誤差情報を符号化/復号する点にあるので,セグメントは,必ずしも同一の符号化パラメータを持つ領域でなくてもよく,何らかの領域分割の基準となり得る特定の符号化パラメータをもつ領域であってもよい。   Although the segment is an area having the same coding parameter, the feature of the present invention is that the area division information of the upper layer signal is predicted from the area division information of the lower layer signal between layers having different spatial resolutions. Because the prediction error information is encoded / decoded, a segment does not necessarily have to have the same encoding parameter, but a segment having a specific encoding parameter that can be used as a basis for segmentation. There may be.

スケーラブル符号化において空間解像度の異なる階層毎に与えられるセグメント情報に対して,オーバヘッド情報の抑圧を図り,符号化効率の向上を実現する。これは,スケーラブル符号化における分割損の低減につながる。   In scalable coding, overhead information is suppressed for segment information given to each layer with different spatial resolution, and coding efficiency is improved. This leads to a reduction in division loss in scalable coding.

各階層のセグメント数は付加情報として,別途,伝送されるものとする。このセグメント数に対して,
・各階層でセグメント数が同一の場合(M0 =M1 =…=MJ ),
・上位階層でセグメント数が増加する場合(M0 ≦M1 ≦…≦MJ ),
について,以下に示す。
The number of segments in each layer shall be transmitted separately as additional information. For this number of segments,
・ When the number of segments is the same in each layer (M 0 = M 1 = ... = M J ),
When the number of segments increases in the upper layer (M 0 ≦ M 1 ≦… ≦ M J )
Is shown below.

〔各階層でセグメント数が同一の場合〕
図1は,画像のブロック分割の例を示す。図1を用いて各階層でセグメント数が同一の場合の例を説明する。ここで,破線で示した正方形が単位セグメントを表している。図1(a)は第j階層の時刻tのフレーム内の領域分割を示しており,図1(b)は第j+1階層の時刻tのフレーム内の領域分割を示している。
[When the number of segments is the same in each layer]
FIG. 1 shows an example of image block division. An example in which the number of segments is the same in each layer will be described with reference to FIG. Here, a square indicated by a broken line represents a unit segment. FIG. 1A shows region division in a frame at time t in the j-th layer, and FIG. 1B shows region division in a frame at time t in the j + 1-th layer.

図1(a)の各セグメントを縦/横方向,各々2倍に拡大すると,図1(c)に示す領域分割となる。これが,本発明における第j階層のセグメント情報から第j+1階層のセグメント情報を予測する処理にあたる。   When each segment in FIG. 1A is doubled in the vertical / horizontal direction, the area division shown in FIG. 1C is obtained. This corresponds to the process of predicting the segment information of the (j + 1) th layer from the segment information of the jth layer in the present invention.

図1(c)の領域分割(予測形状)と図1(b)の領域分割(真の形状)との差を,図1(d)に示す。ここで,図1(b)と図1(c)で異なる単位セグメントを網掛けにより示す。このように下位階層から予測されたセグメント(予測セグメント)と異なるセグメントに含まれる単位セグメントを補正単位セグメントと呼ぶ。一方,補正単位セグメントではない残りの単位セグメントを非補正単位セグメントと呼ぶ。また,補正単位セグメント上の矢印は,その補正単位セグメントが属するセグメントの方向を示す。   The difference between the area division (predicted shape) in FIG. 1C and the area division (true shape) in FIG. 1B is shown in FIG. Here, different unit segments in FIG. 1B and FIG. A unit segment included in a segment different from the segment predicted from the lower hierarchy (predicted segment) is referred to as a corrected unit segment. On the other hand, the remaining unit segments that are not correction unit segments are called non-correction unit segments. An arrow on the correction unit segment indicates the direction of the segment to which the correction unit segment belongs.

各単位セグメントの属するセグメントを示す情報を属性情報と呼び,以下,この属性情報の与え方を示す。まず,補正単位セグメントと非補正単位セグメントに分類する。さらに補正単位セグメントに対しては,属性情報として上下左右のいずれかの方向を指定することとする。ただし,隣接4近傍の単位セグメントのうち,それ自身の予測セグメント以外に含まれるものは最大でも2つに限定される。   Information indicating the segment to which each unit segment belongs is called attribute information, and the method of giving this attribute information is shown below. First, a correction unit segment and a non-correction unit segment are classified. Furthermore, for the correction unit segment, one of up, down, left and right directions is designated as attribute information. However, the unit segments in the vicinity of the four adjacent neighbors are limited to at most two other than their own predicted segments.

例えば,図1(d)において左向きの矢印が与えられた補正単位セグメントの場合,図1(c)により上/右方向は自身の予測セグメント内にあるため,補正単位セグメントの属性情報として取り得るのは,下/左方向の2方向に限定される。また,図1(d)において下向きの矢印が与えられた補正単位セグメントの場合,補正単位セグメントの属性情報として取り得るのは,上方向のみに限定される。このため,高々3種類のシンボルにより属性情報を表すことができる。3つのシンボルの与え方としては,例えば,以下に示す方法がある。   For example, in the case of a correction unit segment to which a left-pointing arrow is given in FIG. 1D, the up / right direction is in its own prediction segment according to FIG. 1C, and can be taken as attribute information of the correction unit segment. Is limited to two directions, down / left. Further, in the case of a correction unit segment to which a downward arrow is given in FIG. 1D, what can be taken as attribute information of the correction unit segment is limited only in the upward direction. Therefore, attribute information can be represented by at most three types of symbols. For example, there are the following methods for giving the three symbols.

《属性情報の例1》
(1−i)非補正単位セグメントの場合:属性情報を0で表す。
(1−ii)取り得る属性情報が1通りに限定される補正単位セグメントの場合:属性情報を1で表す。
(1−iii )取り得る属性情報が2通りある補正単位セグメントの場合:取り得る属性情報に対応する2通りの方向を上方向,右方向,下方向,左方向の順で並べ,この順に,シンボル1および2を割り振るものとし,属性情報を1または2で表す。なお,この方向の順序付けは一例であり,他の方法でも同様に行うことができる。
<< Example 1 of attribute information >>
(1-i) Uncorrected unit segment: Attribute information is represented by 0.
(1-ii) In the case of a correction unit segment in which the possible attribute information is limited to one: The attribute information is represented by 1.
(1-iii) In the case of a correction unit segment having two possible attribute information: The two directions corresponding to the possible attribute information are arranged in the order of upward, rightward, downward, and leftward. Symbols 1 and 2 are assigned, and attribute information is represented by 1 or 2. This ordering of directions is an example, and other methods can be used in the same manner.

《属性情報の例2》
(2−i)前述(1−i)に同じ
(2−ii)前述(1−ii)に同じ
(2−iii )取り得る属性情報が2通りある補正単位セグメントの場合:取り得る属性情報に対応する2通りのセグメント内の画素数を降順に並べ,この順に,シンボル1および2を割り振るものとし,属性情報を1または2で表す。なお,各属性情報により示されるセグメント内の画素数が等しい場合は,前述(1−i)に同じとする。
<< Example 2 of attribute information >>
(2-i) Same as (1-i) above (2-ii) Same as (1-ii) above (2-iii) Correction unit segment with two possible attribute information: Possible attribute information The numbers of pixels in the corresponding two types of segments are arranged in descending order, symbols 1 and 2 are assigned in this order, and attribute information is represented by 1 or 2. When the number of pixels in the segment indicated by each attribute information is equal, the same as (1-i) described above.

《属性情報の例3》
(3−i)前述(1−i)に同じ
(3−ii)前述(1−ii)に同じ
(3−iii )取り得る属性情報が2通りある補正単位セグメントの場合:属性情報に対応する各予測セグメントにおいて,単位セグメントあたりの平均量子化ステップ幅を求め,同平均量子化ステップ幅を昇順に並べ,この順に,シンボル1および2を割り振るものとし,属性情報を1または2で表す。なお,上述の予測誤差が等しい場合は,前述(1−i)に同じとする。
<< Example 3 of attribute information >>
(3-i) Same as (1-i) above (3-ii) Same as (1-ii) above (3-iii) In the case of a correction unit segment having two possible attribute information: corresponding to attribute information In each prediction segment, an average quantization step width per unit segment is obtained, the average quantization step widths are arranged in ascending order, symbols 1 and 2 are assigned in this order, and attribute information is represented by 1 or 2. In addition, when the above-mentioned prediction error is equal, it is the same as the above-mentioned (1-i).

〔上位階層でセグメント数が増加する場合〕
図2は,画像のブロック分割の他の例を示す。図2を用いて上位階層でセグメント数が増加する場合の例を説明する。ここでは,第j階層は3つのセグメントに分割されるのに対し,第j+1階層は4つのセグメントに分割される例を示している。図2(a)および(c)は,図1(a)および(c)に同じである。図2(b)は,4つ目のセグメントが追加された場合を示している。これに対応して,図2(d)では,濃い網掛けで表した補正セグメントが追加されている。このセグメントは,隣接するいずれのセグメントにも属していない。こうした補正単位セグメントを特異単位セグメントと呼ぶ。上位階層でセグメント数が増加する場合は,属性情報として前述の3種類のシンボルに加えて,特異単位セグメントであることを表すシンボルが必要である。つまり,最大4種類のシンボルにより属性情報を表すことになる。
[When the number of segments increases in the upper layer]
FIG. 2 shows another example of image block division. An example in which the number of segments increases in the upper layer will be described with reference to FIG. Here, an example is shown in which the j-th layer is divided into three segments, while the j + 1-th layer is divided into four segments. FIGS. 2A and 2C are the same as FIGS. 1A and 1C. FIG. 2B shows a case where a fourth segment is added. Corresponding to this, in FIG. 2 (d), a correction segment represented by dark shading is added. This segment does not belong to any adjacent segment. Such a correction unit segment is called a singular unit segment. When the number of segments increases in the upper layer, a symbol indicating a unique unit segment is required in addition to the above three types of symbols as attribute information. That is, attribute information is represented by a maximum of four types of symbols.

〔階層間予測処理〕
図3は,本発明の実施形態に係る符号化処理の流れを示している。各階層でセグメント数が同一の場合の実施形態について,図3を参照して説明する。
[Inter-layer prediction process]
FIG. 3 shows the flow of the encoding process according to the embodiment of the present invention. An embodiment in which the number of segments is the same in each layer will be described with reference to FIG.

ステップS1:j階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。   Step S1: Using a j-layer signal as input, perform processing for obtaining a segment, and write segment information to a register.

ステップS2:j階層のセグメント情報を入力とし,縦/横方向に各々2倍に拡大する処理を行い,拡大後のセグメント情報(予測セグメント)をレジスタに書き出す。   Step S2: The segment information of the j-th layer is input, a process of enlarging each in the vertical / horizontal direction is performed twice, and the expanded segment information (predicted segment) is written to the register.

ステップS3:一方,j+1階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。   Step S3: On the other hand, with the j + 1 layer signal as input, a process for obtaining a segment is performed and the segment information is written to the register.

ステップS4:予測セグメントおよびj+1階層のセグメント情報を入力とし,両者の差分を求める処理を行い,差分情報をレジスタに書き出す。その後,以下の処理を各単位セグメントに対して行う。   Step S4: The prediction segment and the segment information of the j + 1 layer are input, a process for obtaining the difference between the two is performed, and the difference information is written to the register. Thereafter, the following processing is performed for each unit segment.

ステップS5:処理対象の単位セグメントに対するステップS4で書き出された差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,ステップS6の処理に移り,偽の場合には,ステップS7の処理に移る。   Step S5: Using the difference information written in step S4 for the unit segment to be processed as an input, a determination process is performed to determine whether or not the unit segment to be processed is an uncorrected unit segment. If the result is false, the process proceeds to step S7.

ステップS6:処理対象の単位セグメントに対する属性情報を0として,レジスタに書き出す。   Step S6: The attribute information for the unit segment to be processed is set to 0 and written to the register.

ステップS7:処理対象の単位セグメントに対するステップS4で書き出された差分情報を入力とし,処理対象の単位セグメントが属性情報の侯補を1つしか持たないか否かの判定処理を行い,真の場合には,ステップS8の処理に移り,偽の場合には,ステップS9の処理に移る。   Step S7: Using the difference information written in step S4 for the unit segment to be processed as an input, determine whether or not the unit segment to be processed has only one complement of attribute information, If so, the process proceeds to step S8. If not, the process proceeds to step S9.

ステップS8:処理対象の単位セグメントに対する属性情報を1として,レジスタに書き出す。   Step S8: The attribute information for the unit segment to be processed is set to 1 and written to the register.

ステップS9:予測セグメントおよびj+1階層のセグメント情報を入力とし,処理対象の補正単位セグメントが属するセグメントを決定する処理を行い,同セグメントを示す方向情報をレジスタに書き出す。   Step S9: The prediction segment and the segment information of the j + 1 layer are input, a process for determining the segment to which the correction unit segment to be processed belongs is performed, and direction information indicating the segment is written to the register.

ステップS10:ステップS9で書き出された方向情報を入力とし,同方向情報を属性情報に変換する処理を行い,同属性情報をレジスタに書き出す。具体的な変換処理は,(1−iii ),または(2−iii ),または(3−iii )を用いる。   Step S10: Using the direction information written in step S9 as an input, a process for converting the same direction information into attribute information is performed, and the attribute information is written to the register. A specific conversion process uses (1-iii), (2-iii), or (3-iii).

ステップS11:フレーム内の全単位セグメントに対して以上の処理が終了したか否かを判定し,真の場合には,処理を終了し,偽の場合には,ステップS5へ戻って同様に次の単位セグメントに対する処理を行う。   Step S11: It is determined whether or not the above processing has been completed for all the unit segments in the frame. If true, the processing is terminated, and if false, the processing returns to step S5 and similarly The process for the unit segment is performed.

図4は,本発明の他の実施形態に係る符号化処理の流れを示している。上位階層でセグメント数が増加する場合の実施形態について,図4を参照して説明する。   FIG. 4 shows the flow of encoding processing according to another embodiment of the present invention. An embodiment in which the number of segments increases in the upper layer will be described with reference to FIG.

ステップS21:j階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。   Step S21: The j-layer signal is input, the process for obtaining the segment is performed, and the segment information is written to the register.

ステップS22:j階層のセグメント情報を入力とし,縦/横方向に各々2倍に拡大する処理を行い,拡大後のセグメント情報(予測セグメント)をレジスタに書き出す。   Step S22: The segment information of the j hierarchy is input, a process of enlarging the vertical / horizontal direction twice is performed, and the expanded segment information (predicted segment) is written to the register.

ステップS23:一方,j+1階層の信号を入力とし,セグメントを求める処理を行い,セグメント情報をレジスタに書き出す。   Step S23: On the other hand, with the j + 1 layer signal as an input, the process for obtaining the segment is performed, and the segment information is written to the register.

ステップS24:予測セグメントおよびj+1階層のセグメント情報を入力とし,両者の差分を求める処理を行い,差分情報をレジスタに書き出す。その後,以下の処理を各単位セグメントに対して行う。   Step S24: The prediction segment and the segment information of the j + 1 layer are input, a process for obtaining the difference between the two is performed, and the difference information is written to the register. Thereafter, the following processing is performed for each unit segment.

ステップS25:処理対象の単位セグメントに対するステップS24で書き出された差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,ステップS26の処理に移り,偽の場合には,ステップS27の処理に移る。   Step S25: Using the difference information written in step S24 for the unit segment to be processed as an input, a determination process is performed to determine whether or not the unit segment to be processed is an uncorrected unit segment. If the result is false, the process proceeds to step S27.

ステップS26:処理対象の単位セグメントに対する属性情報を0として,レジスタに書き出す。   Step S26: The attribute information for the unit segment to be processed is set to 0 and written to the register.

ステップS27:処理対象の単位セグメントに対するステップS24で書き出された差分情報を入力とし,処理対象の単位セグメントが特異単位セグメントか否かの判定処理を行い,真の場合には,ステップS28の処理に移り,偽の場合には,ステップS29の処理に移る。   Step S27: Using the difference information written in step S24 for the processing target unit segment as an input, a determination process is performed to determine whether the processing target unit segment is a singular unit segment. If true, the processing of step S28 is performed. If NO, the process proceeds to step S29.

ステップS28:処理対象の単位セグメントに対する属性情報を3として,レジスタに書き出す。   Step S28: The attribute information for the unit segment to be processed is set to 3 and written to the register.

ステップS29:処理対象の単位セグメントに対するステップS24で書き出された差分情報を入力とし,処理対象の単位セグメントが属性情報の侯補を1つしか持たないか否かの判定処理を行い,真の場合には,ステップS30の処理に移り,偽の場合には,ステップS31の処理に移る。   Step S29: The difference information written in step S24 with respect to the unit segment to be processed is input, and it is determined whether or not the unit segment to be processed has only one attribute information compensation. If so, the process proceeds to step S30. If not, the process proceeds to step S31.

ステップS30:処理対象の単位セグメントに対する属性情報を1として,レジスタに書き出す。   Step S30: The attribute information for the unit segment to be processed is set to 1 and written to the register.

ステップS31:予測セグメントおよびj+1階層のセグメント情報を入力とし,処理対象の単位セグメントが属するセグメントを決定する処理を行い,同セグメントを示す方向情報をレジスタに書き出す。   Step S31: The prediction segment and the segment information of the j + 1 layer are input, a process for determining the segment to which the processing target unit segment belongs is performed, and the direction information indicating the segment is written to the register.

ステップS32:ステップS31で書き出された方向情報を入力とし,同方向情報を属性情報に変換する処理を行い,同属性情報をレジスタに書き出す。具体的な変換処理は,(1−iii ),または(2−iii ),または(3−iii )を用いる。   Step S32: Using the direction information written in step S31 as input, a process for converting the same direction information into attribute information is performed, and the same attribute information is written into the register. A specific conversion process uses (1-iii), (2-iii), or (3-iii).

ステップS33:フレーム内の全単位セグメントに対して以上の処理が終了したか否かを判定し,真の場合には,処理を終了し,偽の場合には,ステップS25へ戻って同様に次の単位セグメントに対する処理を行う。   Step S33: It is determined whether or not the above processing has been completed for all the unit segments in the frame. If true, the processing is terminated. If false, the processing returns to step S25 and the same as described above. The process for the unit segment is performed.

〔階層間予測処理装置〕
図5は,各階層でセグメント数が同一の場合の実施形態に係る階層間予測処理装置の構成例を示している。以下,図5を参照して説明する。
[Inter-layer prediction processor]
FIG. 5 shows a configuration example of the inter-layer prediction processing apparatus according to the embodiment when the number of segments is the same in each layer. Hereinafter, a description will be given with reference to FIG.

符号化対象信号を階層毎に,j+1階層信号記憶部101,j階層信号記憶部104に書き出す。   The encoding target signal is written to the j + 1 layer signal storage unit 101 and the j layer signal storage unit 104 for each layer.

セグメント算出部102は,j+1階層信号記憶部101から読み出したj+1階層の信号を入力とし,セグメントを求める処理を行い,求めたセグメント情報をセグメント記憶部103に書き出す。   The segment calculation unit 102 receives the j + 1 layer signal read from the j + 1 layer signal storage unit 101 as input, performs a process for obtaining a segment, and writes the obtained segment information to the segment storage unit 103.

また,j階層のセグメント算出部105は,j階層信号記憶部104から読み出したj階層の信号を入力とし,セグメントを求める処理を行い,求めたセグメント情報をセグメント記憶部106に書き出す。セグメント拡大処理部107は,セグメント記憶部106から読み出したj階層のセグメント情報を入力とし,縦/横方向に各々2倍に拡大する処理を行い,拡大後のセグメント情報(予測セグメント)をセグメント記憶部108に書き出す。   Further, the j-layer segment calculation unit 105 receives the j-layer signal read from the j-layer signal storage unit 104, performs a process for obtaining a segment, and writes the obtained segment information to the segment storage unit 106. The segment enlargement processing unit 107 receives the segment information of the j hierarchy read from the segment storage unit 106, performs a process of enlarging twice in the vertical / horizontal directions, and stores the enlarged segment information (predicted segment) in the segment Write to part 108.

セグメント差分算出部109は,セグメント記憶部103から読み出したj+1階層のセグメント情報およびセグメント記憶部108から読み出した予測セグメントのセグメント情報を入力とし,両者の差分を求める処理を行い,差分情報をセグメント差分記憶部110に書き出す。その後,以下の処理を各単位セグメントに対して行う。   The segment difference calculation unit 109 receives the segment information of the j + 1 layer read from the segment storage unit 103 and the segment information of the predicted segment read from the segment storage unit 108, performs a process for obtaining a difference between them, and converts the difference information into the segment difference Write to the storage unit 110. Thereafter, the following processing is performed for each unit segment.

非補正単位セグメント判定部111は,セグメント差分記憶部110から読み出した差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,属性情報算出部112の処理に移り,偽の場合には,補正単位セグメント候補数判定部114の処理に移る。   The non-correction unit segment determination unit 111 receives the difference information read from the segment difference storage unit 110 and performs a determination process as to whether or not the unit segment to be processed is an uncorrected unit segment. The process proceeds to the calculation unit 112. If false, the process proceeds to the correction unit segment candidate number determination unit 114.

属性情報算出部112は,処理対象の単位セグメントに対する属性情報を0として,属性情報記憶部113に書き出す。   The attribute information calculation unit 112 writes the attribute information for the unit segment to be processed as 0 to the attribute information storage unit 113.

補正単位セグメント候補数判定部114は,セグメント差分記憶部110から読み出した差分情報を入力とし,処理対象の単位セグメントが属性情報の侯補を1つしか持たないか否かの判定処理を行い,真の場合には,属性情報算出部115の処理に移り,偽の場合には,方向情報算出部117の処理に移る。   The correction unit segment candidate number determination unit 114 receives the difference information read from the segment difference storage unit 110, performs a determination process as to whether or not the unit segment to be processed has only one attribute information compensation, If true, the process proceeds to the attribute information calculation unit 115. If false, the process proceeds to the direction information calculation unit 117.

属性情報算出部115は,現在の処理対象の単位セグメントに対する属性情報を1として,属性情報記憶部116に書き出す。   The attribute information calculation unit 115 writes the attribute information for the current processing target unit segment as 1 in the attribute information storage unit 116.

方向情報算出部117は,セグメント記憶部103から読み出したj+1階層のセグメント情報およびセグメント記憶部108から読み出した予測セグメントを入力とし,処理対象の単位セグメントが属するセグメントを決定する処理を行い,同セグメントを示す方向情報を方向情報記憶部118に書き出す。   The direction information calculation unit 117 receives the segment information of the j + 1 layer read from the segment storage unit 103 and the predicted segment read from the segment storage unit 108 and performs a process of determining a segment to which the unit segment to be processed belongs. Is written in the direction information storage unit 118.

属性情報算出部119は,方向情報記憶部118から読み出した方向情報を入力とし,同方向情報を属性情報に変換する処理を行い同属性情報を属性情報記憶部120に書き出す。具体的な変換処理は,(1−iii ),または(2−iii ),または(3−iii )を用いる。   The attribute information calculation unit 119 receives the direction information read from the direction information storage unit 118, performs a process of converting the same direction information into attribute information, and writes the attribute information to the attribute information storage unit 120. A specific conversion process uses (1-iii), (2-iii), or (3-iii).

図6は,上位階層でセグメント数が増加する場合の実施形態に係る階層間予測処理装置の構成例を示している。図5に示した階層間予測処理装置との違いは,特異単位セグメント判定部221,属性情報算出部222,属性情報記憶部223が加えられている点である。他のj+1階層信号記憶部201〜属性情報記憶部220の部分は,それぞれ図5に示したj+1階層信号記憶部101〜属性情報記憶部120の部分と同様である。以下,図5の階層間予測処理装置と違う部分について説明する。   FIG. 6 shows a configuration example of the inter-layer prediction processing apparatus according to the embodiment when the number of segments increases in the upper hierarchy. The difference from the inter-layer prediction processing apparatus shown in FIG. 5 is that a singular unit segment determination unit 221, an attribute information calculation unit 222, and an attribute information storage unit 223 are added. Other portions of the j + 1 layer signal storage unit 201 to the attribute information storage unit 220 are the same as the portions of the j + 1 layer signal storage unit 101 to the attribute information storage unit 120 shown in FIG. Hereinafter, a different part from the inter-layer prediction processing apparatus of FIG. 5 is demonstrated.

非補正単位セグメント判定部211は,セグメント差分記憶部210から読み出した差分情報を入力とし,処理対象の単位セグメントが非補正単位セグメントか否かの判定処理を行い,真の場合には,属性情報算出部212の処理に移り,偽の場合には,特異単位セグメント判定部221の処理に移る。   The non-correction unit segment determination unit 211 receives the difference information read from the segment difference storage unit 210 and performs a determination process as to whether or not the unit segment to be processed is an uncorrected unit segment. The process proceeds to the calculation unit 212. If false, the process proceeds to the singular unit segment determination unit 221.

特異単位セグメント判定部221は,セグメント差分記憶部210から読み出した差分情報を入力とし,処理対象の単位セグメントが特異単位セグメントか否かの判定処理を行い,真の場合には,属性情報算出部222の処理に移り,偽の場合には,補正単位セグメント候補数判定部214の処理に移る。   The singular unit segment determination unit 221 receives the difference information read from the segment difference storage unit 210 and performs a determination process as to whether or not the unit segment to be processed is a singular unit segment. If true, the attribute information calculation unit The process proceeds to 222, and if false, the process proceeds to the correction unit segment candidate number determination unit 214.

属性情報算出部222は,処理対象の単位セグメントに対する属性情報を3として,属性情報記憶部223に書き出す。   The attribute information calculation unit 222 writes the attribute information for the unit segment to be processed as 3 to the attribute information storage unit 223.

以上のようにして算出された属性情報を用いることにより,例えば輝度補償パラメータ等の符号化パラメータを,下位階層と上位階層とで独立に符号化する必要がなくなり,下位階層の符号化パラメータを上位階層で利用することにより,その符号量を大きく削減することができるようになる。もちろん,輝度補償パラメータ等の符号化パラメータに限らず,同様に下位階層信号の領域と上位階層信号の領域とで関連が大きい情報の符号化に,本発明に係る領域の属性情報を利用することができることは明らかである。   By using the attribute information calculated as described above, for example, it is not necessary to separately encode encoding parameters such as luminance compensation parameters in the lower layer and the upper layer, and the lower layer encoding parameter is not used in the upper layer. By using it in the hierarchy, the amount of codes can be greatly reduced. Of course, not only the encoding parameters such as the luminance compensation parameter, but also the attribute information of the region according to the present invention is used for encoding information that is similarly related to the region of the lower layer signal and the region of the upper layer signal. Obviously you can.

また,第j階層のセグメント情報から第j+1階層のセグメント情報を予測し,予測誤差を符号化する例を説明したが,これによって符号化された符号化情報を復号する場合にも,まったく同様の処理によって第j階層のセグメント情報から第j+1階層のセグメント情報を予測し,予測誤差を復号することができることは明らかである。   Further, the example in which the segment information of the (j + 1) -th layer is predicted from the segment information of the j-th layer and the prediction error is encoded has been described, but the same is true when decoding the encoded information encoded thereby. It is obvious that the segment information of the (j + 1) -th layer can be predicted from the segment information of the j-th layer by the process, and the prediction error can be decoded.

以上の階層間予測処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The above-described inter-layer prediction process can be realized by a computer and a software program, and can be provided by recording the program on a computer-readable recording medium or via a network.

図7は,本発明を適用したスケーラブル符号化装置の全体構成の例を示す図である。図5および図6で説明した階層間予測処理装置は,例えば図7に示すスケーラブル符号化装置の一部として用いる。図7中,30は基本階層符号化部であり,31は拡張階層符号化部である。   FIG. 7 is a diagram illustrating an example of the overall configuration of a scalable encoding device to which the present invention is applied. The inter-layer prediction processing apparatus described with reference to FIGS. 5 and 6 is used as a part of the scalable encoding apparatus illustrated in FIG. 7, for example. In FIG. 7, 30 is a base layer encoding unit, and 31 is an enhancement layer encoding unit.

まず,階層分離器300は,入力画像の符号化対象フレームを入力として,空間解像度の異なる階層に分離し,各階層の信号を各々,基本階層信号記憶部301,拡張階層信号記憶部302に書き出す。変換部303は,基本階層信号記憶部301から読み出した基本階層信号を入力とし,例えば離散コサイン変換処理などの変換処理を行い,算出された変換係数を変換係数記憶部304へ書き出す。量子化部305は,変換係数記憶部304から読み出した変換係数を入力とし,量子化処理を行い,量子化値を量子化値記憶部306へ書き出す。   First, the layer separator 300 receives an encoding target frame of an input image as an input, separates the layers into layers having different spatial resolutions, and writes the signals of each layer to the basic layer signal storage unit 301 and the extended layer signal storage unit 302, respectively. . The conversion unit 303 receives the basic layer signal read from the basic layer signal storage unit 301, performs conversion processing such as discrete cosine conversion processing, and writes the calculated conversion coefficient to the conversion coefficient storage unit 304. The quantization unit 305 receives the transform coefficient read from the transform coefficient storage unit 304, performs a quantization process, and writes the quantized value to the quantized value storage unit 306.

逆量子化部307は,量子化値記憶部306から読み出した量子化値を入力とし,逆量子化処理を行い,逆量子化値記憶部308へ書き出す。逆変換部309は,逆量子化値記憶部308から読み出した変換係数を入力とし,逆変換処理を行い,ローカル復号信号記憶部310へ書き出す。   The inverse quantization unit 307 receives the quantization value read from the quantization value storage unit 306, performs an inverse quantization process, and writes the result to the inverse quantization value storage unit 308. The inverse transform unit 309 receives the transform coefficient read from the inverse quantized value storage unit 308 as input, performs inverse transform processing, and writes it to the local decoded signal storage unit 310.

予測処理部311は,ローカル復号信号記憶部310から読み出したローカル復号画像と遅延器313の出力との加算値を入力とし,予測処理を行い,予測信号記憶部312に書き出す。予測処理部311における処理は,ブロックベースの動き補償,輝度補償のようなセグメント情報を必要とする予測処理である。予測信号記憶部312から読み出した予測信号は,遅延器313に入力され1フレーム分遅延される。   The prediction processing unit 311 receives the addition value of the local decoded image read from the local decoded signal storage unit 310 and the output of the delay unit 313, performs prediction processing, and writes it to the prediction signal storage unit 312. The processing in the prediction processing unit 311 is prediction processing that requires segment information such as block-based motion compensation and luminance compensation. The prediction signal read from the prediction signal storage unit 312 is input to the delay unit 313 and delayed by one frame.

エントロピ符号化部314は,量子化値記憶部306から読み出した量子化値を入力とし,エントロピ符号化処理を行い,符号化結果を符号化ストリーム記憶部315へ書き出す。   The entropy encoding unit 314 receives the quantized value read from the quantized value storage unit 306, performs entropy encoding processing, and writes the encoded result to the encoded stream storage unit 315.

階層間予測処理部316は,図3〜図6を用いて説明した本発明の実施形態に係る階層間予測処理を行う。   The inter-layer prediction processing unit 316 performs inter-layer prediction processing according to the embodiment of the present invention described with reference to FIGS.

拡張階層符号化部31における変換部317から遅延器327までの処理は,基本階層符号化部30における変換部303から遅延器313までの処理と同様である。   The processing from the conversion unit 317 to the delay unit 327 in the enhancement layer encoding unit 31 is the same as the processing from the conversion unit 303 to the delay unit 313 in the base layer encoding unit 30.

多重化器330は,符号化ストリーム記憶部315および符号化ストリーム記憶部329から読み出した符号化ストリームを多重化する処理を行い,スケーラブル符号化結果として出力する。   The multiplexer 330 performs a process of multiplexing the encoded streams read from the encoded stream storage unit 315 and the encoded stream storage unit 329, and outputs the result as a scalable encoding result.

図8は,本発明を適用したスケーラブル復号装置の全体構成の例を示す図である。図5および図6で説明した階層間予測処理装置は,例えば図8に示すスケーラブル復号装置の一部としても用いられる。図8中,40は基本階層復号部であり,41は拡張階層復号部である。   FIG. 8 is a diagram illustrating an example of the overall configuration of a scalable decoding device to which the present invention is applied. The inter-layer prediction processing device described with reference to FIGS. 5 and 6 is also used as a part of the scalable decoding device shown in FIG. 8, for example. In FIG. 8, 40 is a base layer decoding unit, and 41 is an enhancement layer decoding unit.

分離器401は,図7に示すスケーラブル符号化装置から出力された符号化ストリームを入力とし,同ストリームを基本階層符号化ストリームと拡張階層符号化ストリームとに分離する処理を行い,基本階層符号化ストリームおよび拡張階層符号化ストリームを各々,基本階層符号化ストリーム記憶部402,拡張階層符号化ストリーム記憶部414に書き出す。   The separator 401 receives the encoded stream output from the scalable encoding device shown in FIG. 7, performs a process of separating the stream into a base layer encoded stream and an enhancement layer encoded stream, and performs base layer encoding The stream and the enhancement layer coded stream are written in the base layer coded stream storage unit 402 and the enhancement layer coded stream storage unit 414, respectively.

エントロピ復号部403は,基本階層符号化ストリーム記憶部402から読み出した符号化ストリームを入力とし,エントロピ復号処理を行い,復号された量子化値を量子化値記憶部404へ書き出す。逆量子化部405は,量子化値記憶部404から読み出した量子化値を入力とし,逆量子化処理を行い,変換係数記憶部406へ書き出す。逆変換部407は,変換係数記憶部406から読み出した変換係数を入力とし,逆変換処理を行い,復号信号記憶部408へ書き出す。   The entropy decoding unit 403 receives the encoded stream read from the base layer encoded stream storage unit 402, performs entropy decoding processing, and writes the decoded quantized value to the quantized value storage unit 404. The inverse quantization unit 405 receives the quantization value read from the quantization value storage unit 404, performs an inverse quantization process, and writes it to the transform coefficient storage unit 406. The inverse transform unit 407 receives the transform coefficient read from the transform coefficient storage unit 406 as input, performs an inverse transform process, and writes it to the decoded signal storage unit 408.

予測処理部411は,復号信号記憶部408から読み出した復号信号と予測信号記憶部412の出力である予測値との加算値を基本階層信号記憶部409に書き出す。また,基本階層信号記憶部409から読み出した基本階層信号を遅延器410によって1フレーム分遅延した信号を予測信号として予測信号記憶部412に書き出す。   The prediction processing unit 411 writes the addition value of the decoded signal read from the decoded signal storage unit 408 and the prediction value output from the prediction signal storage unit 412 to the base layer signal storage unit 409. Further, a signal obtained by delaying the base layer signal read from the base layer signal storage unit 409 by one frame by the delay unit 410 is written into the prediction signal storage unit 412 as a prediction signal.

階層間予測処理部413は,図3〜図6を用いて説明した本発明の実施形態に係る階層間予測処理を行う。   The inter-layer prediction processing unit 413 performs the inter-layer prediction process according to the embodiment of the present invention described with reference to FIGS.

拡張階層復号部41におけるエントロピ復号部415から予測処理部423までの処理は,基本階層復号部40におけるエントロピ復号部403から予測処理部411までの処理と同様である。   The processing from the entropy decoding unit 415 to the prediction processing unit 423 in the enhancement layer decoding unit 41 is the same as the processing from the entropy decoding unit 403 to the prediction processing unit 411 in the base layer decoding unit 40.

画像のブロック分割の例を示す図である。It is a figure which shows the example of the block division of an image. 画像のブロック分割の他の例を示す図である。It is a figure which shows the other example of the block division of an image. 各階層でセグメント数が同一の場合の実施形態に係る階層間予測処理の流れを示す図である。It is a figure which shows the flow of the prediction process between layers based on embodiment in case the number of segments is the same in each hierarchy. 上位階層でセグメント数が増加する場合の実施形態に係る階層間予測処理の流れを示す図である。It is a figure which shows the flow of the inter-layer prediction process which concerns on embodiment when the number of segments increases in an upper hierarchy. 各階層でセグメント数が同一の場合の実施形態に係る階層間予測処理装置の構成を示す図である。It is a figure which shows the structure of the inter-layer prediction processing apparatus which concerns on embodiment when the number of segments is the same in each hierarchy. 上位階層でセグメント数が増加する場合の実施形態に係る階層間予測処理装置の構成を示す図である。It is a figure which shows the structure of the inter-layer prediction processing apparatus which concerns on embodiment when the number of segments increases in a higher hierarchy. 本発明を適用したスケーラブル符号化装置の全体構成の例を示す図である。It is a figure which shows the example of the whole structure of the scalable encoding apparatus to which this invention is applied. 本発明を適用したスケーラブル復号装置の全体構成の例を示す図である。It is a figure which shows the example of the whole structure of the scalable decoding apparatus to which this invention is applied.

符号の説明Explanation of symbols

101,201 j+1階層信号記憶部
102,105,202,205 セグメント算出部
103,106,108,203,206,208 セグメント記憶部
104,204 j階層信号記憶部
107,207 セグメント拡大処理部
109,209 セグメント差分算出部
110,210 セグメント差分記憶部
111,211 非補正単位セグメント判定部
112,115,119,212,215,219,222 属性情報算出部
113,116,120,213,216,220,223 属性情報記憶部
114,214 補正単位セグメント候補数判定部
117,217 方向情報算出部
118,218 方向情報記憶部
101, 201 j + 1 layer signal storage unit 102, 105, 202, 205 Segment calculation unit 103, 106, 108, 203, 206, 208 Segment storage unit 104, 204 j layer signal storage unit 107, 207 Segment expansion processing unit 109, 209 Segment difference calculation unit 110, 210 Segment difference storage unit 111, 211 Uncorrected unit segment determination unit 112, 115, 119, 212, 215, 219, 222 Attribute information calculation unit 113, 116, 120, 213, 216, 220, 223 Attribute information storage unit 114, 214 Correction unit segment candidate number determination unit 117, 217 Direction information calculation unit 118, 218 Direction information storage unit

Claims (7)

画像信号を,空間解像度の低い第j階層と空間解像度の高い第j+1階層とに分割し,各階層毎に符号化/復号を行う階層間予測符号化/復号装置における階層間予測処理方法であって,
前記第j階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める過程と,
前記第j+1階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める過程と,
前記第j階層の信号において求めたセグメント情報から,前記第j+1階層のセグメント情報を予測する過程と,
前記第j+1階層の信号から求めたセグメント情報と,前記第j階層の信号から予測した第j+1階層のセグメント情報との差分情報を算出する過程と,
算出した差分情報の予測誤差情報を符号化または復号する過程とを有する
ことを特徴とする階層間予測処理方法。
This is an inter-layer prediction processing method in an inter-layer prediction encoding / decoding device that divides an image signal into a j-th layer having a low spatial resolution and a j + 1-th layer having a high spatial resolution and performs encoding / decoding for each layer. And
Calculating a segment which is an area having the same or specific coding parameter in the signal of the j-th layer, and obtaining segment information representing area division by the segment;
Calculating a segment which is an area having the same or specific coding parameter in the signal of the (j + 1) th layer, and obtaining segment information representing area division by the segment;
Predicting the segment information of the (j + 1) th layer from the segment information obtained in the signal of the jth layer;
Calculating difference information between the segment information obtained from the j + 1 layer signal and the j + 1 layer segment information predicted from the j layer signal;
And a process of encoding or decoding prediction error information of the calculated difference information.
請求項1記載の階層間予測処理方法において,
前記予測誤差情報を符号化または復号する過程では,
前記第j+1階層の信号から求めたセグメントの最小単位である単位セグメント毎に,各単位セグメントが前記第j階層の信号から予測した第j+1階層の予測セグメントと異なるセグメントに含まれるかどうかによって,前記予測セグメントの領域形状である予測形状の補正が必要かどうかを決定し,補正が必要なときの前記単位セグメントが属するセグメントへの上下左右の方向を示す方向情報を用いて予測誤差情報を表し,その予測誤差情報に対する方向情報を符号化または復号する際,
同方向情報を
予測形状に対する補正が不要な場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの侯補を持つ場合,
からなる3通りに分類し,符号化または復号する
ことを特徴とする階層間予測処理方法。
In the inter-layer prediction processing method according to claim 1,
In the process of encoding or decoding the prediction error information,
For each unit segment , which is the minimum unit of segments obtained from the signal of the j + 1th layer, whether each unit segment is included in a segment different from the predicted segment of the j + 1th layer predicted from the signal of the jth layer, Decide whether the prediction shape that is the region shape of the prediction segment needs to be corrected , and express the prediction error information using the direction information indicating the vertical and horizontal directions to the segment to which the unit segment belongs when correction is required , When encoding or decoding the direction information for the prediction error information,
If correction of the same direction information to the predicted shape is unnecessary,
When the predicted shape needs to be corrected and the segment to which the unit segment that needs correction belongs is limited to one,
When the predicted shape needs to be corrected and the segment to which the unit segment that needs correction has two types of compensation,
An inter-layer prediction processing method characterized in that it is classified into three types and encoded or decoded.
請求項1記載の階層間予測処理方法において,
前記予測誤差情報を符号化または復号する過程では,
前記第j+1階層の信号から求めたセグメントの最小単位である単位セグメント毎に,各単位セグメントが前記第j階層の信号から予測した第j+1階層の予測セグメントと異なるセグメントに含まれるかどうかによって,前記予測セグメントの領域形状である予測形状の補正が必要かどうかを決定し,補正が必要なときの前記単位セグメントが属するセグメントへの上下左右の方向を示す方向情報を用いて予測誤差情報を表し,その予測誤差情報に対する方向情報を符号化または復号する際,
同方向情報を
予測形状に対する補正が不要な場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが1通りに限定される場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが属するセグメントが2通りの候補を持つ場合,
予測形状に対する補正が必要であり,補正が必要な単位セグメントが隣接セグメントに属さない場合,
からなる4通りに分類し,符号化または復号する
ことを特徴とする階層間予測処理方法。
In the inter-layer prediction processing method according to claim 1,
In the process of encoding or decoding the prediction error information,
For each unit segment , which is the minimum unit of segments obtained from the signal of the j + 1th layer, whether each unit segment is included in a segment different from the predicted segment of the j + 1th layer predicted from the signal of the jth layer, Determine whether or not the prediction shape that is the region shape of the prediction segment needs to be corrected , and express prediction error information using direction information that indicates the vertical and horizontal directions to the segment to which the unit segment belongs when correction is required , When encoding or decoding the direction information for the prediction error information,
If correction of the same direction information to the predicted shape is unnecessary,
When the predicted shape needs to be corrected and the segment to which the unit segment that needs correction belongs is limited to one,
If the predicted shape needs to be corrected and the segment to which the unit segment that needs correction has two candidates,
If the predicted shape needs to be corrected and the unit segment that needs to be corrected does not belong to the adjacent segment,
An inter-layer prediction processing method characterized by classifying and encoding or decoding into four types.
請求項2または請求項3記載の階層間予測処理方法において,
前記予測誤差情報を符号化または復号する過程では,
補正が必要な単位セグメントが属する2通りのセグメントの候補を符号化する際に,方向情報に対して順序を定めた法則に従い符号化シンボルを設定する,または候補となるセグメント内の画素数に応じて符号化シンボルを設定する,または候補となるセグメント内に対応する下位階層のセグメントでの量子化ステップ幅に応じて符号化シンボルを設定する
ことを特徴とする階層間予測処理方法。
In the inter-layer prediction processing method according to claim 2 or claim 3,
In the process of encoding or decoding the prediction error information,
When encoding two candidate segments to which a unit segment that needs correction belongs, set an encoded symbol according to a rule that determines the order of the direction information, or according to the number of pixels in the candidate segment A coding symbol is set according to a quantization step width in a segment in a lower layer corresponding to a candidate segment in the candidate segment.
画像信号を,空間解像度の低い第j階層と空間解像度の高い第j+1階層とに分割し,各階層毎に符号化/復号を行う階層間予測符号化/復号装置における階層間予測処理装置であって,
前記第j階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める手段と,
前記第j+1階層の信号において同一または特定の符号化パラメータを持つ領域であるセグメントを算出し,セグメントによる領域分割を表すセグメント情報を求める手段と,
前記第j階層の信号において求めたセグメント情報から,前記第j+1階層のセグメント情報を予測する手段と,
前記第j+1階層の信号から求めたセグメント情報と,前記第j階層の信号から予測した第j+1階層のセグメント情報との差分情報を算出する手段と,
算出した差分情報の予測誤差情報を符号化または復号する手段とを備える
ことを特徴とする階層間予測処理装置。
An inter-layer prediction processing device in an inter-layer prediction encoding / decoding device that divides an image signal into a j-th layer having a low spatial resolution and a j + 1-th layer having a high spatial resolution and performs encoding / decoding for each layer. And
Means for calculating a segment which is an area having the same or specific encoding parameter in the signal of the j-th layer, and obtaining segment information representing area division by the segment;
Means for calculating a segment which is an area having the same or specific encoding parameter in the signal of the j + 1th layer, and obtaining segment information representing area division by the segment;
Means for predicting the segment information of the (j + 1) th layer from the segment information obtained in the signal of the jth layer;
Means for calculating difference information between the segment information obtained from the j + 1 layer signal and the segment information of the j + 1 layer predicted from the j layer signal;
An inter-layer prediction processing apparatus comprising: means for encoding or decoding prediction error information of the calculated difference information.
請求項1から請求項4までのいずれか1項に記載の階層間予測処理方法を,コンピュータに実行させるための階層間予測処理プログラム。   An inter-layer prediction processing program for causing a computer to execute the inter-layer prediction processing method according to any one of claims 1 to 4. 請求項1から請求項4までのいずれか1項に記載の階層間予測処理方法を,コンピュータに実行させるための階層間予測処理プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium recording an inter-layer prediction processing program for causing a computer to execute the inter-layer prediction processing method according to any one of claims 1 to 4.
JP2005248065A 2005-08-29 2005-08-29 Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor Active JP4490351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005248065A JP4490351B2 (en) 2005-08-29 2005-08-29 Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005248065A JP4490351B2 (en) 2005-08-29 2005-08-29 Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor

Publications (2)

Publication Number Publication Date
JP2007067552A JP2007067552A (en) 2007-03-15
JP4490351B2 true JP4490351B2 (en) 2010-06-23

Family

ID=37929299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005248065A Active JP4490351B2 (en) 2005-08-29 2005-08-29 Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor

Country Status (1)

Country Link
JP (1) JP4490351B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108401157B (en) 2012-10-01 2022-06-24 Ge视频压缩有限责任公司 Scalable video decoder, scalable video encoder, and scalable video decoding and encoding methods
CN116708768A (en) * 2013-01-04 2023-09-05 Ge视频压缩有限责任公司 Efficient scalable coding concept
CN117956143A (en) 2013-04-08 2024-04-30 Ge视频压缩有限责任公司 Multi-view decoder
JP6838918B2 (en) * 2015-11-24 2021-03-03 キヤノン株式会社 Image data processing device and method
EP3929881A4 (en) * 2019-03-19 2022-04-20 Sony Group Corporation Information processing device and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271510A (en) * 1997-03-26 1998-10-09 Sharp Corp Coding and decoding method for image data and coder and decoder
JP2001036914A (en) * 1995-10-24 2001-02-09 Sharp Corp Picture encoder and picture decoder
JP2001504296A (en) * 1996-11-08 2001-03-27 シャープ株式会社 Generalized content / scalable shape representation and encoding method
JP2002519955A (en) * 1998-06-26 2002-07-02 サーノフ コーポレイション Image encoding device and image decoding device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001036914A (en) * 1995-10-24 2001-02-09 Sharp Corp Picture encoder and picture decoder
JP2001504296A (en) * 1996-11-08 2001-03-27 シャープ株式会社 Generalized content / scalable shape representation and encoding method
JPH10271510A (en) * 1997-03-26 1998-10-09 Sharp Corp Coding and decoding method for image data and coder and decoder
JP2002519955A (en) * 1998-06-26 2002-07-02 サーノフ コーポレイション Image encoding device and image decoding device

Also Published As

Publication number Publication date
JP2007067552A (en) 2007-03-15

Similar Documents

Publication Publication Date Title
JP6073405B2 (en) Video decoding method and apparatus
JP6347860B2 (en) Image decoding apparatus, image decoding method, image encoding apparatus, and image encoding method
TWI643494B (en) Portrait decoding device, portrait decoding method, portrait encoding device, portrait encoding method, and data structure of encoded data
KR100803611B1 (en) Image encoding and decoding method and apparatus
KR100578682B1 (en) Hierarchical Motion Estimation Apparatus and Method Using Variable Block Size
TWI565307B (en) Moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, and memory storage
JP4732982B2 (en) Improved motion estimation method, video encoding method and apparatus using the method
US20150016739A1 (en) Methods and apparatuses for encoding/decoding high resolution images
WO2010004939A1 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
CA2934184A1 (en) Low-complexity intra prediction for video coding
JP5216710B2 (en) Decryption processing method
JP2002507339A (en) Hierarchical motion estimation execution method and apparatus using nonlinear pyramid
KR100922510B1 (en) Image encoding and decoding method, apparatus and application thereof
JP4195057B2 (en) A method for determining an adaptive motion vector search region, and an image compression apparatus for determining an adaptive motion vector search region.
JPH05328333A (en) Moving vector detector
JPWO2006100946A1 (en) Image signal re-encoding device and image signal re-encoding method
JP4490351B2 (en) Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor
JP4295236B2 (en) Inter-layer prediction encoding method, apparatus, inter-layer prediction decoding method, apparatus, inter-layer prediction encoding program, inter-layer prediction decoding program, and program recording medium thereof
JP4802885B2 (en) Motion vector detection apparatus and method, program, and recording medium
JPWO2013001720A1 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
KR100266161B1 (en) Method of predicting motion for digital image
JPH11136674A (en) Image encoding method and storage medium
Nithya et al. Scanned Document Compression Using High Efficiency Video Coding (HEVC) Standard
JP4034180B2 (en) Moving picture compression coding apparatus and motion vector detection method
Zhao et al. Adaptive Down-Sampling and Super-Resolution for Additional Video Compression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070815

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100401

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350