JPWO1998042135A1 - Image encoding device, image decoding device, image encoding method, image decoding method, and image encoding/decoding system - Google Patents
Image encoding device, image decoding device, image encoding method, image decoding method, and image encoding/decoding systemInfo
- Publication number
- JPWO1998042135A1 JPWO1998042135A1 JP10-540333A JP54033398A JPWO1998042135A1 JP WO1998042135 A1 JPWO1998042135 A1 JP WO1998042135A1 JP 54033398 A JP54033398 A JP 54033398A JP WO1998042135 A1 JPWO1998042135 A1 JP WO1998042135A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- unit
- motion compensation
- block matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
(57)【要約】 平行移動以外の画像移動を比較的小規模で処理時間も短縮して高い精度で予測できる画像符号化装置、復号装置を得る。このため、入力画像を所定のブロックに分割して、ブロックのフレーム間の動き検出による動き補償予測手段を備えて入力画像を圧縮符号化する構成であって、動き検出用の参照画像の対応する部分領域に存在する実標本点である整数画素のみを所定の形式に変形化して切り出し、入力画像の上記ブロックの整数画素と比較する変形ブロックマッチング部を含んで、上記座標指定して抽出した最小誤差を与える動きベクトルを出力する動き検出部と、この変形ブロックマッチング部を含めた比較出力から得られる動きパラメータに従って参照画像のブロックを対応し座標指定して変形して決める対応点決定部を含んで予測部分画像を出力する動き補償部とを備えた。また、画像復号装置は、符号化装置と対応する構成とした。また、更に、画像復号装置は、動き補償手段において、参照画像の半画素の座標値も用い、複数の動きベクトルで座標計算し、得られた画素値を変形パターンにより所定の形式に変形処理するようにした。 (57) [Abstract] An image encoding device and a decoding device are provided that can predict image movements other than translational movements on a relatively small scale with reduced processing time and high accuracy. To this end, the device divides an input image into predetermined blocks and includes a motion compensation prediction means for detecting motion between blocks, compressing and encoding the input image. The device includes a motion detection unit that transforms and extracts only integer pixels, which are actual sample points in a corresponding partial region of a reference image for motion detection, into a predetermined format, and compares them with the integer pixels of the block in the input image, outputting a motion vector that provides the minimum error extracted by specifying the coordinates. The device also includes a corresponding point determination unit that transforms and determines corresponding coordinates of blocks in the reference image according to motion parameters obtained from the comparison output including the transformed block matching unit, outputting a predicted partial image. The image decoding device also has a configuration corresponding to the encoding device. Furthermore, the image decoding device further includes a motion compensation means that calculates coordinates using multiple motion vectors, also using coordinate values of half pixels of the reference image, and transforms the obtained pixel values into a predetermined format using a transformation pattern.
Description
【発明の詳細な説明】 画像符号化装置及び画像復号装置及び画像符号化方法及び画像復号方法及び画像 符号化復号システム 技術分野 この発明は、画像の高能率符号化あるいは復号において、既存の画像から符号 化すべき画像もしくは復号すべき画像の動き補償予測を行い、予測誤差を符号化 する、もしくは予測誤差と参照画像データとの加算により復号を行う装置とシス テムに関するものである。[Detailed Description of the Invention] Image Encoding Apparatus, Image Decoding Apparatus, Image Encoding Method, Image Decoding Method, and Image Encoding/Decoding System Technical Field This invention relates to an apparatus and system for highly efficient image encoding or decoding, which performs motion-compensated prediction of an image to be encoded or decoded from an existing image, and encodes the prediction error or decodes by adding the prediction error to reference image data.
背景技術 画像の高能率符号化における動き補償予測方式の従来技術を説明する。Background Art This paper describes the prior art of motion compensation prediction methods for highly efficient image coding.
従来の動き補償予測方式の第1の例として、平行移動によるブロックマッチン グを用いた動き補償予測方式がある。例えばISO/IEC11172−2(M PEG1ビデオ規格)では、ブロックマッチングを用いた前方向/後方向/内挿 動き補償予測方式について解説している。また、従来の動き補償予測方式の第2 の例として、アフィン変換を用いた動き補償がある。例えば、「アフィン変換を 用いた動き補償予測に関する検討」(電子情報通信学会技術報告IE94−36 )では、画像の任意形状領域の動き量をアフィン動きパラメータでモデル化し、 そのパラメータを検出することにより動き補償予測を行う方式について解説して いる。A first example of a conventional motion compensation prediction method is one that uses block matching based on translation. For example, ISO/IEC 11172-2 (MPEG-1 Video Standard) describes forward, backward, and interpolation motion compensation prediction methods using block matching. A second example of a conventional motion compensation prediction method is motion compensation using affine transformation. For example, "Study on Motion Compensation Prediction Using Affine Transformation" (IEICE Technical Report IE94-36) describes a method that models the amount of motion in an arbitrarily shaped region of an image using affine motion parameters and performs motion compensation prediction by detecting these parameters.
以下、これらの解説を基にして従来の平行移動による動き補償方式及びアフィ ン変換を用いた動き補償方式について説明する。Based on these explanations, the conventional motion compensation method using translation and the motion compensation method using affine transformation will be explained below.
ブロックマッチングによる動き補償予測の概念を図42に示す。The concept of motion compensation prediction using block matching is shown in FIG.
同図において、 iは、動き補償予測の単位となるブロックの画面内位置、 fi(x,y,t)は、画面内位置i、時間tにおけるブロックの位置(x, y)における画素値、 Rは、動きベクトル探索範囲、 vは、動きベクトル(∈R) である。ブロックマッチングは、同図のように参照画像201の探索範囲Rの中 で、被予測画像202中の予測対象のブロックiの画素値fi(x,y,t)に 最も近いブロック、即ち式(1)に示す誤差電力Dvを最小化するブロックfi+ v(x,y,t−1)を見つける処理に相当する。In the figure, i is the on-screen position of the block that serves as the unit of motion compensation prediction, fi(x,y,t) is the pixel value at the block position (x,y) at on-screen position i and time t, R is the motion vector search range, v is the motion vector (∈R). Block matching corresponds to the process of finding the block closest to the pixel value fi(x,y,t) of the block i to be predicted in the predicted image 202 within the search range R of the reference image 201, as shown in the figure, i.e., the block fi+v(x,y,t-1) that minimizes the error power Dv shown in equation (1).
Dvを最小にするvの値が動きベクトルとなる。図中、参照画像中の実標本点 である実画素だけを用いて適合するブロックを探索する方法を整数画素精度探索 、整数画素に加えて整数画素の中間の半画素も用いる探索方法を半画素精度探索 と呼ぶ。一般に、同一探索範囲の条件下では半画素精度探索の方が整数画素精度 探索より探索点が多くなり、予測効率が高まる。 The value of v that minimizes Dv becomes the motion vector. In the figure, a method of searching for a matching block using only real pixels, which are real sample points in the reference image, is called integer-pixel precision search, while a search method that uses half-pixels, which are intermediate between integer pixels, in addition to integer pixels, is called half-pixel precision search. Generally, under the same search range conditions, half-pixel precision search results in more search points than integer-pixel precision search, resulting in higher prediction efficiency.
図43は、例えば、MPEG1ビデオ規格などで採用されている動き補償予測 方式を用いる画像符号化装置の動き補償予測部(ブロックマッチング部)の構成 例を示す図である。Figure 43 shows an example of the configuration of a motion compensation prediction unit (block matching unit) in an image coding device that uses a motion compensation prediction method, such as that adopted in the MPEG-1 video standard.
図において、207は水平方向移動量カウンタ、208は垂直方向平 行移動量カウンタ、211はメモリ読み出しアドレス生成部、213はパターン マッチング部、216は最小予測誤差電力判定部である。また、203は水平方 向平行移動量探索範囲指示信号、204は垂直方向平行移動量探索範囲指示信号 、205は被予測ブロックデータ、206は被予測ブロックの画像内位置信号、 209は水平方向平行移動量探索点データ、210は垂直方向平行移動量探索点 データ、212は読み出しアドレス、214は読み出し画像データ、215は予 測誤差電力信号、217は動きベクトル、218は最小予測誤差電力信号である 。219は参照画像を記憶するフレームメモリである。In the figure, 207 is a horizontal displacement counter, 208 is a vertical translation displacement counter, 211 is a memory read address generator, 213 is a pattern matching unit, and 216 is a minimum prediction error power determiner. Also, 203 is a horizontal translation displacement search range indication signal, 204 is a vertical translation displacement search range indication signal, 205 is predicted block data, 206 is a predicted block intra-image position signal, 209 is horizontal translation displacement search point data, 210 is vertical translation displacement search point data, 212 is a read address, 214 is read image data, 215 is a prediction error power signal, 217 is a motion vector, and 218 is a minimum prediction error power signal. 219 is a frame memory for storing a reference image.
一方、図44は、上記図43に示す構成の動き補償予測部の動作を表す動作フ ローチャートである。On the other hand, FIG. 44 is an operational flowchart showing the operation of the motion compensation prediction unit having the configuration shown in FIG.
図において、 dxは、水平方向平行移動量探索点、 dyは、垂直方向平行移動量探索点、 range h minは、水平方向平行移動量探索範囲下限値、 range h maxは、水平方向平行移動量探索範囲上限値、 range v minは、垂直方向平行移動量探索範囲下限値、 range v maxは、垂直方向平行移動量探索範囲上限値、 D minは、最小予測誤差電力、 (x,y)は、マクロブロック内画素位置を表す座標、 D(dx,dy)は、dx,dy探索時の予測誤差電力、 f(x,y)は、被予測画像の画素(x,y)の値、 fr(x,y)は、参照画像の画素(x,y)の値、 D(x,y)は、dx,dy探索時の(x,y)における予測誤差、 MV hは、動きベクトル(平行移動量)水平成分、 MV vは、動きベクトル(平行移動量)垂直成分 である。 In the figure, dx is the horizontal translation amount search point, dy is the vertical translation amount search point, range h min is the lower limit of the horizontal translation amount search range, h max is the upper limit of the horizontal translation amount search range, v min is the lower limit of the vertical translation amount search range, v max is the upper limit of the vertical translation search range, D min is the minimum prediction error power, (x, y) are coordinates representing the pixel position in the macroblock, D(dx, dy) is the prediction error power during dx, dy search, f(x, y) is the value of pixel (x, y) in the predicted image, fr(x, y) is the value of pixel (x, y) in the reference image, D(x, y) is the prediction error at (x, y) during dx, dy search, MV h is the horizontal component of the motion vector (parallel movement amount), MV v is the vertical component of the motion vector (translation amount).
以下、図43、図44をもとに、ブロックマッチングの動作について詳しく説 明する。The operation of block matching will be described in detail below with reference to FIGS.
1)動きベクトル探索範囲の設定 水平方向平行移動量探索範囲指示信号203及び垂直方向平行移動量探索範囲 指示信号204より、水平方向移動量カウンタ207にrange h min /range h maxを、垂直方向平行移動量カウンタ208にrange v min/range v maxを設定する。また、カウンタ初期値をそ れぞれdx=range h min、dy=range v minにセット する。最小予測誤差電力判定部216において最小予測誤差電力D minを最 大の値MAXINT(例えば0xFFFFFFFF)にセットする。これは、図 44のS201に相当する。1) Setting of motion vector search range The horizontal translation amount search range instruction signal 203 and the vertical translation amount search range instruction signal 204 are used to set the range of the horizontal translation amount counter 207. h min /range h max is set to the vertical translation amount counter 208 v min/range v Also, set the counter initial values as dx = range h min, dy=range v The minimum prediction error power determination unit 216 sets the minimum prediction error power D min is set to the maximum value MAXINT (for example, 0xFFFFFFFF). This corresponds to S201 in FIG.
2)予測画像候補画像の読み出し 被予測マクロブロックの画素位置(x,y)から(dx,dy)だけ離れた位 置にある参照画像中の位置(x+dx,y+dy)の画素を、フレームメモリか ら取り出す。図43におけるメモリ読み出しアドレス生成部211が水平方向移 動量カウンタ207からdxの値を、垂直方向平行移動量カウンタ208からd yの値を受け取り、フレームメモリ中のアドレスを生成する。2) Reading the Candidate Predicted Image The pixel at position (x + dx, y + dy) in the reference image, which is a distance (dx, dy) from the pixel position (x, y) of the predicted macroblock, is retrieved from the frame memory. The memory read address generator 211 in Figure 43 receives the value dx from the horizontal translation counter 207 and the value dy from the vertical translation counter 208, and generates an address in the frame memory.
3)予測誤差電力の算出 まず、動きベクトルが(dx,dy)の時の予測誤差電力D(dx,dy)を ゼロに初期化する。これは、図44のS202に相当する。2)で読み出された 画素値と、被予測マクロブロック内の位置(x,y)の画素値との差をとり、そ の絶対値をD(dx,dy)に累積していく。この処理をx=y=16になるま で繰り返し、(dx,dy)時の予 測誤差電力D(dx,dy)、即ち式(1)におけるDvを得る。この処理は、 図43におけるパターンマッチング部213が行い、パターンマッチング部21 3はD(dx,dy)を予測誤差電力信号215によって、最小予測誤差電力判 定部216に受け渡す。ここでの処理は、図44におけるS203〜S209の 処理に相当する。3) Calculating Prediction Error Power First, the prediction error power D(dx, dy) for a motion vector (dx, dy) is initialized to zero. This corresponds to S202 in Figure 44. The difference between the pixel value read in 2) and the pixel value at position (x, y) within the predicted macroblock is calculated, and the absolute value is accumulated as D(dx, dy). This process is repeated until x = y = 16 to obtain the prediction error power D(dx, dy) at (dx, dy), i.e., Dv in equation (1). This process is performed by the pattern matching unit 213 in Figure 43, which then passes D(dx, dy) to the minimum prediction error power determination unit 216 via the prediction error power signal 215. This process corresponds to S203 to S209 in Figure 44.
4)最小予測誤差電力値の更新 3)の結果得られたD(dx,dy)が、それまでの探索結果の中で最小の誤 差電力を与えるかどうかを判定する。判定は、図43における最小予測誤差電力 判定部216が行う。また、図44におけるS210がこの判定処理に相当する 。最小予測誤差電力判定部216は、内部に持つ最小予測誤差電力D minの 値と、予測誤差電力信号215によって受け渡されるD(dx,dy)の大小を 比較し、D(dx,dy)の方が小さいときに限りD minの値をD(dx, dy)で更新する。また、そのときの(dx,dy)の値を動きベクトル候補( MV h,MV v)として保持しておく。これらの更新処理は、図44におけ るS211に相当する。4) Updating the minimum prediction error power value It is determined whether D(dx, dy) obtained as a result of 3) provides the minimum error power among the search results up to that point. This determination is made by the minimum prediction error power determination unit 216 in FIG. 43. S210 in FIG. 44 corresponds to this determination process. The minimum prediction error power determination unit 216 updates the minimum prediction error power D The value of min is compared with the magnitude of D(dx, dy) delivered by the prediction error power signal 215, and only when D(dx, dy) is smaller, D The value of min is updated with D(dx, dy). The value of (dx, dy) at that time is used as the motion vector candidate (MV h, MV v) These update processes correspond to S211 in FIG.
5)動きベクトル値の決定 上記2)〜4)を動きベクトル探索範囲R中のすべての(dx,dy)につい て繰り返し(図44のS212〜S215)、最終的に最小予測誤差電力判定部 216内に保持されている計算値(MV h,MV v)を動きベクトル217 として出力する。5) Determination of the motion vector value The above steps 2) to 4) are repeated for all (dx, dy) in the motion vector search range R (S212 to S215 in FIG. 44), and the calculated value (MV) stored in the minimum prediction error power determination unit 216 is finally determined. h, MV v) is output as a motion vector 217.
図45は、MPEG1ビデオ規格で採用されている動き補償予測方式の概要を 示した図である。Figure 45 shows an overview of the motion compensation prediction method adopted in the MPEG-1 video standard.
MPEG1ビデオ規格では動画像の1枚1枚のフレームをピクチャと呼び、ピ クチャをマクロブロックという16×16画素(色差信号は8×8画素)のブロ ックに分割して、各マクロブロックについてブロック マッチングによる動き補償予測を行う。その結果得られる動きベクトルと予測誤 差信号とを符号化する。In the MPEG1 video standard, each frame of a moving image is called a picture, and the picture is divided into blocks of 16x16 pixels (8x8 pixels for color difference signals) called macroblocks. Motion compensation prediction is performed on each macroblock using block matching, and the resulting motion vector and prediction error signal are then coded.
MPEG1ビデオ規格では異なるピクチャごとに動き補償の方式が変えられる ようになっており、図中Iピクチャでは動き補償予測を行わずにピクチャ内で閉 じた符号化を行うが、Pピクチャでは時間的に前に表示される画像から予測を行 う前方向動き補償予測を行い、Bピクチャでは前方向動き補償予測のほか、時間 的に後に表示される画像から予測を行う後方向動き補償予測と、前方向動き補償 予測及び後方向動き補償予測から得られる2つの予測画像の加算平均によって予 測を行う内挿動き補償予測が許される。ただし、前方向/後方向/内挿の各動き 補償予測は、予測に用いる参照画像の違いだけで、基本的にすべてブロックマッ チングによる動き補償予測である。The MPEG-1 video standard allows different motion compensation methods to be used for different pictures. In the diagram, I-pictures perform closed coding within the picture without motion compensation prediction. P-pictures perform forward motion compensation, which predicts from a temporally earlier image. B-pictures allow not only forward motion compensation prediction, but also backward motion compensation, which predicts from a temporally later image, and interpolated motion compensation, which predicts by averaging two predicted images obtained from forward and backward motion compensation predictions. However, forward, backward, and interpolated motion compensation are all essentially block-matching motion compensation predictions; the only difference is the reference image used for prediction.
ブロックマッチングは上述のごとく、現在のビデオ符号化方式における動き補 償予測の主たる実現手法として確立されている。しかしながら、ブロックマッチ ングの処理は「輝度の同じ領域は同一物体である」という等輝度仮定に立脚して 、マクロブロックの様な正方ブロック単位に物体の平行移動量を求めていること に相当する。よって、正方ブロック形状方向への移動以外の動きを検出すること は原理上不可能であり、回転や拡大、縮小、カメラのズーミング、3次元的な物 体の動きなど、平行移動で十分に説明できない動きが発生する領域では予測精度 が落ちる。As mentioned above, block matching has been established as the primary method for implementing motion-compensated prediction in current video coding systems. However, the block matching process is based on the isoluminance assumption that "areas of equal luminance represent the same object," and is equivalent to calculating the translational displacement of an object in square block units such as macroblocks. Therefore, it is theoretically impossible to detect movement other than in the direction of the square block shape. Prediction accuracy drops in areas where movement that cannot be adequately explained by translation, such as rotation, enlargement, reduction, camera zooming, and three-dimensional object movement, occurs.
このようなブロックマッチングによる動き検出の問題点を解消し、より正確な 動き量を検出することを目指して、平行移動量だけでなく、回転やスケーリング といった動き量を含めて精度の高い動き補償予測を行おうというのが、アフィン 変換を用いた動き補償予測である。この方式では、予測対象の画素値(x,y) が以下の式(2)に示すアフィン変 換によって参照画像中の画素値(x’,y’)に変換されるという仮定に基づき 、アフィン変換の各パラメータを動きパラメータとして検出する。「アフィン変 換を用いた動き補償予測に関する検討」(電子情報通信学会技術報告IE94− 36)では、任意の形状の予測画像領域に対してアフィン動きパラメータを検出 し、動き補償予測を行う手法を提案している。Affine transformation-based motion compensation prediction aims to resolve these problems with block-matching-based motion estimation and achieve more accurate motion estimation by incorporating not only translation but also rotation and scaling motions. This method estimates the parameters of the affine transformation as motion parameters, based on the assumption that the pixel value (x, y) to be predicted is transformed to the pixel value (x', y') in the reference image by the affine transformation shown in Equation (2) below. "Study on Motion Compensation Prediction Using Affine Transformation" (IEICE Technical Report IE94-36) proposes a method for detecting affine motion parameters for a prediction image region of arbitrary shape and performing motion compensation prediction.
ここで、θ、(Cx,Cy)、(tx,ty)の定義は下記に示す。 Here, the definitions of θ, (Cx, Cy), and (tx, ty) are shown below.
図46は、アフィン変換を用いた動き補償予測処理の概念を示したものである 。Figure 46 shows the concept of motion compensation prediction processing using affine transformation.
同図において、 iは、動き補償予測の単位となる領域の画面内位置、 fi(x,y,t)は、画面内位置i、時間tとして領域の位置(x,y)に おける画素値、 Rvは、平行移動量探索範囲、 Rrot,scaleは、回転/スケール量探索範囲、 vは、平行移動パラメータ(=(tx,ty))を含む動きベクトル、 rotは、回転パラメータ(=回転角θ)、 scaleは、スケールパラメータ(=(Cx,Cy)) である。アフィン動き補償予測では、動きベクトルに相当する平行移動パラメー タ(tx,ty)に加え、回転角θ、スケール(Cx,Cy)の計5パラメータ から成るアフィン動きパラメータを検出しなければならない。最適解は全パラメ ータの全探索で与えられるが非常に膨大な演 算量となるため、ここでは平行移動量が支配的であるとの仮定に基づき、2段階 の探索アルゴリズムを採用している。まず、第1段階では領域の平行移動量(t x,ty)を探索する。第2段階では、第1段階で決定された(tx,ty)の 近傍で回転角θ、スケール(Cx,Cy)の探索を行い、さらに平行移動量の微 調整を行うという手順を踏む。探索候補中、最小の予測誤差電力を与える予測領 域と現在の領域との差分をとり、予測誤差を符号化する。アフィン変換方式の予 測誤差電力は、以下の式(3)で示される。In the figure, i is the on-screen position of the region that serves as the unit of motion compensation prediction, fi(x,y,t) is the pixel value at the region position (x,y) at on-screen position i and time t, Rv is the translation search range, Rrot,scale is the rotation/scale search range, v is the motion vector including the translation parameter (=(tx,ty)), rot is the rotation parameter (=rotation angle θ), scale is the scale parameter (=(Cx,Cy)). Affine motion compensation prediction requires the detection of affine motion parameters, consisting of five parameters: the translation parameter (tx,ty) equivalent to the motion vector, the rotation angle θ, and the scale (Cx,Cy). The optimal solution would be found by exhaustively searching all parameters, which would require an enormous amount of computation. Therefore, a two-stage search algorithm is adopted here, based on the assumption that translation is dominant. In the first step, the translation amount (tx, ty) of the region is searched for. In the second step, the rotation angle θ and scale (Cx, Cy) are searched for near the (tx, ty) determined in the first step, and the translation amount is further fine-tuned. The difference between the current region and the prediction region that yields the smallest prediction error power is calculated and the prediction error is coded. The prediction error power for the affine transformation method is expressed by the following equation (3):
図47は、アフィン変換を用いた動き補償予測部の構成例を示す図である。 FIG. 47 is a diagram showing an example of the configuration of a motion compensation prediction unit using affine transformation.
同図において、220は平行移動微調整量探索範囲指示信号、221 は回転量探索範囲指示信号、222はスケール量探索範囲指示信号、223は平 行移動量探索範囲指示信号、224は被予測領域画面内位置信号、225は被予 測領域データ、226は水平方向平行移動量カウンタ、227は垂直方向平行移 動量カウンタ、228は平行移動量加算部、229は第1段最小予測誤差電力判 定部、230はメモリ読み出しアドレス生成部、231は補間演算部、232は 半画素生成部、233は回転量カウンタ、234はスケール量カウンタ、235 は平行移動/回転/スケール量加算部、236は第2段最小予測誤差電力判定部 、237は平行移動微調整量カウンタ、238は平行移動微調整量加算部、23 9は最終最小予測誤差電力判定部である。In the figure, 220 denotes a translation fine-adjustment amount search range indication signal, 221 denotes a rotation amount search range indication signal, 222 denotes a scale amount search range indication signal, 223 denotes a translation amount search range indication signal, 224 denotes a predicted region intra-screen position signal, 225 denotes predicted region data, 226 denotes a horizontal translation amount counter, 227 denotes a vertical translation amount counter, 228 denotes a translation amount adder, 229 denotes a first-stage minimum prediction error power determiner, 230 denotes a memory read address generator, 231 denotes an interpolation calculation unit, 232 denotes a half-pixel generator, 233 denotes a rotation amount counter, 234 denotes a scale amount counter, 235 denotes a translation/rotation/scale amount adder, 236 denotes a second-stage minimum prediction error power determiner, 237 denotes a translation fine-adjustment amount counter, 238 denotes a translation fine-adjustment amount adder, and 239 denotes a final minimum prediction error power determiner.
図48は、従来の装置のその動作フローチャートである。また、図49は、図 48中のS224で示されるアフィン動きパラメータ検出行程の詳細を示すフロ ーチャートである。FIG. 48 is a flowchart showing the operation of the conventional device, and FIG. 49 is a flowchart showing the details of the affine motion parameter detection step shown in S224 in FIG.
これらの図において、 MV h[4]は、動きベクトル水平成分(4候補)、 MV v[4]は、動きベクトル垂直成分(4候補)、 D minは、最小予測誤差電力、 θは、回転量[radian]、 Cx,Cyは、スケール量、 tx,tyは、動きベクトル微調整量で、 更に、D(θ[i],Cx[i],Cy[i],tx[i],ty[i])は 、MV h[i],MV v[i]選択時におけるアフィン動きパラメータ検出 の結果得られる最小予測誤差電力、 dθは、回転量探索点、 dCxは、水平方向スケール量探索点、 dCyは、垂直方向スケール量探索点、 dtxは、水平方向平行移動微調整量探索点、 dtyは、垂直方向平行移動微調整量探索点、 range radian minは、回転量探索範囲下限値、 range radian maxは、回転量探索範囲上限値、 range scale minは、スケール量探索範囲下限値、 range scale maxは、スケール量探索範囲上限値、 range t h minは、水平方向平行移動微調整量探索範囲下限値、 range t h maxは、水平方向平行移動微調整量探索範囲上限値、 range t v minは、垂直方向平行移動微調整量探索範囲下限値、 range t v maxは、垂直方向平行移動微調整量探索範囲上限値、 D minは、最小予測誤差電力、 (x,y)は、被予測領域内画素位置、 f(x,y)は、被予測画像の画素(x,y)の値、 fr(x,y)は、参照画像の画素(x,y)の値、 axは、水平方向アフィン変換値、 ayは、垂直方向アフィン変換値、 D(ax,ay)は、ax,ay探索時の予測誤差電力、 D(x,y)は、ax,ay探索時の(x,y)における予測誤差 である。 In these figures, MV h[4] is the horizontal component of the motion vector (4 candidates), MV v[4] is the vertical component of the motion vector (4 candidates), D min is the minimum prediction error power, θ is the rotation amount [radian], Cx, Cy are the scale amounts, tx, ty are the motion vector fine adjustment amounts, and D(θ[i], Cx[i], Cy[i], tx[i], ty[i]) is the MV h[i],MV The minimum prediction error power obtained as a result of affine motion parameter detection when v[i] is selected, dθ is a rotation amount search point, dCx is a horizontal scale amount search point, dCy is a vertical scale amount search point, dtx is a horizontal translation fine adjustment amount search point, dty is a vertical translation fine adjustment amount search point, range radian min is the lower limit of the rotation amount search range, radian max is the upper limit of the rotation amount search range, scale min is the lower limit of the scale amount search range, scale max is the upper limit of the scale amount search range, t h min is the lower limit of the horizontal translation fine adjustment amount search range, t h max is the upper limit of the horizontal translation fine adjustment amount search range, t v min is the lower limit of the vertical translation fine adjustment amount search range, t v max is the upper limit of the vertical translation fine adjustment amount search range, D min is the minimum prediction error power, (x, y) is the pixel position within the predicted region, f(x, y) is the value of pixel (x, y) in the predicted image, fr(x, y) is the value of pixel (x, y) in the reference image, ax is the horizontal affine transformation value, ay is the vertical affine transformation value, D(ax, ay) is the prediction error power when searching ax, ay, and D(x, y) is the prediction error at (x, y) when searching ax, ay.
以下、図47〜図49をもとに、アフィン変換を用いた動き補償予測処理の動 作について詳しく説明する。The operation of the motion compensation prediction process using affine transformation will be described in detail below with reference to FIGS.
これらの図において、前記の図と同一の符号を付した要素もしくはス テップについては、同一の動作もしくは処理を行うものとする。In these figures, elements or steps with the same reference numerals as those in the previous figures perform the same operations or processes.
1)第1段階 第1段階として、従来のものでは、まず、前述のブロックマッチング相当の処 理により、領域ごとに与えられた探索範囲内で平行移動パラメータ(=動きベク トル)の検出を行う。1) First Stage In the first stage, conventional methods first use a process similar to the block matching described above to detect translation parameters (i.e., motion vectors) within a given search range for each region.
図47において、平行移動量探索範囲指示信号223より、水平方向移動量カ ウンタ226及び垂直方向平行移動量カウンタ227に探索範囲を設定し、探索 点を変化させていく。平行移動量加算部228で、このカウント値に被予測画像 領域における現在の領域位置を加算し、その結果がメモリ読み出しアドレス生成 部230に渡され、予測画像候補の画素値がフレームメモリ219から読み出さ れる。読み出された画素値はパターンマッチング部213に渡され、ブロックマ ッチングと同様の誤差計算がなされる。このマッチング結果が第1段最小予測誤 差電力判定部229に送られ、予測誤差の小さい方から4候補の平行移動パラメ ータを得る。これらをMV h[4](水平成分)及びMV v[4](垂直成 分)と表記する。第1段最小予測誤差電力判定部229の動作は、最小予測誤差 電力判定部216と同様である。この処理過程は、図48のS221、S222 に相当する。 In Fig. 47, a translation search range instruction signal 223 sets a search range in a horizontal translation counter 226 and a vertical translation counter 227, and changes the search point. A translation amount adder 228 adds the current area position in the predicted image area to this count value, and the result is passed to a memory read address generator 230, which reads out pixel values of predicted image candidates from the frame memory 219. The read pixel values are passed to a pattern matching unit 213, which performs an error calculation similar to block matching. This matching result is sent to a first-stage minimum prediction error power determiner 229, which obtains translation parameters for four candidates with the smallest prediction errors. These are then used to calculate the MV h[4] (horizontal component) and MV The operation of the first stage minimum prediction error power determination unit 229 is the same as that of the minimum prediction error power determination unit 216. This processing step corresponds to S221 and S222 in FIG.
2)第2段階 2−1)準備(探索範囲の設定、最小予測誤差電力値の初期化) 各MV h[i]/MV v[i](0≦i≦3)について、その近傍の微小 空間において回転量/スケール量を探索する。これは、図48のS224に相当 し、図49に詳細な処理過程を示す。図47の装置の動作と関連付けながら動作 を説明する。2) Second stage 2-1) Preparation (setting the search range, initializing the minimum prediction error power value) h[i]/MV For v[i] (0≦i≦3), the rotation amount/scale amount is searched for in the small space nearby. This corresponds to S224 in Fig. 48, and the detailed processing steps are shown in Fig. 49. The operation will be explained in relation to the operation of the device in Fig. 47.
まず、回転量探索範囲指示信号221及びスケール量探索範囲指示信号222 より、回転量カウンタ233、スケール量カウンタ234にそ れぞれ探索範囲を設定する。また、平行移動微調整量探索範囲指示信号220よ り平行移動微調整量カウンタ237にも探索範囲の設定を行う。第2段最小予測 誤差電力判定部236は、内部に持つ最小予測誤差電力D minの値をMAX INTに設定する。これは、図49のS229に相当する。 First, search ranges are set in the rotation amount counter 233 and the scale amount counter 234 by the rotation amount search range instruction signal 221 and the scale amount search range instruction signal 222. Also, a search range is set in the translation fine adjustment amount counter 237 by the translation fine adjustment amount search range instruction signal 220. The second-stage minimum prediction error power determination unit 236 determines the minimum prediction error power D The value of min is set to MAX_INT. This corresponds to S229 in FIG.
2−2)回転量の探索 以下、各MV h[i]/MV v[i](0≦i≦3)について同じ処理を 繰り返すため、MV h[0]/MV v[0]のケースについてのみ説明する 。スケール量Cx,Cy及び平行移動微調整量tx,tyの値を固定し、回転量 θの値を探索範囲内で変化させ、以下のアフィン変換値ax,ayを得る。2-2) Search for the amount of rotation For each MV, h[i]/MV Repeat the same process for v[i] (0≦i≦3), and then use MV h[0]/MV We will only explain the case of v[0]. The values of the scale amounts Cx and Cy and the translation fine-tuning amounts tx and ty are fixed, and the value of the rotation amount θ is varied within the search range to obtain the following affine transformation values ax and ay.
参照画像中の(ax,ay)における画素値fr(ax,ay)とf(x,y )との差分絶対値を求め、これをD(ax,ay)に累積していく。 The absolute difference between pixel values fr(ax, ay) at (ax, ay) in the reference image and f(x, y) is calculated and accumulated in D(ax, ay).
以上の処理は、図47において、スケール量カウンタ234及び平行移動微調 整量カウンタ237のカウント値を固定し、回転量カウンタ233のカウント値 に応じて平行移動/回転/スケール量加算部235で式(4)のax,ayを求 め、メモリ読み出しアドレス生成部230を介してfr(ax,ay)を算出す るために必要な画素をフレームメモリ219から読み出し、次いで補間演算部2 31において、これらの画素からfr(ax,ay)を算出して、パターンマッ チング部213に おいて被予測画素値f(x,y)との差分絶対値を求める動作によって実行され る。図49では、S231〜S234に相当する。The above processing is performed by fixing the count values of the scale amount counter 234 and the translation fine adjustment amount counter 237 in Fig. 47, determining ax and ay in equation (4) in the translation/rotation/scaling amount adder 235 according to the count value of the rotation amount counter 233, reading the pixels necessary to calculate fr(ax, ay) from the frame memory 219 via the memory read address generator 230, then calculating fr(ax, ay) from these pixels in the interpolation calculation unit 231, and calculating the absolute difference between the calculated value and the predicted pixel value f(x, y) in the pattern matching unit 213. This corresponds to steps S231 to S234 in Fig. 49.
以上の処理を回転量探索範囲全域に渡って行い、第2段最小予測誤差電力判定 部236において、回転量探索範囲内での最小予測誤差を与える回転量θが決定 される。The above process is performed over the entire rotation search range, and the second-stage minimum prediction error power determination unit 236 determines the rotation θ that results in the minimum prediction error within the rotation search range.
2−3)スケール量の探索 回転量の探索と同様、平行移動微調整量カウンタ237のカウント値を固定し 、回転量として2−2)で決定された回転量θを式(4)に代入して、スケール 量Cx,Cyの値を探索範囲内で変化させ、式(4)のアフィン変換値ax,a yを得る。2-3) Searching for the Scale Amount As with the search for the rotation amount, the count value of the translation fine adjustment amount counter 237 is fixed, and the rotation amount θ determined in 2-2) is substituted into equation (4) as the rotation amount. The values of the scale amounts Cx and Cy are varied within the search range to obtain the affine transformation values ax and ay of equation (4).
以下、回転量の探索と同様の処理を行って、D(ax,ay)を最小にするス ケール量Cx,Cyを得る。スケール量探索点のカウントは、スケール量カウン タ234が行う。Thereafter, a process similar to that for searching for the rotation amount is performed to obtain the scale amounts Cx and Cy that minimize D(ax, ay). The scale amount search points are counted by the scale amount counter 234.
2−4)平行移動微調整量の探索 2−2)及び2−3)で決定された回転量θ/スケール量Cx,Cyを用いて 、平行移動微調整量tx,tyの値を探索範囲内で変化させ、式(4)のアフィ ン変換値ax,ayを得る。2-4) Search for the Fine Translation Adjustment Amount Using the rotation amount θ and scale amounts Cx and Cy determined in 2-2) and 2-3), the values of the fine translation adjustment amounts tx and ty are changed within the search range to obtain the affine transformation values ax and ay of equation (4).
以下、回転量/スケール量の探索と同様の処理を行う。平行移動微調整量探索 点のカウントは、平行移動微調整量カウンタ237が行う。ただし、tx,ty は半画素精度で探索されるので、パターンマッチング部213に送られる前に必 要に応じて半画素生成部232において半画素値が計算される。半画素値の計算 は、図50に示すように、整数画素との空間的な位置関係に基づいて以下の式( 5)のように計算される。ただし、x,yは共に0から計数し、整数画素位置は 共にEVENとする。The following process is similar to the rotation/scale search. The translation fine adjustment amount search Point counting is performed by the translation fine adjustment amount counter 237. However, since tx and ty are searched with half-pixel accuracy, half-pixel values are calculated as necessary in the half-pixel generation unit 232 before being sent to the pattern matching unit 213. The half-pixel values are calculated using the following equation (5) based on the spatial relationship with integer pixels, as shown in Figure 50. However, both x and y are counted from 0, and the integer pixel positions are both even.
以上で、図49の処理フローを終了する。 This completes the processing flow of FIG.
2−5)最終アフィン動きパラメータの決定 すべてのMV h[i]/MV v[i]について、上記2−2)から2−4 )のパラメータ探索を行った結果得られるθ[i],Cx[i],Cy[i], tx[i],ty[i]を用いて得られる予測画像との予測誤差を求め、最も小 さい誤差値を与える領域位置iと、そのパラメータセットを最終的な探索結果と する。これは図48におけるS225〜S228に相当する。2-5) Final affine motion parameter determination All MVs h[i]/MV For v[i], the prediction error between v[i] and the predicted image obtained using θ[i], Cx[i], Cy[i], tx[i], and ty[i] obtained as a result of the parameter search of 2-2) to 2-4) above is calculated, and the region position i that gives the smallest error value and its parameter set are determined as the final search results. This corresponds to S225 to S228 in Figure 48.
以上のように、アフィン動きパラメータ探索は非常に多くの処理過程を要する だけでなく、探索の際の演算負荷も大きい。As mentioned above, affine motion parameter search not only requires a large number of processing steps, but also imposes a large computational load during the search.
図51は、回転量及びスケール量を探索する過程で生じる非整数画素値の算出 方法、即ち補間演算部231におけるfr(ax,ay)の算出方法を示す図で ある。Figure 51 shows how to calculate non-integer pixel values that arise during the process of searching for rotation and scale amounts, i.e., how the interpolation calculation unit 231 calculates fr(ax, ay).
図において、○は画像の実標本点、●は演算によって生成する画素値である。In the figure, circles represent actual sample points of the image, and black circles represent pixel values generated by calculation.
fr(ax,ay)は、参照画像上で計算した、以下の式(6)のIハット(x ,y)(ただし、x=ax,y=ay)の値で表わされる。fr(ax, ay) is expressed as the value of I(x, y) (where x = ax, y = ay) in the following equation (6), calculated on the reference image.
即ち、アフィン動きパラメータ探索では、画素間マッチングをとり誤差電力最 小のものを選ぶため、上記5パラメータを変化させるたびに予測画像候補となる 画像領域を再度、生成しなければならない。回転やスケーリングは非整数画素値 を発生させるので、式(6)の演算が探索処理中何度も繰り返される。これによ り、アフィン動きパラメータ探索処理は非常に負荷が大きく、時間もかかるもの となる。 That is, in the affine motion parameter search, pixel-to-pixel matching is performed to select the one with the smallest error power, so that the image region serving as the predicted image candidate must be generated again each time the above five parameters are changed. Because rotation and scaling generate non-integer pixel values, the calculation of equation (6) is repeated many times during the search process. This makes the affine motion parameter search process very time-consuming and burdensome.
単純な拡大または縮小画像に対してマッチングを行って動き補償を得る方法と して、特開平6−153185号公報に示された動き補償装置及びこれを用いた 符号化装置が開示されている。これは参照画像となるフレームメモリ中の画像を 、間引き回路または補間回路を設けて、画像を縮小または拡大した後、動きベク トルを検出する構成となっている。この構成では、アフィン変換のような複雑な 演算はしないが、参照画像から固定ブロックを取り出して補間または間引き演算 をしている。つまり、固定の画面領域を切り出し、予め設定した処理を施して後 、入力画像と比較するので、処理の内容が固定的で事実上単純な拡大、縮小等に 限定される。Japanese Patent Application Laid-Open No. 6-153185 discloses a motion compensation device and an encoding device using the same, as a method of performing matching on a simple enlarged or reduced image to obtain motion compensation. This device uses a reference image stored in a frame memory, which is then enlarged or reduced using a thinning or interpolation circuit, and motion vectors are then detected. This configuration does not perform complex operations such as affine transformations, but instead extracts fixed blocks from the reference image and performs interpolation or thinning operations. In other words, a fixed screen area is extracted, subjected to predetermined processing, and then compared with the input image. Therefore, the processing is fixed and effectively limited to simple enlargement or reduction.
従来の画像符号化装置の動き予測方式は、以上のように構成され動作する。The motion prediction method of the conventional image coding device is configured and operates as described above.
従って、第1の従来例においては、予測画像領域の形成は参照画面の切り出し 領域を平行移動して行うので単純な、平行移動の動きしか予測できず、回転や拡 大、縮小、カメラのズーミングなど、平行移動以外の移動の場合には、性能劣化 が激しいという課題がある。Therefore, in the first conventional example, the predicted image area is formed by translating the extracted area of the reference image, so only simple translational movements can be predicted. There is a problem in that performance deteriorates significantly when movements other than translational movements, such as rotation, enlargement, reduction, and camera zooming, occur.
一方、第2の例においては、予測画像の生成をアフィン変換によって行ってい るため、回転など、予測可能対象の種類は多くなるが、演算の処理が複雑になり 、装置規模が大きくなるという課題がある。On the other hand, in the second example, the predicted image is generated using an affine transformation, which increases the number of predictable objects, such as rotation, but also increases the complexity of the calculation process and the size of the device.
以上、処理を単純化すれば予測しきれない場合が多く、アフィン変換を用いれ ば予測できる場合が増えるものの、処理が大変になるというジレンマがあった。As mentioned above, simplifying the process often results in incomplete predictions, while using affine transformations increases the number of predictable cases, making the process more difficult.
復号処理については、従来装置の構成を保ちながら複雑な処理を行うものの具 体的な提案がなかった。Regarding the decoding process, there were no concrete proposals for performing complex processing while maintaining the configuration of the conventional device.
発明の開示 この発明は、上記のような課題を解消するためになされたもので、参照画面上 の既存の画素、もしくは簡易なフィルタ処理によって得られた画素を用いて、予 測すべき画像領域とは異なる形状もしくは異なる大きさの予測画像領域を形成し て、比較的簡単な処理によって、様々な種類の動きや時間変化に対応できる画像 の動き補償予測方式を用いた符号化装置を得ることを目的とする。Disclosure of the Invention This invention was conceived to address the above-mentioned problems. It aims to provide a coding device using a motion compensation prediction method that can accommodate various types of motion and temporal changes with relatively simple processing by using existing pixels on a reference screen or pixels obtained through simple filtering to form a prediction image area of a different shape or size from the image area to be predicted.
また、比較的簡単な符号化処理に対応する復号を行う復号装置と、同様構成で 精密でよりスムーズな動きを再現する画像復号装置を得ることを目的とする。Another object of the present invention is to provide a decoding device that performs decoding corresponding to a relatively simple encoding process, and an image decoding device with a similar configuration that reproduces precise and smoother motion.
この発明に係る画像符号化装置は、入力画像を所定のブロックに分割して、こ のブロックのフレーム間の動き検出による動き補償予測手段を備えて、入力画像 を圧縮符号化する構成であって、動き検出用の参照画像の対応する部分領域に存 在する実標本点である整数画素のみを所定の形式に変形化して座標指定して抽出 し、入力画像の上記ブロックの整数画素と比較する変形ブロックマッチング部を 含んで上記座標指定して抽出した最小誤差を与える動きベクトルを出力する動き 検出部と、この変形ブロックマッチング部を含めた比較出力から得られる動きパ ラメータに従って参照画像のブロックを対応し座標指定して変形して決める対応 点決定部を含んで予測部分画像を出力する動き補償部とを備えた。The image coding device according to the present invention is configured to divide an input image into predetermined blocks, and includes motion compensation prediction means for detecting inter-frame motion between these blocks, and compression-encodes the input image. The motion detection unit includes a modified block matching unit that transforms only integer pixels, which are actual sample points present in a corresponding partial region of a reference image for motion detection, into a predetermined format, specifies coordinates, extracts them, and compares them with the integer pixels of the block in the input image, outputting the motion vector extracted using the specified coordinates that provides the minimum error; and a motion compensation unit that includes a corresponding point determination unit that transforms corresponding blocks of the reference image using the specified coordinates in accordance with motion parameters obtained from the comparison output including the modified block matching unit, and outputs a predicted partial image.
また更に、変形ブロックマッチング部は、参照画像の部分領域の所定の形式の 変形化に際しては、整数画素と、整数画素の中点である半画素とを使用して変形 化するようにした。Furthermore, when transforming a partial region of the reference image in a predetermined format, the transformation block matching unit performs the transformation using integer pixels and half pixels that are the midpoints of the integer pixels.
また更に、入力画像を符号化の対象領域として画像オブジェクトの部分領域に 分離する前処理部を付加して、分離したこれら各画像オブジェクトをブロックに 分割して動き検出及び動き補償をするようにした。Furthermore, a pre-processing unit is added that separates the input image into subregions of image objects as target regions for encoding, and each of these separated image objects is divided into blocks for motion detection and motion compensation.
また更に、変形ブロックマッチング部及び対応点決定部は、整数画素または半 画素を座標指定する際に、隣接または所定数倍した隣接点を座標指定して抽出し て比較する変形ブロックマッチング部と、同様に参照画像を処理して出力する対 応点決定部とした。Furthermore, the modified block matching unit and corresponding point determination unit are configured such that, when specifying the coordinates of integer pixels or half pixels, the modified block matching unit specifies the coordinates of adjacent points or adjacent points that are a predetermined multiple of the coordinates, extracts them, and compares them, and the corresponding point determination unit similarly processes and outputs a reference image.
また更に、変形ブロックマッチング部及び対応点決定部は、整数画素または半 画素を所定の角度方向に回転した座標指定をして抽出し比較する変形ブロックマ ッチング部と、同様に参照画像を処理して出力する対応点決定部とした。Furthermore, the modified block matching unit and corresponding point determination unit are configured as follows: the modified block matching unit extracts and compares coordinates designated by rotating integer pixels or half pixels in a predetermined angle direction, and the corresponding point determination unit similarly processes and outputs a reference image.
所定の角度方向の回転は、正負45度、90度、135度または180度とし た。The rotation in the predetermined angular direction was plus or minus 45 degrees, 90 degrees, 135 degrees, or 180 degrees.
また更に、変形ブロックマッチング部及び対応点決定部は、平行移動後の参照 画像の部分領域が示す領域を探索して、この探索領域を拡大または縮小、または 所定の角度方向の回転を組み合わせて動かして比較する変形ブロックマッチング 部と、同様に参照画像を処理して出力する対応点決定部とした。Furthermore, the deformation block matching unit and the corresponding point determination unit are configured as follows: The deformation block matching unit searches for the area indicated by the partial area of the reference image after translation, and then enlarges or reduces this search area, or moves it by combining rotations in a predetermined angular direction, and compares it; The corresponding point determination unit similarly processes and outputs the reference image.
また更に、変形ブロックマッチング部は、参照画像の部分領域を変形加工して 比較するための変形パターンテーブルを備え、この変形パターンテーブルから引 き出された変換値に基づく部分領域の画像を入力画像のブロックの整数画素また は半画素と比較する変形ブロックマッチング部とし、対応点決定部も、同様に参 照画像を処理して出力する対応点決定部とした。Furthermore, the modified block matching unit is provided with a deformation pattern table for modifying and processing a partial region of the reference image for comparison, and the image of the partial region based on the transformation values extracted from this deformation pattern table is compared with integer pixels or half pixels of the block of the input image. Similarly, the corresponding point determination unit is a corresponding point determination unit that processes the reference image and outputs the result.
また更に、変形ブロックマッチング部は、対応評価のために抽出された参照画 像の特定画素を選択的にフィルタ処理をして比較するようにした。Furthermore, the modified block matching unit selectively filters specific pixels of the reference image extracted for correspondence evaluation and performs comparison.
動き検出のためのフレームは、時間的に前のまたは後ろのフレームとし、参照 画像は、上記時間的に前のまたは後ろのフレームを記憶して入力画像と比較する ようにした。The frame for motion detection is the previous or next frame in time, and the reference image is the previous or next frame stored and compared with the input image.
この発明に係る画像復号装置は、動き補償手段を備えた入力情報の画像圧縮符 号を伸張再生する構成であって、入力情報中の動きパラメータを抽出して動きの 方向と量を表す動きベクトルと、変形処理の指示内容を表す変形パターン情報と を得るエントロピー復号部と、このエントロピー復号部出力の動きパラメータに より、フレームに対応して記憶されている参照画像の部分領域の整数画素の座標 値を入力情報中の変形パターン情報に基づいて所定の形式に変形処理して得られ た画素値で入力の被予測画像に加算するための画像を生成する動き補償手段とを 備えた。An image decoding device according to the present invention is configured to decompress and reproduce image compression codes of input information and includes a motion compensation means. The image decoding device includes an entropy decoding unit that extracts motion parameters from the input information to obtain motion vectors representing the direction and amount of motion and transformation pattern information representing instructions for transformation processing. The motion compensation means uses the motion parameters output by the entropy decoding unit to transform integer pixel coordinate values of a subregion of a reference image stored corresponding to a frame into a predetermined format based on the transformation pattern information in the input information, thereby generating an image to be added to the input predicted image using the resulting pixel values.
また更に、動き補償手段は、参照画像の半画素の座標値も用いて座標 計算して、得られた画素値を所定の形式に変形処理するようにした。Furthermore, the motion compensation means calculates coordinates using coordinate values of half pixels of the reference image, and transforms the obtained pixel values into a predetermined format.
この発明に係る画像符号化方法は、入力のディジタル画像の圧縮符号化のため に参照画像を記憶し所定ブロックに分割してフレーム間の動き検出をする動き補 償予測手段を備えて、参照画像の部分領域の整数画素を所定の形式に変形化して 座標指定して抽出し、予測部分画像を生成して入力画像の上記ブロックと比較す る変形ブロックマッチングステップと、上記変形ブロックマッチングを含んで選 ばれた最小誤差を与える動きベクトルから上記座標指定により上記部分領域を対 応点決定して動き補償出力とする対応点決定ステップとを備えた。The image coding method according to the present invention includes a motion compensation prediction means for storing a reference image for compression coding of an input digital image, dividing the reference image into predetermined blocks, and detecting motion between frames. The method also includes a modified block matching step for transforming integer pixels of a partial region of the reference image into a predetermined format, extracting the transformed integer pixels by specifying coordinates, generating a predicted partial image, and comparing the resulting predicted partial image with the block of the input image. The method also includes a corresponding point determination step for determining corresponding points of the partial region by specifying the coordinates from a motion vector that provides the smallest error and is selected using the modified block matching, thereby producing a motion-compensated output.
また更に、変形ブロックマッチングステップは、参照基準として参照画像の部 分領域の整数画素の他にその中点の半画素も加えて所定の形式に変形化し座標指 定して抽出し、予測部分画像を生成して比較する変形ブロックマッチングステッ プとした。Furthermore, the modified block matching step is a step in which a partial region of the reference image is transformed into a predetermined format using not only integer pixels but also half pixels at its midpoint as a reference standard, and then the coordinates are specified and extracted to generate a predicted partial image for comparison.
また更に、参照画像の部分領域を変形加工する変形パターンテーブルを備えて 、変形ブロックマッチングに際して、この変形パターンテーブルを参照して対応 アドレスを読み出した変換値に基づく部分領域の画像を入力画像と比較する変形 ブロックマッチングステップとした。Furthermore, a deformation pattern table is provided for deforming a partial region of the reference image, and during deformation block matching, the deformation pattern table is referenced, and the image of the partial region based on the transformation value read from the corresponding address is compared with the input image.
この発明に係る画像復号方法は、動き補償を行い入力情報の画像圧縮符号を伸 張再生するために、入力情報中の動きパラメータを抽出して動きの方向と量を表 す動きベクトルと、変形処理の指示内容を表す変形パターン情報とを得るエント ロピー復号ステップと、このエントロピー復号ステップで得られた動きパラメー タにより、フレームに対応して記憶されている参照画像の部分領域の整数画素の 座標値を入力情報中の変形パターン情報に基づいて所定の形式に変形処理して得 られた画素値で入力の被予測画像に加算するための画像を生成する動き補償ステ ップとを備えた。The image decoding method according to the present invention includes an entropy decoding step for extracting motion parameters from input information to obtain motion vectors representing the direction and amount of motion and transformation pattern information representing transformation processing instructions, in order to perform motion compensation and decompress and reproduce the image compression code of input information; and a motion compensation step for generating an image to be added to the input predicted image using pixel values obtained by transforming integer pixel coordinate values of a partial region of a reference image stored corresponding to a frame into a predetermined format based on the transformation pattern information in the input information, using the motion parameters obtained in the entropy decoding step.
また更に、動き補償ステップは、参照画像の半画素の座標値も用いて座標計算 して、得られた画素値を所定の形式に変形処理するようにした。Furthermore, the motion compensation step also uses coordinate values of half pixels of the reference image to perform coordinate calculations, and transforms the obtained pixel values into a predetermined format.
この発明に係る画像符号化復号システムは、入力画像を所定のブロックに分割 して、上記入力画像を圧縮符号化するため、動き検出用の参照画像の対応する部 分領域に存在する実標本点である整数画素のみを所定の形式に変形化して座標指 定して抽出し、入力画像の上記ブロックの整数画素と比較する変形ブロックマッ チング部を含んで、上記座標指定して抽出した最小誤差を与える動きベクトルを 出力する動き検出部と、上記変形ブロックマッチング部を含めた比較出力から得 られる動きパラメータに従って上記参照画像のブロックを対応して変形し座標指 定して決める対応点決定部を含んで予測部分画像を出力する動き補償部とを備え た画像符号化装置と、フレーム間の動き検出による動き補償予測手段を備えて入 力情報の画像圧縮符号を伸張再生するため、動き補償予測手段には、入力情報中 の動きパラメータに基づいて対応する部分領域の予め用意された整数画素を所定 の形式に座標指定して抽出する機構を備え、上記所定の形式に処理した部分領域 の画像信号を出力加算するようにした画像復号装置、とで構成される。An image coding/decoding system according to the present invention comprises an image coding device that divides an input image into predetermined blocks and, in order to compress and encode the input image, includes a motion estimation unit that includes a modified block matching unit that transforms only integer pixels, which are actual sample points present in corresponding partial regions of a reference image for motion estimation, into a predetermined format, specifies coordinates, and extracts them, and compares them with the integer pixels of the blocks of the input image, outputting a motion vector that provides the minimum error extracted using the specified coordinates; a motion compensation unit that includes a corresponding point determination unit that transforms corresponding blocks of the reference image in accordance with motion parameters obtained from the comparison output including the modified block matching unit, and determines the corresponding points using specified coordinates, and outputs a predicted partial image; and an image decoding device that includes motion compensation prediction means that detects motion between frames and, in order to decompress and reproduce image compression codes of input information, the motion compensation prediction means includes a mechanism that specifies coordinates and extracts pre-prepared integer pixels of corresponding partial regions based on the motion parameters in the input information, and outputs and adds the image signals of the partial regions processed in the predetermined format.
図面の簡単な説明 図1は、本発明の画像符号化装置の基本構成図である。BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 shows the basic configuration of the image encoding device of the present invention.
図2は、図1中の動き検出部8の内部構成図である。FIG. 2 is a diagram showing the internal configuration of the motion detection unit 8 in FIG.
図3は、図2の構成による動き検出部8の動作を表すフローチャート図である 。FIG. 3 is a flowchart showing the operation of the motion detection unit 8 in the configuration of FIG. 2.
図4は、実施の形態1における変形ブロックマッチング部21における動作の 概要を説明する図である。FIG. 4 is a diagram illustrating an overview of the operation of the modified block matching unit 21 in embodiment 1.
図5は、変形ブロックマッチング部21の内部構成図である。FIG. 5 is a diagram showing the internal configuration of the modified block matching unit 21. As shown in FIG.
図6は、変形ブロックマッチング部21の動作を表すフローチャート図である 。FIG. 6 is a flowchart showing the operation of the modified block matching unit 21.
図7は、図1中の動き補償部9の内部構成図である。FIG. 7 is a diagram showing the internal configuration of the motion compensation unit 9 in FIG.
図8は、動き補償部9の動作の様子を表すフローチャート図である。FIG. 8 is a flowchart showing the operation of the motion compensation unit 9.
図9は、前処理部2による画像オブジェクトの分離動作を説明する図である。FIG. 9 is a diagram illustrating the image object separation operation performed by the preprocessing unit 2. In FIG.
図10は、実施の形態2における動き検出部8bの別の内部構成図である。FIG. 10 is another internal configuration diagram of the motion detection unit 8b according to the second embodiment.
図11は、実施の形態3における動き検出部8cの内部構成図である。FIG. 11 is a diagram showing the internal configuration of the motion detection unit 8c according to the third embodiment.
図12は、変形ブロックマッチング部42における動作の概要を説明する図で ある。FIG. 12 is a diagram illustrating an overview of the operation of the modified block matching unit 42.
図13は、変形ブロックマッチング部42の内部構成図である。FIG. 13 is a diagram showing the internal configuration of the modified block matching unit 42.
図14は、変形ブロックマッチング部42の動作を表すフローチャート図であ る。FIG. 14 is a flowchart illustrating the operation of the modified block matching unit 42.
図15は、実施の形態4における変形ブロックマッチング部42bの動作の概 要を説明する図である。FIG. 15 is a diagram illustrating an overview of the operation of the modified block matching unit 42b in embodiment 4.
図16は、実施の形態4における変形ブロックマッチング部42bの内部構成 図である。FIG. 16 shows the internal configuration of the modified block matching unit 42b in the fourth embodiment.
図17は、変形ブロックマッチング部42bの動作を表すフローチャート図で ある。FIG. 17 is a flowchart illustrating the operation of the modified block matching unit 42b.
図18は、実施の形態4における他の変形ブロックマッチングを説明する図で ある。FIG. 18 illustrates another modified block matching method according to the fourth embodiment.
図19は、実施の形態4における他の変形ブロックマッチングを説明する図で ある。FIG. 19 illustrates another modified block matching method according to the fourth embodiment.
図20は、実施の形態5における対応点決定部34の別の内部構成図である。FIG. 20 is another internal configuration diagram of the corresponding point determination unit 34 according to the fifth embodiment.
図21は、実施の形態6における変形ブロックマッチングを説明する図である 。FIG. 21 illustrates modified block matching in embodiment 6.
図22は、実施の形態6における予測画像を構成する整数画素に対して施すフ ィルタリングの例を示した図である。FIG. 22 illustrates an example of filtering applied to integer pixels constituting a predicted image in the sixth embodiment.
図23は、変形ブロックマッチング部42cの動作の概要を説明する図である 。Figure 23 is a diagram illustrating the operation of the modified block matching unit 42c.
図24は、変形ブロックマッチング部42cの内部構成図である。FIG. 24 is a diagram showing the internal configuration of the modified block matching unit 42c.
図25は、変形ブロックマッチング部42cの動作を表すフローチャート図で ある。FIG. 25 is a flowchart illustrating the operation of the modified block matching unit 42c.
図26は、実施の形態6における動き補償部9bの内部構成図である。FIG. 26 is a diagram showing the internal configuration of the motion compensation unit 9b according to the sixth embodiment.
図27は、実施の形態6における動き補償部9bの動作を表すフローチャート 図である。FIG. 27 is a flowchart showing the operation of the motion compensation unit 9b in the sixth embodiment.
図28は、実施の形態7における画像復号装置の構成を示した図である。FIG. 28 is a diagram showing a configuration of an image decoding apparatus according to the seventh embodiment.
図29は、実施の形態7における動き補償部9の内部構成図である。FIG. 29 is a diagram showing the internal configuration of the motion compensation unit 9 according to the seventh embodiment.
図30は、図29の動き補償部9の動作を表すフローチャート図である。FIG. 30 is a flowchart showing the operation of the motion compensation unit 9 in FIG.
図31は、図29の動き補償部9が行う座標点移動動作を説明する図である。FIG. 31 is a diagram for explaining the coordinate point moving operation performed by the motion compensation unit 9 in FIG.
図32は、図29の動き補償部9が行う変形処理の例を説明する図である。FIG. 32 is a diagram illustrating an example of the transformation process performed by the motion compensation unit 9 in FIG.
図33は、座標点演算が半画素を求める演算を示す図である。FIG. 33 is a diagram showing a coordinate point calculation for obtaining a half pixel.
図34は、変形処理が回転拡大である場合の動作を説明する図である 。Figure 34 illustrates the operation when the transformation process is rotation and enlargement.
図35は、実施の形態8における画像復号装置の構成を示す図である。FIG. 35 is a diagram showing a configuration of an image decoding apparatus according to the eighth embodiment.
図36は、実施の形態8における動き補償部90の内部構成図である。FIG. 36 is a diagram showing the internal configuration of the motion compensation unit 90 according to the eighth embodiment.
図37は、図36の動き補償部90の動作を表すフローチャート図である。FIG. 37 is a flowchart showing the operation of the motion compensation unit 90 in FIG.
図38は、図36の動き補償部90が行う変形処理の例を説明する図である。FIG. 38 is a diagram illustrating an example of the transformation process performed by the motion compensation unit 90 in FIG.
図39は、図36の動き補償部90が行う座標点演算の例を示す図である。FIG. 39 is a diagram showing an example of coordinate point calculation performed by the motion compensation unit 90 in FIG.
図40は、実施の形態9における動き補償部中の対応点決定部37cの動作を 表すフローチャート図である。FIG. 40 is a flowchart illustrating the operation of the corresponding point determination unit 37c in the motion compensation unit according to the ninth embodiment.
図41は、実施の形態9における動き補償部が行う変形処理の例を説明する図 である。FIG. 41 illustrates an example of the transformation process performed by the motion compensation unit in the ninth embodiment.
図42は、従来例1のブロックマッチングによる動き補償予測の概念を説明す る図である。FIG. 42 is a diagram illustrating the concept of motion compensation prediction using block matching according to Conventional Example 1.
図43は、従来例1の画像符号化装置の動き補償予測部(ブロックマッチング 部)の構成を示す図である。FIG. 43 shows the configuration of the motion compensation prediction unit (block matching unit) of the image coding device of Prior Art 1.
図44は、従来例1の動き補償予測部の動作を表すフローチャート図である。FIG. 44 is a flowchart showing the operation of the motion compensation prediction unit of the first conventional example.
図45は、MPEG1ビデオ規格で採用されている動き補償予測方式の概要を 示した図である。Figure 45 shows an overview of the motion compensation prediction method adopted in the MPEG-1 video standard.
図46は、従来例2のアフィン変換を用いた動き補償予測の概念を説明する図 である。FIG. 46 illustrates the concept of motion compensation prediction using affine transformation in Conventional Example 2.
図47は、従来例2のアフィン変換を用いた動き補償予測部の構成を 示す図である。FIG. 47 shows the configuration of a motion compensation prediction unit using affine transformation in Conventional Example 2.
図48は、従来例2の動き補償予測部の動作を表すフローチャート図である。FIG. 48 is a flowchart showing the operation of the motion compensation prediction unit of the second conventional example.
図49は、図48中のアフィン動きパラメータ検出ステップの詳細を示すフロ ーチャート図である。FIG. 49 is a flowchart showing details of the affine motion parameter detection step of FIG.
図50は、半画素生成部232における半画素値の計算方法を説明する図であ る。FIG. 50 is a diagram illustrating a method for calculating half-pixel values in the half-pixel generation unit 232.
図51は、補間演算部231における回転/スケール量の探索ステップで生じ る非整数画素値の算出方法を説明する図である。FIG. 51 is a diagram illustrating a method for calculating non-integer pixel values that occur in the rotation/scale amount search step in the interpolation calculation unit 231.
発明を実施するための最良の形態 実施の形態1. 本発明の符号化装置、復号装置は、具体的には衛星や地上波、優先通信網を介 して行うディジタル画像伝送システム、ディジタル画像記録装置、ディジタル画 像蓄積データベースと検索・閲覧システムなどに使用される。BEST MODE FOR CARRYING OUT THE INVENTION Embodiment 1. The encoding and decoding devices of the present invention are specifically used in digital image transmission systems via satellite, terrestrial, or wired communication networks, digital image recording devices, digital image storage databases, and search/viewing systems.
図1は、画像符号化装置の基本構成図である。FIG. 1 is a diagram showing the basic configuration of an image encoding device.
図において、1は入力ディジタル画像信号、2は前処理部、3及び13はイン トラ(フレーム内)/インター(フレーム間)符号化選択部、4は直交変換部、 5は量子化部、6は逆量子化部、7は逆直交変換部、8は動き検出部、9は動き 補償部、10はフレームメモリ(参照画像)、11は動きベクトルを含む動きパ ラメータ、12は予測画像データ、14は符号化制御部、15は強制モード指示 フラグ、16はイントラ/インター符号化指示フラグ、17は量子化ステップ・ パラメータ、18はエントロピー符号化部、19は圧縮画像データである。本発 明の重要な要素は動き検出部8及び動き補償部9である。In the figure, reference numeral 1 denotes an input digital image signal, 2 denotes a preprocessing unit, 3 and 13 denote intra (within-frame)/inter (between-frame) coding selection units, 4 denotes an orthogonal transform unit, 5 denotes a quantization unit, 6 denotes an inverse quantization unit, 7 denotes an inverse orthogonal transform unit, 8 denotes a motion estimation unit, 9 denotes a motion compensation unit, 10 denotes a frame memory (reference image), 11 denotes motion parameters including motion vectors, 12 denotes predicted image data, 14 denotes a coding control unit, 15 denotes a forced mode indication flag, 16 denotes an intra/inter coding indication flag, 17 denotes a quantization step parameter, 18 denotes an entropy coding unit, and 19 denotes compressed image data. The motion estimation unit 8 and motion compensation unit 9 are key elements of the present invention.
以下、発明の実施の形態1における画像符号化装置の動作を説明する。The operation of the image coding device according to the first embodiment of the invention will now be described.
本装置は、カラー動画像系列の構成要素である各フレームの画像信号1を入力 とし、入力画像信号1はディジタル化されて、前処理部2において前処理とフォ ーマット変換、ブロックデータへの切り出しを行う。本実施形態では、ここで切 り出されるブロックデータは輝度信号成分及びそれに空間的に対応する色差信号 成分のペアから構成されるものとし、以降、輝度成分を輝度ブロック、色差成分 を色差ブロックと呼ぶ。This device receives as input image signals 1 for each frame, which are components of a color video sequence. The input image signals 1 are digitized, and then preprocessed, formatted, and segmented into block data in a preprocessing unit 2. In this embodiment, the segmented block data consists of a pair of a luminance signal component and its spatially corresponding color difference signal component. Hereinafter, the luminance component will be referred to as a luminance block, and the color difference component will be referred to as a color difference block.
次いで、各ブロックデータをフレーム内符号化するかフレーム間符号化するか をイントラ/インター符号化選択部3において決定する。イントラ(フレーム内 )符号化が選択された場合は、前処理部2から出力された原画像データから構成 されるブロックデータを直交変換部4に入力し、インター(フレーム間)符号化 が選択された場合は、前処理部2から出力された原画像データと動き補償部9か ら出力される予測画像データ12との差分から構成される予測誤差ブロックデー タを直交変換部4に入力する。このイントラ/インター・フレーム符号化の選択 は、符号化制御部14からの強制モード指示フラグ15によって強制的に行われ ることもある。選択された符号化モードは、イントラ/インター符号化指示フラ グ16としてエントロピー符号化部18に送られ、符号化ビットストリーム19 に多重化される。Next, the intra/inter coding selection unit 3 determines whether each block of data is intraframe coded or interframe coded. If intraframe coding is selected, block data composed of the original image data output from the preprocessing unit 2 is input to the orthogonal transform unit 4. If interframe coding is selected, prediction error block data composed of the difference between the original image data output from the preprocessing unit 2 and the predicted image data 12 output from the motion compensation unit 9 is input to the orthogonal transform unit 4. This selection of intraframe/interframe coding may be forced by a forced mode instruction flag 15 from the coding control unit 14. The selected coding mode is sent to the entropy coding unit 18 as the intraframe/interframe coding instruction flag 16 and multiplexed into the coded bitstream 19.
直交変換部4には、例えば、離散コサイン変換(DCT)などが用いられる。The orthogonal transform unit 4 uses, for example, a discrete cosine transform (DCT).
直交変換係数は、量子化部5において符号化制御部14で算出された量子化ステ ップ・パラメータ17を用いて量子化され、量子化後の直交変換係数はエントロ ピー符号化部18で冗長度を削減した後、符号化ビットストリーム19に多重さ れる。同時に、逆量子化部6で逆量子化され、さらに逆直交変換部7で逆直交変 換されて予測誤差信号が復 元される。これに動き補償部9から出力される予測画像データ12を加算して、 局所復号画像が生成される。ただし、イントラ/インター符号化指示フラグ16 がイントラモードの場合は、符号化選択部13で0信号が選択され、予測誤差信 号の加算は行われない。局所復号画像は、次フレーム以降の動き補償予測の参照 画像として用いるため、その内容がフレームメモリ10に書き込まれる。The orthogonal transform coefficients are quantized in the quantization unit 5 using the quantization step parameter 17 calculated by the encoding control unit 14. The quantized orthogonal transform coefficients are then multiplexed into an encoded bitstream 19 after redundancy is reduced in the entropy encoding unit 18. At the same time, the coefficients are inversely quantized in the inverse quantization unit 6 and then inversely orthogonally transformed in the inverse orthogonal transform unit 7 to restore a prediction error signal. A locally decoded image is generated by adding predicted image data 12 output by the motion compensation unit 9 to this locally decoded image. However, if the intra/inter encoding instruction flag 16 indicates intra mode, the encoding selection unit 13 selects a 0 signal, and no prediction error signal is added. The locally decoded image is used as a reference image for motion-compensated prediction of the next frame and thereafter, and its contents are written to the frame memory 10.
以下、本実施の形態の装置の最も重要な要素の1つである動き補償予測の動作 について説明する。Below we will explain the operation of motion compensation prediction, which is one of the most important elements of the device of this embodiment.
本実施形態においては、前処理部2において切り出されるブロックを動き補償 予測における被予測ブロックとする。動き補償予測処理は、動き検出部8及び動 き補償部9において行われ、動き検出部8において被予測ブロックの動きベクト ルを含む動きパラメータ11が検出され、動き補償部9が動きパラメータ11を 用いてフレームメモリ10から予測画像データ12を取り出す。動き検出処理は 、輝度ブロックを用いて行い、色差ブロックの動き補償予測は輝度ブロックの動 き検出結果を利用する。以下では、輝度ブロックの動き補償予測の動作に限定し て説明する。In this embodiment, the block extracted by the preprocessing unit 2 is used as the block to be predicted in motion-compensated prediction. Motion-compensated prediction processing is performed by a motion estimation unit 8 and a motion compensation unit 9. The motion estimation unit 8 estimates motion parameters 11, including a motion vector for the block to be predicted, and the motion compensation unit 9 uses the motion parameters 11 to extract predicted image data 12 from a frame memory 10. The motion estimation processing is performed using the luminance block, and motion-compensated prediction of the chrominance block utilizes the motion estimation results for the luminance block. The following explanation is limited to the operation of motion-compensated prediction of the luminance block.
まず、動き検出処理から説明する。First, the motion detection process will be described.
動き検出処理は、動き検出部8で行われる。動き検出部8は、参照画像中の所 定の範囲内で被予測ブロックの輝度ブロックに最も類似する領域を探索し、被予 測ブロックの画面内位置からの変化を表すパラメータを検出する。従来例で述べ たブロックマッチングでは、被予測ブロックの輝度ブロックに最も類似するブロ ックを探索し、被予測ブロックの画面内位置からの平行移動量を動きベクトルと して検出する。The motion detection process is performed by motion detection unit 8. Motion detection unit 8 searches within a specified range of the reference image for an area that is most similar to the luminance block of the block to be predicted, and detects parameters that represent the change in the block from its on-screen position. In the conventional block matching, a block that is most similar to the luminance block of the block to be predicted is searched for, and the amount of translation from the on-screen position of the block to be predicted is detected as a motion vector.
本実施形態の動き検出部8は、従来の正方ブロックに基づくブロックマッチン グと、後述する変形ブロックを用いたブロックマッチングの両 方を実行し、より予測精度の高い方を選択する構成をとる。The motion estimation unit 8 of this embodiment is configured to perform both conventional block matching based on square blocks and block matching using modified blocks, which will be described later, and select the one with the higher prediction accuracy.
以下、本実施の形態における動き検出部8の動作を説明する。The operation of the motion detection unit 8 in this embodiment will now be described.
図2は、図1中の動き検出部8の詳細構成図、図3は、その動作の様子を示す フローチャートである。FIG. 2 is a detailed block diagram of the motion detection unit 8 in FIG. 1, and FIG. 3 is a flowchart showing its operation.
図2において、20はブロックマッチング部、21は変形ブロックマッチング 部、22は動き補償予測モード判定部、23は変形ブロックマッチングによる動 きベクトル、24は変形ブロックマッチングによる最小予測誤差値、25は最終 動きベクトル、26は動き補償予測モード信号である。最終動きベクトル25及 び動き補償予測モード信号26をひとまとめで表現したものが動きパラメータ1 1であるとする。In FIG. 2, 20 denotes a block matching unit, 21 denotes a modified block matching unit, 22 denotes a motion compensation prediction mode determination unit, 23 denotes a motion vector obtained by modified block matching, 24 denotes a minimum prediction error value obtained by modified block matching, 25 denotes a final motion vector, and 26 denotes a motion compensation prediction mode signal. The final motion vector 25 and the motion compensation prediction mode signal 26 are collectively represented as motion parameters 11.
ブロックマッチング部20の内部構成及び動作フローチャートは、従来例で示 した図43及び図44と同様である。また、図3において、D BMはブロック マッチングによる最小予測誤差電力の値、D DEFは変形ブロックマッチング による最小予測誤差電力の値を表す。 The internal configuration and operation flowchart of the block matching unit 20 are the same as those shown in FIGS. 43 and 44 in the conventional example. BM is the minimum prediction error power value by block matching, D DEF represents the value of the minimum prediction error power by modified block matching.
図4は、本発明の最重要部位である変形ブロックマッチング部21における動 作の概要説明図、図5は、変形ブロックマッチング部21の詳細な内部構成図、 図6は、変形ブロックマッチング部21の動作を示すフローチャートである。Figure 4 is a diagram outlining the operation of the modified block matching unit 21, which is the most important part of this invention. Figure 5 is a detailed diagram of the internal configuration of the modified block matching unit 21. Figure 6 is a flowchart showing the operation of the modified block matching unit 21.
図5において、29は水平方向平行移動量探索範囲指示信号、30は垂直方向 平行移動量探索範囲指示信号、31は水平方向移動量カウンタ、32は垂直方向 移動量カウンタ、33は新要素である回転量カウンタ、34は同じく新要素であ る対応点決定部、35はメモリ読み出しアドレス生成部である。パターンマッチ ング部213、最小予測誤差電力判定部216は、図47に示す構成の対応要素 と同一の動作を行う。In Figure 5, 29 denotes a horizontal translation amount search range indication signal, 30 denotes a vertical translation amount search range indication signal, 31 denotes a horizontal translation amount counter, 32 denotes a vertical translation amount counter, 33 denotes a rotation amount counter (a new element), 34 denotes a corresponding point determination unit (also a new element), and 35 denotes a memory read address generation unit. The pattern matching unit 213 and minimum prediction error power determination unit 216 perform the same operations as their corresponding elements in the configuration shown in Figure 47.
また、図6において、 dxは、水平方向平行移動量探索点、 dyは、垂直方向平行移動量探索点、 range h minは、水平方向探索範囲下限値、 range h maxは、水平方向探索範囲上限値、 range v minは、垂直方向探索範囲下限値、 range v maxは、垂直方向探索範囲上限値、 D minは、最小予測誤差電力、 D(dx,dy)は、dx,dy探索時の予測誤差電力 (x,y)は、被予測ブロック内画素位置、 (rx,ry)は、(x,y)に対する参照画像中の対応点、 (rdx,rdy)は、回転パラメータ、 D(dx,dy)は、dx,dy探索時の(x,y)における予測誤差、 f(x,y)は、被予測画像中の画素(x,y)の値、 fr(x,y)は、参照画像中の画素(x,y)の値、 MV hは、動きベクトル水平成分、 MV vは、動きベクトル垂直成分、 ixは、水平方向オフセット値(定数)、 iyは、垂直方向オフセット値(定数)、 block sizeは、被予測ブロックサイズ である。 In addition, in FIG. 6, dx is a horizontal translation amount search point, dy is a vertical translation amount search point, and range h min is the lower limit of the horizontal search range, h max is the upper limit of the horizontal search range, v min is the lower limit of the vertical search range, v max is the upper limit of the vertical search range, min is the minimum prediction error power, D(dx, dy) is the prediction error power during dx, dy search, (x, y) is the pixel position in the block to be predicted, (rx, ry) is the corresponding point in the reference image for (x, y), (rdx, rdy) is the rotation parameter, D(dx, dy) is the prediction error at (x, y) during dx, dy search, f(x, y) is the value of pixel (x, y) in the image to be predicted, fr(x, y) is the value of pixel (x, y) in the reference image, MV h is the horizontal component of the motion vector, v is the vertical component of the motion vector, ix is the horizontal offset value (constant), iy is the vertical offset value (constant), block size is the predicted block size.
1)ブロックマッチングによる動きベクトルの検出 ブロックマッチング部20において、従来例で示した手順と動作で被予測ブロ ックに対する動きベクトルを求める。この結果、動きベクトル217、ブロック マッチング部20における最小予測誤差電力D BM218を得る。これは、図 3におけるS1に相当する。1) Detection of motion vector by block matching In the block matching unit 20, a motion vector for a block to be predicted is calculated by the procedure and operation shown in the conventional example. As a result, the motion vector 217 and the minimum prediction error power D BM218 is obtained, which corresponds to S1 in FIG.
2)変形ブロックマッチングによる動きベクトルの検出 次いで、変形ブロックマッチング部21において、変形ブロックマッチングの 処理を行う(図3のS2)。2) Motion Vector Detection by Modified Block Matching Next, the modified block matching unit 21 performs modified block matching (S2 in Figure 3).
以下、この動作についてさらに詳しく説明する。なお、以下の説明においては 、整数画素を単位とする8×8画素ブロックを被予測ブロックとして説明を進め る。This operation is explained in more detail below. Note that in the following explanation, the prediction block will be an 8x8 pixel block in integer pixel units.
2−1)処理概要 変形ブロックマッチング部21における処理の概要を図4に示す。2-1) Processing Overview Figure 4 shows an overview of the processing performed by the modified block matching unit 21.
同図において、被予測画像27は、動き補償予測によって符号化される。例え ば、前処理部2中にあるフレーム(ピクチャ)、参照画像28は、被予測画像2 7より以前に符号化されてフレームメモリ10に蓄えられている局所復号フレー ム(ピクチャ)画像とする。各画像内の○は、フレーム内に実際に存在する輝度 信号の実標本点である整数画素を、×は実標本点間の中点画素である半画素を示 す。被予測画像27の8×8(整数画素)からなる部分領域を被予測ブロック( の輝度ブロック部分)とし、参照画像28の□の画素からなるグループが予測画 像候補の変形ブロックを構成するものとする。即ち、図1、図2の()表示のフ レームメモリ10出力と前処理部2出力の一部が切り出されて、動き検出部8内 の変形ブロックマッチング部21で比較される。In the figure, the predicted image 27 is coded using motion-compensated prediction. For example, the frame (picture) in the preprocessing unit 2, the reference image 28, is a locally decoded frame (picture) image coded before the predicted image 27 and stored in the frame memory 10. The circles in each image represent integer pixels, which are actual sample points of the luminance signal that actually exist within the frame, and the crosses represent half-pixels, which are midpoints between the actual sample points. A subregion of 8x8 (integer pixels) in the predicted image 27 is considered the predicted block (the luminance block portion), and a group of square pixels in the reference image 28 constitutes the modified block of the predicted image candidate. That is, portions of the frame memory 10 output and the preprocessing unit 2 output, shown in parentheses in Figures 1 and 2, are extracted and compared in the modified block matching unit 21 in the motion estimation unit 8.
本実施の形態では、参照画像の輝度ブロックを右もしくは左45度に回転させ 、各辺のスケールを√2倍した、つまり、参照画像の大きさは被予測画像(入力 画像)と比較する際は、1/√2の距離として、フレームの入力ディジタル画像 1の水平垂直方向の標本点距離と合致させた領域を変形ブロックとして定義する 。この領域は、参照画像28の整数画素間隔の画素点のみから構成されることに 特徴がある。即ち、本実施形態における変形ブロックマッチングは、与えられた 探索範囲内で、図4に示す8×8整数画素からなる被予測ブロックの輝度ブロッ クに、最 も類似した同図の変形ブロック領域を参照画像28中から見つける処理に相当す る。In this embodiment, the luminance block of the reference image is rotated 45 degrees right or left, and each side is scaled by √2. In other words, when comparing the size of the reference image with the predicted image (input image), the distance is set to 1/√2. The region that matches the horizontal and vertical sampling point distance of the input digital image 28 is defined as a modified block. This region is characterized by being composed only of pixel points in the reference image 28 spaced at integer pixel intervals. In other words, modified block matching in this embodiment corresponds to the process of finding, within a given search range, the modified block region shown in Figure 4 that most closely resembles the luminance block of the predicted block, which consists of 8x8 integer pixels.
2−2)初期設定(探索範囲の設定、初期値の設定) 被予測ブロックと予測画像候補領域の形状とが異なるため、探索に際しては、 検出される動きベクトルがどこを起点としているかを特定する必要がある。即ち 、あらかじめ被予測ブロックの輝度ブロックの各構成点と予測画像候補領域の変 形ブロックの各構成点とを1対1に対応させる。2-2) Initial Settings (Search Range and Initial Value Settings) Because the shapes of the predicted block and the candidate predicted image area are different, it is necessary to determine the origin of the detected motion vector during the search. That is, each component point of the luminance block of the predicted block is first matched one-to-one with each component point of the transformation block of the candidate predicted image area.
以下では、図4の点線矢印に示すように、あらかじめ被予測ブロックの左上隅 の画素位置と、変形ブロックの左側頂点とを対応させるものとする。つまり、予 測画像候補画像は参照画像28中の変形ブロックを右45度回転させ、各辺を1 /√2倍の長さに修正した部分画像ということになる。この対応付けを変えれば 、回転の方向が変わることになる。このように取り決めておくことにより、他の 各構成点は一意に対応がとれる。被予測ブロックの各構成点と予測画像候補の各 構成点が1対1に対応付けられているので、動き検出はブロックマッチングと同 様に実行することができる。In the following, as shown by the dotted arrow in Figure 4, we assume that the pixel position of the upper left corner of the predicted block corresponds to the left vertex of the transformed block. In other words, the candidate predicted image is a partial image obtained by rotating the transformed block in reference image 28 45 degrees to the right and modifying each side to a length of 1/√2. Changing this correspondence changes the direction of rotation. By defining it in this way, each of the other construction points can be uniquely matched. Because each construction point of the predicted block corresponds one-to-one to each construction point of the candidate predicted image, motion estimation can be performed in the same way as block matching.
即ち、図4の参照画像28の比較のための部分領域の取り出し型をパターン化 してアドレッシング(座標)で指定しておき、しかもこの場合には、整数画素が 選ばれるよう指示しておき、このアドレッシング指示された画素と対応する被予 測画像27である原画像データ中の画素との誤差を累積して、最小誤差電力を判 定している。従って、アドレッシングの指示だけで演算を伴わないので高速の比 較ができ、しかもアドレッシング(座標指定)の仕方で単純な拡大、縮小だけで なくて回転も、また、回転と拡大、縮小の同時処理等、フレキシブルな抽出指示 ができる 具体的には、水平方向平行移動量探索範囲指示信号29及び垂直方向平行移動 量探索範囲指示信号30より、水平方向移動量カウンタ31及び垂直方向移動量 カウンタ32に対して変形ブロックマッチングの探索範囲を設定する。最小予測 誤差電力判定部216において、最小予測誤差電力D minを最大値のMAX INT(例えば、0xFFFFFFFF)にセットする。これは、図6のS4に 相当する。 4 is patterned and specified by addressing (coordinates), and in this case, integer pixels are specified to be selected, and the error between the pixel specified by this addressing and the corresponding pixel in the original image data, which is the predicted image 27, is accumulated to determine the minimum error power. Therefore, since only addressing instructions are required and no calculation is involved, high-speed comparison is possible, and the addressing (coordinate specification) method allows flexible extraction instructions, such as not only simple enlargement and reduction but also rotation, or simultaneous processing of rotation and enlargement and reduction, etc. Specifically, the horizontal translation amount search range instruction signal 29 and the vertical translation amount search range instruction signal 30 set the search ranges for modified block matching for the horizontal translation amount counter 31 and the vertical translation amount counter 32. The minimum prediction error power determination unit 216 calculates the minimum prediction error power D min is set to the maximum value MAX INT (for example, 0xFFFFFFFF). This corresponds to S4 in FIG.
2−3)ブロック変形パラメータの設定 本実施の形態においては、ブロック変形パラメータとして、図6のS6,S8 に示すrdx,rdyを用いる。このパラメータの設定は、回転量カウンタ33 が行う。つまり、図4の参照画像を45度右回転させる関係を定義する。これら の初期値としてyの値を与え、以下、xがインクリメントされるたびにrdxを インクリメント、rdyをデクリメントする。これらの処理は、図6におけるS 6〜S8に相当する。なお、この設定は右回転の設定であり、S6でrdy=− y、S8でry=iy+(rdy++)と設定すると、左回転の変形を意味する 。なお、S8は、rx=ix+(rdx+1)、ry=iy+(rdy−1)と も表現される。2-3) Setting Block Transformation Parameters In this embodiment, the rdx and rdy parameters shown in S6 and S8 of Figure 6 are used as block transformation parameters. These parameters are set by the rotation amount counter 33. In other words, they define the relationship for rotating the reference image in Figure 4 by 45 degrees to the right. The initial value of these is the y value, and rdx is incremented and rdy is decremented each time x is incremented. These processes correspond to S6 through S8 in Figure 6. Note that this setting is for right rotation; setting rdy = -y in S6 and ry = iy + (rdy++) in S8 implies a left rotation transformation. Note that S8 can also be expressed as rx = ix + (rdx + 1), ry = iy + (rdy - 1).
即ち、S8では、参照画像28から抽出する画素のアドレッシングを指示して おり、次の画素であるrx,ryのアドレスが45度右下方向の次の整数画素を 指示している。これをS12でxのブロックサイズまで繰り返し、S14でyの ブロックサイズまで繰り返していることである。このように、S8のアドレッシ ングによる抽出画素をS9で誤差比較し、S10で累積しているので、図6の動 作フローにおいては、一切の演算をしておらず、高速動作ができる。なお、S1 0も、D(dx,dy)=D(dx,dy)+D(x,y)とも表現される。同 様に、S11,S13,S17,S19は、x=x+1、y=y+1とも表現さ れる。これは、以後のフローチャートでも同様である。That is, S8 specifies the addressing of the pixel to be extracted from the reference image 28, and the address of the next pixel, rx and ry, specifies the next integer pixel 45 degrees downward to the right. This is repeated in S12 up to the block size x, and in S14 up to the block size y. In this way, the extracted pixel addressing in S8 undergoes error comparison in S9 and accumulation in S10, so the operational flow of FIG. 6 does not require any calculations, enabling high-speed operation. Note that S10 can also be expressed as D(dx, dy) = D(dx, dy) + D(x, y). Similarly, S11, S13, S17, and S19 can also be expressed as x = x + 1 and y = y + 1. This also applies to subsequent flowcharts.
2−4)予測画像候補画像の読み出し まず、被予測ブロックの輝度ブロック内の位置(x,y)に対応する参照画像 中の対応点rx,ryを決定する。つまり、図4の最初の位置間の対応付けを行 う。これは対応点決定部34で行われる。図6のS8に示すように、rx,ry は、あらかじめ与えられるオフセット値ix,iyに、2−3)で得られたrd x,rdyを加算することによって得られる。次いで、参照画像から(rx+d x,ry+dy)だけ離れた位置にある参照画像中の画素をフレームメモリから 取り出す。図5におけるメモリ読み出しアドレス生成部35が水平方向移動量カ ウンタ31からdxの値を、垂直方向移動量カウンタ32からdyの値を、対応 点決定部34からrx,ryを受け取り、フレームメモリ中のアドレスを生成す る。2-4) Reading Candidate Predicted Images First, determine the corresponding points rx and ry in the reference image that correspond to the position (x, y) in the luminance block of the predicted block. In other words, the initial position matching shown in Figure 4 is performed. This is performed by the corresponding point determination unit 34. As shown in S8 of Figure 6, rx and ry are obtained by adding the rdx and rdy obtained in 2-3) to the pre-specified offset values ix and iy. Next, the pixel in the reference image that is located a distance (rx + dx, ry + dy) from the reference image is retrieved from the frame memory. The memory read address generation unit 35 in Figure 5 receives the value dx from the horizontal movement amount counter 31, the value dy from the vertical movement amount counter 32, and rx and ry from the corresponding point determination unit 34, and generates an address in the frame memory.
2−5)予測誤差電力の算出 まず、動きベクトルが(dx,dy)の時の予測誤差電力D(dx,dy)を ゼロに初期化する。これは、図6のS5に相当する。2−4)で読み出された画 素値と、被予測ブロックの輝度ブロックの対応する位置の画素値との差をとり、 その絶対値をD(dx,dy)に累積していく。この処理をx=y=block size(ここでは、block size=8)になるまで繰り返し、(d x,dy)時の予測誤差電力D(dx,dy)を得る。この処理は、図5におけ るパターンマッチング部213が行い、パターンマッチング部213は、D(d x,dy)を予測誤差電力信号215によって最小予測誤差電力判定部216に 受け渡す。2-5) Calculation of prediction error power First, the prediction error power D(dx, dy) when the motion vector is (dx, dy) is initialized to zero. This corresponds to S5 in Fig. 6. The difference between the pixel value read in 2-4) and the pixel value at the corresponding position in the luminance block of the predicted block is calculated, and the absolute value is accumulated in D(dx, dy). This process is repeated for x = y = block size (here, block This process is repeated until the minimum prediction error power D(dx, dy) is obtained at the time of (dx, dy). This process is performed by the pattern matching unit 213 in FIG. 5, and the pattern matching unit 213 passes D(dx, dy) to the minimum prediction error power determination unit 216 via a prediction error power signal 215.
以上の処理は、図6におけるS9〜S14の処理に相当する。The above processing corresponds to the processing in steps S9 to S14 in FIG.
2−6)最小予測誤差電力値の更新 2−5)の結果得られたD(dx,dy)が、それまでの探索結果の中で最小 の誤差電力を与えるかどうかを判定する。判定は、図5における最小予測誤差電 力判定部216が行う。また、図6におけるS15がこの判定処理に相当する。2-6) Update of Minimum Prediction Error Power Value 2-5) determines whether D(dx, dy) obtained as a result of the search provides the minimum power error among the search results up to that point. This determination is made by the minimum prediction error power determination unit 216 in Figure 5. S15 in Figure 6 corresponds to this determination process.
最小予測誤差電力判定部216は、内部に持つ最小予測誤差電力D minの値 と、予測誤差電力信号215によって受け渡されるD(dx,dy)の大小を比 較し、D(dx,dy)の方が小さいときに限りD minの値をD(dx,d y)で更新する。また、そのときの(dx,dy)の値を動きベクトル候補(M V h,MV v)として保持しておく。これらの更新処理は、図6におけるS 16に相当する。The minimum prediction error power determination unit 216 determines the minimum prediction error power D The value of min is compared with the magnitude of D(dx, dy) delivered by the prediction error power signal 215, and only when D(dx, dy) is smaller, D The value of min is updated with D(dx, dy). The value of (dx, dy) at that time is used as the motion vector candidate (MV h, MV v) These update processes correspond to S16 in FIG.
2−7)動きベクトル値の決定 上記2−2)〜2−6)を探索範囲中のすべての(dx,dy)について繰り 返し(図6のS17〜S20)、最終的に最小予測誤差電力判定部216内に保 持されている(MV h,MV v)を動きベクトル23として出力する。2-7) Determination of Motion Vector Values The above steps 2-2) to 2-6) are repeated for all (dx, dy) in the search range (S17 to S20 in FIG. 6), and finally the (MV h, MV v) is output as a motion vector 23.
以上のようにして、被予測ブロックに誤差電力最小の意味で最も類似した予測 画像を探し出す。探索の結果、選ばれた予測画像の起点からの偏移量が変形ブロ ックマッチングの結果としての動きベクトル23として得られ、その時の予測誤 差電力D DEF24も保持される。 In this way, a predicted image that is most similar to the predicted block in the sense of having the smallest error power is found. As a result of the search, the displacement of the selected predicted image from the starting point is obtained as a motion vector 23 as a result of modified block matching, and the prediction error power D DEF24 is also retained.
3)最終動き補償予測モードの判定 次に、動き補償予測モード判定部22において、ブロックマッチング部20で 得られた最小予測誤差電力D BM218と、変形ブロックマッチング部21で 得られた最小予測誤差電力D DEF24とを比較し、ブロックマッチングか変 形ブロックマッチングかいずれか小さいほうを最終的な動き補償モードとして選 択する。これは、図3のS3に相当する。3) Determination of Final Motion Compensation Prediction Mode Next, the motion compensation prediction mode determination unit 22 determines the minimum prediction error power D obtained by the block matching unit 20. BM218 and the minimum prediction error power D obtained by the modified block matching unit 21 DEF24 and the smaller of either block matching or modified block matching is selected as the final motion compensation mode. This corresponds to S3 in FIG.
動き補償予測モード判定部22は、最終的に選択した動き補償予測モード信号 26及び最終動きベクトル25を動きパラメータ11として動き補償部9及びエ ントロピー符号化部18に送る。The motion compensation prediction mode determination unit 22 sends the finally selected motion compensation prediction mode signal 26 and the final motion vector 25 as motion parameters 11 to the motion compensation unit 9 and the entropy coding unit 18.
次に、動き補償処理について説明する。Next, the motion compensation process will be described.
動き補償処理は、動き補償部9で行われる。動き補償部9は、動き検出部8に おいて得られた動きパラメータ11に基づいて、参照画像中から予測画像を抽出 する。本実施形態の動き補償部9は、従来の正方ブロックに基づくブロックマッ チングと、特定の変形ブロックを用いたブロックマッチングのいずれの動き補償 処理もサポートし、動きパラメータ11中の動き補償予測モードによってこれら の処理を切り替える構成をとる。Motion compensation processing is performed by the motion compensation unit 9. The motion compensation unit 9 extracts a predicted image from a reference image based on the motion parameters 11 obtained by the motion estimation unit 8. The motion compensation unit 9 of this embodiment supports both conventional block matching based on square blocks and block matching using specific distorted blocks, and is configured to switch between these types of motion compensation processing depending on the motion compensation prediction mode in the motion parameters 11.
以下、本実施の形態における動き補償部9の動作を説明する。The operation of the motion compensation unit 9 in this embodiment will now be described.
図7は、図1中の動き補償部9の構成図、図8は、その動作の様子を示すフロ ーチャートである。FIG. 7 is a block diagram of the motion compensation unit 9 in FIG. 1, and FIG. 8 is a flowchart showing its operation.
図7において、37は新要素である対応点決定部、38はメモリ読み出しアド レス生成部である。In FIG. 7, reference numeral 37 denotes a corresponding point determination unit, which is a new element, and 38 denotes a memory read address generation unit.
1)対応点の決定 図8のS21に相当する処理で、被予測ブロックの画面内位置指示信号206 と動き検出部8から送られてくる動きパラメータ11とから、参照画像28中の 予測画像に対応する標本点を決定する。この処理は、図7における対応点決定部 37において行われる。動きパラメータ11に含まれる動き補償予測モードがブ ロックマッチングを示している時は、対応点は被予測ブロックの画面内位置信号 206から動きベクトルで指示される量だけ平行移動させた領域に含まれる標本 点となる。この処理は図44におけるS204で、(dx,dy)を動きベクト ルとした時の参照画像28中の位置(x+dx,y+dy)を決定する動作に相 当する。動きパラメータ11に含まれる動き補償予測モードが変形ブロックマッ チングを示している時は、動き検出部8の説明における2−4)で述べたように 、被予測ブロックの画面内位置信号206に各画素位置に応じた回転量分を加算 した後、動きベクトルで指示される量だけ平行移動させた標本点となる。この処 理は図6におけるS9で、(dx,dy)を動きベクトルとした時の参照画像2 8中の位置(rx+dx,ry+dy)を決定する動作に相当する。1) Determining Corresponding Points This process corresponds to S21 in Figure 8. A sample point in the reference image 28 corresponding to the predicted image is determined based on the intra-screen position indication signal 206 of the predicted block and the motion parameters 11 sent from the motion estimation unit 8. This process is performed by the corresponding point determination unit 37 in Figure 7. When the motion compensation prediction mode included in the motion parameters 11 indicates block matching, the corresponding point is a sample point included in an area translated by the amount indicated by the motion vector from the intra-screen position signal 206 of the predicted block. This process corresponds to S204 in Figure 44, which determines the position (x + dx, y + dy) in the reference image 28 when (dx, dy) is the motion vector. When the motion compensation prediction mode included in the motion parameters 11 indicates modified block matching, as described in 2-4) of the description of the motion detection unit 8, the in-screen position signal 206 of the predicted block is added with a rotation amount corresponding to each pixel position, and then the sample point is translated by the amount indicated by the motion vector. This process corresponds to the operation of S9 in Figure 6, in which the position (rx + dx, ry + dy) in the reference image 28 is determined when (dx, dy) is the motion vector.
2)予測画像データの読み出し 図8のS22〜S25に相当する処理で、対応点決定部34の結果を受けて、 メモリ読み出しアドレス生成部38がフレームメモリ10に蓄積される参照画像 28中の予測画像位置を特定するメモリアドレスを生成し、予測画像を読み出す 。2) Reading Predicted Image Data In the process corresponding to steps S22 through S25 in Figure 8, the memory read address generator 38 receives the results of the corresponding point determiner 34, generates a memory address that identifies the position of the predicted image in the reference image 28 stored in the frame memory 10, and reads the predicted image.
この場合に、予測画像が半画素精度の画素を含んでいると、動き補償部9から 出力される前に半画素生成部232によって半画素値が生成される。これは、図 8のS23、S24に相当する処理で、予測画像が半画素精度の画素を含むか否 かは、対応点決定部37が動きパラメータ11中の動きベクトル値をもとに識別 し、選択スイッチ36に知らせる。In this case, if the predicted image contains pixels with half-pel accuracy, half-pel values are generated by the half-pel generator 232 before it is output from the motion compensation unit 9. This process corresponds to steps S23 and S24 in FIG. 8. The correspondence point determiner 37 determines whether the predicted image contains pixels with half-pel accuracy based on the motion vector values in the motion parameters 11, and notifies the selection switch 36.
図5の変形ブロックマッチング部21の構成では、図4の説明に対応するよう に実標本点のみの対応点を生成した。しかし、半画素がある場合の構成は、後に 説明するように図13の半画素生成部232を持つ変形ブロックマッチング部4 2となる。In the configuration of the modified block matching unit 21 in FIG. 5, corresponding points are generated only for actual sample points, as explained in FIG. 4. However, in the case of a configuration in which half pixels are present, the modified block matching unit 42 has a half pixel generation unit 232 as shown in FIG. 13, as will be explained later.
以上の処理過程を経て、最終的な予測画像データ12が出力される。なお、上 記実施の形態での変形ブロックマッチングとしての回転は、45度の例を説明し たが、90度、135度、180度などは勿論、dxとdyのとり方で他の回転 も実現できる。After the above processing steps, the final predicted image data 12 is output. Note that while the rotation for modified block matching in the above embodiment is an example of 45 degrees, other rotations such as 90 degrees, 135 degrees, and 180 degrees can also be achieved by changing the settings of dx and dy.
また、本実施の形態では、画像フレームを単位とする画像符号化装置 を説明したが、前処理部2において入力ディジタル画像系列を画像オブジェクト (動きや絵柄などの特徴を同じくする部分領域、一つの被写体など)に分離する 処理を行わせ、各画像オブジェクトをそれを包含するブロック群として定義する ようにしておけば、画像オブジェクトを単位として符号化する装置であってもこ の発明を適用することができる。Furthermore, although this embodiment describes an image coding device that uses image frames as units, this invention can also be applied to devices that code image objects as units by configuring the preprocessing unit 2 to separate the input digital image sequence into image objects (subregions with similar characteristics, such as movement or pattern, or a single subject), and defining each image object as a group of blocks that contain it.
例えば、図9に示すように、静止した背景の前に人物像が存在するようなシー ンにおいて、人物像を画像オブジェクトとして、図のようにそれを取り囲む外接 四角形内の領域を小ブロックに分割し、画像オブジェクトを含むブロックを有効 ブロックとして符号化するような場合が考えられる。この場合は、これら有効ブ ロックに対し、上記実施の形態で述べた変形ブックマッチングと動き補償に関し て同様の処理を適用する。これは、以下の実施の形態においても同様である。For example, in a scene with a human figure in front of a stationary background, as shown in Figure 9, the human figure may be treated as an image object, the area within the circumscribing rectangle surrounding the figure may be divided into small blocks, and the block containing the image object may be coded as a valid block. In this case, the same processing as for the modified book matching and motion compensation described in the above embodiment is applied to these valid blocks. This also applies to the following embodiments.
本実施形態では、直交変換符号化による符号化装置を説明したが、動き補償予 測誤差信号を別の符号化方式を用いて符号化する装置であってもこの発明を適用 することができるのは言うまでもない。これは、以下の実施の形態においても同 様である。In this embodiment, a coding device using orthogonal transform coding has been described, but it goes without saying that the present invention can also be applied to a device that codes a motion compensation prediction error signal using a different coding method. This also applies to the following embodiments.
実施の形態2. 平行移動による動きベクトルの値から、変形ブロックマッチング処理の対象と なる部分領域の大まかな移動量が把握できる。変形ブロックマッチングの部分領 域の設定先を、ブロックマッチング部20の探索結果である動きベクトル217 が示す領域情報を受け、この付近に限定して変形して比較すると、処理ステップ 及び処理時間を短縮することができる。本実施の形態では、この構成について説 明する。なお、このことは、以後の他の実施の形態においても同様である。Embodiment 2. The value of the translational motion vector allows for a rough understanding of the amount of movement of the subregion to be subjected to the modified block matching process. By receiving the region information indicated by the motion vector 217, which is the search result of the block matching unit 20, and limiting the destination of the modified block matching subregion to this vicinity for comparison, the number of processing steps and processing time can be reduced. This configuration will be described in this embodiment. Note that this also applies to the other embodiments described below.
本実施の形態は動き検出部8の別の実施形態を示すものである。This embodiment shows another embodiment of the motion detection unit 8.
図10は、本実施形態における動き検出部8bの内部構成図で、39 は変形ブロックマッチング部、40は加算部、41は探索初期位置指示信号であ る。なお、変形ブロックマッチング部39は入力206の代わりに探索初期位置 指示信号41を用いるだけで、その他の動作は実施の形態1における変形ブロッ クマッチング部21と全く同じである。FIG. 10 shows the internal configuration of the motion detection unit 8b in this embodiment, with reference numeral 39 representing a modified block matching unit, 40 representing an adder, and 41 representing a search initial position indication signal. Note that the modified block matching unit 39 operates in exactly the same way as the modified block matching unit 21 in embodiment 1, except that it uses the search initial position indication signal 41 instead of input 206.
大まかな値を得る装置の具体回路を図10に示す。A specific circuit for obtaining a rough value is shown in FIG.
図10において、変形ブロックマッチング部39に、被予測ブロックの画面内 位置信号206の代わりに、被予測ブロックデータ205にブロックマッチング 部20の結果得られた動きベクトル217を加算部40によって加算し、その加 算結果を探索初期位置指示信号41として入力する。また、水平方向平行移動量 探索範囲指示信号29及び垂直方向平行移動量探索範囲指示信号30から設定す る探索範囲は実施の形態1よりも小さめに設定しておく。これにより、図6にお けるS17〜S20における反復処理を短縮することができる。In FIG. 10 , instead of the intra-screen position signal 206 of the predicted block, an adder 40 adds a motion vector 217 obtained as a result of the block matching unit 20 to the predicted block data 205, and the result of this addition is input to the modified block matching unit 39 as a search initial position indication signal 41. Furthermore, the search range set by the horizontal translation amount search range indication signal 29 and the vertical translation amount search range indication signal 30 is set smaller than in the first embodiment. This allows the iterative processing from S17 to S20 in FIG. 6 to be shortened.
実施の形態3. 先の実施の形態では、変形ブロック領域が参照画像28中の整数画素間隔の画 素点のみから構成される場合を説明した。本実施の形態では、変形ブロック領域 が参照画像28中の半画素間隔の画素点をも含めて構成される場合を説明する。Embodiment 3. In the previous embodiment, we described a case where the deformation block region is composed only of pixel points at integer pixel intervals in the reference image 28. In this embodiment, we describe a case where the deformation block region is composed also of pixel points at half-pixel intervals in the reference image 28.
本実施形態では、図1における動き検出部8及び動き補償部9の内部構成が実 施の形態1と異なる。また、動作が異なるのは、動き検出部中の変形ブロックマ ッチング部及び動き補償部中の対応点決定部だけであり、その他の部材及び動作 は実施の形態1と全く同じである。よって以下では、変形ブロックマッチング部 の動作とそれに対応する動き補償部の動作についてのみ詳しく説明する。実施の 形態1と同様、動き検出部8cと動き補償部9とに分けて動作を説明する。In this embodiment, the internal configurations of the motion estimation unit 8 and the motion compensation unit 9 shown in FIG. 1 differ from those of the first embodiment. Furthermore, the only differences in operation are the distorted block matching unit in the motion estimation unit and the corresponding point determination unit in the motion compensation unit; the other components and operations are identical to those of the first embodiment. Therefore, the following will only describe in detail the operation of the distorted block matching unit and the corresponding operation of the motion compensation unit. As in the first embodiment, the operations of the motion estimation unit 8c and the motion compensation unit 9 will be described separately.
図11は、本実施形態における動き検出部8cの内部構成図、図12 は、本発明の最重要部位の1つである変形ブロックマッチング部42における動 作の概要説明図、図13は、変形ブロックマッチング部42の詳細な内部構成図 、図14は、変形ブロックマッチング部42の動作を示すフローチャートである 。Figure 11 shows the internal configuration of the motion detection unit 8c in this embodiment. Figure 12 shows an overview of the operation of the modified block matching unit 42, one of the most important components of this invention. Figure 13 shows a detailed internal configuration of the modified block matching unit 42. Figure 14 is a flowchart showing the operation of the modified block matching unit 42.
これらの図において、前記までの図面と同一の番号を付した要素、ステップは 同一の要素、動作を意味するものとする。In these figures, elements and steps with the same numbers as in the previous figures represent the same elements and operations.
まず、変形ブロックマッチング部42の動作について説明する。First, the operation of the modified block matching unit 42 will be described.
1)処理概要 変形ブロックマッチング部42における処理の概要を図12に示す。1) Processing Overview Figure 12 shows an overview of the processing performed by the modified block matching unit 42.
同図において、被予測画像27及び参照画像28は実施の形態1で定義した通 りである。各画像内の○はフレームの輝度信号の実標本点(整数画素)を、×は 実標本点間の中点画素(半画素)を示す。被予測画像27の8×8(整数画素) からなる部分領域を被予測ブロック(の輝度ブロック部分)とし、参照画像28 の□の画素からなるグループが予測画像候補の変形ブロックを構成するものとす る。In the figure, the predicted image 27 and reference image 28 are as defined in embodiment 1. In each image, the circles represent actual sample points (integer pixels) of the luminance signal of the frame, and the crosses represent midpoint pixels (half pixels) between the actual sample points. A subregion consisting of 8x8 (integer pixels) in the predicted image 27 is defined as the predicted block (its luminance block portion), and a group of square pixels in the reference image 28 constitutes the transformed block of the predicted image candidate.
本実施の形態では、輝度ブロックを右もしくは左45度に回転させ、各辺のス ケールを1/√2倍した、つまり、参照画像の大きさは√2の距離としてフレー ムの入力ディジタル画像1の水平垂直方向の標本点距離と合致させた領域を変形 ブロックとして定義する。この領域は、参照画像28の半画素間隔の画素点をも 含んで構成されることに特徴がある。即ち、本実施形態における変形ブロックマ ッチングは、与えられた探索範囲内で、図12に示す8×8サンプル(以下サン プルは、整数画素または半画素の意味である)からなる被予測ブロックの輝度ブ ロックに最も類似した同図の変形ブロック領域を参照画像28中から見つける処 理に相当する。In this embodiment, the luminance block is rotated 45 degrees to the right or left and each side scaled by 1/√2. In other words, the size of the reference image is a distance of √2, and the region that matches the horizontal and vertical sample point distances of the input digital image 1 of the frame is defined as the deformation block. This region is characterized by including pixel points at half-pixel intervals in the reference image 28. In other words, deformation block matching in this embodiment corresponds to the process of finding, within a given search range, the deformation block region shown in Figure 12 in the reference image 28 that most closely resembles the luminance block of the prediction block, which consists of 8 x 8 samples (hereinafter, "sample" refers to either integer pixels or half pixels).
2)初期設定(探索範囲の設定、初期値の設定) 実施の形態1と同様の論理で、あらかじめ被予測ブロックの輝度ブロックの各 構成点と予測画像候補領域の変形ブロックの各構成点とを1対1に対応させる。2) Initial Settings (Search Range Setting, Initial Value Setting) Using the same logic as in Embodiment 1, a one-to-one correspondence is established between each component point of the luminance block of the predicted block and each component point of the transformation block of the candidate predicted image region.
以下では、図12の点線矢印に示すように、あらかじめ被予測ブロックの左上隅 の画素位置と、変形ブロックの左側頂点とを対応させるものとする。同図では、 変形ブロック側の左側頂点が半画素位置にのっているが、これは動きベクトルが 半画素成分を含む場合を示している。つまり、予測画像候補画像は参照画像28 中の変形ブロックを右45度回転させ、各辺を√2倍の長さに修正した部分画像 ということになる。この対応付けを変えれば回転の方向が変わることになる。こ のように取り決めておくことにより、他の各構成点は一意に対応がとれる。被予 測ブロックの各構成点と予測画像候補の各構成点が1対1に対応付けられている ので、動き検出はブロックマッチングと同様に実行することができる。実際の装 置における探索範囲の設定の動作は、実施の形態1と同じで、図13における必 要な要素を用いて設定する。この動作は、図14ではS26のステップに相当す る。In the following, we assume that the pixel position of the upper left corner of the predicted block corresponds to the left vertex of the transformation block, as indicated by the dotted arrow in Figure 12. In this figure, the left vertex of the transformation block is located at a half-pixel position, indicating that the motion vector includes a half-pixel component. In other words, the candidate predicted image is a partial image obtained by rotating the transformation block in reference image 28 by 45 degrees clockwise and correcting each side to a length that is √2 times longer. Changing this correspondence changes the direction of rotation. This arrangement ensures that each of the other composition points corresponds uniquely. Because each composition point of the predicted block corresponds one-to-one to each composition point of the candidate predicted image, motion estimation can be performed in a similar manner to block matching. The search range setting operation in the actual device is the same as in embodiment 1, and is set using the necessary elements in Figure 13. This operation corresponds to step S26 in Figure 14.
3)ブロック変形パラメータの設定 本実施形態においては、実施の形態1と同様、ブロック変形パラメータとして 図14に示すrdx,rdyを用いる。このパラメータの設定は、回転量カウン タ45が行う。これらの初期値としてyの値を与え、以下xが1ずつインクリメ ントされるたびに、rdxを0.5ずつインクリメント、rdyを0.5ずつデ クリメントする。これらの処理は、図14におけるS28〜S30に相当する。3) Setting Block Transformation Parameters In this embodiment, as in embodiment 1, the rdx and rdy shown in Figure 14 are used as block transformation parameters. These parameters are set by the rotation amount counter 45. The value of y is given as the initial value, and rdx is incremented by 0.5 and rdy is decremented by 0.5 each time x is incremented by 1. These processes correspond to steps S28-S30 in Figure 14.
この設定は右回転の設定となり、S28でrdy=−y、S30でry=iy+ (rdy+=0.5)と設定すると、左回転の変形を意味する。This setting is a right rotation setting, and setting rdy = -y in S28 and ry = iy + (rdy + = 0.5) in S30 means a left rotation deformation.
4)予測画像候補画像の読み出し まず、被予測ブロックの輝度ブロック内の位置(x,y)に対応する 参照画像中の対応点rx,ryを決定する。これは、対応点決定部46で行われ る。図14のS30に示すように、rx,ryはあらかじめ与えられるオフセッ ト値ix,iyに3)で得られたrdx,rdyを加算することによって得られ る。4) Reading the Candidate Predicted Image First, determine the corresponding points rx and ry in the reference image that correspond to the position (x, y) in the luminance block of the predicted block. This is performed by the corresponding point determination unit 46. As shown in S30 of Figure 14, rx and ry are obtained by adding the rdx and rdy obtained in 3) to the pre-specified offset values ix and iy.
次いで、参照画像から(rx+dx,ry+dy)だけ離れた位置にある参照 画像中の画素をフレームメモリから取り出す。図13におけるメモリ読み出しア ドレス生成部47が水平方向移動量カウンタ31からdxの値を、垂直方向平行 移動量カウンタ32からdyの値を、対応点決定部46からrx,ryを受け取 り、フレームメモリ中のアドレスを生成する。また、図14のS31において読 み出されたデータは、必要に応じて半画素生成部232において半画素値を生成 するために使用される。Next, a pixel in the reference image located a distance (rx + dx, ry + dy) from the reference image is retrieved from the frame memory. The memory read address generator 47 in FIG. 13 receives the value of dx from the horizontal displacement counter 31, the value of dy from the vertical translation counter 32, and rx and ry from the corresponding point determiner 46, and generates an address in the frame memory. The data read in S31 in FIG. 14 is also used by the half-pixel generator 232 to generate half-pixel values as needed.
5)予測誤差電力の算出 まず、動きベクトルが(dx,dy)の時の予測誤差電力D(dx,dy)を ゼロに初期化する。これは、図14のS27に相当する。4)で読み出された画 素値と、被予測ブロックの輝度ブロックの対応する位置の画素値との差をとり、 その絶対値をD(dx,dy)に累積していく。この処理をx=y=block _size(ここではblock_size=8)になるまで繰り返し、(dx ,dy)時の予測誤差電力D(dx,dy)を得る。この処理は、図13におけ るパターンマッチング部213が行い、パターンマッチング部213はD(dx ,dy)を予測誤差電力信号215によって最小予測誤差電力判定部216に受 け渡す。ここでの処理は、図14におけるS32〜S37の処理に相当する。5) Calculating Prediction Error Power First, the prediction error power D(dx, dy) for the motion vector (dx, dy) is initialized to zero. This corresponds to S27 in Figure 14. The difference between the pixel value read in 4) and the pixel value at the corresponding position in the luminance block of the predicted block is calculated, and the absolute value is accumulated as D(dx, dy). This process is repeated until x = y = block_size (here, block_size = 8) to obtain the prediction error power D(dx, dy) for (dx, dy). This process is performed by the pattern matching unit 213 in Figure 13, which then passes D(dx, dy) to the minimum prediction error power determination unit 216 via the prediction error power signal 215. This process corresponds to S32 through S37 in Figure 14.
6)最小予測誤差電力値の更新 5)の結果得られたD(dx,dy)が、それまでの探索結果の中で 最小の誤差電力を与えるかどうかを判定する。判定は、図13における最小予測 誤差電力判定部216が行う。また、図14におけるS38がこの判定処理に相 当する。判定処理は実施の形態1と全く同じであり、そのときの(dx,dy) の値を動きベクトル候補(MV_h,MV_v)として保持しておく。この更新 処理は、図14におけるS39に相当する。6) Update of Minimum Prediction Error Power Value It is determined whether D(dx, dy) obtained as a result of 5) provides the smallest error power value among the search results up to that point. This determination is performed by the minimum prediction error power determination unit 216 in Figure 13. S38 in Figure 14 corresponds to this determination process. The determination process is exactly the same as in Embodiment 1, and the (dx, dy) value at that time is stored as the motion vector candidate (MV_h, MV_v). This update process corresponds to S39 in Figure 14.
7)動きベクトル値の決定 上記2)〜6)を探索範囲中のすべての(dx,dy)について繰り返し(図 14のS40〜S43)、最終的に最小予測誤差電力判定部216内に保持され ている(MV_h,MV_v)を動きベクトル43として出力する。7) Determining the Motion Vector Value Steps 2) through 6) above are repeated for all (dx, dy) values in the search range (S40 through S43 in Figure 14), and the final (MV_h, MV_v) value stored in the minimum prediction error power determination unit 216 is output as the motion vector 43.
以上のようにして、被予測ブロックに誤差電力最小の意味で最も類似した予測 画像を探し出す。探索の結果、選ばれた予測画像の起点からの偏移量が変形ブロ ックマッチングの結果としての動きベクトル43として得られ、その時の予測誤 差電力D_DEF44も保持される。In this way, the predicted image that is most similar to the predicted block in terms of minimizing error power is found. As a result of the search, the displacement of the selected predicted image from the origin is obtained as a motion vector 43 resulting from modified block matching, and the prediction error power D_DEF 44 at that time is also retained.
上記動きベクトル43、予測誤差電力D_DEF44が最終的な動き補償モー ド判定に用いられ、最終的な動き補償モードが決定される。この決定方法は、実 施の形態1と全く同じである。The motion vector 43 and prediction error power D_DEF 44 are used for the final motion compensation mode determination, which is exactly the same as in the first embodiment.
次に、動き補償処理について説明する。Next, the motion compensation process will be described.
動き補償処理は、動き補償部9で行われる。本実施の形態では、対応点決定部 37の動作のみが実施の形態1と異なるので、その部分だけを説明する。動き補 償の全体的なフローチャートは、図8に準ずる。The motion compensation process is performed by the motion compensation unit 9. In this embodiment, only the operation of the corresponding point determination unit 37 differs from that of the first embodiment, and only this part will be described. The overall flowchart of the motion compensation process is as shown in Figure 8.
本実施形態においては、対応点の決定は以下のように行う。In this embodiment, the corresponding points are determined as follows.
動きパラメータ11に含まれる動き補償予測モードがブロックマッチングを示 している時は、対応点は被予測ブロックの画面内位置信号206から動きベクト ルで指示される量だけ平行移動させた領域に含まれる 標本点となる。この処理は、図44におけるS204で、(dx,dy)を動き ベクトルとした時の参照画像28中の位置(x+dx,y+dy)を決定する動 作に相当する。When the motion compensation prediction mode included in the motion parameters 11 indicates block matching, the corresponding point is a sample point included in an area translated by the amount indicated by the motion vector from the intra-screen position signal 206 of the predicted block. This process corresponds to the operation of determining the position (x + dx, y + dy) in the reference image 28 when (dx, dy) is the motion vector in S204 in Figure 44.
動きパラメータ11に含まれる動き補償予測モードが変形ブロックマッチング を示している時は、動き検出部8の説明における4)で述べたように、被予測ブ ロックの画面内位置信号206に各画素位置に応じた回転量分を加算した後、動 きベクトルで指示される量だけ平行移動させた領域に含まれる標本点となる。こ の処理は、図14におけるS32で、(dx,dy)を動きベクトルとした時の 参照画像28中の位置(rx+dx,ry+dy)を決定する動作に相当する。When the motion compensation prediction mode included in the motion parameters 11 indicates modified block matching, as described in section 4) of the motion estimation unit 8, the in-screen position signal 206 of the predicted block is added with a rotation amount corresponding to each pixel position, and then the resulting sample point is located within an area translated by the amount indicated by the motion vector. This process corresponds to the operation of determining the position (rx + dx, ry + dy) in the reference image 28 when (dx, dy) is the motion vector in step S32 of FIG. 14.
以下の予測画像データの読み出し、予測画像の生成については、実施の形態1 に準ずる。The following reading of predicted image data and generation of predicted images conform to the first embodiment.
実施の形態4. 本実施の形態は、被予測ブロックの面積が単純に縮小される変形ブロックを用 いる場合について説明する。また、説明は省略するが単純な拡大も同じである。Embodiment 4. This embodiment describes the use of a modified block, in which the area of the predicted block is simply reduced. Although not explained here, the same applies to simple enlargement.
こうして、より単純な変形ブロックマッチングと動き補償について述べる。Thus, we describe simpler modified block matching and motion compensation.
以下では、上記実施形態と動作の異なる動き検出部中の変形ブロックマッチン グ部42b及び動き補償部中の対応点決定部の動作についてのみ、図16を参照 しながら詳しく説明する。なお、説明の混乱を避けるため、変形ブロックマッチ ング部42bは、図13における変形ブロックマッチング部42のバリエーショ ンであるとし、その入力は全く同じであり、出力は動きベクトル43ならびに予 測誤差電力44のバリエーションであるものとする。また、動き補償部9中の対 応点決定部についても、図7における対応点決定部37のバリエーションである ものとする。よって、以下では、本実施形態の変形ブロックマッチング部の番号 は42bとして、対応点決定部の番号は37として説明を進める。The following describes in detail, with reference to FIG. 16, only the operation of the distorted block matching unit 42b in the motion estimation unit and the corresponding point determiner in the motion compensation unit, which operate differently from the above-described embodiment. To avoid confusion, the distorted block matching unit 42b is assumed to be a variation of the distorted block matching unit 42 in FIG. 13, with the same inputs and variations of the motion vector 43 and prediction error power 44 as its outputs. The corresponding point determiner in the motion compensation unit 9 is also assumed to be a variation of the corresponding point determiner 37 in FIG. 7. Therefore, the following description will be given assuming that the distorted block matching unit in this embodiment is numbered 42b and the corresponding point determiner is numbered 37.
図15は、本実施の形態における変形ブロックマッチング部42bにおける動 作の概要説明図、図16は、変形ブロックマッチング部42bの詳細な内部構成 図、図17は、変形ブロックマッチング部42bの動作を示すフローチャートで ある。FIG. 15 is a diagram outlining the operation of the modified block matching unit 42b in this embodiment, FIG. 16 is a detailed diagram of the internal configuration of the modified block matching unit 42b, and FIG. 17 is a flowchart illustrating the operation of the modified block matching unit 42b.
これらの図において、前記までの図面と同一の番号を付した要素、ステップは 同一の要素、動作を意味するものとする。In these figures, elements and steps with the same numbers as in the previous figures represent the same elements and operations.
まず、変形ブロックマッチング部42bの動作について説明する。First, the operation of the modified block matching unit 42b will be described.
1)処理概要 変形ブロックマッチング部42bにおける処理の概要を図15に示す。 被予 測画像27及び参照画像28、各画像内の印の説明は前述の通りである。本実施 の形態では、輝度ブロックの各辺を単純に1/2倍した縮小領域を変形ブロック として定義する。本実施の形態における変形ブロックマッチングは、与えられた 探索範囲内で、図15に示す8×8サンプルからなる被予測ブロックの輝度ブロ ックに最も類似した同図の変形ブロック領域を参照画像28中から見つける処理 に相当する。1) Processing Overview Figure 15 shows an overview of the processing performed by the modified block matching unit 42b. The predicted image 27, reference image 28, and the marks within each image are as described above. In this embodiment, a modified block is defined as a reduced area obtained by simply halving each side of a luminance block. Modified block matching in this embodiment corresponds to the process of finding, within a given search range, the modified block area shown in Figure 15 in the reference image 28 that is most similar to the luminance block of the predicted block consisting of 8x8 samples.
2)初期設定(探索範囲の設定、初期値の設定) 実施の形態1と同様の論理で、あらかじめ被予測ブロックの輝度ブロックの各 構成点と予測画像候補領域の変形ブロックの各構成点とを1対1に対応させる。2) Initial Settings (Search Range Setting, Initial Value Setting) Using the same logic as in Embodiment 1, a one-to-one correspondence is established between each component point of the luminance block of the predicted block and each component point of the transformation block of the candidate predicted image region.
本実施形態では、図15の点線矢印に示すように、あらかじめ被予測ブロックの 左上隅の画素位置と、変形ブロックの左上隅の画素位置とを対応させる。被予測 ブロックの各構成点と予測画像候補の各構成点が1対1に対応付けられているの で、動き検出はブロックマッチングと同様に実行することができる。実際の装置 における探索範囲の設定の動作は実施の形態1と同じで、図16における必要な 要素を用いて設定する。この動作は、図17では、S44のステップに相当する 。In this embodiment, as shown by the dotted arrow in Figure 15, the pixel position of the upper left corner of the predicted block is previously associated with the pixel position of the upper left corner of the transformed block. Because there is a one-to-one correspondence between each component point of the predicted block and each component point of the candidate predicted image, motion estimation can be performed in the same manner as block matching. The search range setting operation in the actual device is the same as in embodiment 1, and is set using the necessary elements in Figure 16. This operation corresponds to step S44 in Figure 17.
3)予測画像候補画像の読み出し 本実施の形態においては、特定のブロック変形パラメータは用いず、図17の S47に示すように、水平垂直各成分のオフセット値ix,iyに、x/2,y /2の値を加算することによってx,yの対応点sx,syを得る。この対応点 は対応点決定部48で行われる。次いで、参照画像から(sx+dx,sy+d y)だけ離れた位置にある参照画像中の画素をフレームメモリから取り出す。図 16におけるメモリ読み出しアドレス生成部49が水平方向移動量カウンタ31 からdxの値を、垂直方向平行移動量カウンタ32からdyの値を、対応点決定 部48からsx,syを受け取り、フレームメモリ中のアドレスを生成する。ま た、図17のS48で読み出されたデータは必要に応じて半画素生成部232に おいて半画素値を生成するために使用される。3) Reading Candidate Predicted Images In this embodiment, no specific block transformation parameters are used. Instead, as shown in S47 of FIG. 17, the corresponding points sx and sy of x and y are obtained by adding the values x/2 and y/2 to the offset values ix and iy of the horizontal and vertical components. This corresponding point is determined by the corresponding point determination unit 48. Next, a pixel in the reference image located a distance (sx + dx, sy + dy) from the reference image is retrieved from the frame memory. The memory read address generation unit 49 in FIG. 16 receives the value dx from the horizontal translation amount counter 31, the value dy from the vertical translation amount counter 32, and sx and sy from the corresponding point determination unit 48, and generates an address in the frame memory. Furthermore, the data read in S48 of FIG. 17 is used as needed to generate half-pixel values in the half-pixel generation unit 232.
4)予測誤差電力の算出 まず、動きベクトルが(dx,dy)の時の予測誤差電力D(dx,dy)を ゼロに初期化する。これは図17のS45に相当する。3)で読み出された画素 値と、被予測ブロックの輝度ブロックの対応する位置の画素値との差をとり、そ の絶対値をS50でD(dx,dy)に累積していく。この処理をx=y=bl ock_size(ここでは、block_size=8)になるまでS52, S54で繰り返し、(dx,dy)時の予測誤差電力D(dx,dy)を得る。4) Calculating Prediction Error Power First, the prediction error power D(dx, dy) for the motion vector (dx, dy) is initialized to zero. This corresponds to S45 in Figure 17. The difference between the pixel value read in 3) and the pixel value at the corresponding position in the luminance block of the predicted block is calculated, and the absolute value is accumulated as D(dx, dy) in S50. This process is repeated in S52 and S54 until x = y = block_size (here, block_size = 8), thereby obtaining the prediction error power D(dx, dy) for (dx, dy).
この処理は、図16におけるパターンマッチング部213が行い、パターンマッ チング部213は、D(dx,dy)を予測誤差電力信号215によって最小予 測誤差電力判定部216に受け渡す。ここでの処理は、図17におけるS49〜 S54の処理に相当する。This process is performed by the pattern matching unit 213 in FIG. 16 , which passes D(dx, dy) to the minimum prediction error power determination unit 216 via the prediction error power signal 215. This process corresponds to steps S49 to S54 in FIG. 17 .
5)最小予測誤差電力値の更新 4)の結果得られたD(dx,dy)が、それまでの探索結果の中で最小の誤 差電力を与えるかどうかを判定する。判定は、図16における最小予測誤差電力 判定部216が行う。また、図17におけるS55がこの判定処理に相当する。5) Update of minimum prediction error power value It is determined whether D(dx, dy) obtained as a result of step 4) provides the minimum power error among the search results up to that point. This determination is made by the minimum prediction error power determination unit 216 in Figure 16. This determination process corresponds to S55 in Figure 17.
判定処理は、実施の形態1と全く同じであり、そのときの(dx,dy)の値を 動きベクトル候補として保持しておく。この更新処理は、図17におけるS56 に相当する。The determination process is exactly the same as in embodiment 1, and the (dx, dy) values at that time are stored as motion vector candidates. This update process corresponds to S56 in Figure 17.
6)動きベクトル値の決定 上記2)〜5)を図17のS57〜S60で探索範囲中のすべての(dx,d y)について繰り返し、最終的に最小予測誤差電力判定部216内に保持されて いる(dx,dy)を動きベクトル43として出力する。6) Determining the Motion Vector Value Steps 2) through 5) above are repeated for all (dx, dy) values in the search range in steps S57 through S60 of Figure 17, and the final (dx, dy) value stored in the minimum prediction error power determination unit 216 is output as the motion vector 43.
以上のようにして、被予測ブロックに誤差電力最小の意味で最も類似した予測 画像を探し出す。探索の結果、選ばれた予測画像の起点からの偏移量が変形ブロ ックマッチングの結果としての動きベクトル43として得られ、その時の予測誤 差電力D_DEF44も保持される。In this way, the predicted image that is most similar to the predicted block in terms of minimizing error power is found. As a result of the search, the displacement of the selected predicted image from the origin is obtained as a motion vector 43 resulting from modified block matching, and the prediction error power D_DEF 44 at that time is also retained.
上記動きベクトル43、予測誤差電力D_DEF44が最終的な動き補償モー ド判定に用いられ、最終的な動き補償モードが決定される。この決定方法は、実 施の形態1と全く同じである。The motion vector 43 and prediction error power D_DEF 44 are used for the final motion compensation mode determination, which is exactly the same as in the first embodiment.
次に、動き補償処理について説明する。Next, the motion compensation process will be described.
動き補償処理は動き補償部9で行われる。本実施形態では、対応点決定部37 の動作のみが実施の形態1と異なるので、その部分だけを説明する。動き補償の 全体的なフローチャートは、図8に準ずる。Motion compensation processing is performed by the motion compensation unit 9. In this embodiment, only the operation of the corresponding point determination unit 37 differs from that of embodiment 1, so only that part will be described. The overall flowchart for motion compensation is as shown in Figure 8.
本実施形態においては、対応点の決定は以下のように行う。In this embodiment, the corresponding points are determined as follows.
動きパラメータ11に含まれる動き補償予測モードがブロックマッチングを示 している時は、対応点は被予測ブロックの画面内位置信号206から動きベクト ルで指示される量だけ平行移動させた領域に含まれる 標本点となる。この処理は、図44におけるS204で、(dx,dy)を動き ベクトルとした時の参照画像28中の位置(x+dx,y+dy)を決定する動 作に相当する。When the motion compensation prediction mode included in the motion parameters 11 indicates block matching, the corresponding point is a sample point included in an area translated by the amount indicated by the motion vector from the intra-screen position signal 206 of the predicted block. This process corresponds to the operation of determining the position (x + dx, y + dy) in the reference image 28 when (dx, dy) is the motion vector in S204 in Figure 44.
動きパラメータ11に含まれる動き補償予測モードが変形ブロックマッチング を示している時は、被予測ブロックの画面内位置信号206に各画素位置に応じ た編移量分を加算した後、動きベクトルで指示される量だけ平行移動させた領域 に含まれる標本点となる。この処理は、図17におけるS47で、(dx,dy )を動きベクトルとした時の参照画像28中の位置(sx+dx,sy+dy) を決定する動作に相当する。以下の予測画像データの読み出し、予測画像の生成 については、実施の形態1に準ずる。When the motion compensation prediction mode included in the motion parameters 11 indicates modified block matching, the in-screen position signal 206 of the predicted block is added with a displacement amount corresponding to each pixel position, and then the sample point is included in the area translated by the amount indicated by the motion vector. This process corresponds to the operation of determining the position (sx + dx, sy + dy) in the reference image 28 when (dx, dy) is the motion vector in S47 of Figure 17. The following reading of predicted image data and generation of predicted images are similar to those in embodiment 1.
上記各実施の形態における変形ブロックは、1)被予測ブロックと予測画像の 各構成画素位置の1対1の対応付けが行われている、2)参照画像側の対応画素 点が整数画素間隔で構成されるという2つの前提のもとであれば、どのような形 状をもとり得る。例えば、図18や図19に示すような形状を考えることもでき る。更に、片方のみ半分に縮小というだけでなく、それぞれの辺を独立に任意の 比率で縮小、拡大すれば各種の形状に変形してブロックマッチングができる。こ うして、あらかじめ様々な形状を定義しておくことにより、最も良好な予測結果 が得られる変形ブロックを選択するように構成することができる。このときは、 選択された変形ブロックの種類を動きパラメータ11の中に含めてエントロピー 符号化部18に送ればよい。In each of the above embodiments, the deformed blocks can have any shape, provided that two assumptions are met: 1) there is a one-to-one correspondence between the pixel positions of the predicted block and the predicted image, and 2) corresponding pixels in the reference image are spaced at integer pixel intervals. For example, shapes such as those shown in Figures 18 and 19 are possible. Furthermore, block matching can be achieved by deforming blocks into various shapes by independently scaling each side by any ratio, rather than simply shrinking only one side by half. By defining various shapes in this way, it is possible to select the deformed block that provides the best prediction results. In this case, the type of selected deformed block is simply included in the motion parameters 11 and sent to the entropy coding unit 18.
上記各実施の形態によれば、半画素精度の補間画素値の生成だけで、アフィン 変換のように複雑な演算による補間画素値を生成することなく回転及び縮小スケ ーリングを含む動き補償を行うことができ、平行移動量である動きベクトルだけ では予測誤差を最小にできない、つまり、予 測がうまく的中しないような部分画像についても、良好な予測を行うことができ る。According to the above embodiments, motion compensation, including rotation and downscaling, can be performed simply by generating interpolated pixel values with half-pel accuracy, without generating interpolated pixel values through complex calculations such as affine transformation. This allows for accurate prediction even for partial images where prediction error cannot be minimized using motion vectors alone, which are translational translations.
なお、上記の各実施の形態では、予め用意される固定点として、整数画素、ま たは半画素の場合を説明したが、例えば、1:3等、他の割合の中間点の画素を 比較対象用として用意してもよい。この場合でも、従来のアフィン変換の場合と 異なり、比較処理動作中の補間処理が不要であり、それだけ処理規模を小さくで き、高速処理が可能となる。In the above embodiments, the fixed points prepared in advance are described as integer pixels or half pixels. However, intermediate pixels with other ratios, such as 1:3, may also be prepared for comparison. Even in this case, unlike conventional affine transformations, no interpolation is required during the comparison process, thereby reducing the processing scale and enabling faster processing.
実施の形態5. 上記各実施の形態においては、画素ごとにブロック変形パラメータのカウント 処理、もしくはそれに相当する座標変換処理を行う構成となっていたが、この画 素ごとの座標変換値をあらかじめROMなどの変形パターンテーブルとして用意 しておき、被予測ブロックの各画素位置に応じてテーブルから引き出した変換値 をもとに対応点を決定する構成をとることもできる。こうすることで、演算式で は表現しにくい任意の対応関係を持つ変形ブロックマッチングと動き補償が効果 的にできる。Embodiment 5. In the above embodiments, the block transformation parameter counting process or the corresponding coordinate transformation process is performed for each pixel. However, it is also possible to prepare these coordinate transformation values for each pixel in advance as a transformation pattern table in ROM or other storage, and determine corresponding points based on the transformation values retrieved from the table for each pixel position in the predicted block. This enables effective transformation block matching and motion compensation for arbitrary correspondences that are difficult to express using mathematical formulas.
例えば、実施の形態1を例にとる。For example, take the first embodiment as an example.
図20は、図5における対応点決定部34の別の内部構成図であり、本実施の 形態を実現する構成(対応点決定部34b)を示している。実施の形態1の具体 的な動作を示す図6におけるS8で、パラメータrdx,rdyの値をインクリ メントあるいはデクリメント演算する代わりに、x,yに対応するrdx,rd yの値をROMとして持っておき、そこからx,yの値に応じて対応点rx,r yを引き出すことによって求めることができる。この場合、図5における回転量 カウンタ33は不要となり、図20に示すように、対応点決定部34b内にRO Mテーブル(変形パターンテーブル100)を持たせる構成で実現できる。対応 点決定部34bは、被予測ブロックの各画素位置(x,y)によって変 形パターンテーブル100から変形パラメータrdx,rdyの値を引き出し、 これを加算部110で加算することによって対応点を決定する。そして、メモリ 読み出しアドレス生成部35に向けて出力する。これは、上記の他の実施の形態 でも同様である。こうして、若干のROMメモリ(変形パターンテーブル100 )への追加だけで、対応点の演算処理を行う要素を削除して回路を簡略化し、か つ対応点演算処理量を削減することができる。また、図21に示すような簡単な 数式では表現できない変形をサポートすることも可能になり、より豊富な変形パ ターンライブラリが考えられることになる。FIG. 20 is another internal block diagram of the corresponding point determiner 34 in FIG. 5, showing a configuration (corresponding point determiner 34b) for implementing this embodiment. Instead of incrementing or decrementing the values of the parameters rdx and rdy in S8 in FIG. 6, which shows the specific operation of embodiment 1, the values of rdx and rdy corresponding to x and y can be stored in ROM, and the corresponding points rx and ry can be obtained by retrieving them from there according to the values of x and y. In this case, the rotation amount counter 33 in FIG. 5 is unnecessary, and as shown in FIG. 20, this can be implemented by providing a ROM table (deformation pattern table 100) within the corresponding point determiner 34b. The corresponding point determiner 34b retrieves the values of the deformation parameters rdx and rdy from the deformation pattern table 100 according to each pixel position (x, y) of the predicted block, and determines the corresponding points by adding them in the adder 110. The result is then output to the memory read address generator 35. This is also true for the other embodiments described above. Thus, by simply adding a small amount of ROM memory (deformation pattern table 100), it is possible to eliminate elements that perform corresponding point calculations, simplifying the circuit and reducing the amount of corresponding point calculation processing. It also becomes possible to support deformations that cannot be expressed with simple mathematical formulas such as those shown in Figure 21, allowing for the creation of a richer deformation pattern library.
実施の形態6. 本実施の形態では、上記各実施の形態で示したような方法によって変形ブロッ クとして切り出される予測画像中の周波数特性を均一にし、被予測ブロックの予 測を行う際のミスマッチを低減する符号化装置について説明する。Embodiment 6. This embodiment describes a coding device that equalizes the frequency characteristics in a predicted image extracted as a modified block using the methods described in the above embodiments, thereby reducing mismatches when predicting a predicted block.
予測画像が整数画素空間及び半画素空間に存在する画素値から構成される場合 、整数画素と半画素では空間周波数特性が異なる。一方、被予測ブロックはすべ て整数画素空間の画素から構成されているので、この特性の違いが予測時のミス マッチの要因になることが考えられる。そこで本実施の形態では、上記各実施の 形態で述べた変形ブロックの定義と同様の定義を行った後、整数画素空間上の画 素に対してフィルタリングを行う。When a predicted image is composed of pixel values existing in integer pixel space and half pixel space, the spatial frequency characteristics differ between integer pixels and half pixels. On the other hand, since the predicted block is composed entirely of pixels in integer pixel space, this difference in characteristics can potentially cause mismatches during prediction. Therefore, in this embodiment, after defining a distorted block in the same way as in the previous embodiments, filtering is performed on pixels in integer pixel space.
半画素空間上の画素は、周辺の整数画素に対して[1/2、1/2]のフィル タリングを行うことによって生成される。即ち、cos(ωt/2)の特性を持 つローパスフィルタが施されることになる。上記各実施の形態で定義した予測画 像は、フィルタの施されていない整数画素と、上記フィルタリングによって生成 される半画素精度の画素とが混在し ており、予測画像内の空間周波数特性にばらつきがある。このばらつきが原因で 予測精度が落ちる場合には、以下に述べるように、整数画素に対しても同等の特 性を持つフィルタを施せば効果的である。Pixels in the half-pel space are generated by filtering the surrounding integer pixels by [1/2, 1/2]. In other words, a low-pass filter with cos(ωt/2) characteristics is applied. The predicted image defined in each of the above embodiments contains a mixture of unfiltered integer pixels and half-pel-accurate pixels generated by the filtering, resulting in variations in the spatial frequency characteristics within the predicted image. If this variation reduces prediction accuracy, it is effective to apply a filter with equivalent characteristics to the integer pixels, as described below.
図22は、フィルタリングの例を示したもので、ここでは整数画素について式 (7)に示す、[1/8、6/8、1/8]のローパスフィルタFを施す例を示 している。Figure 22 shows an example of filtering, where a low-pass filter F of [1/8, 6/8, 1/8] is applied to integer pixels as shown in Equation (7).
このフィルタの特性は{cos(ωt/2)}2であり、予測画像内の空間周 波数特性のばらつきが緩和される。このようなフィルタ処理の後、上記各実施の 形態と同様、被予測ブロックの各点と予測画像の各点との1対1対応付け、探索 、動きベクトルの決定、モード判定を行う。 The filter characteristic is {cos(ωt/2)}2, which reduces variations in spatial frequency characteristics within the predicted image. After this filtering process, similar to the above embodiments, one-to-one correspondence is established between each point of the predicted block and each point of the predicted image, search is performed, motion vectors are determined, and mode determination is performed.
具体的な装置構成と動作について説明する。The specific configuration and operation of the device will be described below.
本実施の形態では、これまでの実施形態とは、変形ブロックマッチング部と動 き補償部が異なる。以下では、変形ブロックの定義は実施の形態4に基づく単純 縮小パターンとし、変形ブロックマッチング部の内部構成は動き検出部8cの中 の変形ブロックマッチング部42のバリエーション、動き補償部も動き補償部9 のバリエーションとして考える。したがって、以下の説明においては、変形ブロ ックマッチングの番号は42cとし、動き補償部の番号は9bとして説明を進め る。In this embodiment, the modified block matching unit and motion compensation unit differ from those of the previous embodiments. In the following, the modified block is defined as a simple downsized pattern based on the fourth embodiment, the internal configuration of the modified block matching unit is considered to be a variation of the modified block matching unit 42 in the motion estimation unit 8c, and the motion compensation unit is considered to be a variation of the motion compensation unit 9. Therefore, in the following explanation, the modified block matching unit will be numbered 42c and the motion compensation unit will be numbered 9b.
図23は、本実施形態における変形ブロックマッチング部42cの動作の概要 説明図、図24は、変形ブロックマッチング部42cの詳細な内部構成図、図2 5は、本実施の形態における変形ブロックマッチング部42cの動作を示すフロ ーチャートである。Figure 23 is a diagram outlining the operation of the modified block matching unit 42c in this embodiment, Figure 24 is a detailed internal configuration diagram of the modified block matching unit 42c, and Figure 25 is a flowchart illustrating the operation of the modified block matching unit 42c in this embodiment.
これらの図において、前記までの図面と同一の番号を付した要素、ステップは 同一要素、動作を意味するものとする。In these figures, elements and steps with the same numbers as in the previous figures represent the same elements and operations.
まず、変形ブロックマッチング部42cの動作について説明する。実施の形態 4と同じ動作の記述は省略する。First, the operation of the modified block matching unit 42c will be described. Description of operations that are the same as those in the fourth embodiment will be omitted.
1)処理概要 変形ブロックの定義については実施の形態4と全く同じであるが、本実施の形 態では、整数画素位置の画素に対してフィルタリングを行うことが異なる。即ち 、図23のように、参照画像中にフィルタ処理対象画素として△の画素が定義さ れており、変形ブロックは△及び□で示す画素から構成される。1) Processing Overview The definition of a transformation block is exactly the same as in embodiment 4, but this embodiment differs in that filtering is performed on pixels at integer pixel positions. That is, as shown in Figure 23, pixels marked with a triangle are defined in the reference image as pixels to be filtered, and the transformation block is composed of the pixels marked with a triangle and a square.
2)初期設定(探索範囲の設定、初期値の設定) 実施の形態4と全く同じである。2) Initial settings (search range setting, initial value setting) Identical to embodiment 4.
3)予測画像候補画像の読み出し 被予測ブロック内の位置x,yの画素に対応する対応点sx,syを得る方法 は、実施の形態4と全く同じである。次いで、参照画像から(sx+dx,sy +dy)だけ離れた位置にある参照画像中の画素をフレームメモリから取り出す 。この際、sx+dx,sy+dyに対応する画素位置が整数画素空間上にある か半画素空間上にあるかを判定する。これは、単にsx+dx,sy+dyがそ れぞれ半画素成分を持つかどうかで判定できる。この判定は、図24における対 応点決定部48において行う。図25では、S61のステップに相当する。ここ で、半画素空間にあると判定された場合は、半画素生成部232において半画素 値が生成される。また、整数画素空間にあると判定された場合は、フィルタ部5 0において図22に示したフィルタリングを施す。これは、図25におけるS6 2のステップに相当する。3) Reading the Candidate Predicted Image The method for obtaining the corresponding points sx and sy corresponding to the pixel at position x and y in the predicted block is exactly the same as in embodiment 4. Next, a pixel in the reference image located a distance (sx + dx, sy + dy) from the reference image is retrieved from the frame memory. At this time, it is determined whether the pixel position corresponding to sx + dx and sy + dy is in integer pixel space or half pixel space. This can be determined simply by checking whether sx + dx and sy + dy each have half pixel components. This determination is made by the corresponding point determination unit 48 in Figure 24. In Figure 25, this corresponds to step S61. If it is determined to be in half pixel space, the half pixel generation unit 232 generates half pixel values. If it is determined to be in integer pixel space, the filter unit 50 performs the filtering shown in Figure 22. This corresponds to step S62 in Figure 25.
4)予測誤差電力の算出 5)最小予測誤差電力値の更新 6)動きベクトル値の決定 実施の形態4と全く同じである。4) Calculating the prediction error power 5) Updating the minimum prediction error power value 6) Determining the motion vector value This is exactly the same as in embodiment 4.
次に、動き補償処理について説明する。Next, the motion compensation process will be described.
動き補償処理は動き補償部9bで行われる。The motion compensation process is carried out by the motion compensation unit 9b.
図26は、本実施形態における動き補償部9bの内部構成図、図27は、本実 施の形態における動き補償部9bの動作を示すフローチャートである。FIG. 26 is a diagram showing the internal configuration of the motion compensation unit 9b in this embodiment, and FIG. 27 is a flowchart showing the operation of the motion compensation unit 9b in this embodiment.
本実施の形態では、図7に示す動き補償部9に比べ、フィルタ部50が加えら れていることに特徴がある。対応点決定部37は、実施の形態4で示したものと 全く同じ動作をする。動きパラメータ11に含まれる動き補償予測モードがブロ ックマッチングを示している時は、対応点は被予測ブロックの画面内位置信号2 06から動きベクトルで指示される量だけ平行移動させた領域に含まれる標本点 とする。この処理は、図44におけるS204で、(dx,dy)を動きベクト ルとした時の参照画像28中の位置(x+dx,y+dy)を決定する動作に相 当する。This embodiment is characterized by the addition of a filter unit 50 compared to the motion compensation unit 9 shown in FIG. 7. The corresponding point determination unit 37 operates in exactly the same way as in embodiment 4. When the motion compensation prediction mode included in the motion parameters 11 indicates block matching, the corresponding point is determined to be a sample point included in an area translated by the amount indicated by the motion vector from the intra-screen position signal 206 of the predicted block. This process corresponds to the operation of S204 in FIG. 44, which determines the position (x + dx, y + dy) in the reference image 28 when (dx, dy) is the motion vector.
動きパラメータ11に含まれる動き補償予測モードが変形ブロックマッチング を示している時は、被予測ブロックの画面内位置信号206に各画素位置に応じ た編移量分を加算した後、動きベクトルで指示される量だけ平行移動させた領域 に含まれる標本点となる。この処理は、図17におけるS47で、(dx,dy )を動きベクトルとした時の参照画像28中の位置(sx+dx,sy+dy) を決定する動作に相当する。いずれの場合でも、各画素ごとに半画素空間上にあ るか否かを判定し、整数画素空間上にある画素については、上述の変形ブロック マッチング部の予測画像生成処理と全く同じように、図22に示すフィルタリン グを施す。フィルタリングは、フィルタ部で行う。以下の予測画像デー タの読み出し、予測画像の生成については、実施の形態1に準ずる。When the motion compensation prediction mode included in the motion parameters 11 indicates modified block matching, the in-screen position signal 206 of the predicted block is added with a displacement amount corresponding to each pixel position, and then the resulting sample point is located in a region translated by the amount indicated by the motion vector. This process corresponds to the operation of determining the position (sx + dx, sy + dy) in the reference image 28 when (dx, dy) is the motion vector in S47 of FIG. 17. In either case, each pixel is determined to be in half-pixel space, and pixels in integer pixel space are subjected to filtering shown in FIG. 22, exactly as in the predicted image generation process of the modified block matching unit described above. Filtering is performed by the filter unit. The following reading of predicted image data and generation of predicted images conform to those in embodiment 1.
本実施の形態における変形ブロックマッチング部42cは、フィルタを施さな い場合の予測画像、及びフィルタFを施した場合の予測画像のそれぞれの場合に ついて独立に探索を行って、その結果を動き補償予測モード判定部22に送って もよいし、フィルタFを施さない場合のみ探索を行い、その結果だけに対してフ ィルタFを施して良好な結果を選択するようにしてもよい。The modified block matching unit 42c in this embodiment may perform a search independently for the predicted image without filter application and the predicted image with filter F applied, and send the search results to the motion compensation prediction mode determination unit 22, or may perform a search only for the case without filter F application, and apply filter F only to the search results to select the best result.
このように、フィルタFを適応的にON/OFFする機構を設ける場合は、動 きパラメータ11の中にフィルタON/OFFの情報も含める。In this way, when a mechanism for adaptively turning the filter F on and off is provided, the motion parameters 11 also include information on whether the filter is on or off.
本実施の形態によれば、整数画素値へのフィルタリングだけで予測画像内の空 間周波数のばらつきを除くことができ、平行移動量である動きベクトルだけでは 予測誤差を最小にできない、つまり、予測がうまく的中しないような部分画像に ついても、良好な予測を行うことができる。According to this embodiment, it is possible to eliminate spatial frequency variations within the predicted image simply by filtering integer pixel values, and it is possible to perform good predictions even for subimages where prediction error cannot be minimized solely by using motion vectors (translation amounts), i.e., where prediction accuracy is poor.
実施の形態7. 図28は、この実施の形態における画像の予測方式を用いて圧縮符号化された ディジタル画像を伸長再生する画像復号装置の構成を示したものである。ここで は、実施の形態1に示す画像符号化装置によって生成される圧縮符号化データ( 以下、ビットストリーム)19を受信して伸長再生を行う画像復号装置として説 明する。Embodiment 7. Figure 28 shows the configuration of an image decoding device that decompresses and plays back digital images that have been compression-encoded using the image prediction method of this embodiment. This image decoding device receives and decompresses the compression-encoded data (hereinafter, "bitstream") 19 generated by the image encoding device shown in Embodiment 1.
図28において、51はエントロピー復号部、6は逆量子化部、7は逆直交変 換部、53は復号加算部、54はフレームメモリ、56は表示制御部である。In FIG. 28, reference numeral 51 denotes an entropy decoding unit, 6 denotes an inverse quantization unit, 7 denotes an inverse orthogonal transform unit, 53 denotes a decoding and adding unit, 54 denotes a frame memory, and 56 denotes a display control unit.
本発明の復号装置は、動き補償部9の構成と動作に特徴があり、動き補償部9 以外の上記の各要素について構成とその動作は既に知られているので、詳細説明 は省略する。動き補償部9は、図1における動き補償 部9と同一であることを示す。つまり、その内部構成図は、図7に示した内部構 成図と同一であり、その動作フローチャートは、図8に示した動作フローチャー トと同一である。The decoding device of the present invention is characterized by the configuration and operation of the motion compensation unit 9. Since the configuration and operation of each of the above-mentioned elements other than the motion compensation unit 9 are already known, detailed description will be omitted. The motion compensation unit 9 is identical to the motion compensation unit 9 in FIG. 1. In other words, its internal configuration diagram is identical to the internal configuration diagram shown in FIG. 7, and its operational flowchart is identical to the operational flowchart shown in FIG. 8.
以下、上記構成の装置の動作を説明する。The operation of the device having the above configuration will now be described.
まず、エントロピー復号部51においてビットストリームが解析され、個々の 符号化データに切り分けられる。量子化直交変換係数52は逆量子化部6に送ら れ、逆量子化ステップ・パラメータ17を用いて逆量子化される。この結果が逆 直交変換部7において逆直交変換され、復号加算部53に送られる。逆直交変換 部は、DCT等、符号化装置で用いるものと同じものを用いる。First, the bitstream is analyzed in the entropy decoding unit 51 and separated into individual pieces of coded data. The quantized orthogonal transform coefficients 52 are sent to the inverse quantization unit 6, where they are inversely quantized using the inverse quantization step parameter 17. The result is then inversely orthogonally transformed in the inverse orthogonal transform unit 7 and sent to the decoding and adding unit 53. The inverse orthogonal transform unit uses the same techniques as those used in the coding device, such as DCT.
動き補償部9には、動きパラメータ11として、次の3種の情報が送られる。The motion compensation unit 9 receives the following three types of information as motion parameters 11:
即ち、エントロピー復号部51でビットストリームから復号された動きベクトル 25、変形パターン情報26aと、被予測画像領域(本実施の形態では、固定サ イズブロック)の画面内位置を示す情報27aが入力される。この際、動きベク トル25、被予測画像領域の画面内位置27aは、被予測画像領域毎に固有の値 であるが、変形パターン情報26aは、被予測画像領域毎に固有の値であっても 、被予測画像領域を複数まとめたより大きな画像(例えば、画像フレームやIS O/IEC JTC1/SC29/WG11に開示されるVOPなど)毎に符号 化されていて、その単位に含まれる全ての被予測画像領域について同じ変形パタ ーン情報を用いるように符号化されていてもよい。動き補償部9は、これらの3 種類の情報に従ってフレームメモリ54中の参照画像から予測画像データ12を 取り出す。予測画像生成の処理については、動き補償部9の動作説明の箇所で述 べる。That is, the entropy decoding unit 51 inputs the motion vector 25, transformation pattern information 26a, and information 27a indicating the on-screen position of the predicted image region (in this embodiment, a fixed-size block) decoded from the bitstream. The motion vector 25 and the on-screen position 27a of the predicted image region are unique to each predicted image region. However, the transformation pattern information 26a may be unique to each predicted image region, or may be coded for a larger image (e.g., an image frame or a VOP as disclosed in ISO/IEC JTC1/SC29/WG11) that combines multiple predicted image regions, with the same transformation pattern information being used for all predicted image regions included in that unit. The motion compensation unit 9 extracts predicted image data 12 from the reference image in the frame memory 54 based on these three types of information. The process of generating a predicted image will be described in the section explaining the operation of the motion compensation unit 9.
動き補償部9には、エントロピー復号部51で復号された動きパラメータ11 が送られる。The motion compensation unit 9 receives the motion parameters 11 decoded by the entropy decoding unit 51.
動き補償部9は、これらの動きパラメータ11にしたがってフレームメモリ5 4中の参照画像から予測画像データ12を取り出す。この発明による画像の予測 方式は、被予測ブロックを構成する画素と予測画像を構成する画素が1対1に対 応しているので、従来のブロックマッチングにおける動き補償と同様、動きパラ メータ11によって予測画像領域が一意に決定される。The motion compensation unit 9 extracts predicted image data 12 from the reference image in the frame memory 54 in accordance with these motion parameters 11. In the image prediction method of this invention, the pixels constituting the predicted block correspond one-to-one to the pixels constituting the predicted image, so the predicted image area is uniquely determined by the motion parameters 11, just like in conventional block matching motion compensation.
復号加算部53は、イントラ/インター符号化指示フラグ16の値に基づいて 、イントラ符号化ブロックならば、逆直交変換部の出力をそのまま復号画像55 として出力し、インター符号化ブロックなら、逆直交変換部の出力に予測画像デ ータ12を加算して復号画像55として出力する。復号画像55は表示制御部5 6に送られ、図示していない表示デバイスに出力されるともに、以降のフレーム の復号処理において参照画像として用いるために、フレームメモリ54に書き込 まれる。Based on the value of the intra/inter coding indication flag 16, the decoding and adding unit 53 outputs the output of the inverse orthogonal transform unit as a decoded image 55 if the block is intra-coded, or adds the predicted image data 12 to the output of the inverse orthogonal transform unit and outputs the result as a decoded image 55 if the block is inter-coded. The decoded image 55 is sent to the display control unit 56 and output to a display device (not shown), and is also written to the frame memory 54 for use as a reference image in the decoding process of subsequent frames.
次に、動き補償部9における予測画像生成処理について説明する。Next, the predicted image generation process in the motion compensation unit 9 will be described.
本実施の形態では、画像の予測方式は、被予測画像領域を構成する画素と予測 画像を構成する画素の位置の対応が予め変形パターン情報26aによって規定さ れているので、動きベクトル25による変位と変形パターン情報26aによる位 置補正に基づく簡単なアドレス計算と内挿処理とによって予測画像が生成される 。In this embodiment, the image prediction method uses transformation pattern information 26a to predetermine the positional correspondence between pixels constituting the predicted image area and pixels constituting the predicted image. Therefore, a predicted image is generated by simple address calculation and interpolation based on the displacement caused by motion vector 25 and the position correction caused by transformation pattern information 26a.
動き補償部9の内部構成を図29に示す。The internal configuration of the motion compensation unit 9 is shown in FIG.
同図において、37は対応点決定部、38はメモリ読み出しアドレス生成部で ある。In the figure, 37 is a corresponding point determination unit, and 38 is a memory read address generation unit.
また、図30は、その動作を示すフローチャートである。FIG. 30 is a flowchart showing the operation.
また、図31は、動きベクトルにより参照画像から切り出されて指定された量 だけ、被予測画像の座標位置に移動する動きを説明する図、図32は、移動先で 更に指定された変形パターンでアドレッシングを行う 動作を説明する図である。FIG. 31 illustrates the movement of a reference image extracted by a motion vector and moved to a coordinate position in a predicted image by a specified amount, and FIG. 32 illustrates the operation of addressing the destination image using a further specified transformation pattern.
いずれの図においても、○は整数画素、×は半画素の位置を示すものとする。In all the figures, ◯ indicates an integer pixel position, and × indicates a half pixel position.
以下、図29及び図30をもとに、本実施の形態における動き補償部9の動作 を説明する。The operation of the motion compensation unit 9 in this embodiment will be explained below with reference to Figures 29 and 30.
1)対応点の決定 まず、対応点決定部37において、入力される動きベクトル25、変形パター ン情報26aに基づき、被予測が増量域内の各画素に対応する予測画像のサンプ ル位置を算出する。まず、動きベクトル25に基づき、被予測画像の現在位置に 対する予測画像の基準位置を決定する。この処理は、図31に示すように、被予 測画像の画面内位置27aを(i,j)、動きベクトル25を(dx,dy)と したとき、(i’,j’)=(i+dx,j+dy)を定めることに相当する( 図30のS71)。1) Determining Corresponding Points First, the corresponding point determination unit 37 calculates the sample position of the predicted image corresponding to each pixel in the predicted image's increased area based on the input motion vector 25 and transformation pattern information 26a. First, the reference position of the predicted image relative to the current position of the predicted image is determined based on the motion vector 25. As shown in Figure 31, this process corresponds to determining (i', j') = (i + dx, j + dy) when the in-screen position 27a of the predicted image is (i, j) and the motion vector 25 is (dx, dy) (S71 in Figure 30).
次いで、変形パターン情報26aに基づいて座標点(i’,j’)を補正し、 最終的な予測画像のサンプル位置を求める。図32は、変形パターン情報26a が「縦横1/2縮小」を示す場合の例を示している。この変形パターンによれば 、予測画像の実行面積は、被予測画像領域の画面中に占める実行面積の1/4に なる。つまり、予測画像が被予測画像領域に対して縮小される形となり、これに より、画面中で拡大を伴う動きなどの予測を効率化できる。具体的な位置補正の 処理としては、参照画像中の位置(i’,j’)に対応する補正位置(i”,J ”)を求める。これは、次の演算で実現できる(図30のS72)。Next, the coordinate point (i', j') is corrected based on the deformation pattern information 26a, to determine the final sample position of the predicted image. Figure 32 shows an example where the deformation pattern information 26a indicates "1/2 reduction vertically and horizontally." According to this deformation pattern, the effective area of the predicted image is 1/4 of the effective area of the image region to be predicted on the screen. In other words, the predicted image is reduced relative to the image region to be predicted, which improves the efficiency of prediction of movements that involve enlargement on the screen. Specifically, the position correction process determines the corrected position (i", J") corresponding to the position (i', j') in the reference image. This can be achieved by the following calculation (S72 in Figure 30):
なお、図32では、block_width=block_height=4 の場合、つまり、画素数が4×4を1ブロックとした場合を示しているが、これ らは任意の正の整数、つまり、任意の画素数の高さと幅のブロックを取り得る。 Note that Figure 32 shows the case where block_width = block_height = 4, that is, where one block has 4 x 4 pixels, but these can be any positive integers, that is, blocks with height and width of any number of pixels.
以上によって求めた座標点(i”,j”)が、(i,j)に対応する予測画像 サンプル位置として出力される。The coordinate point (i", j") obtained in this way is output as the predicted image sample position corresponding to (i, j).
2)予測画像生成用データの読み出し 対応点決定部37から出力される予測画像サンプル位置をもとに、メモリ読み 出しアドレス生成部38がフレームメモリ54に蓄積されている参照画像中の予 測画像生成に必要な画像データの位置を特定するメモリアドレスを生成し、予測 画像生成用データを読み出す。2) Reading Data for Predicted Image Generation Based on the predicted image sample positions output by the corresponding point determination unit 37, the memory read address generation unit 38 generates a memory address that identifies the location of the image data required to generate the predicted image within the reference image stored in the frame memory 54, and reads the data for generating the predicted image.
3)予測画像の生成 予測画像を生成する画素の内、整数画素位置の座標値のみをアドレッシングす る場合は、予測画像生成用データがそのまま予測画像構成画素となる。一方、半 画素精度の位置の座標値がアドレッシングされた場合、半画素生成部232によ って予測画像生成用データの内挿処理がされて、半画素値が生成される。具体的 に、半画素値の生成は、図33による。図33の方法は、単に加算2分演算であ り、符号化装置の実施の形 態1で説明した半画素生成部232のフロー図である図8のS24を、再び説明 したものである。3) Generation of Predicted Image When addressing only integer-pel coordinate values of pixels for generating a predicted image, the data for generating the predicted image directly becomes the pixels that make up the predicted image. On the other hand, when addressing coordinate values of positions with half-pel accuracy, the half-pel generator 232 interpolates the data for generating the predicted image to generate half-pel values. Specifically, half-pel values are generated as shown in Figure 33. The method shown in Figure 33 is a simple addition/division operation, and is a re-explanation of S24 in Figure 8, the flow diagram for the half-pel generator 232 described in the first embodiment of the encoding device.
なお、上記図32による動き補償部9の動作を説明したが、変形パターン情報 が図32とは異なる内容を含んでいる場合には、変形処理が異なってくる。Although the operation of the motion compensation unit 9 has been described above using FIG. 32, if the transformation pattern information contains content different from that shown in FIG. 32, the transformation process will be different.
他の変形パターンの例として、図34の場合を説明する。この場合、変形後の (i”,j”)は、以下のようにして求められる。As an example of another transformation pattern, the case of Figure 34 will be explained. In this case, (i", j") after transformation can be calculated as follows:
このように、変形パターン情報が変形ブロックをどのように切り出すかを取り 決めておけば、それに基づいて簡単なアドレッシングで変形処理した動き補償を 行った復号ができる。 In this way, if the transformation pattern information determines how to extract the transformation blocks, it is possible to perform the transformation-processed motion-compensated decoding using simple addressing based on the transformation pattern information.
以上のように、本実施の形態の画像復号装置によれば、予め変形パターンを用 意しておき、対応するモード情報に従って簡単なサンプル位置の計算を行うだけ で、平行移動では追跡しきれない複雑な動きを効率よく予測して符号化されたビ ットストリームから再生画像を得ることができる。As described above, the image decoding device of this embodiment can efficiently predict complex motion that cannot be tracked by translation alone, and generate a reconstructed image from the coded bitstream, simply by preparing transformation patterns and performing simple calculations of sample positions according to the corresponding mode information.
本実施の形態では、直交変換符号化以外の別の符号化方式によって予 測誤差信号を符号化したビットストリームであっても、動き補償部9以外の予測 誤差信号復号処理のための要素を変更することで、同様の効果を得ることができ る。In this embodiment, even if the bitstream is one in which the prediction error signal is coded using a coding method other than orthogonal transform coding, the same effect can be achieved by changing elements for the prediction error signal decoding process other than the motion compensation unit 9.
また、本実施の形態では、固定サイズブロックを単位として復号処理を行う例 について述べたが、これは通常のテレビ信号のフレームを単位とする復号装置に 適用できるだけでなく、固定サイズブロックから構成される任意形状画像オブジ ェクト(例:ISO/IEC JTCI/SC29/WG11/N1796で開 示されるVideo Object Planeなど)を単位とする復号装置に も適用可能である。例えば、実施の形態1で述べた図9に示すように、静止した 背景の前に人物像が存在するようなシーンにおいて、人物像を1つの画像オブジ ェクトとして、それを取り囲む外接四角形内の領域を小ブロックに分割し、画像 オブジェクトを含むブロックを有効ブロックとして符号化されたビットストリー ムを復号する場合が考えられる。この場合は、これら有効ブロックに対して同様 の処理を適用すればよい。Furthermore, while this embodiment describes an example of decoding processing in units of fixed-size blocks, this is applicable not only to decoding devices that process frames of regular television signals as units, but also to decoding devices that process arbitrary-shaped image objects composed of fixed-size blocks (e.g., the Video Object Plane disclosed in ISO/IEC JTCI/SC29/WG11/N1796). For example, in a scene with a human figure in front of a stationary background, as shown in Figure 9 described in embodiment 1, the human figure may be treated as a single image object, the area within the circumscribing rectangle surrounding the figure may be divided into small blocks, and the block containing the image object may be treated as a valid block, and the encoded bitstream may be decoded. In this case, similar processing may be applied to these valid blocks.
実施の形態8. 実施の形態7の画像復号装置は、実施の形態1ないし6の画像復号装置に対応 した整数画素又は半画素のみを用いてアドレッシング(座標指定)するだけで、 予め決められた変形処理をして動き補償を行う装置を説明した。本実施の形態で は、アドレッシングの際に、半画素生成以外の演算を行って、より精密な動き補 償を行う画像復号装置を説明する。Embodiment 8. The image decoding device of Embodiment 7 corresponds to the image decoding device of Embodiments 1 through 6. It performs motion compensation by performing predetermined transformations using only integer or half-pixel addressing (coordinate specification). In this embodiment, we describe an image decoding device that performs more precise motion compensation by performing calculations other than half-pixel generation during addressing.
図35は、本実施の形態における圧縮符号化されたディジタル画像を伸長再生 する画像復号装置の構成を示したものである。FIG. 35 shows the configuration of an image decoding device for decompressing and reproducing compressed and encoded digital images in this embodiment.
同図において、90は動き補償部、25bは0〜4本の動きベクトル、60は 内挿処理精度指示情報である。In the figure, 90 denotes a motion compensation unit, 25b denotes zero to four motion vectors, and 60 denotes interpolation processing precision instruction information.
また、図36は、動き補償部90の内部構成図である。FIG. 36 is a diagram showing the internal configuration of the motion compensation unit 90.
図において、37bは動きパラメータとして、図35に示された動きベクトル 25b、変形パターン情報26a、被予測画像領域の画面内位置27a及び内挿 処理精度指示情報60を入力として対応点を決める対応点決定部であり、232 bは演算によって内挿した座標位置を求める内挿処理部である。この際、被予測 画像領域の画面内位置27aは、被予測画像領域毎に固有の値であるが、動きベ クトル25bと変形パターン情報26aは、被予測画像領域毎に固有の値であっ ても、被予測画像領域を複数まとめたより大きな画像(例えば、画像フレームや ISO/IEC JTC1/SC29/WG11に開示されるVOPなど)毎に 符号化されていて、その単位に含まれる全ての被予測画像領域について同じ動き ベクトルと変形パターン情報を用いるように符号化されていてもよい。In the figure, reference numeral 37b denotes a corresponding point determination unit that determines corresponding points using motion parameters, such as the motion vector 25b shown in FIG. 35, deformation pattern information 26a, the on-screen position 27a of the predicted image region, and interpolation processing accuracy instruction information 60, as input. Reference numeral 232b denotes an interpolation processing unit that calculates the interpolated coordinate position. In this case, the on-screen position 27a of the predicted image region is a unique value for each predicted image region. However, the motion vector 25b and deformation pattern information 26a may be unique values for each predicted image region. Alternatively, they may be coded for a larger image (e.g., an image frame or a VOP as disclosed in ISO/IEC JTC1/SC29/WG11) that combines multiple predicted image regions, and the same motion vector and deformation pattern information may be used for all predicted image regions included in that unit.
また、図37は、図36の動き補償部の動作フローチャート、図38は、同じ く動作を説明する図である。FIG. 37 is a flowchart illustrating the operation of the motion compensation unit of FIG. 36, and FIG. 38 is a diagram illustrating the same operation.
以下、上記構成の装置の動作を説明する。The operation of the device having the above configuration will now be described.
本実施の形態においては、従来の動きベクトルが該当ブロックを代表する1本 のみであったのに対して、参照画像のブロックの四角の頂点4本までが入力され 、それに対応して、まず、座標位置が後に対応点の決定の動作で説明する演算で 求められる。更に、その求まった座標位置を内挿処理指示情報で丸め込んで座標 位置を確定する。In this embodiment, whereas conventionally only one motion vector was used to represent the block, up to four vertices of the rectangle of the reference image block are input, and corresponding coordinate positions are first determined by a calculation described later in the operation for determining corresponding points. The determined coordinate positions are then rounded off using interpolation processing instruction information to determine the coordinate positions.
動き補償部90以外の部分の動作は、実施の形態7の装置と同様である。即ち 、エントロピー復号部51において、ビットストリームが解析され、個々の符号 化データに切り分けられる。量子化直交変換係数52は、量子化ステップ・パラ メータ17を用いて逆量子化部6、逆直交変換部7で復号処理され、復号加算部 53に送られる。復号加算部53は、イントラ/インター符号化指示フラグ16 の値に基づいて、イントラ 符号化ブロック、インター符号化ブロックの区別に応じて予測画像データ12を そのまま又は加算して復号画像55として出力する。復号画像55は、表示制御 部56に送られ、表示デバイスに出力され、また、参照画像としてフレームメモ リ54に書き込まれる。The operation of the components other than the motion compensation unit 90 is the same as in the device of embodiment 7. That is, the entropy decoding unit 51 analyzes the bitstream and separates it into individual coded data. The quantized orthogonal transform coefficients 52 are decoded by the inverse quantization unit 6 and the inverse orthogonal transform unit 7 using the quantization step parameter 17 and sent to the decoding and summing unit 53. The decoding and summing unit 53 outputs the predicted image data 12 as is or adds it to the predicted image data 12 depending on whether it is an intra-coded block or an inter-coded block, based on the value of the intra/inter coding indication flag 16, as a decoded image 55. The decoded image 55 is sent to the display control unit 56, output to a display device, and written to the frame memory 54 as a reference image.
以下、動き補償部90における予測画像生成処理について説明する。The predicted image generation process in the motion compensation unit 90 will be described below.
本実施の形態では、変形パターン情報26aに従って、必要な本数の動きベク トル25bを用いて変形に必要な変換式を得て、その変換式によって被予測画像 領域の各画素に対応する予測画像構成画素のサンプル位置を決定した後、内挿処 理精度指示情報で定められた画素制度に従った簡単な内挿処理によって予測画像 が生成される。In this embodiment, the transformation formula required for transformation is obtained using the required number of motion vectors 25b in accordance with the transformation pattern information 26a, and the sample positions of the predicted image constituent pixels corresponding to each pixel in the predicted image region are determined using the transformation formula. After that, the predicted image is generated by a simple interpolation process in accordance with the pixel precision determined by the interpolation process precision instruction information.
以下、図36ないし図38をもとに、本実施の形態における動き補償部90の 動作を説明する。The operation of the motion compensation unit 90 in this embodiment will be described below with reference to Figures 36 to 38.
1)対応点の決定 対応点決定部37bにおいて、入力される動きベクトル25b、変形パターン 情報26aに基づき、被予測画像領域内の各画素に対応する予測画像のサンプル すべき座標位置を算出する。図38のように、ここでは動きベクトル25bは、 被予測画像領域の外接四角形の各頂点の4つの動きベクトルとする。まず、変形 パターン情報26aに対応して変形に必要な変換式を得る。例えば、以下のよう な変換式を用いる。1) Determining Corresponding Points The corresponding point determiner 37b calculates the coordinate positions at which to sample the predicted image corresponding to each pixel in the predicted image area based on the input motion vector 25b and transformation pattern information 26a. As shown in Figure 38, the motion vectors 25b are the four motion vectors at the vertices of the circumscribing rectangle of the predicted image area. First, the transformation formula required for transformation is obtained in accordance with the transformation pattern information 26a. For example, the following transformation formula is used:
1−1)動きがなく、静止状態(必要な動きベクトルの本数:0本) (i’,j’)=(i,j) (9) 1−2)平行移動(必要な動きベクトルの本数:1本) (i’,j’)=(i+dx0,j+dy0) (10) 1−3)等方変換(必要な動きベクトルの本数:2本) 但し、 (x0,y0):被予測画像領域の外接四角形の左上隅頂点座標 (x1,y1):被予測画像領域の外接四角形の右上隅頂点座標 (x0’,y0’):第1の動きベクトル(dx0,dy0)によって(x0 ,y0)を変位させた座標 (x1’,y1’):第2の動きベクトル(dx1,dy1)によって(x1 ,y1)を変位させた座標 W:x1−x0 1−4)アフィン変換(必要な動きベクトルの本数:3本) 但し、 (x0,y0):被予測画像領域の外接四角形の左上隅頂点座標 (x1,y1):被予測画像領域の外接四角形の右上隅頂点座標 (x2,y2):被予測画像領域の外接四角形の左下隅頂点座標 (x0’,y0’):第1の動きベクトル(dx0,dy0)によって(x0 ,y0)を変位させた座標 (x1’,y1’):第2の動きベクトル(dx1,dy1)によっ て(x1,y1)を変位させた座標 (x2’,y2’):第3の動きベクトル(dx2,dy2)によって(x2 ,y2)を変位させた座標 W:x1−x0 H:y2−y0 1−5)透視変換(必要なベクトルの本数:4本) 但し、 (x0,y0):被予測画像領域の外接四角形の左上隅頂点座標 (x1,y1):被予測画像領域の外接四角形の右上隅頂点座標 (x2,y2):被予測画像領域の外接四角形の左下隅頂点座標 (x3,y3):被予測画像領域の外接四角形の右下隅頂点座標 (x0’,y0’):第1の動きベクトル(dx0,dy0)によって(x0 ,y0)を変位させた座標 (x1’,y1’):第2の動きベクトル(dx1,dy1)によって(x1 ,y1)を変位させた座標 (x2’,y2’):第3の動きベクトル(dx2,dy2)によって(x2 ,y2)を変位させた座標 (x3’,y3’):第4の動きベクトル(dx3,dy3)によって(x3 ,y3)を変位させた座標 W:x1−x0 H:y2−y0 変形パターン情報26aの形式としては、上記の変換式である式(9)ないし 式(13)を直接識別するビットでもよいし、各変換が動きベクトルの本数に対 応していることから、動きベクトルの本数を表現するビットでもよい。以上の変 換式によって、被予測画像領域の点(i,j)が参照画像中の(i’,j’)に 対応付けられる。また、対応点位置計算の際に、予測画像のサンプル位置は、内 挿処理精度指示情報60で定められる精度の値まで取り得るようにする。例えば 、半画素精度までに丸め込むとすれば、上記変換式によって得られた(i’,j ’)は、半画素精度の値に丸められる。1/4画素情報までとすれば、(i’, j’)は、1/4画素精度の値に丸め込められる。このサンプル位置精度を表す 情報は、ビットストリーム中から抽出する。1-1) No motion, stationary state (number of required motion vectors: 0) (i', j') = (i, j) (9) 1-2) Translation (number of required motion vectors: 1) (i', j') = (i + dx0, j + dy0) (10) 1-3) Isotropic transformation (number of required motion vectors: 2) where (x0, y0): coordinates of the upper left vertex of the circumscribing rectangle of the image area to be predicted (x1, y1): coordinates of the upper right vertex of the circumscribing rectangle of the image area to be predicted (x0', y0'): coordinates obtained by displacing (x0, y0) by the first motion vector (dx0, dy0) (x1', y1'): coordinates obtained by displacing (x1, y1) by the second motion vector (dx1, dy1) W: x1 - x0 1-4) Affine transformation (number of motion vectors required: 3) where (x0, y0): coordinates of the upper left vertex of the circumscribing rectangle of the image area to be predicted (x1, y1): coordinates of the upper right vertex of the circumscribing rectangle of the image area to be predicted (x2, y2): coordinates of the lower left vertex of the circumscribing rectangle of the image area to be predicted (x0', y0'): coordinates obtained by displacing (x0, y0) by the first motion vector (dx0, dy0) (x1', y1'): coordinates obtained by displacing (x1, y1) by the second motion vector (dx1, dy1) (x2', y2'): coordinates obtained by displacing (x2, y2) by the third motion vector (dx2, dy2) W: x1 - x0 H: y2 - y0 1-5) Perspective transformation (number of vectors required: 4) however, (x0, y0): Coordinates of the upper left vertex of the circumscribing rectangle of the image area to be predicted (x1, y1): Coordinates of the upper right vertex of the circumscribing rectangle of the image area to be predicted (x2, y2): Coordinates of the lower left vertex of the circumscribing rectangle of the image area to be predicted (x3, y3): Coordinates of the lower right vertex of the circumscribing rectangle of the image area to be predicted (x0', y0'): Coordinates obtained by displacing (x0, y0) by the first motion vector (dx0, dy0) (x1', y1'): Coordinates obtained by displacing (x1, y1) by the second motion vector (dx1, dy1) (x2', y2'): Coordinates obtained by displacing (x2, y2) by the third motion vector (dx2, dy2) (x3', y3'): Coordinates obtained by displacing (x3, y3) by the fourth motion vector (dx3, dy3) W: x1-x0 H: y2 - y0 The format of the transformation pattern information 26a may be bits that directly identify the above transformation formulas (9) to (13), or bits that represent the number of motion vectors, since each transformation corresponds to the number of motion vectors. The above transformation formulas associate point (i, j) in the predicted image area with point (i', j') in the reference image. Furthermore, when calculating the corresponding point position, the sample position of the predicted image can take on values up to the accuracy specified by the interpolation processing accuracy instruction information 60. For example, if rounding is to be performed to half-pixel accuracy, (i', j') obtained by the above transformation formulas is rounded to a value with half-pixel accuracy. If quarter-pixel information is used, (i', j') is rounded to a value with quarter-pixel accuracy. This information representing the sample position accuracy is extracted from the bitstream.
以上のように、本実施の形態では、動きベクトル25bからダイレクトに対応 点決定ルールを定め、これに基づいて予測画像のサンプル位置を決定する。As described above, in this embodiment, a corresponding point determination rule is determined directly from the motion vector 25b, and the sample positions of the predicted image are determined based on this rule.
2)予測画像生成用データの読み出し 対応点決定部37bから出力される予測画像サンプル位置をもとに、メモリ読 み出しアドレス生成部38bがフレームメモリ54に蓄積されている参照画像中 の予測画像生成に必要な画像データの位置を特定するメモリアドレスを生成し、 予測画像生成用データを読み出す。2) Reading Data for Predicted Image Generation Based on the predicted image sample positions output by the corresponding point determination unit 37b, the memory read address generation unit 38b generates a memory address that identifies the location of the image data required for predictive image generation within the reference images stored in the frame memory 54, and then reads the predicted image generation data.
3)予測画像の生成 予測画像を構成する画素の内、整数画素位置の座標値のみをアドレッシングす る場合は、予測画像生成用データがそのまま予測画像構成画素となる。本実施の 形態では、予測画像をアドレッシングしてサンプルする位置は、上記のように予 め定められた精度、例えば、半画素、1/4画素の値を取り得る。実数精度の位 置の画素の場合は、内挿処理部232bにおいて、内挿処理精度指示情報60で 定められる整数精度とする指示に基づき、予測画像の整数画素値が生成される。3) Generation of Predicted Image When addressing only the coordinate values of integer pixel positions of the pixels that make up the predicted image, the data used to generate the predicted image becomes the pixels that make up the predicted image. In this embodiment, the positions at which the predicted image is addressed and sampled can have a predetermined precision, such as half-pixel or quarter-pixel values, as described above. For pixels located at real-number precision, the interpolation processing unit 232b generates integer pixel values of the predicted image based on the integer precision specified in the interpolation processing precision instruction information 60.
本実施の形態では、対応点決定部において、既に最終的なサンプル位置を内挿処 理精度指示情報60で指定される精度で丸めるが、内挿処理は、図39のように 、次の式(15)の処理をする。なお、半画素精度の位置であれば、実施の形態 1に述べた半画素生成部232と全く同じ処理となる。In this embodiment, the corresponding point determination unit already rounds the final sample positions to the precision specified by the interpolation processing precision instruction information 60, and the interpolation processing is performed using the following equation (15), as shown in Figure 39. Note that if the position is at half-pixel precision, the processing is exactly the same as that performed by the half-pixel generation unit 232 described in embodiment 1.
以上のように、本実施の形態の画像復号装置によれば、ゼロ又は複数本の動き ベクトルを用いて簡単なサンプル位置計算を行うことで、複雑度の異なる動きを 効率よく予測して符号化されたビットストリームから再生画像を得ることができ る。 As described above, according to the image decoding device of this embodiment, by performing simple sample position calculations using zero or multiple motion vectors, it is possible to efficiently predict motion of different degrees of complexity and obtain a reconstructed image from an encoded bitstream.
実施の形態1ないし実施の形態6における画像符号化装置及び実施の形態7に おける画像復号装置は、整数画素及び半画素のアドレッシングのみで変形処理し た動き補償を用いて高速で複雑な画像符号化、復号を行っている。The image coding apparatuses according to the first through sixth embodiments and the image decoding apparatus according to the seventh embodiment perform high-speed, complex image coding and decoding using motion compensation with modified processing using only integer-pixel and half-pixel addressing.
これに対して、本実施の形態における画像復号装置は、同様の構成を用いて、 しかし、対応点決定の演算を参照画像と被予測画像の対象ブロックがよりマッチ ングし、従って、より適切な動きを得るため強化したものである。これにより、 よりスムーズな動きを得ることができる。In contrast, the image decoding device in this embodiment uses a similar configuration, but the calculation for determining corresponding points has been strengthened to ensure a better match between the reference image and the current block in the predicted image, thereby obtaining more appropriate motion. This allows for smoother motion.
本実施の形態では、直交変換符号化以外の別の符号化方式によって予測誤差信 号を符号化したビットストリームであっても、動き補償部90以外の予測誤差信 号復号処理のための要素を変更することで、同様の効 果を得ることができるのは、実施の形態7と同じである。In this embodiment, as in the seventh embodiment, even if the bitstream is one in which the prediction error signal is coded by a coding method other than orthogonal transform coding, the same effect can be obtained by changing elements for the prediction error signal decoding process other than the motion compensation unit 90.
また、本実施の形態では、固定サイズブロックを単位として復号処理を行う例 について述べたが、これは通常のテレビ信号のフレームを単位とする復号装置に 適用できるだけでなく、固定サイズブロックから構成される任意形状画像オブジ ェクト(Video Object Planeなど)を単位とする復号装置に も適用可能であるのも、実施の形態7と同じである。Furthermore, while this embodiment describes an example of decoding processing performed in units of fixed-size blocks, this is applicable not only to decoding devices that use frames of regular television signals as units, but also to decoding devices that use arbitrary-shape image objects (e.g., video object planes) composed of fixed-size blocks as units, as in embodiment 7.
実施の形態9. 上記各実施の形態では、動きを検出する被予測画像の1ブロックを構成する画 素数については言及しなかった。言い換えれば、任意の高さ(H)と幅(W)の 画素を対象と考えてきた。本実施の形態では、このHとWの画素数を2のべき乗 に制限して座標演算を簡略化する場合を説明する。こうすることで、対応点決定 部の負荷が減り、演算を高速化できる。Embodiment 9. In the above embodiments, no mention was made of the number of pixels constituting one block of a predicted image for which motion is to be detected. In other words, we considered pixels of any height (H) and width (W). In this embodiment, we explain a case in which the number of pixels in H and W is limited to a power of two, thereby simplifying coordinate calculations. This reduces the load on the corresponding point determination unit and speeds up calculations.
本実施の形態では、図36に示した実施の形態8における動き補償部90の内 、37cとして対応点決定部の動作のみが異なるので、対応点決定部の動作につ いてのみ説明する。In this embodiment, only the operation of the corresponding point determination unit 37c of the motion compensation unit 90 in the eighth embodiment shown in FIG. 36 is different, and therefore only the operation of the corresponding point determination unit will be described.
図40は、対応点決定部37cの動作の様子を示すフローチャートである。FIG. 40 is a flowchart showing the operation of the corresponding point determining unit 37c.
また、図41は、対応点決定部37cの動作を説明する図である。FIG. 41 is a diagram for explaining the operation of the corresponding point determining unit 37c.
以下、図40をもとに、本実施の形態における対応点決定部37cの動作を説 明する。The operation of the corresponding point determination unit 37c in this embodiment will be described below with reference to FIG.
本実施の形態における対応点決定部37cは、動きベクトル25b、変形パタ ーン情報26a、内挿処理精度指示情報91、被予測画像領域の画面内位置27 aを入力とし、被予測画像領域内の各画素に対応する予測画像のサンプル位置を 以下の式に基づいて算出して出力する。この 際、被予測画像領域の画面内位置27aは、被予測画像領域毎に固有の値である が、動きベクトル25bと変形パターン情報26aは、被予測画像領域毎に固有 の値であっても、被予測画像領域を複数まとめたより大きな画像(例えば、画像 フレームやISO/IEC JTC1/SC29/WG11に開示されるVOP など)毎に符号化されていて、その単位に含まれる全ての被予測画像領域につい て同じ動きベクトルと変形パターン情報を用いるように符号化されていてもよい 。以下では、動きベクトルを最大3本使用する場合の例について説明する。In this embodiment, the corresponding point determination unit 37c receives the motion vector 25b, transformation pattern information 26a, interpolation processing accuracy instruction information 91, and the on-screen position 27a of the predicted image area as input, and calculates and outputs the sample position of the predicted image corresponding to each pixel in the predicted image area based on the following formula. In this case, the on-screen position 27a of the predicted image area is a unique value for each predicted image area. However, the motion vector 25b and transformation pattern information 26a may be unique values for each predicted image area. Alternatively, they may be coded for a larger image (e.g., an image frame or a VOP as disclosed in ISO/IEC JTC1/SC29/WG11) that combines multiple predicted image areas, and the same motion vector and transformation pattern information may be used for all predicted image areas included in that unit. The following describes an example in which up to three motion vectors are used.
動きベクトル25bは、(x0,y0)と、図41のように、被予測画像領域 の外接四角形の左上隅及び右下隅の頂点を、左上隅の頂点から2のべき乗で表現 可能な距離まで延長した点(x0+W’,y0)(W’≧W,W’=2m)及び (x0,y0+H’)(H’≧H,H’=2n)の動きベクトルであるとする。 Motion vector 25b is defined as the motion vectors of (x0, y0) and the points (x0+W', y0) (W'≧W, W'=2 m ) and (x0, y0+H') (H'≧H, H'=2 n ) obtained by extending the vertices of the upper left and lower right corners of the circumscribing rectangle of the predicted image area from the upper left vertex to a distance that can be expressed as a power of 2, as shown in Figure 41.
これらの動きベクトルに基づいて、変形パターン情報26aに対応して、以下の 変形に必要な変換式である式(16)ないし式(19)を得る。Based on these motion vectors, the transformation formulas (16) through (19) necessary for the following transformation are obtained in accordance with the transformation pattern information 26a.
1−1)動きなし(必要なベクトルの本数:0本) (i’,j’)=(i,j) (16) 1−2)平行移動(必要なベクトルの本数:1本) (i’,j’)=(i+dx0,j+dy0) (17) 1−3)等方変換(必要なベクトルの本数:2本) 但し、 (x0,y0):被予測画像領域の外接四角形の左上隅頂点座標 (x1,y1):被予測画像領域の外接四角形の右上隅頂点座標 (x0’,y0’):第1の動きベクトル(dx0,dy0)によって(x0 ,y0)を変位させた座標 (x1’,y1’):第2の動きベクトル(dx1,dy1)によって(x0 +W’,y0)を変位させた座標 1−4)アフィン変換(必要な動きベクトルの本数:3本) 但し、 (x0,y0):被予測画像領域の外接四角形の左上隅頂点座標 (x1,y1):被予測画像領域の外接四角形の右上隅頂点座標 (x2,y2):被予測画像領域の外接四角形の左下隅頂点座標 (x0’,y0’):第1の動きベクトル(dx0,dy0)によって(x0 ,y0)を変位させた座標 (x1”,y1”):第2の動きベクトル(dx1,dy1)によって(x0 +W’,y0)を変位させた座標 (x2”,y2”):第3の動きベクトル(dx2,dy2)によって(x0 ,y0+H’)を変位させた座標 変形パターン情報26aの形式としては、上記の変換式である式(16)ない し式(19)を直接識別するために表記した複数のビットで構成されたビット列 でもよいし、各変換が動きベクトルの本数に対応していることから、動きベクト ルの本数を表現するビットでもよい。1-1) No movement (number of vectors required: 0) (i', j') = (i, j) (16) 1-2) Translation (number of vectors required: 1) (i', j') = (i + dx0, j + dy0) (17) 1-3) Isotropic transformation (number of vectors required: 2) where (x0, y0): coordinates of the upper left vertex of the circumscribing rectangle of the image area to be predicted; (x1, y1): coordinates of the upper right vertex of the circumscribing rectangle of the image area to be predicted; (x0', y0'): coordinates obtained by displacing (x0, y0) by the first motion vector (dx0, dy0); (x1', y1'): coordinates obtained by displacing (x0 + W', y0) by the second motion vector (dx1, dy1); 1-4) Affine transformation (number of motion vectors required: 3) where (x0, y0): coordinates of the upper left vertex of the circumscribing rectangle of the image area to be predicted (x1, y1): coordinates of the upper right vertex of the circumscribing rectangle of the image area to be predicted (x2, y2): coordinates of the lower left vertex of the circumscribing rectangle of the image area to be predicted (x0', y0'): coordinates obtained by displacing (x0, y0) by the first motion vector (dx0, dy0) (x1", y1"): coordinates obtained by displacing (x0 + W', y0) by the second motion vector (dx1, dy1) (x2", y2"): coordinates obtained by displacing (x0, y0 + H') by the third motion vector (dx2, dy2) The format of the transformation pattern information 26a may be a bit string composed of a plurality of bits expressed in order to directly identify the above transformation formulas (16) to (19), or may be bits representing the number of motion vectors, since each transformation corresponds to the number of motion vectors.
以上の変換式によって、被予測画像領域の点(i,j)が参照画像中の(i’ ,j’)に対応付けられる。また、対応点位置計算の際に、予測画像のサンプル 位置は、ある定められた精度の値まで取り得るようにする。例えば、半画素精度 までに丸め込むとすれば、上記変換式によって得られる(i’,j’)は、半画 素精度の値となり、1/4画素精度に丸め込む指示とすれば、(i’,j’)は 、1/4画素精度の値となる。このサンプル位置精度を表す情報は、ビットスト リーム中から抽出する。The above conversion formula associates point (i,j) in the predicted image region with point (i',j') in the reference image. Furthermore, when calculating the corresponding point position, the sample position of the predicted image can take on values up to a certain precision. For example, if rounding is performed to half-pixel precision, (i',j') obtained by the above conversion formula will have half-pixel precision; if rounding is performed to quarter-pixel precision, (i',j') will have quarter-pixel precision. Information indicating this sample position precision is extracted from the bitstream.
以上のように、本実施の形態では、動きベクトル25bからダイレクトに対応 点決定ルールを定め、これに基づいて予測画像のサンプル位置を決定する。As described above, in this embodiment, a corresponding point determination rule is determined directly from the motion vector 25b, and the sample positions of the predicted image are determined based on this rule.
2)予測画像生成用データの読み出し 3)予測画像の生成 に関しては、実施の形態8と全く同じ動作をするので、詳細記述は省略する。2) Reading data for generating a predicted image 3) Generating a predicted image The operations are exactly the same as in embodiment 8, so detailed description is omitted.
以上のように、本実施の形態の画像復号装置によれば、ゼロ又は複数本の動き ベクトルを用いてサンプル位置計算を行う際に、W’又はH’による除算演算を 全てビットシフト演算に置き換えて計算できるので、より高速にサンプル位置の 決定を行うことができるとともに、複雑度の異なる動きを効率よく予測して符号 化されたビットストリームから再生画像を得ることができる。As described above, the image decoding device of this embodiment can replace all division operations by W' or H' with bit shift operations when calculating sample positions using zero or multiple motion vectors. This allows for faster determination of sample positions and efficient prediction of motion with different degrees of complexity to produce a reconstructed image from the coded bitstream.
本実施の形態の動き補償を、他の符号化方式に基づく画像復号装置に用いる場 合も、対応する要素を変更することで同様の効果を得ることができる。また、固 定サイズブロックから構成される任意形状画像オブジェクト(Video Ob ject Planeなど)を単位とする復号装置にも適用可能であることは、 実施の形態7と同じである。When the motion compensation of this embodiment is applied to an image decoding device based on another encoding method, similar effects can be achieved by changing the corresponding elements. Also, as with the seventh embodiment, it can be applied to a decoding device that uses an arbitrary-shape image object (such as a video object plane) composed of fixed-size blocks as a unit.
なお、本発明の画像符号化装置と、画像復号装置は、組にして特徴のある画像 符号化復号システムを構成する。The image encoding device and image decoding device of the present invention are combined to form a distinctive image encoding/decoding system.
また、各動作フローチャートで表される動作を行うことにより、即ち、変形ブ ロックマッチングステップと、対応点決定ステップと動き補償画像生成ステップ と復号加算ステップを備えることにより、特徴ある画像符号化方法、画像復号方 法を得ることができる。Furthermore, by performing the operations shown in each operational flowchart, i.e., by including a modified block matching step, a corresponding point determination step, a motion-compensated image generation step, and a decoding and addition step, a distinctive image encoding method and an image decoding method can be obtained.
産業上の利用可能性 以上のように、この発明によれば、実標本点の整数画素またはその中間の半画 素を用いて、座標指定のみで得られる変形ブロックで画像の動きの予測を行うた め、動きベクトルのような平行移動量だけでは予測がうまくいかない部分画像で も、アフィン変換のような複雑な演算なしに効率よく予測できる効果がある。ま た、回転やスケーリングなどの数式で記述可能な変形だけでなく、数式で簡単に 記述できない、即ち、演算による実現が困難な変形にも対応できる効果がある。INDUSTRIAL APPLICABILITY As described above, this invention predicts image motion using integer pixels or intermediate half-pixels of actual sample points, using deformation blocks obtained by coordinate specification alone. This effectively enables efficient prediction without complex calculations such as affine transformations, even for partial images where prediction is difficult using only translational displacements such as motion vectors. Furthermore, this invention can handle not only transformations that can be described mathematically, such as rotation and scaling, but also transformations that cannot be easily described mathematically, i.e., transformations that are difficult to achieve through calculations.
対応復号装置でも 、効率よく優れた画像を再現できる効果がある。This has the effect of enabling efficient reproduction of high-quality images even on compatible decoding devices.
また更に、アフィン変換のような複雑な画素補間演算を行うことなく、対応点 の決定による座標指定のみによって回転と縮小または拡大を組合せた動きをうま く予測できる効果がある。Furthermore, it has the advantage that it can effectively predict movements that combine rotation and shrinking or enlarging by simply specifying the coordinates of corresponding points, without the need for complex pixel interpolation operations such as affine transformation.
また更に、平行移動によるブロックマッチングの動きベクトルを利用すること で、変形ブロックマッチングの探索範囲を効果的に削減することができ、動き補 償予測全体の演算量を低減できる効果がある。Furthermore, by using motion vectors from translational block matching, the search range for modified block matching can be effectively reduced, thereby reducing the overall computational complexity of motion compensated prediction.
また更に、アフィン変換のような複雑な画素補間演算を行うことなく、座標指 定のみによって単純縮小または拡大スケーリングによる動きを効率良く予測でき る効果がある。Furthermore, there is an advantage that the motion due to simple scaling can be efficiently predicted by specifying coordinates only, without performing complex pixel interpolation operations such as affine transformation.
また更に、変形パターンテーブルを参照するだけで対応点が決定できるので、 アフィン変換のような簡単な数式では表現できないような任意の変形に伴う動き をもうまく予測できる効果がある。Furthermore, since corresponding points can be determined simply by referencing a deformation pattern table, it has the effect of being able to effectively predict movements associated with arbitrary deformations that cannot be expressed by simple mathematical formulas such as affine transformations.
また更に、フィルタを用いて変形ブロック内の空間周波数特性をフラットにす ることができ、予測のミスマッチを低減できる効果がある。Furthermore, the spatial frequency characteristics within the transformed block can be flattened using a filter, which has the effect of reducing prediction mismatch.
画像符号化装置の変形ブロックマッチングと動き予測に対応した復号装置を構 成したので、高速で最適な動き予測を行った画像データを復号再生できる効果が ある。The decoder is designed to support the modified block matching and motion prediction of the image coding device, enabling high-speed decoding and playback of image data with optimal motion prediction.
また更に、画像復号装置のアドレッシングにおいて、自由度が高い動き予測を 復号できるので、動きのスムーズな画像を再生できる効果がある。Furthermore, the addressing of the image decoding device allows for highly flexible motion prediction, which has the effect of enabling smooth image reproduction.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 西川 博文 東京都千代田区丸の内2丁目2番3号 三 菱電機株式会社内 (72)発明者 黒田 慎一 東京都千代田区丸の内2丁目2番3号 三 菱電機株式会社内 (72)発明者 井須 芳美 東京都千代田区丸の内2丁目2番3号 三 菱電機株式会社内 (72)発明者 長谷川 由里 東京都千代田区丸の内2丁目2番3号 三 菱電機株式会社内 (注)この公表は、国際事務局(WIPO)により国際公開された公報を基に作 成したものである。 なおこの公表に係る日本語特許出願(日本語実用新案登録出願)の国際公開の 効果は、特許法第184条の10第1項(実用新案法第48条の13第2項)に より生ずるものであり、本掲載とは関係ありません。───────────────────────────────────────────────────── Continued from the front page (72) Inventor: Hirofumi Nishikawa 2-2-3 Marunouchi, Chiyoda-ku, Tokyo Ryo Electric Co., Ltd. (72) Inventor: Shinichi Kuroda 2-2-3 Marunouchi, Chiyoda-ku, Tokyo Ryo Electric Co., Ltd. (72) Inventor: Yoshimi Isu 2-2-3 Marunouchi, Chiyoda-ku, Tokyo Ryo Electric Co., Ltd. (72) Inventor: Yuri Hasegawa 2-2-3 Marunouchi, Chiyoda-ku, Tokyo Ryo Electric Co., Ltd. (Note) This publication is based on the publication published internationally by the International Bureau of International Patent Publication (WIPO). Please note that the effect of the international publication of the Japanese-language patent application (Japanese-language utility model registration application) related to this publication arises pursuant to Article 184-10, Paragraph 1 of the Patent Act (Article 48-13, Paragraph 2 of the Utility Model Act), and is unrelated to this publication.
Claims (18)
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP1997/000834 WO1998042134A1 (en) | 1997-03-17 | 1997-03-17 | Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system |
| WO97/00834 | 1997-03-17 | ||
| PCT/JP1997/003825 WO1998042135A1 (en) | 1997-03-17 | 1997-10-23 | Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO1998042135A1 true JPWO1998042135A1 (en) | 1999-07-06 |
| JP3386142B2 JP3386142B2 (en) | 2003-03-17 |
Family
ID=14180217
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP54033398A Expired - Lifetime JP3386142B2 (en) | 1997-03-17 | 1997-10-23 | Image decoding device and image decoding method |
Country Status (7)
| Country | Link |
|---|---|
| US (5) | US6404815B1 (en) |
| EP (8) | EP2252065A3 (en) |
| JP (1) | JP3386142B2 (en) |
| KR (1) | KR100319944B1 (en) |
| AU (2) | AU1941797A (en) |
| DE (4) | DE69740004D1 (en) |
| WO (2) | WO1998042134A1 (en) |
Families Citing this family (109)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1998042134A1 (en) * | 1997-03-17 | 1998-09-24 | Mitsubishi Denki Kabushiki Kaisha | Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system |
| US8179971B1 (en) | 2003-12-08 | 2012-05-15 | G&H Nevada-Tek | Method and apparatus for video data compression |
| US6690731B1 (en) * | 1997-12-01 | 2004-02-10 | Neostar, Inc. | Method and apparatus for diagonal processing of video data |
| FR2795589B1 (en) * | 1999-06-11 | 2001-10-05 | Centre Nat Rech Scient | OPTIMAL VIDEO DECODER BASED ON MPEG TYPE STANDARDS |
| JP2001275110A (en) * | 2000-03-24 | 2001-10-05 | Matsushita Electric Ind Co Ltd | Method and apparatus for dynamic loop and post-filtering |
| KR100359115B1 (en) * | 2000-05-24 | 2002-11-04 | 삼성전자 주식회사 | Video coding method |
| US20030021347A1 (en) * | 2001-07-24 | 2003-01-30 | Koninklijke Philips Electronics N.V. | Reduced comlexity video decoding at full resolution using video embedded resizing |
| US7181070B2 (en) * | 2001-10-30 | 2007-02-20 | Altera Corporation | Methods and apparatus for multiple stage video decoding |
| US7403981B2 (en) * | 2002-01-04 | 2008-07-22 | Quicksilver Technology, Inc. | Apparatus and method for adaptive multimedia reception and transmission in communication environments |
| US8284844B2 (en) | 2002-04-01 | 2012-10-09 | Broadcom Corporation | Video decoding system supporting multiple standards |
| US9077991B2 (en) | 2002-12-10 | 2015-07-07 | Sony Computer Entertainment America Llc | System and method for utilizing forward error correction with video compression |
| US10201760B2 (en) | 2002-12-10 | 2019-02-12 | Sony Interactive Entertainment America Llc | System and method for compressing video based on detected intraframe motion |
| US8964830B2 (en) | 2002-12-10 | 2015-02-24 | Ol2, Inc. | System and method for multi-stream video compression using multiple encoding formats |
| US9108107B2 (en) | 2002-12-10 | 2015-08-18 | Sony Computer Entertainment America Llc | Hosting and broadcasting virtual events using streaming interactive video |
| US8549574B2 (en) | 2002-12-10 | 2013-10-01 | Ol2, Inc. | Method of combining linear content and interactive content compressed together as streaming interactive video |
| US9061207B2 (en) | 2002-12-10 | 2015-06-23 | Sony Computer Entertainment America Llc | Temporary decoder apparatus and method |
| US8366552B2 (en) | 2002-12-10 | 2013-02-05 | Ol2, Inc. | System and method for multi-stream video compression |
| US8526490B2 (en) | 2002-12-10 | 2013-09-03 | Ol2, Inc. | System and method for video compression using feedback including data related to the successful receipt of video content |
| US9446305B2 (en) | 2002-12-10 | 2016-09-20 | Sony Interactive Entertainment America Llc | System and method for improving the graphics performance of hosted applications |
| US20090118019A1 (en) | 2002-12-10 | 2009-05-07 | Onlive, Inc. | System for streaming databases serving real-time applications used through streaming interactive video |
| US9314691B2 (en) | 2002-12-10 | 2016-04-19 | Sony Computer Entertainment America Llc | System and method for compressing video frames or portions thereof based on feedback information from a client device |
| US8711923B2 (en) | 2002-12-10 | 2014-04-29 | Ol2, Inc. | System and method for selecting a video encoding format based on feedback data |
| US9192859B2 (en) | 2002-12-10 | 2015-11-24 | Sony Computer Entertainment America Llc | System and method for compressing video based on latency measurements and other feedback |
| US9138644B2 (en) | 2002-12-10 | 2015-09-22 | Sony Computer Entertainment America Llc | System and method for accelerated machine switching |
| JP2004241984A (en) * | 2003-02-05 | 2004-08-26 | Toshiba Corp | Data transmission equipment |
| US7869516B2 (en) * | 2003-03-31 | 2011-01-11 | Hewlett-Packard Development Company, L.P. | Motion estimation using bit-wise block comparisons for video compresssion |
| US7609297B2 (en) | 2003-06-25 | 2009-10-27 | Qst Holdings, Inc. | Configurable hardware based digital imaging apparatus |
| US7620254B2 (en) * | 2003-08-07 | 2009-11-17 | Trident Microsystems (Far East) Ltd. | Apparatus and method for motion-vector-aided interpolation of a pixel of an intermediate image of an image sequence |
| KR100703283B1 (en) * | 2004-03-15 | 2007-04-03 | 삼성전자주식회사 | Image coding apparatus and method for predicting motion through rotation matching |
| US8018463B2 (en) * | 2004-05-10 | 2011-09-13 | Nvidia Corporation | Processor for video data |
| US8130825B2 (en) * | 2004-05-10 | 2012-03-06 | Nvidia Corporation | Processor for video data encoding/decoding |
| US7986733B2 (en) * | 2004-07-30 | 2011-07-26 | Broadcom Corporation | Tertiary content addressable memory based motion estimator |
| US20060215036A1 (en) * | 2005-03-25 | 2006-09-28 | Multivision Intelligent Surveillance (Hk) Ltd. | Method and apparatus for video stabilization |
| US7660354B2 (en) * | 2005-05-11 | 2010-02-09 | Fang Shi | Temporal error concealment for bi-directionally predicted frames |
| BRPI0611672A2 (en) * | 2005-07-22 | 2009-01-13 | Mitsubishi Electric Corp | image encoder and decoder, image encoding method, image encoding program, computer readable recording medium, image decoding method, image decoding program, and image encoded bit stream |
| CN100474929C (en) * | 2005-09-07 | 2009-04-01 | 深圳市海思半导体有限公司 | Loading device and method for moving compensating data |
| EP1956839A4 (en) * | 2005-11-29 | 2010-03-17 | Pioneer Corp | Recording device, reproduction device, recording method, recording program, and computer-readable recording medium |
| US20080111923A1 (en) * | 2006-11-09 | 2008-05-15 | Scheuermann W James | Processor for video data |
| JP4615508B2 (en) * | 2006-12-27 | 2011-01-19 | シャープ株式会社 | Image display apparatus and method, image processing apparatus and method |
| WO2008123753A1 (en) * | 2007-04-09 | 2008-10-16 | Lg Electronics Inc. | A method and an apparatus for processing a video signal |
| WO2008139708A1 (en) * | 2007-04-27 | 2008-11-20 | Panasonic Corporation | Image decoding device, image decoding system, image decoding method, and integrated circuit |
| KR100813989B1 (en) * | 2007-06-18 | 2008-03-14 | 삼성전자주식회사 | A coding method, a decoding method, and apparatus therefor using a plurality of scan patterns |
| FR2917872A1 (en) * | 2007-06-25 | 2008-12-26 | France Telecom | METHODS AND DEVICES FOR ENCODING AND DECODING AN IMAGE SEQUENCE REPRESENTED USING MOTION TUBES, COMPUTER PROGRAM PRODUCTS AND CORRESPONDING SIGNAL. |
| US9168457B2 (en) | 2010-09-14 | 2015-10-27 | Sony Computer Entertainment America Llc | System and method for retaining system state |
| US8443275B2 (en) * | 2008-01-15 | 2013-05-14 | Texas Instruments Incorporated | Lossy compression technique for video encoder bandwidth reduction using compression error data |
| JP4683050B2 (en) * | 2008-01-16 | 2011-05-11 | 株式会社日立製作所 | Image encoding / decoding device, encoding / decoding program, and encoding / decoding method |
| KR101456491B1 (en) * | 2008-05-08 | 2014-11-03 | 삼성전자주식회사 | Image encoding and decoding method and apparatus based on a plurality of reference pictures |
| JPWO2010021153A1 (en) | 2008-08-21 | 2012-01-26 | パナソニック株式会社 | Motion detection device |
| KR101493325B1 (en) * | 2008-09-03 | 2015-02-16 | 삼성전자주식회사 | Frame interpolation apparatus based on precise motion prediction and its method |
| KR101624649B1 (en) * | 2009-08-14 | 2016-05-26 | 삼성전자주식회사 | Method and apparatus for video encoding considering hierarchical coded block pattern, and method and apparatus for video decoding considering hierarchical coded block pattern |
| US9497481B2 (en) | 2010-02-09 | 2016-11-15 | Nippon Telegraph And Telephone Corporation | Motion vector predictive encoding method, motion vector predictive decoding method, moving picture encoding apparatus, moving picture decoding apparatus, and programs thereof |
| US9838709B2 (en) | 2010-02-09 | 2017-12-05 | Nippon Telegraph And Telephone Corporation | Motion vector predictive encoding method, motion vector predictive decoding method, moving picture encoding apparatus, moving picture decoding apparatus, and programs thereof |
| US8581974B2 (en) * | 2010-05-06 | 2013-11-12 | Aptina Imaging Corporation | Systems and methods for presence detection |
| WO2012012582A1 (en) * | 2010-07-21 | 2012-01-26 | Dolby Laboratories Licensing Corporation | Reference processing using advanced motion models for video coding |
| US9357229B2 (en) | 2010-07-28 | 2016-05-31 | Qualcomm Incorporated | Coding motion vectors in video coding |
| EP2421266A1 (en) * | 2010-08-19 | 2012-02-22 | Thomson Licensing | Method for reconstructing a current block of an image and corresponding encoding method, corresponding devices as well as storage medium carrying an images encoded in a bit stream |
| US9066102B2 (en) | 2010-11-17 | 2015-06-23 | Qualcomm Incorporated | Reference picture list construction for generalized P/B frames in video coding |
| JP5055419B2 (en) * | 2010-12-14 | 2012-10-24 | 日立コンシューマエレクトロニクス株式会社 | Image decoding apparatus, decoding program, and decoding method |
| WO2012093377A1 (en) | 2011-01-07 | 2012-07-12 | Nokia Corporation | Motion prediction in video coding |
| WO2012120582A1 (en) | 2011-03-07 | 2012-09-13 | パナソニック株式会社 | Motion compensation device, video encoding device, video decoding device, motion compensation method, program, and integrated circuit |
| CA3101406C (en) | 2011-06-14 | 2023-05-09 | Tammy Lee | Method and apparatus for encoding motion information and method and apparatus for decoding same |
| JP2013102297A (en) | 2011-11-07 | 2013-05-23 | Canon Inc | Image encoding method, image encoder and program, image decoding method, and image decoder and program |
| JP5871628B2 (en) * | 2011-11-07 | 2016-03-01 | キヤノン株式会社 | Image encoding device, image encoding method and program, image decoding device, image decoding method and program |
| US9769473B2 (en) | 2012-06-08 | 2017-09-19 | Apple Inc. | Predictive video coder with low power reference picture transformation |
| CN103929649B (en) * | 2014-04-28 | 2017-04-26 | 广西大学 | Reconstruction method for video compressed sensing |
| CN107809642B (en) * | 2015-02-16 | 2020-06-16 | 华为技术有限公司 | Method for encoding and decoding video image, encoding device and decoding device |
| KR102248172B1 (en) * | 2015-03-16 | 2021-05-04 | 한양대학교 산학협력단 | Method and apparatus for video encoding/decoding using image analysis |
| CN107046645B9 (en) | 2016-02-06 | 2020-08-14 | 华为技术有限公司 | Image coding and decoding method and device |
| ES2692864B1 (en) * | 2016-02-25 | 2019-10-21 | Kt Corp | METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNS |
| US10560712B2 (en) * | 2016-05-16 | 2020-02-11 | Qualcomm Incorporated | Affine motion prediction for video coding |
| WO2018033661A1 (en) * | 2016-08-15 | 2018-02-22 | Nokia Technologies Oy | Video encoding and decoding |
| US10979732B2 (en) * | 2016-10-04 | 2021-04-13 | Qualcomm Incorporated | Adaptive motion vector precision for video coding |
| US10448010B2 (en) | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
| CN108271028A (en) * | 2016-12-30 | 2018-07-10 | 北京优朋普乐科技有限公司 | One sub-pixel all direction search method and device |
| US10897269B2 (en) | 2017-09-14 | 2021-01-19 | Apple Inc. | Hierarchical point cloud compression |
| US10861196B2 (en) | 2017-09-14 | 2020-12-08 | Apple Inc. | Point cloud compression |
| US11818401B2 (en) | 2017-09-14 | 2023-11-14 | Apple Inc. | Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables |
| US11113845B2 (en) | 2017-09-18 | 2021-09-07 | Apple Inc. | Point cloud compression using non-cubic projections and masks |
| US10909725B2 (en) | 2017-09-18 | 2021-02-02 | Apple Inc. | Point cloud compression |
| US11877001B2 (en) | 2017-10-10 | 2024-01-16 | Qualcomm Incorporated | Affine prediction in video coding |
| US10607373B2 (en) | 2017-11-22 | 2020-03-31 | Apple Inc. | Point cloud compression with closed-loop color conversion |
| US11010928B2 (en) | 2018-04-10 | 2021-05-18 | Apple Inc. | Adaptive distance based point cloud compression |
| US10939129B2 (en) | 2018-04-10 | 2021-03-02 | Apple Inc. | Point cloud compression |
| US10867414B2 (en) | 2018-04-10 | 2020-12-15 | Apple Inc. | Point cloud attribute transfer algorithm |
| US10909727B2 (en) | 2018-04-10 | 2021-02-02 | Apple Inc. | Hierarchical point cloud compression with smoothing |
| US10909726B2 (en) | 2018-04-10 | 2021-02-02 | Apple Inc. | Point cloud compression |
| EP4472207A3 (en) * | 2018-06-28 | 2025-03-12 | Huawei Technologies Co., Ltd. | Memory access window and padding for motion vector refinement and motion compensation |
| US11017566B1 (en) | 2018-07-02 | 2021-05-25 | Apple Inc. | Point cloud compression with adaptive filtering |
| US11202098B2 (en) | 2018-07-05 | 2021-12-14 | Apple Inc. | Point cloud compression with multi-resolution video encoding |
| US11012713B2 (en) | 2018-07-12 | 2021-05-18 | Apple Inc. | Bit stream structure for compressed point cloud data |
| US11367224B2 (en) | 2018-10-02 | 2022-06-21 | Apple Inc. | Occupancy map block-to-patch information compression |
| US11430155B2 (en) | 2018-10-05 | 2022-08-30 | Apple Inc. | Quantized depths for projection point cloud compression |
| US11025951B2 (en) * | 2019-01-13 | 2021-06-01 | Tencent America LLC | Method and apparatus for video coding |
| US11683501B2 (en) | 2019-01-17 | 2023-06-20 | Tencent America LLC | Method and apparatus for video coding |
| US11057564B2 (en) | 2019-03-28 | 2021-07-06 | Apple Inc. | Multiple layer flexure for supporting a moving image sensor |
| CN115460424B (en) * | 2019-06-05 | 2024-09-20 | 杭州海康威视数字技术股份有限公司 | A coding and decoding method, device and equipment thereof |
| US11711544B2 (en) | 2019-07-02 | 2023-07-25 | Apple Inc. | Point cloud compression with supplemental information messages |
| US11562507B2 (en) | 2019-09-27 | 2023-01-24 | Apple Inc. | Point cloud compression using video encoding with time consistent patches |
| US11627314B2 (en) | 2019-09-27 | 2023-04-11 | Apple Inc. | Video-based point cloud compression with non-normative smoothing |
| US11202078B2 (en) * | 2019-09-27 | 2021-12-14 | Apple Inc. | Dynamic point cloud compression using inter-prediction |
| US11538196B2 (en) | 2019-10-02 | 2022-12-27 | Apple Inc. | Predictive coding for point cloud compression |
| US11895307B2 (en) | 2019-10-04 | 2024-02-06 | Apple Inc. | Block-based predictive coding for point cloud compression |
| US11798196B2 (en) | 2020-01-08 | 2023-10-24 | Apple Inc. | Video-based point cloud compression with predicted patches |
| US11475605B2 (en) | 2020-01-09 | 2022-10-18 | Apple Inc. | Geometry encoding of duplicate points |
| US11620768B2 (en) | 2020-06-24 | 2023-04-04 | Apple Inc. | Point cloud geometry compression using octrees with multiple scan orders |
| US11615557B2 (en) | 2020-06-24 | 2023-03-28 | Apple Inc. | Point cloud compression using octrees with slicing |
| US11948338B1 (en) | 2021-03-29 | 2024-04-02 | Apple Inc. | 3D volumetric content encoding using 2D videos and simplified 3D meshes |
| CN113658035B (en) * | 2021-08-17 | 2023-08-08 | 北京百度网讯科技有限公司 | Face transformation method, device, equipment, storage medium and product |
| US12388978B2 (en) * | 2021-11-01 | 2025-08-12 | Tencent America LLC | Template-matching based adaptive motion vector resolution (AMVR) for bi-prediction and an affine mode |
Family Cites Families (63)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4661849A (en) * | 1985-06-03 | 1987-04-28 | Pictel Corporation | Method and apparatus for providing motion estimation signals for communicating image sequences |
| DE3629472A1 (en) * | 1986-08-29 | 1988-03-03 | Licentia Gmbh | METHOD FOR MOTION-COMPENSATED PICTURE-TO-PICTURE PREDICTION CODING |
| US4972260A (en) * | 1988-08-22 | 1990-11-20 | Matsushita Electric Industrial Co., Ltd. | Apparatus for coding a moving-picture signal |
| US5236682A (en) * | 1989-10-25 | 1993-08-17 | Hoechst Aktiengesellschaft | Process for producing crystalline sodium silicates having a layered structure |
| JP2569219B2 (en) * | 1990-01-31 | 1997-01-08 | 富士通株式会社 | Video prediction method |
| JPH048585A (en) | 1990-04-26 | 1992-01-13 | Fuji Photo Film Co Ltd | Manufacture of information recording medium |
| JPH048585U (en) * | 1990-05-14 | 1992-01-27 | ||
| SE9002647L (en) * | 1990-08-15 | 1991-09-02 | Televerket | METHOD FOR MOVEMENT COMPENSATION AND ELASTIC DEFORMATION IN IMAGE SEQUENCES |
| US5467136A (en) * | 1991-05-31 | 1995-11-14 | Kabushiki Kaisha Toshiba | Video decoder for determining a motion vector from a scaled vector and a difference vector |
| DE69227352T2 (en) * | 1991-11-12 | 1999-04-15 | Nippon Hoso Kyokai, Tokio/Tokyo | Method and system for performing highly effective image signal coding |
| JP2549479B2 (en) * | 1991-12-06 | 1996-10-30 | 日本電信電話株式会社 | Motion compensation inter-frame band division coding processing method |
| JP3090763B2 (en) * | 1992-02-06 | 2000-09-25 | 富士通株式会社 | Video encoding device |
| JPH05236466A (en) * | 1992-02-25 | 1993-09-10 | Nec Corp | Device and method for inter-frame predictive image encoding for motion compensation |
| JP2606523B2 (en) * | 1992-02-28 | 1997-05-07 | 日本ビクター株式会社 | Predictive encoding device and decoding device |
| US5475446A (en) * | 1992-03-09 | 1995-12-12 | Matsushita Electric Industrial Co., Ltd. | Picture signal motion detector employing partial decimation of pixel blocks |
| JPH05268594A (en) * | 1992-03-18 | 1993-10-15 | Sony Corp | Motion detection device for moving images |
| US5247355A (en) * | 1992-06-11 | 1993-09-21 | Northwest Starscan Limited Partnership | Gridlocked method and system for video motion compensation |
| JP3443867B2 (en) * | 1992-06-26 | 2003-09-08 | ソニー株式会社 | Image signal encoding / decoding method and image signal recording medium |
| DE4322343C2 (en) * | 1992-07-06 | 1996-10-02 | Mitsubishi Electric Corp | Means for detecting a motion vector and method for determining a motion vector |
| JPH06113287A (en) * | 1992-09-30 | 1994-04-22 | Matsushita Electric Ind Co Ltd | Image coding apparatus and image decoding apparatus |
| JPH06153185A (en) * | 1992-11-06 | 1994-05-31 | Toshiba Corp | Motion compensation device and coder using the device |
| US5398079A (en) * | 1993-01-27 | 1995-03-14 | General Instrument Corporation | Half-pixel interpolation for a motion compensated digital video system |
| DE69415702T2 (en) * | 1993-02-22 | 1999-05-20 | Matsushita Electric Industrial Co., Ltd., Kadoma, Osaka | Methods and devices for coding and decoding moving images |
| TW224553B (en) * | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
| US6236682B1 (en) * | 1993-03-08 | 2001-05-22 | Sony Corporation | Video motion vector detection including rotation and/or zoom vector generation |
| DE69416717T2 (en) * | 1993-05-21 | 1999-10-07 | Nippon Telegraph And Telephone Corp., Tokio/Tokyo | Moving picture encoders and decoders |
| IT1262275B (en) | 1993-05-26 | 1996-06-19 | METHOD AND DEVICE FOR THE AUTOMATIC FORMATION OF PACKAGES OF METAL SHEETS, SHEARED, FOR THE MANUFACTURE OF REINFORCEMENT OF ELECTRICAL MACHINES, OR SIMILAR. | |
| FI97008C (en) * | 1993-06-02 | 1996-09-25 | Nokia Oy Ab | A method for predicting a video image in the processing order based on the previous image |
| US5473379A (en) * | 1993-11-04 | 1995-12-05 | At&T Corp. | Method and apparatus for improving motion compensation in digital video coding |
| US5719630A (en) * | 1993-12-10 | 1998-02-17 | Nec Corporation | Apparatus for compressive coding in moving picture coding device |
| JP3266416B2 (en) * | 1994-04-18 | 2002-03-18 | ケイディーディーアイ株式会社 | Motion compensated interframe coding / decoding device |
| JP2897649B2 (en) * | 1994-08-08 | 1999-05-31 | 日本ビクター株式会社 | Motion compensated predictive coding device |
| US5684538A (en) * | 1994-08-18 | 1997-11-04 | Hitachi, Ltd. | System and method for performing video coding/decoding using motion compensation |
| US5768438A (en) * | 1994-10-19 | 1998-06-16 | Matsushita Electric Industrial Co., Ltd. | Image encoding/decoding device |
| KR0181034B1 (en) * | 1995-03-18 | 1999-05-01 | 배순훈 | Method and apparatus for motion vector detection using feature point-based motion estimation |
| US5650823A (en) * | 1995-03-27 | 1997-07-22 | International Business Machines Corporation | Half pel motion estimation method for B pictures |
| US5812791A (en) * | 1995-05-10 | 1998-09-22 | Cagent Technologies, Inc. | Multiple sequence MPEG decoder |
| GB2301972B (en) * | 1995-06-06 | 1999-10-20 | Sony Uk Ltd | Video compression |
| US5774676A (en) * | 1995-10-03 | 1998-06-30 | S3, Incorporated | Method and apparatus for decompression of MPEG compressed data in a computer system |
| JPH09102954A (en) * | 1995-10-04 | 1997-04-15 | Matsushita Electric Ind Co Ltd | Method of calculating pixel value of block from one or two prediction blocks |
| US5761423A (en) * | 1995-11-14 | 1998-06-02 | Industrial Technology Research Institute | Scalable picture storage access architecture for video decoding |
| US6968003B1 (en) * | 1996-01-29 | 2005-11-22 | International Business Machines Corporation | Speed-memory tradeoff for MPEG decoders |
| US6049362A (en) * | 1996-02-14 | 2000-04-11 | International Business Machines Corporation | Dual prime motion estimation system and method |
| JP3183155B2 (en) * | 1996-03-18 | 2001-07-03 | 株式会社日立製作所 | Image decoding apparatus and image decoding method |
| BR9710780A (en) * | 1996-07-31 | 1999-08-17 | Schionogi & Co Ltd | New para-terephenyl compounds |
| JP3426092B2 (en) * | 1996-09-12 | 2003-07-14 | シャープ株式会社 | Motion compensated inter-frame prediction method in video coding device |
| JPH1098729A (en) * | 1996-09-20 | 1998-04-14 | Hitachi Ltd | Method of synthesizing inter-frame prediction image |
| JP2001502504A (en) * | 1996-10-11 | 2001-02-20 | サーノフ コーポレイション | Apparatus and method for encoding and decoding stereoscopic video |
| US5991447A (en) * | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
| US6005980A (en) * | 1997-03-07 | 1999-12-21 | General Instrument Corporation | Motion estimation and compensation of video object planes for interlaced digital video |
| WO1998042134A1 (en) * | 1997-03-17 | 1998-09-24 | Mitsubishi Denki Kabushiki Kaisha | Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system |
| US6249613B1 (en) * | 1997-03-31 | 2001-06-19 | Sharp Laboratories Of America, Inc. | Mosaic generation and sprite-based coding with automatic foreground and background separation |
| US6633611B2 (en) * | 1997-04-24 | 2003-10-14 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for region-based moving image encoding and decoding |
| EP2288165B1 (en) * | 1997-06-09 | 2015-12-16 | Hitachi, Ltd. | Image decoding method |
| JPH1169345A (en) * | 1997-06-11 | 1999-03-09 | Fujitsu Ltd | Inter-frame prediction video coding apparatus and decoding apparatus, and inter-frame prediction video coding method and decoding method |
| US6249318B1 (en) * | 1997-09-12 | 2001-06-19 | 8×8, Inc. | Video coding/decoding arrangement and method therefor |
| AU742641B2 (en) * | 1998-01-28 | 2002-01-10 | Shionogi & Co., Ltd. | Novel tricyclic compound |
| US6249618B1 (en) * | 1998-12-18 | 2001-06-19 | Syscan, Inc. | Circuit architecture and method for switching sensor resolution |
| US6625211B1 (en) * | 1999-02-25 | 2003-09-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for transforming moving picture coding system |
| GB9920256D0 (en) * | 1999-08-26 | 1999-10-27 | Wave Limited M | Motion estimation and compensation in video compression |
| US20040151249A1 (en) * | 2001-05-29 | 2004-08-05 | Anthony Morel | Method and device for video transcoding |
| WO2003026315A1 (en) * | 2001-09-14 | 2003-03-27 | Ntt Docomo, Inc. | Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program |
| JP3824071B2 (en) * | 2001-12-25 | 2006-09-20 | 信越化学工業株式会社 | Room temperature curable organopolysiloxane composition |
-
1997
- 1997-03-17 WO PCT/JP1997/000834 patent/WO1998042134A1/en not_active Ceased
- 1997-03-17 AU AU19417/97A patent/AU1941797A/en not_active Abandoned
- 1997-10-23 DE DE69740004T patent/DE69740004D1/en not_active Expired - Lifetime
- 1997-10-23 JP JP54033398A patent/JP3386142B2/en not_active Expired - Lifetime
- 1997-10-23 WO PCT/JP1997/003825 patent/WO1998042135A1/en not_active Ceased
- 1997-10-23 EP EP20100008594 patent/EP2252065A3/en not_active Withdrawn
- 1997-10-23 DE DE69740005T patent/DE69740005D1/en not_active Expired - Lifetime
- 1997-10-23 EP EP20100008597 patent/EP2252068A3/en not_active Withdrawn
- 1997-10-23 EP EP20100008596 patent/EP2252067A3/en not_active Withdrawn
- 1997-10-23 DE DE69739999T patent/DE69739999D1/en not_active Expired - Lifetime
- 1997-10-23 EP EP20060018030 patent/EP1725045B1/en not_active Expired - Lifetime
- 1997-10-23 EP EP20100008595 patent/EP2252066A3/en not_active Withdrawn
- 1997-10-23 DE DE69738792T patent/DE69738792D1/en not_active Expired - Lifetime
- 1997-10-23 EP EP20060018031 patent/EP1725046B1/en not_active Expired - Lifetime
- 1997-10-23 EP EP20060018032 patent/EP1725047B1/en not_active Expired - Lifetime
- 1997-10-23 EP EP19970909589 patent/EP0905980B1/en not_active Expired - Lifetime
- 1997-10-23 US US09/180,188 patent/US6404815B1/en not_active Expired - Lifetime
- 1997-10-23 KR KR1019980709254A patent/KR100319944B1/en not_active Expired - Lifetime
- 1997-10-23 AU AU47226/97A patent/AU704916B2/en not_active Expired
-
2002
- 2002-03-04 US US10/086,446 patent/US7110456B2/en not_active Expired - Lifetime
-
2006
- 2006-02-13 US US11/352,377 patent/US8194742B2/en not_active Expired - Fee Related
- 2006-03-23 US US11/386,685 patent/US8170105B2/en not_active Expired - Fee Related
-
2009
- 2009-12-29 US US12/648,837 patent/US8098734B2/en not_active Expired - Fee Related
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPWO1998042135A1 (en) | Image encoding device, image decoding device, image encoding method, image decoding method, and image encoding/decoding system | |
| JP3386142B2 (en) | Image decoding device and image decoding method | |
| US6005980A (en) | Motion estimation and compensation of video object planes for interlaced digital video | |
| EP1274254B1 (en) | Video coding device and video decoding device with a motion compensated interframe prediction | |
| KR100246167B1 (en) | Dual prime motion estimation system and method | |
| US7224733B1 (en) | Interpolation filtering method for accurate sub-pixel motion assessment | |
| EP0953253A2 (en) | Motion-compensated predictive image encoding and decoding | |
| US6714593B1 (en) | Motion compensating prediction of moving image sequences | |
| EP1819173B1 (en) | Motion vector predictive encoding apparatus and decoding apparatus | |
| JP2002118851A (en) | Motion vector conversion method and apparatus | |
| JP4000928B2 (en) | Motion compensation device | |
| JPWO1998042134A1 (en) | Image encoding device, image decoding device, image encoding method, image decoding method, and image encoding/decoding system | |
| JP2002218468A (en) | Motion vector conversion device and motion vector conversion method | |
| JPH09261661A (en) | Method for forming bidirectional coding picture from two reference pictures | |
| HK1145579A (en) | Video decoder and decoding method | |
| JPH1023422A (en) | Image encoding apparatus, image decoding apparatus, image encoding method, image decoding method, and image encoding / decoding system | |
| HK1145577A (en) | Video decoding method | |
| HK1145580A (en) | Video decoding method | |
| HK1145578A (en) | Video decoder and video decoding method | |
| MXPA98007455A (en) | Video encoding and decoding |