JP3235453B2 - Image coding device - Google Patents
Image coding deviceInfo
- Publication number
- JP3235453B2 JP3235453B2 JP06596896A JP6596896A JP3235453B2 JP 3235453 B2 JP3235453 B2 JP 3235453B2 JP 06596896 A JP06596896 A JP 06596896A JP 6596896 A JP6596896 A JP 6596896A JP 3235453 B2 JP3235453 B2 JP 3235453B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- image
- motion
- affine
- term
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像を少ない符号
化量で伝送蓄積する画像符号化装置に関するものであ
る。The present invention relates are those which relate to the image code KaSo location for transmitting storing the image with a small coding amount.
【0002】[0002]
【従来の技術】カメラの左右に振ったりまたズームを行
なうことによる生じる画面全体の動きを補償することが
できれば、画像の符号化効率が改善されることが期待で
きる。従来のこのような画面全体の動き補償を用いた高
能率画像符号化方式として上倉一人、渡辺裕:"動画像
符号化におけるグローバル動き補償法",電子情報信学論
B-1, Vol. J76-B-I, No. 12, pp. 944-952, 1993.があ
る。2. Description of the Related Art If the movement of the entire screen caused by shaking the camera right and left and zooming can be compensated, it can be expected that the coding efficiency of an image is improved. Hitoue Uekura, Yutaka Watanabe: "Global Motion Compensation Method in Video Coding", E-Informatics
B-1, Vol. J76-BI, No. 12, pp. 944-952, 1993.
【0003】この方式では、カメラのパン・ズーム操作
によって生じる画像の全画面の動きを推定し補償する。
以後、画面全体の動き補償をグローバル動き補償と呼
ぶ。図5に、この従来の動き補償方式を実行する画像符
号化装置のブロック図を示す。図5において、501は
残差符号化部、502は残差復号化部、503はフレー
ムメモリ、504は動き予測部1、505は3パラメー
タ予測部、506はグローバル動き補償部、507は局
所動き補償部1、508は動き予測部2、509は動き
補償部2、510は比較器、511は差分器、512は
加算器、513は動き情報多重化部である。In this method, the motion of the entire screen of an image caused by a pan / zoom operation of a camera is estimated and compensated.
Hereinafter, the motion compensation for the entire screen is referred to as global motion compensation. FIG. 5 shows a block diagram of an image coding apparatus that executes the conventional motion compensation method. In FIG. 5, reference numeral 501 denotes a residual encoder, 502 denotes a residual decoder, 503 denotes a frame memory, 504 denotes a motion predictor 1, 505 denotes a three-parameter predictor, 506 denotes a global motion compensator, and 507 denotes local motion. Compensation units 1 and 508 are motion prediction units 2, 509 is a motion compensation unit 2, 510 is a comparator, 511 is a subtractor, 512 is an adder, and 513 is a motion information multiplexing unit.
【0004】理解を容易にするために、501、50
2、512、503、504、507、511の構成
は、MPEG1(「ア ビデオ コンプレッション ス
タンダードフォー マルチメディア アプリケーション
ズ」 Le Gall, D.: "MPEG:A Video Compression Standa
rd for Multimedia Applications", Trans. ACM, 199
1,Aprilに記載)に基づく画像符号化装置と同一のもの
とする。In order to facilitate understanding, 501, 50
The structure of 2, 512, 503, 504, 507, and 511 is MPEG1 ("A Video Compression Standard for Multimedia Applications") Le Gall, D .: "MPEG: A Video Compression Standa
rd for Multimedia Applications ", Trans. ACM, 199
1, described in April).
【0005】本発明の実施の形態として後に説明する画
像符号化装置と復号化装置もMPEG1に基づく装置で
ある。したがって、残差符号化部501はMPEG1準
拠のデジタルコサイン変換(DCT)と量子化器および
ハフマン符号化器で構成される。また残差復号化部はM
PEG1準拠の逆量子化部とデジタルコサイン逆変換器
から構成される。この従来例では、後述の実施の形態と
同様、ブロックマッチングにより動きベクトルを求め
る。これを図6に示す。図6は従来例と後述の実施の形
態に共通するブロックマッチングを説明する図である。An image coding apparatus and a decoding apparatus which will be described later as embodiments of the present invention are also apparatuses based on MPEG1. Therefore, the residual encoding unit 501 includes a digital cosine transform (DCT) compliant with MPEG1, a quantizer, and a Huffman encoder. The residual decoding unit is M
It is composed of an inverse quantization unit based on PEG1 and a digital cosine inverse transformer. In this conventional example, a motion vector is obtained by block matching as in the embodiment described later. This is shown in FIG. FIG. 6 is a diagram for explaining block matching common to the conventional example and an embodiment described later.
【0006】図6において、領域Rは16画素×16画
素のブロック領域である。動き予測部1(504)では入力
画像に対して、1フレーム前を参照画像として、動き予
測部2(508)は、後述のグローバル動き補償された画像
を参照画像としてブロックマッチングを行なう。ブロッ
クマッチングは式1に示す誤差絶対値和の計算を行な
い、式2に示すように最少誤差絶対値となる偏位(p,q)
をそのブロックの実測された動きベクトルとする。式1
において、gt(x,y)はフレームt、画面位置
(x,y)における輝度値を表している。そして、式3
に示すように最も値の小さくなる偏位を探索して原推定
(p,q)を得る。この(p,q)は1/2画素精度で求ま
っている。In FIG. 6, a region R is a block region of 16 × 16 pixels. The motion prediction unit 1 (504) performs block matching with respect to the input image one frame before as a reference image, and the motion prediction unit 2 (508) uses a global motion-compensated image described later as a reference image. In block matching, the sum of absolute error values shown in Equation 1 is calculated, and as shown in Equation 2, the deviation (p, q) that has the minimum error absolute value
Is the actually measured motion vector of the block. Equation 1
, Gt (x, y) represents the luminance value at the frame t and the screen position (x, y). And equation 3
As shown in (1), the deviation with the smallest value is searched to obtain the original estimate (p, q). This (p, q) is determined with half-pixel accuracy.
【0007】[0007]
【数1】 (Equation 1)
【0008】[0008]
【数2】 (Equation 2)
【0009】MPEG1では1フレーム前の復号化結果
とと現在の入力フレームとの間で動きベクトルを求め、
16×16のブロック(以後マクロブロックとよぶ)の
平行移動による動き補償が行なわれる。これは局所動き
補償部1(507)で実行される。これに加えて従来例で
は、カメラの左右上下の動きとズームによるグルーバル
動き補償が実現されている。In MPEG1, a motion vector is obtained between a decoding result of one frame before and a current input frame.
Motion compensation is performed by parallel movement of a 16 × 16 block (hereinafter referred to as a macroblock). This is executed by the local motion compensator 1 (507). In addition to this, in the conventional example, global motion compensation is realized by the left / right / up / down motion of the camera and the zoom.
【0010】今、画面全体のズーム係数をZ,平行移動量
を水平にH0,垂直にV0,ズーム中心を(x0,y0)とすると、
入力画像における画面全体の任意位置(x,y)のグローバ
ル動き量は式3,式4で表せる。If the zoom coefficient of the entire screen is Z, the translation amount is H0 horizontally, V0 vertically, and the center of zoom is (x0, y0),
The global motion amount at an arbitrary position (x, y) on the entire screen in the input image can be expressed by Expressions 3 and 4.
【0011】[0011]
【数3】 (Equation 3)
【0012】[0012]
【数4】 (Equation 4)
【0013】さらに、j行,i列のマクロブロック中心位
置を(xij, yij)とすると、式5,式6の定義からマクロ
ブロック中心の動きベクトル(uij, vij)は式7として表
現できる。Further, assuming that the center position of the macroblock at the j-th row and the i-th column is (xij, yij), the motion vector (uij, vij) at the center of the macroblock can be expressed by the following equation (5) and (6).
【0014】[0014]
【数5】 (Equation 5)
【0015】[0015]
【数6】 (Equation 6)
【0016】[0016]
【数7】 (Equation 7)
【0017】従来例では、動き予測部1(504)の出力か
ら2個以上のマクロブロックの動きベクトルを取りだ
し、式8を3パラメータ予測部(505)が実行する。In the conventional example, the motion vectors of two or more macroblocks are extracted from the output of the motion prediction unit 1 (504), and Equation 8 is executed by the three-parameter prediction unit (505).
【0018】式8は、各マクロブロックで観測された動
きベクトルと予測される動きベクトルの2乗誤差和が最
小となる計算式である。Equation 8 is a calculation equation that minimizes the sum of squared errors between the motion vector observed in each macroblock and the predicted motion vector.
【0019】式8のPは式9に示すように取り出したマ
クロブロックの位置から求まる実対称行列で、予め計算
しておくことができる。P in Equation 8 is a real symmetric matrix obtained from the position of the extracted macroblock as shown in Equation 9, and can be calculated in advance.
【0020】[0020]
【数8】 (Equation 8)
【0021】[0021]
【数9】 (Equation 9)
【0022】この計算されたグローバルパラメータ(Z,
H,V)を用いてグローバル動き補償部(506)が式3に示
す変形を行なう。この変形は、入力画像の各画素位置
(x,y)について、式3に従って動きベクトルを計算し、
フレームメモリ(503)から得られた動きベクトルにより
示される画素位置の画素値を求めることによって実行さ
れる。グローバル動き補償の動きベクトルは1/4画素
精度で求められ、近傍整数位置の4画素値の線形補間と
して求められる。さらにこの変形された画像上でマクロ
ブロック単位の動き予測を動き予測部2(508)が行な
う。比較器(510)は、マクロブロック単位で、MPEG
1と同様のマクロブロック動き補償画像と前フレームの
グローバル動き補償後のマクロブロック動き補償画像の
うち誤差の少ない予測方法を選択する。The calculated global parameters (Z,
H, V), the global motion compensator (506) performs the modification shown in Expression 3. This transformation is performed at each pixel position of the input image.
For (x, y), calculate a motion vector according to Equation 3,
This is executed by obtaining the pixel value at the pixel position indicated by the motion vector obtained from the frame memory (503). The motion vector of the global motion compensation is obtained with 1/4 pixel precision, and is obtained as linear interpolation of four pixel values at neighboring integer positions. Further, the motion prediction unit 2 (508) performs motion prediction on a macroblock basis on the transformed image. The comparator (510) is a macroblock-based MPEG unit.
A prediction method having a small error is selected from the same macroblock motion-compensated image as that of No. 1 and the macroblock motion-compensated image of the previous frame after global motion compensation.
【0023】図5中、動きベクトル情報は、マクロブロ
ック単位での選択結果SW、動きベクトルmv1またはmv2、
そして、グローバルパラメータgが動き情報多重化部(5
13)で多重化されて送出される。この従来例では、ブロ
ックマッチング法によって算出されるブロック毎の動き
ベクトルを利用し、反復計算を行なうことなく簡単な積
和演算のみで全画面のパラメータを算出している。また
グローバル動き補償の動画像符号化への適用に際して、
ブロック単位の適応的なON/OFF制御法を提案して
いる。In FIG. 5, the motion vector information includes a selection result SW in units of macro blocks, a motion vector mv1 or mv2,
Then, the global parameter g is stored in the motion information multiplexing unit (5
It is multiplexed and sent in 13). In this conventional example, a motion vector for each block calculated by a block matching method is used, and parameters of the entire screen are calculated only by a simple product-sum operation without performing repetitive calculations. When applying global motion compensation to video coding,
An adaptive ON / OFF control method for each block is proposed.
【0024】[0024]
「課題1」前記した従来例では、カメラの水平垂直の首
振りおよびズームによって生じる動きを補償することが
できる。しかし、前記したグローバル動き補償の構成で
は、残差符号化を行なわないと予測画像の空間解像度が
フレーム毎に低下するという課題が存在する。[Problem 1] In the conventional example described above, it is possible to compensate for the movement caused by the horizontal and vertical swinging and zooming of the camera. However, in the above-described configuration of global motion compensation, there is a problem that the spatial resolution of a predicted image decreases for each frame unless residual coding is performed.
【0025】グローバル動き補償で得られる画素単位の
動きベクトルは一般に整数値ではない。このために、近
傍画素値から内挿補間により画素値を算出する。これに
よって、残差符号化により画素値を更新しないかぎり、
予測画像の空間解像度がフレームが更新される度に低下
する。残差符号化を行なえば高い解像度を維持できる
が、そのための符号量が増える。グローバル動き補償に
より高能率に動画像を符号化するためには、解像度低下
の少ない動き補償方式が必要である。A pixel-based motion vector obtained by global motion compensation is generally not an integer value. For this purpose, a pixel value is calculated from neighboring pixel values by interpolation. As a result, unless the pixel value is updated by the residual coding,
The spatial resolution of the predicted image decreases every time the frame is updated. If the residual encoding is performed, a high resolution can be maintained, but the code amount for that increases. In order to efficiently encode a moving image by global motion compensation, a motion compensation method with a small reduction in resolution is required.
【0026】「課題2」予測画像符号化では、符号化
側、復号化側で予測画像が一致しなければならない。前
記した従来例では、グローバル動き補償の動きベクトル
は各画素位置について1/4画素精度で一致しなければ
ならないことになる。このために、式3のズームに関す
る項Zの符号化精度は、各画素位置について1/4画素
精度一致する程度必要になる。ところが、この精度は位
置に関する乗数であることから画像の大きさに依存す
る。これは符号化装置の将来の拡張を考えると好ましく
ない。またグローバル動き補償のためのアドレス計算も
画像が大きくなると高い演算精度が要求される。[Problem 2] In predictive image coding, predicted images must match on the encoding side and the decoding side. In the above-mentioned conventional example, the motion vectors of the global motion compensation have to match with a 1/4 pixel precision for each pixel position. For this reason, the encoding accuracy of the term Z relating to the zoom in Expression 3 is required to the extent that the pixel positions coincide with each other by 1/4 pixel accuracy. However, this accuracy depends on the size of the image because it is a multiplier related to the position. This is not desirable given the future expansion of the coding device. Also, address calculation for global motion compensation requires high calculation accuracy as the image size increases.
【0027】[0027]
【課題を解決するための手段】上記課題を解決するた
め、本発明は、n×nドットの画素ブロックを符号化対
象フレームとし、時間的に前後する復号化されたフレー
ムを短期参照フレームとして記憶する短期フレームメモ
リと、前記符号化対象フレームと前記短期参照フレーム
の間の、局所的な対応を局所動きベクトルとして検出す
る局所動きベクトル検出手段と、前記局所的動きベクト
ルを用いて前記短期フレームメモリから画像を読み出し
て予測画像を生成する短期動き補償手段と、符号化対象
フレームに対して前記短期参照フレームよりも更新され
る間隔が長い復号化されたフレームを長期参照フレーム
として記憶する長期フレームメモリと、前記符号化対象
フレームと1フレーム前の画像との間の絶対値誤差をu
(x 、 y),v(x 、 y)(x、yは画面上の任意の点;u,v
は画素位置(x、y)における動きベクトル)を変数と
する2次関数として表現し、u,vとアフィン変換パラ
メータaとの関係式を作成し、前記2次関数を前記アフ
ィン変換パラメータaの偏微分が零ベクトルであるとし
て、前記絶対値誤差が最小となる値を得ることにより、
全画面の動きをアフィン変換パラメータaとして推定す
るアフィンパラメータフレーム間推定部と、前記アフィ
ンパラメータフレーム間推定部からの出力から前後する
フレーム間のアフィンパラメータを合成するアフィンパ
ラメータ更新手段と、前記アフィンパラメータ更新手段
のアフィンパラメータを用いて前記長期フレームメモリ
から画像を読み出して予測画像を生成する全画面動き補
償手段とを備えた画像符号化装置である。 Means for Solving the Problems To solve the above problems,
Therefore, the present invention provides a short-term frame memory that stores a pixel block of n × n dots as an encoding target frame and stores decoded frames that are temporally preceding and succeeding as a short-term reference frame; between the reference frame, short motion generating a local motion vector detection means for detecting as a local motion vector local response, a prediction image by reading an image from the short-term frame memory by using a pre-Symbol station plant motion vector and compensation means, a long-term frame memory interval that is updated than the short-term reference frame with respect to the encoding target frame is stored as a long-term reference frame long decoded frame, the encoding target
The absolute value error between the frame and the image one frame before is u
(x , y), v (x , y) (x, y are arbitrary points on the screen; u, v
Is the motion vector at the pixel position (x, y)) as a variable
U, v and affine transformation parameters
A relational expression with the meter a is created, and the quadratic function is
Suppose that the partial derivative of the bin transformation parameter a is a zero vector
By obtaining a value that minimizes the absolute value error,
Estimate the motion of the entire screen as an affine transformation parameter a
An affine parameter inter-frame estimator;
Before and after the output from the parameter
An affine parser that synthesizes affine parameters between frames
Parameter updating means, and the affine parameter updating means
An image coding apparatus that includes a full screen motion compensation means for generating a prediction image by reading the image from the long-term frame memory using the affine parameters.
【0028】[0028]
【0029】[0029]
【0030】[0030]
【発明の実施の形態】本発明は、前記課題1を解決する
もので、画像のフレーム系列を入力とし、符号化対象フ
レームに対して時間的に前後する復号化されたフレーム
を短期参照フレームとして記憶する短期フレームメモリ
と、前記符号化対象フレームと前記短期参照フレームの
間の、局所的な対応を局所動きベクトルとして検出する
局所動きベクトル検出手段と、前記局所的動きベクトル
を用いて前記短期フレームメモリから画像を読み出して
予測画像を生成する短期動き補償手段と、符号化対象フ
レームに対して前記短期参照フレームよりも更新される
間隔が長い復号化されたフレームを長期参照フレームと
して記憶する長期フレームメモリと、前記符号化対象フ
レームと前記長期参照フレームの間の、全画面の対応を
画面上の任意の位置の動きベクトルをその位置を変数と
する多項式関数のパラメータとして検出する全画面動き
検出手段と、前記多項式関数のパラメータを用いて前記
長期フレームメモリから画像を読み出して予測画像を生
成する全画面動き補償手段とを備え、前記短期動き補償
手段と全画面動き補償手段とを適応的に選択して予測符
号化を行なう画像符号化装置である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention solves the above-mentioned problem 1, in which a frame sequence of an image is input, and a decoded frame temporally before and after a frame to be encoded is set as a short-term reference frame. A short-term frame memory for storing; a local motion vector detecting means for detecting a local correspondence between the encoding target frame and the short-term reference frame as a local motion vector; and the short-term frame using the local motion vector. A short-term motion compensator for reading an image from a memory to generate a predicted image, and a long-term frame storing a decoded frame having a longer update interval than the short-term reference frame with respect to the encoding target frame as a long-term reference frame Correspondence of the entire screen between the memory and the encoding target frame and the long-term reference frame is determined at an arbitrary position on the screen. Full-screen motion detecting means for detecting the motion vector of the above as a parameter of a polynomial function whose position is a variable, and full-screen motion compensation for generating a predicted image by reading an image from the long-term frame memory using the parameters of the polynomial function Means for adaptively selecting the short-term motion compensation means and the full-screen motion compensation means to perform predictive encoding.
【0031】[0031]
【0032】[0032]
【0033】本発明の画像符号化装置では、短期フレー
ムメモリは符号化対象フレームに対して時間的に前後す
る復号化されたフレームを短期参照フレームとして記憶
する。局所動きベクトルは検出手段とは、短期参照フレ
ームと符号化対象フレームの局所的な対応を局所動きベ
クトルとして検出する。そして、短期動き補償手段が、
局所的動きベクトルを用いて前記短期フレームメモリか
ら画像を読み出して予測画像を生成する。In the image coding apparatus according to the present invention, the short-term frame memory stores a decoded frame that is temporally before or after the frame to be coded as a short-term reference frame. The local motion vector detecting means detects a local correspondence between the short-term reference frame and the encoding target frame as a local motion vector. And the short-term motion compensation means,
An image is read from the short-term frame memory using a local motion vector to generate a predicted image.
【0034】一方、長期フレームメモリは符号化対象フ
レームに対して短期フレームメモリよりも更新される間
隔が長い復号化されたフレームを長期参照フレームとし
て記憶する。全画面動き検出手段は、長期参照フレーム
と符号化対象フレームの全画面の対応を画面上の任意の
位置の動きベクトルをその位置を変数とする多項式関数
のパラメータとして検出する。On the other hand, the long-term frame memory stores a decoded frame whose update interval is longer than that of the short-term frame memory for the encoding target frame as a long-term reference frame. The full-screen motion detection means detects the correspondence between the long-term reference frame and the entire frame of the encoding target frame as a parameter of a polynomial function using a motion vector at an arbitrary position on the screen as a variable.
【0035】全画面動き補償手段は多項式関数のパラメ
ータを用いて前記長期フレームメモリから画像を読み出
して予測画像を生成する。画像符号化装置は、この短期
メモリからの局所的な動き補償画像と、長期メモリから
の動き補償画像を適応的に選択して予測符号化を行な
う。全画面動き補償は、更新間隔の長いフレームデータ
を用いて行なわれることになる。The full-screen motion compensation means reads an image from the long-term frame memory using the parameters of the polynomial function to generate a predicted image. The image encoding device adaptively selects a local motion compensated image from the short-term memory and a motion compensated image from the long-term memory and performs predictive encoding. Full-screen motion compensation is performed using frame data with a long update interval.
【0036】[0036]
【0037】[0037]
【0038】[0038]
【0039】[0039]
【0040】[0040]
【0041】[0041]
【0042】[0042]
【0043】[0043]
【0044】[0044]
【0045】[0045]
【0046】[0046]
【0047】[0047]
【0048】[0048]
【0049】(第1の実施の形態) 以下、本発明の実施の形態を図面を用いて説明する。本
発明の画像符号化装置の一実施の形態を図1を用いて、
本発明の画像復号化装置の一実施の形態を図2を用いて
説明する。(First Embodiment) An embodiment of the present invention will be described below with reference to the drawings. An embodiment of the present <br/> onset bright image encoding apparatus with reference to FIG. 1,
An embodiment of the present onset bright image decoding apparatus will be described with reference to FIG.
【0050】図1は画像符号化装置の構成図で、図中10
1は残差符号化部、102は残差復号化部、103はフレーム
メモリ、104は動き予測部1、105はアフィンパラメータ
フレーム間推定部、106はアフィンパラメータ更新部、1
07はテンプレートメモリ、108はアフィン動き補償部、1
09は局所動き補償部1、110は動き予測部2、111は動き
補償部2、112は比較器、113は加算器、114は差分器、1
15は開閉器、116は動き情報多重化部である。FIG. 1 is a block diagram of an image encoding apparatus.
1 is a residual encoding unit, 102 is a residual decoding unit, 103 is a frame memory, 104 is a motion prediction unit 1, 105 is an affine parameter inter-frame estimating unit, 106 is an affine parameter updating unit, 1
07 is the template memory, 108 is the affine motion compensator, 1
09 is a local motion compensator 1, 110 is a motion predictor 2, 111 is a motion compensator 2, 112 is a comparator, 113 is an adder, 114 is a differentiator, 1
Reference numeral 15 denotes a switch, and 116 denotes a motion information multiplexing unit.
【0051】図2は画像復号化装置の構成図で、図中20
1は残差復号化部、202はフレームメモリ、203は局所動
き補償部1、204はアフィン動き補償部、205は局所動き
補償部2、206は動き情報分離部、207は選択器、208はテ
ンプレートメモリ、209は開閉器、210は加算器である。FIG. 2 is a block diagram of the image decoding apparatus.
1 is a residual decoding unit, 202 is a frame memory, 203 is a local motion compensation unit 1, 204 is an affine motion compensation unit, 205 is a local motion compensation unit 2, 206 is a motion information separation unit, 207 is a selector, and 208 is a selector. A template memory, 209 is a switch, and 210 is an adder.
【0052】本実施の形態は、その基本構成として従来
例と同くMPEG1に基づく符号化装置と復号化装置を
とる。In the present embodiment, an encoding device and a decoding device based on MPEG1 are used as the basic configuration as in the conventional example.
【0053】図1に示す画像符号化装置の構成中、残差
符号化部(101)、残差復号化部(102)加算器(11
3)、フレームメモリ(103)、動き予測部1(103)、局
所動き補償部1(109)、差分器(114)と図2に示す画像
復号化装置の構成中、残差復号化部(201)、加算器(2
10)、フレームメモリ(202)、局所動き補償部1(20
3)は従来例で引用したMPEG1に基づく符号化装置
および復号化装置と同一の構成をとる。したがって、残
差符号化部(103)はMPEG1準拠のデジタルコサイン
変換(DCT)と量子化器およびハフマン符号化器で構
成される。また残差復号化部(102、201)はMPEG1
準拠の逆量子化部とデジタルコサイン逆変換器から構成
される。In the configuration of the image encoding apparatus shown in FIG. 1, the residual encoder (101), the residual decoder (102), the adder (11)
3), the frame memory (103), the motion prediction unit 1 (103), the local motion compensation unit 1 (109), the difference unit (114), and the residual decoding unit ( 201), adder (2
10), frame memory (202), local motion compensator 1 (20
3) has the same configuration as the encoder and decoder based on MPEG1 cited in the conventional example. Therefore, the residual encoding unit (103) includes a digital cosine transform (DCT) compliant with MPEG1, a quantizer, and a Huffman encoder. Also, the residual decoding unit (102, 201) uses MPEG1
It consists of a compliant inverse quantization unit and a digital cosine inverse transformer.
【0054】符号化装置の入力画像と復号化装置の出力
画像は縦横240×352画素で構成される。また動きベクト
ル検出のための相関演算を行なうブロックは縦16画
素、横16画素で構成されている。The input image of the encoding device and the output image of the decoding device are composed of 240 × 352 pixels in length and width. A block for performing a correlation operation for detecting a motion vector is composed of 16 vertical pixels and 16 horizontal pixels.
【0055】以上のように構成された第1の実施の形態
についてMPEG1および従来例との相違点を示すこと
により説明する。The first embodiment configured as described above will be described by showing differences from MPEG1 and the conventional example.
【0056】局所動き予測部1(104)は図6に示すよう
に入力画像のブロック情報Rを読みだすと同時に偏位
(u,v)を1画素毎に変化させながら、フレームメモ
リ(103)から前フレームのブロック情報R’を読みだ
し、式1に示す相関演算を行なう。これは従来例におけ
る局所動き予測部1(504)と同じ動作である。結果とし
て、式2に示すように、最も値の小さくなる偏位を探索
して原推定(p,q)を得る。この(p,q)は1/2画素
精度で求まっている。The local motion estimator 1 (104) reads out the block information R of the input image as shown in FIG. 6 and simultaneously changes the displacement (u, v) for each pixel, thereby obtaining the frame memory (103). , The block information R ′ of the previous frame is read out from, and the correlation operation shown in Expression 1 is performed. This is the same operation as the local motion prediction unit 1 (504) in the conventional example. As a result, as shown in Expression 2, the deviation having the smallest value is searched to obtain the original estimation (p, q). This (p, q) is determined with half-pixel accuracy.
【0057】以上の演算は、各ブロックについて行わ
れ、結果は局所動き補償部(109)へ送られMPEG1と
同様のマクロブロック動き補償が行なわれる。The above operation is performed for each block, and the result is sent to the local motion compensator (109), where macro block motion compensation similar to MPEG1 is performed.
【0058】本実施の形態では、従来例とは異なり式1
0の6パラメータで表現されるアフィン変換によりグロ
ーバル動き補償を行なう。なお式10において、a0〜a5
はアフィンパラメータ、x,y入力画像の画素位置、(u∧
(x,y,),v∧(x,y))は画素位置における動きベクトルであ
る。以下にこのアフィンパラメータを求める過程を説明
する。In this embodiment, unlike the conventional example, the expression 1
Global motion compensation is performed by affine transformation expressed by six parameters of 0. In Equation 10, a0 to a5
Is the affine parameter, the pixel position of the x, y input image, (u∧
(x, y,), v∧ (x, y)) is a motion vector at a pixel position. Hereinafter, the process of obtaining the affine parameters will be described.
【0059】[0059]
【数10】 (Equation 10)
【0060】式1に示す相関演算により、各ブロックに
ついて最小偏位を求める過程で、式11に示す最小偏位
近傍の絶対値誤差の並びSが計算されている。()tは
行列の転置を表している。各ブロックの(p,q)とSは
アフィンパラメータフレーム間推定部(105)へ送られ
る。In the process of obtaining the minimum deviation for each block by the correlation operation shown in Expression 1, the sequence S of absolute value errors near the minimum deviation shown in Expression 11 is calculated. () T represents the transpose of the matrix. (P, q) and S of each block are sent to the affine parameter inter-frame estimator (105).
【0061】[0061]
【数11】 [Equation 11]
【0062】アフィンパラメータフレーム間推定部(10
5)では式12から式17の演算を行ない相関パラメー
タを計算する。The affine parameter inter-frame estimator (10
In 5), the calculation of Expressions 12 to 17 is performed to calculate the correlation parameter.
【0063】[0063]
【数12】 (Equation 12)
【0064】[0064]
【数13】 (Equation 13)
【0065】[0065]
【数14】 [Equation 14]
【0066】[0066]
【数15】 (Equation 15)
【0067】[0067]
【数16】 (Equation 16)
【0068】[0068]
【数17】 [Equation 17]
【0069】以上の相関パラメータの演算は、各ブロッ
クについて行なわれる。相関パラメータは次の意味を持
っている。式12〜式17の係数が求まっていることに
より、入力画像からみた1フレーム前の画像への各ブロ
ックの絶対値誤差を式18に示す動きベクトル(u,
v)を変数とする2次関数として表現できる。The above calculation of the correlation parameter is performed for each block. The correlation parameter has the following meaning. By obtaining the coefficients of Expressions 12 to 17, the absolute value error of each block from the input image to the image one frame before is represented by the motion vector (u,
It can be expressed as a quadratic function with v) as a variable.
【0070】式18に示すEi,jはブロックの絶対値誤差
の位置(p,q)でのテーラー展開として表現されてい
る。この関数により、相関を評価する。Ei, j shown in Expression 18 is expressed as a Taylor expansion at the position (p, q) of the absolute value error of the block. The function is used to evaluate the correlation.
【0071】[0071]
【数18】 (Equation 18)
【0072】ここで、アフィン動き補償部(108)では
式19,式20で表現されるアフィン変換により全画面の変
形を行なう。(u(x,y),v(x,y))は位置(x,y)における動き
ベクトルで、式20はアフィン変換パラメータの並びから
なるベクトルを表している。Here, the affine motion compensator (108) transforms the entire screen by the affine transformation expressed by the equations (19) and (20). (u (x, y), v (x, y)) is a motion vector at the position (x, y), and Expression 20 represents a vector composed of a sequence of affine transformation parameters.
【0073】[0073]
【数19】 [Equation 19]
【0074】[0074]
【数20】 (Equation 20)
【0075】式19,式20に示すようにアフィンパラ
メータにより各ブロックの動きベクトルは記述されるか
ら、変分原理により各絶対値誤差関数の総和を最小とす
る必要条件として式21に示すようにアフィン変換パラ
メータaの偏微分が零ベクトルとならなくてはならない
オイラー式が導き出せる。これは式22の行列で表現で
きる。Since the motion vector of each block is described by the affine parameters as shown in equations (19) and (20), the necessary condition for minimizing the sum of the absolute value error functions according to the variation principle is shown in equation (21). An Euler equation in which the partial derivative of the affine transformation parameter a must be a zero vector can be derived. This can be represented by the matrix of Equation 22.
【0076】アフィンパラメータフレーム間推定部(10
5)はさらに式18から式23(6×6行列)と式24(6×1行
列)の行列を求め、最後に式25によりアフィン変換パラ
メータを求める。The affine parameter inter-frame estimator (10
In (5), the matrices of Expression 23 (6 × 6 matrix) and Expression 24 (6 × 1 matrix) are further obtained from Expression 18, and finally the affine transformation parameters are obtained by Expression 25.
【0077】なお、式23,式24において、(xj,yi)はブ
ロックi,jの中心位置である。In equations 23 and 24, (xj, yi) is the center position of block i, j.
【0078】[0078]
【数21】 (Equation 21)
【0079】[0079]
【数22】 (Equation 22)
【0080】[0080]
【数23】 (Equation 23)
【0081】[0081]
【数24】 (Equation 24)
【0082】[0082]
【数25】 (Equation 25)
【0083】一方、開閉器(115)はN(N≧1)フレー
ム単位に閉じてフレームメモリ(103)の内容をテンプ
レートメモリ(107)へコピーする。On the other hand, the switch (115) closes every N (N ≧ 1) frames and copies the contents of the frame memory (103) to the template memory (107).
【0084】この実施の形態では、N=10とする。すな
わちフレームメモリ(103)が1フレーム毎に更新され
るのに対して、テンプレートメモリ(107)は10フレー
ム毎に更新される。前述のアフィンパラメータフレーム
間推定部(105)の動作は入力画像からみた1フレーム前
の復号画像の対応位置をアフィンパラメータとして求め
るものであった。アフィン動き補償部(108)は入力画像
からみてテンプレートメモリ(107)に記憶されている1
フレーム前からから9フレーム前の範囲の復号画像を変
形するものであるから、アフィンパラメータフレーム間
推定部(105)の出力をそのまま用いることはできない。
そこでアフィン変換が式10に示すように入力画像の画
素位置について線形式であることを利用して前後するフ
レーム間のアフィンパラメータを合成することにより求
める。これはアフィンパラメータ更新部(106)で実現
される。In this embodiment, N = 10. That is, while the frame memory (103) is updated every frame, the template memory (107) is updated every 10 frames. The operation of the affine parameter inter-frame estimating unit (105) described above obtains the corresponding position of the decoded image one frame before viewed from the input image as the affine parameter. The affine motion compensation unit (108) is stored in the template memory (107) from the viewpoint of the input image.
Since the decoded image in the range from the previous frame to the previous nine frames is transformed, the output of the affine parameter inter-frame estimator (105) cannot be used as it is.
Therefore, the affine parameters are obtained by combining the affine parameters between the preceding and succeeding frames using the fact that the affine transformation is linear for the pixel position of the input image as shown in Expression 10. This is realized by the affine parameter update unit (106).
【0085】アフィンパラメータ更新部(106)は、1フ
レーム前の入力画像からみたテンプレートメモリ(107)
内の画像へのアフィン変換パラメータをa〜0〜a〜5とし
て記憶している。このパラメータは開閉器(115)と連動
して、新しくテンプレートメモリ(107)へ画像が記憶さ
れる毎に全て0にリセットされる。a〜0〜a〜5とアフィ
ンパラメータフレーム間推定部(105)より得られたa0〜
a5を用いて、式26〜式31により入力画像からみたテ
ンプレートメモリ(107)に記憶されている復号画像への
アフィン変換パラメータa'0〜a'5を求める。得られたa'
0〜a'5をa〜0〜a〜5にフレーム毎に代入して繰返し更新
を行なう。The affine parameter update unit (106) is a template memory (107) viewed from the input image one frame before.
The affine transformation parameters for the images in are stored as a to 0 to a to 5. This parameter is reset to 0 every time a new image is stored in the template memory (107) in conjunction with the switch (115). a ~ 0 ~ a ~ 5 and a0 ~ obtained from the affine parameter inter-frame estimation unit (105)
Using a5, the affine transformation parameters a'0 to a'5 for the decoded image stored in the template memory (107) as viewed from the input image are obtained by Expressions 26 to 31. The obtained a '
Repeated updating is performed by substituting 0 to a'5 into a to 0 to a to 5 for each frame.
【0086】[0086]
【数26】 (Equation 26)
【0087】[0087]
【数27】 [Equation 27]
【0088】[0088]
【数28】 [Equation 28]
【0089】[0089]
【数29】 (Equation 29)
【0090】[0090]
【数30】 [Equation 30]
【0091】[0091]
【数31】 (Equation 31)
【0092】アフィン動き補償部(108)ではa'0〜a'5
を用いて式10に示す動きベクトルを入力画像の全ての画
素位置について計算し、テンプレートメモリ(107)中の
画像上で得られた動きベクトル移動した画素位置の画素
値を求めることにより実行される。グローバル動き補償
の動きベクトルは1/4画素精度で求められ、近傍整数位
置の4画素値の線形補間として求められる。さらにこの
変形された画像上でマクロブロック単位の動き予測を動
き予測部2(110)が行なう。局所動き補償部(111)、
比較器(112)、差分器(114)、残差符号化部(10
1)、残差復号化部(102)、加算器(113)の動作は従
来例と同じである。In the affine motion compensator (108), a'0 to a'5
Is used to calculate the motion vector shown in Equation 10 for all pixel positions of the input image, and obtain the pixel value of the pixel position at which the motion vector has been obtained on the image in the template memory (107). . The motion vector for global motion compensation is obtained with 1/4 pixel precision, and is obtained as linear interpolation of four pixel values at neighboring integer positions. Further, the motion prediction unit 2 (110) performs motion prediction on a macroblock basis on the transformed image. Local motion compensator (111),
The comparator (112), the difference unit (114), the residual encoding unit (10
1) The operations of the residual decoding unit (102) and the adder (113) are the same as in the conventional example.
【0093】動きベクトル情報は、マクロブロック単位
での選択結果SW、動きベクトルmv1あるいはmv2、そして
アフィンパラメータaが動き情報多重化部(116)で多重
化されて送出される。As the motion vector information, the selection result SW in units of macroblocks, the motion vector mv1 or mv2, and the affine parameter a are multiplexed by the motion information multiplexing unit (116) and transmitted.
【0094】次に図2を用いて図1の符号化装置に対応
する復号化装置の動作を説明する。動き情報分離部(20
6)は、動き情報多重化部(116)の出力を入力として、
マクロブロック単位での選択結果SW、動きベクトルmv1
あるいはmv2、そしてアフィンパラメータaが分離復号さ
れる。Next, the operation of the decoding device corresponding to the encoding device of FIG. 1 will be described with reference to FIG. Motion information separation unit (20
6) receives the output of the motion information multiplexing unit (116) as an input,
Selection result SW and motion vector mv1 in macro block units
Alternatively, mv2 and the affine parameter a are separated and decoded.
【0095】SWにより、所動き補償部1(203)の動作も
しくはアフィン動き補償部(204)と局所動き補償部(20
5)の組合せ動作が選択される。選択器(207)はSWを基
にいずれかの出力を選択する。The operation of the local motion compensator 1 (203) or the affine motion compensator (204) and the local motion compensator (20)
5) The combination operation is selected. The selector (207) selects one of the outputs based on the SW.
【0096】画像復号化装置の他の構成では残差復号化
部(201)、フレームメモリ(202)、局所動き補償部1
(203)、アフィン動き補償部(204)局所動き補償部2
(205)テンプレートメモリ(208)、開閉器(209)、
加算器(210)の動作は既に説明した図1の同名ブロッ
クと同じである。開閉器(209)は、符号化装置側の開
閉器(115)と同期して10フレーム毎にテンプレート
メモリ(208)の内容を更新する。In another configuration of the image decoding apparatus, the residual decoding unit (201), the frame memory (202), the local motion compensating unit 1
(203), affine motion compensator (204) local motion compensator 2
(205) template memory (208), switch (209),
The operation of the adder (210) is the same as that of the block of the same name in FIG. The switch (209) updates the contents of the template memory (208) every 10 frames in synchronization with the switch (115) on the encoding device side.
【0097】以上に説明した本実施の形態では、従来例
と比較して以下の特長を持つ。 (1)従来例では、動き予測部1(504)の出力は動きベ
クトルだけであり、全画面の動きを記述するパラメータ
はこの動きベクトルを基にして計算されている。しか
し、局所的な相関演算では、輝度変化のない領域では局
所動きベクトルは不定となる。また輝度変化があっても
単調な輪郭周辺では動きベクトルは輪郭接線方向に自由
度を持ち、局所動きベクトルは同様に不定となる。した
がって、従来例に示した2段階のパラメータ推定法では
大きな推定誤差が危惧される。一方本実施の形態に示し
た手法では自由度を2次関数で定量的に表現し、2次関
数の総和の最小化を計ることにより、本来ならば不定と
なる局所動きベクトルの影響を押えて、より安定にパラ
メータ推定できることが期待される。The present embodiment described above has the following features as compared with the conventional example. (1) In the conventional example, the output of the motion prediction unit 1 (504) is only a motion vector, and parameters describing the motion of the entire screen are calculated based on the motion vector. However, in a local correlation operation, a local motion vector is undefined in a region where there is no change in luminance. Even if there is a change in luminance, the motion vector has a degree of freedom in the tangential direction of the contour around the monotonous contour, and the local motion vector is similarly undefined. Therefore, a large estimation error is feared in the two-stage parameter estimation method shown in the conventional example. On the other hand, in the method shown in the present embodiment, the degree of freedom is quantitatively expressed by a quadratic function, and by minimizing the sum of the quadratic functions, the influence of a local motion vector which is otherwise undefined is suppressed. It is expected that parameter estimation can be performed more stably.
【0098】(2)グローバル動き補償が10フレーム
間隔で更新されるテンプレートを基に実行されるため
に、残差符号化を行なわない予測画像の空間解像度が徐
々に低下するという問題が従来例と比較して軽減され
る。(2) Since the global motion compensation is performed based on a template updated at intervals of 10 frames, the problem that the spatial resolution of a predicted image not subjected to residual coding is gradually reduced is different from that of the conventional example. It is reduced in comparison.
【0099】なお、時間軸上、入力画像と最大9フレー
ム離れた画像とのアフィンパラメータを直接にブロック
相関で求めることは、各画素における動きベクトルが大
きくなる可能性があることから、難しい。そこで、本実
施の形態では、前後するフレーム間でアフィンパラメー
タを求めておき、これを合成して長いフレーム間隔のア
フィンパラメータを求めている。It is difficult to directly obtain an affine parameter between an input image and an image separated by a maximum of 9 frames on the time axis by block correlation because a motion vector in each pixel may become large. Therefore, in the present embodiment, affine parameters are obtained between the preceding and succeeding frames, and the affine parameters are synthesized to obtain affine parameters at long frame intervals.
【0100】(実施の形態2) 次に、画像符号化装置の一実施の形態を図3、図4を用
いて説明する。[0100] (Embodiment 2) Next, FIG an embodiment of an image encoding device 3 will be described with reference to FIG.
【0101】図3は、画像符号化装置の構成図で、図中
301は残差符号化部、302は残差復号化部、303はフレー
ムメモリ、304は動き予測部1、305は代表点動きベクト
ルフレーム間推定部、306は代表点動きベクトル更新
部、307はテンプレートメモリ、308は代表ベクトル内挿
動き補償部、309は局所動き補償部1、310は開閉器、31
1は動き情報多重化部、312は比較器、313は加算器、314
は差分器である。FIG. 3 is a block diagram of the image coding apparatus.
301 is a residual encoding unit, 302 is a residual decoding unit, 303 is a frame memory, 304 is a motion prediction unit 1, 305 is a representative point motion vector inter-frame estimating unit, 306 is a representative point motion vector updating unit, and 307 is Template memory, 308 is a representative vector interpolation motion compensator, 309 is a local motion compensator 1, 310 is a switch, 31
1 is a motion information multiplexing unit, 312 is a comparator, 313 is an adder, 314
Is a differentiator.
【0102】図4は画像復号化装置の構成図で、図中40
1は残差復号化部、402はフレームメモリ、403は局所動
き補償部1、404は代表ベクトル内挿動き補償部、405は
テンプレートメモリ、406は動き情報分離部、407は選択
器、408は開閉器、409は加算器である。FIG. 4 is a block diagram of the image decoding apparatus.
1 is a residual decoding unit, 402 is a frame memory, 403 is a local motion compensation unit 1, 404 is a representative vector interpolation motion compensation unit, 405 is a template memory, 406 is a motion information separation unit, 407 is a selector, and 408 is A switch 409 is an adder.
【0103】なお、動き情報多重化部(311)を除き、同
名であれば図3の構成要素の動作は図1中の構成要素と
同じである。同様に動き情報分離部(406)を除き、図4
の構成要素の動作は図2中の構成要素と同じである。Except for the motion information multiplexing unit (311), the operation of the components in FIG. 3 is the same as that in FIG. 1 if they have the same name. 4 except for the motion information separation unit (406).
2 are the same as those in FIG.
【0104】第2の実施の形態と第1の実施の形態の差
異は、 (1)グローバル動き補償後の局所動き補償を行なわな
い。 (2)アフィンパラメータの更新、伝送を3代表点の動きベ
クトルで行なう。 (3)グローバル動き補償は3代表点の動きベクトルの内挿
で行なう。 という3点である。以下にこの差異を述べる。The differences between the second embodiment and the first embodiment are as follows: (1) Local motion compensation after global motion compensation is not performed. (2) Update and transmit affine parameters using motion vectors at three representative points. (3) Global motion compensation is performed by interpolation of motion vectors at three representative points. These are the three points. The differences are described below.
【0105】まず、前記図3と図4の構成中、符号化装
置では、動き情報多重化部(311)が動きベクトルmv,
4倍され整数値に量子化された代表点動きベクトルの差
分表現(s0,t0),(s1,t1),(s2,t2),マクロブロック単位で
の選択結果SWを多重化し,これに対応して図4の復号化
装置では動き情報分離部(406)がmv,(s0,t0),(s1,t1),
(s2,t2),SWの3情報を分離復号する動作が異なる。First, in the configuration shown in FIGS. 3 and 4, in the coding apparatus, the motion information multiplexing unit (311) uses the motion vector mv,
Multiplex the representative expression (s0, t0), (s1, t1), (s2, t2) of the representative point motion vector that is quadrupled and quantized to an integer value, and multiplex the selection result SW in macroblock units. Then, in the decoding device of FIG. 4, the motion information separation unit (406) outputs mv, (s0, t0), (s1, t1),
The operation of separating and decoding (s2, t2) and three pieces of information of SW is different.
【0106】アフィンパラメータの推定は、以下の方法
で求める。式32に示すようにアフィンパラメータaは同
一直線上にない3点o,h,vの動きが定まれば求めることが
できる。Poは式33に示すoの位置に関する行列、Voは式3
4に示すoの位置の動きベクトルである。h,vについても
同様である。The affine parameters are estimated by the following method. As shown in Expression 32, the affine parameter a can be obtained if the movement of three points o, h, and v that are not on the same straight line is determined. Po is a matrix related to the position of o shown in Equation 33, and Vo is Equation 3
6 is a motion vector at a position o shown in FIG. The same applies to h and v.
【0107】[0107]
【数32】 (Equation 32)
【0108】[0108]
【数33】 [Equation 33]
【0109】[0109]
【数34】 (Equation 34)
【0110】本実施の形態ではo,h,vの位置を入力画像
上の(0,0),(H,0),(0,V)の位置に定めた。In this embodiment, the positions of o, h, and v are set to the positions of (0, 0), (H, 0), and (0, V) on the input image.
【0111】H,Vは画像の大きさでH=352,V=240であ
る。次に、画面上の図7に示すように新たにTL,TR,C,B
L,BRの5点を観測位置として選び、代表点動きベクトル
フレーム間推定部(305)では、動きベクトル予測部1(3
04)の出力の中で上記5つのブロック相関の結果を用い
てアフィンパラメータを計算する。この手順を図8に示
す。5点の名から3点の組合せを順に選び式25によりア
フィンパラメータaを求める。そして、得られたアフィ
ンパラメータによりo,h,vの位置の動きベクトルを1/
4画素精度で求め、記憶する。H and V are the image sizes, H = 352 and V = 240. Next, as shown in FIG. 7 on the screen, TL, TR, C, B
The five points L and BR are selected as observation positions, and the representative point motion vector inter-frame estimator (305) selects the motion vector predictor 1 (3
Affine parameters are calculated using the results of the above five block correlations in the output of 04). This procedure is shown in FIG. A combination of three points is selected in order from the names of the five points, and the affine parameter a is obtained by Expression 25. Then, the motion vector at the position of o, h, v is calculated as 1 /
Obtain and store with 4-pixel accuracy.
【0112】全ての組合せについて、動きベクトルをo,
h,vの位置について求め、中間値を結果とする。これをV
o,Vh,Vvとすると、これが1フレーム間のアフィンパラ
メータの別表現である。第1の実施の形態では、アフィ
ンパラメータを合成することにより、入力画像とテンプ
レートとのアフィンパラメータを求めた。For all combinations, the motion vectors are represented by o,
The positions of h and v are obtained, and an intermediate value is obtained as a result. This is V
Let o, Vh, Vv be another expression of the affine parameters for one frame. In the first embodiment, the affine parameters of the input image and the template are obtained by synthesizing the affine parameters.
【0113】本実施の形態では、代表点動きベクトル更
新部(306)が、1フレーム前の入力画像からみたテンプ
レートメモリ(307)内の画像への対応を代表点動きベク
トルV〜o,V〜h,V〜vとして記憶している。In the present embodiment, the representative point motion vector updating unit (306) determines the correspondence between the input image one frame before and the image in the template memory (307) with respect to the representative point motion vectors Voo, V〜. h, V to v are stored.
【0114】この代表点動きベクトルは開閉器(310)と
連動して、新しくテンプレートメモリ(307)へ画像が記
憶される毎に全て0ベクトルにリセットされる。V〜o,V
〜h,V〜vと代表点動きベクトルフレーム間推定部(305)
より得られたVo,Vh,Vvを用いて、式35〜式37により入力
画像からみたテンプレートメモリ(307)に記憶されてい
る復号画像へのアフィン変換パラメータV'o,V'h,V'vを
求める。得られたV'o,V'h,V'vをV〜o,V〜h,V〜vにフレ
ーム毎に代入して繰返し更新を行なう。This representative point motion vector is reset to zero vector every time an image is newly stored in the template memory (307) in conjunction with the switch (310). V ~ o, V
~ H, V ~ v and representative point motion vector inter-frame estimation unit (305)
Using the obtained Vo, Vh, Vv, the affine transformation parameters V′o, V′h, V ′ for the decoded image stored in the template memory (307) viewed from the input image according to Expressions 35 to 37. Find v. The obtained V'o, V'h, and V'v are substituted into V to o, V to h, and V to v for each frame to repeatedly update.
【0115】そして,V'o,V'h,V'vを4倍にして整数化
した値の並び(U4o,V4o),(U4h,V4h),(U4v,V4v)を以下の
差分形式(s0,s1,s2,t0,t1,t2)に変換して伝送する。Then, the sequence of values (U4o, V4o), (U4h, V4h), (U4v, V4v) obtained by quadrupling V'o, V'h, V'v and converting them to integers is represented by the following difference format ( s0, s1, s2, t0, t1, t2).
【0116】[0116]
【数35】 (Equation 35)
【0117】[0117]
【数36】 [Equation 36]
【0118】[0118]
【数37】 (37)
【0119】ここで,差分形式は各々以下に示す通りと
なる。 s0=U4o s1=U4h-U4o s2=U4v-U4o t0=V4o t1=V4h-V4o t2=V4v-V4o この差分データは表1に示す可変長符号に変換されて符
号化される。Here, the difference formats are as follows. s0 = U4o s1 = U4h-U4o s2 = U4v-U4o t0 = V4o t1 = V4h-V4o t2 = V4v-V4o This difference data is converted into a variable length code shown in Table 1 and encoded.
【0120】これには国際標準化機構(ISO)における
静止画符号化標準JPEG「ジェイペグテクニカルスペシフ
ィケーション」(ISO/IEC JTC1/SC29/WG10: JPEG Techn
icalSpeicification, JPEG8-R8,1998年8月)で採用され
ている符号化方法を用いる。この符号化方法では差分デ
ータに対するカテゴリSSSSとハフマン符号を求める。こ
こでSSSSは差分データをグループ分けするための変数で
あり、差分が正の場合には差分を2進表現した場合に上
位ビットからからみて最初に”1”が立つ最下位ビット
の番号であり、差分が負の場合は差分値−1を2進表現
した場合に上位ビットからみて最初に”0”が立つ最下
位ビットの番号である。This includes the still image coding standard JPEG "JPEG Technical Specification" (ISO / IEC JTC1 / SC29 / WG10: JPEG Techn) by the International Standards Organization (ISO).
icalSpeicification, JPEG8-R8, August 1998). In this encoding method, the category SSSS and the Huffman code for the difference data are obtained. Here, SSSS is a variable for grouping the difference data. When the difference is positive, when the difference is expressed in binary, it is the number of the least significant bit in which “1” is first displayed from the upper bit. If the difference is negative, it is the number of the least significant bit in which "0" first appears when viewed from the upper bits when the difference value -1 is expressed in binary.
【0121】カテゴリに対応する(表1)のハフマン符
号を伝送することにより、差分値のカテゴリが分かる
が、これだけでは差分データを特定することができない
ために、ハフマン符号の後に付加ビットを加える。SSSS
はこの付加ビットのビット長に対応しており差分が正の
場合には差分の最下位ビットからSSSSビットを、差分が
負の場合には差分値−1の最下位ビットからSSSSビット
が付加ビットとなる。By transmitting the Huffman code of (Table 1) corresponding to the category, the category of the difference value can be known. However, since the difference data cannot be specified by this alone, an additional bit is added after the Huffman code. SSSS
Corresponds to the bit length of this additional bit. When the difference is positive, the SSSS bit is added from the least significant bit of the difference, and when the difference is negative, the SSSS bit is added from the least significant bit of the difference value -1. Becomes
【0122】このようにして、(s0,s1,s2,t0,t1,t2)の
各々に対して、カテゴリSSSSのハフマン符号と付加ビッ
トが可変長符号として伝送される。この符号化は動き情
報多重化部(311)で行なうものとする。In this way, for each of (s0, s1, s2, t0, t1, t2), the Huffman code of category SSSS and additional bits are transmitted as variable length codes. This coding is performed by the motion information multiplexing unit (311).
【0123】[0123]
【表1】 [Table 1]
【0124】動き情報分離部(406)では、ビットストリ
ームの中からSSSSに対応するハフマン符号を見つけてカ
テゴリSSSSを復号する。引き続いてSSSSビット分の付加
ビットを読み込み、付加ビットの先頭ビットが1の場合
には差分が正、0の場合には差分が負であると判断す
る。The motion information separation unit (406) finds a Huffman code corresponding to SSSS from the bit stream and decodes the category SSSS. Subsequently, the additional bits for the SSSS bits are read, and when the leading bit of the additional bit is 1, the difference is determined to be positive, and when the leading bit is 0, the difference is determined to be negative.
【0125】負である場合、付加ビットを2進表現とし
これに1を加えた後、SSSS+1ビット目から上に1を詰
めて負数に変換する。If the value is negative, the additional bits are expressed in binary notation, and 1 is added thereto. Then, 1 is added upward from the SSSS + 1st bit, and converted to a negative number.
【0126】第1の実施例では、アフィンパラメータa
を伝送して式10により入力画面上の各画素位置の動きベ
クトルを計算していた。本実施例では、等価的に(U4o,V
4o),(U4h,V4h),(U4v,V4v)を内挿補間することにより計
算する。In the first embodiment, the affine parameter a
And the motion vector of each pixel position on the input screen is calculated by Expression 10. In this embodiment, equivalently (U4o, V
4o), (U4h, V4h) and (U4v, V4v) are calculated by interpolation.
【0127】式32に従えば、3点o,h,vの動きベクトル
より、アフィンパラメータoは式38と式39より求まる。According to Equation 32, the affine parameter o is obtained from Equations 38 and 39 from the motion vectors of the three points o, h, and v.
【0128】[0128]
【数38】 (38)
【0129】[0129]
【数39】 [Equation 39]
【0130】展開すれば、動きベクトルは式40,41とし
て得られることになる。これは、3点o,h,vの動きベク
トルを位置に応じて中割して求めていることになる。When expanded, the motion vectors are obtained as Expressions 40 and 41. This means that the motion vectors of the three points o, h, and v are obtained by dividing the motion vectors according to the positions.
【0131】[0131]
【数40】 (Equation 40)
【0132】[0132]
【数41】 [Equation 41]
【0133】各画素位置について、1/4精度を保証し、
かつ符号化側と復号化側でグローバル動き補償はによる
予測画像を同一とするために、式42と式43に示す式を整
数演算として行なうことが考えられる。For each pixel position, 1/4 accuracy is guaranteed,
In addition, in order to make the prediction images based on the global motion compensation on the encoding side and the decoding side the same, it is conceivable to perform the expressions shown in Expressions 42 and 43 as integer operations.
【0134】[0134]
【数42】 (Equation 42)
【0135】[0135]
【数43】 [Equation 43]
【0136】式42と式43において,(X,Y)は入力画面上
の画素位置、V4(X,Y),V4(X,Y)はその位置における4倍
された整数動きベクトル、(U4o,V4o)は4倍された位置o
における整数動きベクトル、(U4h,V4h),(U4v,V4v)はそ
れぞれ画面右上端、左下端の動きベクトルである。In equations 42 and 43, (X, Y) is a pixel position on the input screen, V4 (X, Y), V4 (X, Y) are quadrupled integer motion vectors at that position, and (U4o , V4o) is the quadrupled position o
, The integer motion vectors (U4h, V4h) and (U4v, V4v) are the motion vectors at the upper right and lower left corners of the screen, respectively.
【0137】この計算の実際は、本実施例では、(U4o,V
4o),(U4h,V4h),(U4v,V4v)は、差分形式(s0,s1,s2,t0,
t1,t2)で伝送されることを利用する。In the present embodiment, the actual calculation is (U4o, V
4o), (U4h, V4h), (U4v, V4v) are in the difference format (s0, s1, s2, t0,
It uses the fact that it is transmitted at t1, t2).
【0138】すなわりち代表ベクトル内挿動き補償部
(308)では、式42と式43は式44,式45として実現され
る。That is, in the representative vector interpolation motion compensator (308), equations (42) and (43) are realized as equations (44) and (45).
【0139】[0139]
【数44】 [Equation 44]
【0140】[0140]
【数45】 [Equation 45]
【0141】またこの時、s1,s2,t1,t2の全てが零であ
ることが分かった場合は、式44,式45の計算を簡略化す
る。すなわちs0,t0で定まる並行移動のみとしてs1,s2,
t1,t2に関するグローバル動き補償のための計算を省略
して行なう。At this time, if it is found that all of s1, s2, t1, and t2 are zero, the calculation of Expressions 44 and 45 is simplified. That is, s1, s2,
Calculations for global motion compensation for t1 and t2 are omitted.
【0142】本実施の形態の特長は以下にまとめられ
る。 (1)第1の実施の形態と比較して第2の実施の形態で
は、グローバル動き補償後の動き予測を省略しているた
め、画像符号化装置では比較的に処理の重いブロックマ
ッチング処理が従来の技術に記したMPEG1と同じ規
模に収まっている。The features of this embodiment are summarized below. (1) Compared to the first embodiment, the second embodiment omits the motion prediction after global motion compensation, so that the image coding apparatus performs relatively heavy block matching processing. It is of the same size as MPEG1 described in the prior art.
【0143】(2)全画面動きが5つのブロック相関によ
り求めているために処理負荷が軽い。また、5つのブロ
ック相関の中から3つのブロック相関を選び、これから
代表点o,h,vの動きベクトルを計算しその成分の中間値
を選ぶことにより、画面全体とは異なる動きがあっても
その影響を受け難い構成になっている。(2) The processing load is light because the motion of the entire screen is obtained by five block correlations. Also, by selecting three block correlations from among the five block correlations, calculating the motion vectors of the representative points o, h, and v and selecting the intermediate values of the components, even if there is a motion different from the entire screen, The configuration is less susceptible to that effect.
【0144】(3)代表点o,h,vを直交する位置に選び、こ
の点の動きベクトル伝送することにより、動き補償の際
の座標計算が簡略化されている。これにより高い演算精
度を補償することができる。(3) By selecting the representative points o, h, and v at orthogonal positions and transmitting the motion vectors at these points, the coordinate calculation for motion compensation is simplified. Thereby, high calculation accuracy can be compensated.
【0145】(4)代表点を差分形式で可変長符号化する
ことにより、アフィン変換が単純な並行移動の場合は(s
0,t0)により並行移動が表され、他のs1,s2,t1,t2は全て
零になる。従って、並行移動が水平に1画素であるとす
ると、合計15ビットでアフィン変換パラメータが伝送
できることになる。(4) By subjecting the representative points to variable-length coding in a difference format, if the affine transformation is a simple parallel movement, (s
The parallel movement is represented by (0, t0), and the other s1, s2, t1, and t2 are all zero. Therefore, if the parallel movement is one pixel horizontally, the affine transformation parameters can be transmitted with a total of 15 bits.
【0146】(表1)では1/4画素精度の動きを−5
11.75〜+512画素の範囲で表現することができ
るが、これを固定長符号化で行なうとすると12ビット
×6=72ビット必要になる。これと比べると通常の動
きベクトルの範囲では発生ビット量を抑えることができ
る。また画像の変形が並行移動だけで行なえるのか、一
般的なアフィン変換を行う必要があるのかの判定が差分
表現から簡単に判定することができる。これにより、グ
ローバル動き補償のためのアドレス計算は、簡略化して
行なうことができる利点が生じてくる。In Table 1, the movement of 1/4 pixel precision is -5.
Although it can be expressed in the range of 11.75 to +512 pixels, if this is performed by fixed-length coding, 12 bits × 6 = 72 bits are required. In comparison with this, the amount of generated bits can be suppressed in the range of a normal motion vector. Also, it can be easily determined from the difference expression whether the image deformation can be performed only by parallel movement or whether general affine transformation needs to be performed. Thus, there is an advantage that address calculation for global motion compensation can be performed in a simplified manner.
【0147】なお、本実施例で述べたグローバル動きデ
ータの伝送方法は、グローバル動き補償がアフィン変換
の場合を述べたが、双一次補間による変換あるいは透視
変換下での平面の動きモデルに拡張することができる。
いずれの場合も8パラメータの変換であり、新たに画面
右下端点の座標位置(H,V)における1/4画素精度動
きベクトル(U4hv,V4hv)を伝送することより実現でき
る。双一次補間による場合、式46,式47に示すように8
つのパラメータで画面全体の動きが記述される。Although the global motion data transmission method described in this embodiment has been described in the case where global motion compensation is affine transformation, it is extended to a plane motion model under bilinear interpolation or perspective transformation. be able to.
In each case, the conversion is eight parameters, and can be realized by transmitting a new 1/4 pixel precision motion vector (U4hv, V4hv) at the coordinate position (H, V) of the lower right point of the screen. In the case of bilinear interpolation, as shown in Equations 46 and 47, 8
One parameter describes the movement of the entire screen.
【0148】[0148]
【数46】 [Equation 46]
【0149】[0149]
【数47】 [Equation 47]
【0150】ここで、 s0=U4o s1=U4h-U4o s2=U4v-U4o s3=U4o-U4h-U4v+U4hv t0=V4o t1=V4h-V4o t2=V4v-V4o t3=V4o-V4h-V4v+V4hv とすると、双一次補間による場合、動きベクトルはS0 = U4o s1 = U4h-U4o s2 = U4v-U4o s3 = U4o-U4h-U4v + U4hv t0 = V4o t1 = V4h-V4o t2 = V4v-V4o t3 = V4o-V4h-V4v Then, in the case of bilinear interpolation, the motion vector is
【0151】[0151]
【数48】 [Equation 48]
【0152】[0152]
【数49】 [Equation 49]
【0153】で表現することができる。ここで(s3,t3)
=(0,0)であれば、アフィン変換と同じ処理、(s0,t0)以
外が全て零であれば、並行移動と同じ処理となる。透視
変換における平面の動きモデルの場合は、やや複雑な計
算となるが、いずれの場合も(s3,t3)=(0,0)であるかど
うか、(s0,t0)以外が零であるかどうかアフィン変換、
並行移動との自動切替が行なえるため、上記した差分形
式での画像端点の動きベクトル伝送の利点は大きい。Can be expressed by Where (s3, t3)
If = (0,0), the same processing as the affine transformation is performed. If all other than (s0, t0) are zero, the same processing as the parallel movement is performed. In the case of a plane motion model in perspective transformation, the calculation is somewhat complicated, but in each case (s3, t3) = (0, 0), whether (s0, t0) is zero other than Please affine transformation,
Since the automatic switching with the parallel movement can be performed, the advantage of the motion vector transmission of the image end point in the above-described difference format is great.
【0154】[0154]
【発明の効果】以上のように、本発明によれば、グロー
バル動き補償によって生じる予測画像の解像度低下を従
来技術に比して低減することができる。これにより、カ
メラの首振りおよびズームによって生じる動きを補償す
ることから、より少ない情報伝送量で画像を伝送するこ
とが可能となる。As described above, according to the present invention, a decrease in resolution of a predicted image caused by global motion compensation can be reduced as compared with the prior art. This compensates for the movement caused by the camera's swiveling and zooming, so that an image can be transmitted with a smaller amount of information transmission.
【0155】また、動きベクトルを内挿補間しグローバ
ル動き補償を行なうことから、アドレス計算の複雑さが
減り演算精度を高く保つことができる。したがって、符
号化側と復号化側の予測画像の一致を容易にとることが
でき、結果としてグローバル動き補償による効率の良い
予測画像符号化を行うことができる。[0155] Further, since performing global motion compensation and interpolating the motion vectors, it is possible to maintain a high operation accuracy reduces the complexity of address calculation. Therefore, it is possible to easily match the prediction images on the encoding side and the decoding side, and as a result, it is possible to perform efficient prediction image encoding by global motion compensation.
【0156】[0156]
【図1】本発明の第1の実施の形態における画像符号化
装置の構成図FIG. 1 is a configuration diagram of an image encoding device according to a first embodiment of the present invention.
【図2】同第1の実施の形態における画像復号化装置の
構成図FIG. 2 is a configuration diagram of an image decoding apparatus according to the first embodiment.
【図3】本発明の第2の実施の形態における画像符号化
装置の構成図FIG. 3 is a configuration diagram of an image encoding device according to a second embodiment of the present invention.
【図4】同第2の実施の形態における画像復号化装置の
構成図FIG. 4 is a configuration diagram of an image decoding apparatus according to the second embodiment.
【図5】従来の画像符号化装置の構成図FIG. 5 is a configuration diagram of a conventional image encoding device.
【図6】ブロック相関法の原理図FIG. 6 is a principle diagram of a block correlation method.
【図7】第2の実施の形態における代表点と観測点を示
す線図FIG. 7 is a diagram showing representative points and observation points in the second embodiment.
【図8】第2の実施の形態における代表点動きベクトル
フレーム間推定部の動作図FIG. 8 is an operation diagram of a representative point motion vector inter-frame estimating unit according to the second embodiment.
101,301 残差符号化部 102,201,302,401 残差復号化部 103,202,303,402 フレームメモリ 104,110,304 局所動き予測部 105 アフィンパラメータフレーム間推定部 106 アフィンパラメータ更新部 107,208,307,405 テンプレートメモリ 108,204 アフィン動き補償部 109,110,203,205,309,403 局
所動き補償部 112,312 比較器 113,210,313,409 加算器 114,314 差分器 116,311 動き情報多重部 115,209,310,408 開閉器 206,406 動き情報分離部 207,407 選択器 305 代表点動きベクトルフレーム間推定部 306 代表点動きベクトル更新部 308,404 代表ベクトル内挿動き補償部 SW マクロブロック単位での予測選択結果SW mv1,mv2 マクロブロック動きベクトル g グローバル動き補償パラメータ a アフィン動き補償パラメータ U4,V4 4倍され整数値に量子化された代表点動きベク
トル101, 301 Residual coding unit 102, 201, 302, 401 Residual decoding unit 103, 202, 303, 402 Frame memory 104, 110, 304 Local motion prediction unit 105 Affine parameter inter-frame estimation unit 106 Affine parameter update unit 107, 208, 307, 405 Template memory 108, 204 Affine motion compensator 109, 110, 203, 205, 309, 403 Local motion compensator 112, 312 Comparator 113, 210, 313, 409 Adder 114, 314 Differentiator 116, 311 motion information multiplexing section 115, 209, 310, 408 switch 206, 406 motion information separating section 207, 407 selector 305 representative point motion vector inter-frame estimating section 306 representative point motion vector updating section 308, 404 representative vector Interpolation motion compensation unit SW Prediction selection result in macroblock units SW mv1, mv2 Macroblock motion vector g Global motion compensation parameter a Affine motion compensation parameter U4, V4 Representative point motion vector multiplied by 4 and quantized to an integer value
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) H04N 7/ 24-7/68
Claims (1)
象フレームとし、時間的に前後する復号化されたフレー
ムを短期参照フレームとして記憶する短期フレームメモ
リと、 前記符号化対象フレームと前記短期参照フレームの間
の、局所的な対応を局所動きベクトルとして検出する局
所動きベクトル検出手段と、 前記した局所的動きベクトルを用いて前記短期フレーム
メモリから画像を読み出して予測画像を生成する短期動
き補償手段と、 符号化対象フレームに対して前記短期参照フレームより
も更新される間隔が長い復号化されたフレームを長期参
照フレームとして記憶する長期フレームメモリと、 前記符号化対象フレームと1フレーム前の画像との間の
絶対値誤差をu(x 、 y),v(x 、 y)(x、yは画面上の任
意の点;u,vは画素位置(x、y)における動きベク
トル)を変数とする2次関数として表現し、u,vとア
フィン変換パラメータaとの関係式を作成し、前記2次
関数を前記アフィン変換パラメータaの偏微分が零ベク
トルであるとして、前記絶対値誤差が最小となる値を得
ることにより、全画面の動きをアフィン変換パラメータ
aとして推定するアフィンパラメータフレーム間推定部
と、 前記アフィンパラメータフレーム間推定部からの出力か
ら前後するフレーム間のアフィンパラメータを合成する
アフィンパラメータ更新手段と、 前記アフィンパラメータ更新手段のアフィン パラメータ
を用いて前記長期フレームメモリから画像を読み出して
予測画像を生成する全画面動き補償手段とを備えた画像
符号化装置。1. A short-term frame memory for storing a pixel block of n × n dots as an encoding target frame, and storing decoded frames preceding and succeeding in time as a short-term reference frame, and the encoding target frame and the short-term reference Local motion vector detecting means for detecting a local correspondence between frames as a local motion vector; and short-term motion compensating means for reading an image from the short-term frame memory using the local motion vector and generating a predicted image. A long-term frame memory for storing, as a long-term reference frame, a decoded frame whose update interval is longer than that of the short-term reference frame with respect to the encoding target frame; and an image one frame before the encoding target frame. Between
The absolute value error is expressed as u (x , y), v (x , y) (x, y
U, v are motion vectors at pixel position (x, y)
ト ル) as a quadratic function with variables as u, v and
A relational expression with the fin transformation parameter a is created,
The function is defined as follows:
And a value that minimizes the absolute value error is obtained.
Affine transformation parameters
Affine parameter inter-frame estimator for estimating as a
And the output from the affine parameter inter-frame estimator
Affine parameters between frames before and after
An image coding apparatus comprising: an affine parameter update unit; and a full-screen motion compensation unit that reads an image from the long-term frame memory using the affine parameters of the affine parameter update unit and generates a predicted image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP06596896A JP3235453B2 (en) | 1996-01-22 | 1996-03-22 | Image coding device |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP8-8113 | 1996-01-22 | ||
| JP811396 | 1996-01-22 | ||
| JP06596896A JP3235453B2 (en) | 1996-01-22 | 1996-03-22 | Image coding device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH09266574A JPH09266574A (en) | 1997-10-07 |
| JP3235453B2 true JP3235453B2 (en) | 2001-12-04 |
Family
ID=26342561
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP06596896A Expired - Fee Related JP3235453B2 (en) | 1996-01-22 | 1996-03-22 | Image coding device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3235453B2 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6519287B1 (en) * | 1998-07-13 | 2003-02-11 | Motorola, Inc. | Method and apparatus for encoding and decoding video signals by using storage and retrieval of motion vectors |
| KR100829098B1 (en) * | 2006-10-10 | 2008-05-19 | 삼성전자주식회사 | Motion Estimator and Motion Estimation Method |
| JP4781301B2 (en) * | 2007-03-06 | 2011-09-28 | 日本放送協会 | Encoding side motion compensation device and decoding side motion compensation device |
| JP5298487B2 (en) * | 2007-09-28 | 2013-09-25 | 日立コンシューマエレクトロニクス株式会社 | Image encoding device, image decoding device, and image encoding method |
| WO2011013253A1 (en) * | 2009-07-31 | 2011-02-03 | 株式会社 東芝 | Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device |
-
1996
- 1996-03-22 JP JP06596896A patent/JP3235453B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
| Title |
|---|
| 栄藤稔、外2名,「階層表現と多重テンプレートを用いた画像符号化」,電子情報通信学会技術研究報告,社団法人電子情報通信学会,平成7年3月17日,第94巻,第549号,p.99−106(IE94−159) |
Also Published As
| Publication number | Publication date |
|---|---|
| JPH09266574A (en) | 1997-10-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2801559B2 (en) | Motion compensation coding method and apparatus adapted to the magnitude of motion | |
| JP3386142B2 (en) | Image decoding device and image decoding method | |
| EP0877530B1 (en) | Digital image encoding and decoding method | |
| JP2897763B2 (en) | Motion compensation coding device, decoding device, coding method and decoding method | |
| US5587741A (en) | Apparatus and method for detecting motion vectors to half-pixel accuracy | |
| KR100584495B1 (en) | Video picture coding apparatus and method | |
| EP0644697A2 (en) | Method for half-pixel motion compensation in image decoding | |
| JPH07193823A (en) | Image data block conversion system | |
| US6049362A (en) | Dual prime motion estimation system and method | |
| KR20010083717A (en) | Motion estimation method and appratus | |
| JP3235453B2 (en) | Image coding device | |
| JP3681784B2 (en) | Video signal encoding device | |
| KR100511810B1 (en) | Image encoding and decoding method and device | |
| KR100926752B1 (en) | Fine Motion Estimation Method and Apparatus for Video Coding | |
| JP2004040575A (en) | Motion compensator | |
| JP2001016594A (en) | Video motion compensation method | |
| KR100240620B1 (en) | Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation | |
| JPH10150665A (en) | Predicted image creation method, image encoding method, and image encoding device | |
| JP2765528B2 (en) | Half-pixel accuracy motion vector search device | |
| JPH09182081A (en) | Motion compensation predictive coding device | |
| KR100296099B1 (en) | Method of and apparatus for acquiring motion vectors of control points by vector quantization in control grid interpolation coder | |
| KR100617177B1 (en) | Motion estimation method | |
| JP2596352B2 (en) | Decimal precision motion vector search device | |
| JP4061505B2 (en) | Image coding apparatus and method | |
| WO2000062554A1 (en) | Image processing method and image processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |