[go: up one dir, main page]

JP2863026B2 - Motion compensation prediction method - Google Patents

Motion compensation prediction method

Info

Publication number
JP2863026B2
JP2863026B2 JP20012391A JP20012391A JP2863026B2 JP 2863026 B2 JP2863026 B2 JP 2863026B2 JP 20012391 A JP20012391 A JP 20012391A JP 20012391 A JP20012391 A JP 20012391A JP 2863026 B2 JP2863026 B2 JP 2863026B2
Authority
JP
Japan
Prior art keywords
motion compensation
prediction
motion
field
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20012391A
Other languages
Japanese (ja)
Other versions
JPH0522718A (en
Inventor
一人 上倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP20012391A priority Critical patent/JP2863026B2/en
Publication of JPH0522718A publication Critical patent/JPH0522718A/en
Application granted granted Critical
Publication of JP2863026B2 publication Critical patent/JP2863026B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、動き補償予測方法に係
り、詳しくはテレビジョン(TV)信号のようにインタ
レース走査された画像信号を効率よく符号化するために
用いられる動き補償予測方法の改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensation prediction method, and more particularly, to a motion compensation prediction method used for efficiently coding an interlaced image signal such as a television (TV) signal. Regarding improvement.

【0002】[0002]

【従来の技術】動画像を効率的に符号化するための技術
の1つとして、ブロックマッチングによる動き補償予測
方法がある。これは、画像の動き量をブロックと呼ばれ
る小領域毎に求め、その動き量だけずらした過去の画像
データの値を現在の画像データの予測値とするものであ
る。
2. Description of the Related Art One of techniques for efficiently encoding a moving image is a motion compensation prediction method using block matching. In this method, the amount of motion of an image is obtained for each small area called a block, and the value of past image data shifted by the amount of motion is used as the predicted value of the current image data.

【0003】インタレース走査された画像信号に対し
て、このような動き補償予測方法を利用する従来技術と
しては、 (a)時間的に1つ前のフィールドのみを利用して、水
平垂直両方向の動きを補償する方法 (b)時間的に2つの前のフィールドのみを利用して、
水平垂直両方向の動きを補償する方法 (c)上記(a)の方法と上記(b)の方法を単純に組
合せ(例えば(a)の後に(b)を行う等)、ブロック
毎に切替えて利用する方法などが知られている。
Conventional techniques using such a motion compensation prediction method for an interlaced scanned image signal include the following: (a) Only the temporally previous field is used, and both the horizontal and vertical directions are used. Method of compensating for motion (b) Using only two previous fields in time,
Method for compensating for both horizontal and vertical motions (c) Simple combination of the above method (a) and the above method (b) (for example, (b) performed after (a)), switching and using for each block There are known methods.

【0004】[0004]

【発明が解決しようとする課題】従来技術において、
(b)の2つ前のフィールドを用いる動き補償予測で
は、予測に用いられるブロックにおける画素と現在のブ
ロックにおける画素とのサンプリング時刻の差が、
(a)の1つ前のフィールドを用いる動き補償予測に比
べて約2倍になる。したがって、(b)は(a)より動
きに対する追随性が劣っており、動領域において予測効
率が低下する。
SUMMARY OF THE INVENTION In the prior art,
In the motion compensated prediction using the field immediately before (b), the difference between the sampling time of the pixel in the block used for prediction and the pixel in the current block is
This is about twice that of the motion compensation prediction using the field immediately before (a). Therefore, (b) is inferior to the motion than (a), and the prediction efficiency is reduced in the moving area.

【0005】一方、インタレース走査による隣接する2
つのフィールドでは、互いのフィールドにおけるライン
の位置が2次元空間的に一致していない。したがって、
1つ前のフィールドでは現フィールドの画素と同じ位置
に画素が存在しないのに対し、2つ前のフィールドでは
全く同じ位置に画素が存在するため、静止領域および水
平移動領域では、(a)は(b)より予測効率が低下す
る。
On the other hand, adjacent two
In the two fields, the positions of the lines in the other fields do not coincide two-dimensionally. Therefore,
In the immediately preceding field, no pixel exists at the same position as the pixel of the current field, whereas in the two preceding field, a pixel exists at exactly the same position. Therefore, in the still region and the horizontally moving region, (a) is (B) The prediction efficiency is further reduced.

【0006】これらに対し、(c)の(a)と(b)を
組合わせた動き補償予測では、(a)と(b)の予測効
率の低下を互いに補うため、常に効率的な予測が行える
が、動き量を表す動ベクトルの種類、および動き量を求
めるための演算量が、(a)や(b)の各々の場合に比
べ2倍必要となる。
On the other hand, in the motion compensation prediction combining (a) and (b) of (c), efficient prediction is always performed to compensate for the reductions in the prediction efficiency of (a) and (b). Although it can be performed, the type of motion vector representing the amount of motion and the amount of calculation for obtaining the amount of motion are twice as large as those in each of (a) and (b).

【0007】本発明の目的は、従来の各動き補償予測方
法における上記問題点を解決し、(a)、(b)と同程
度の動ベクトルの種類、演算量で、(c)と同程度の予
測効率が実現できる動き補償予測方法を提供することに
ある。
An object of the present invention is to solve the above-mentioned problems in the conventional motion compensation prediction methods, and to provide the same kind of motion vector and the same amount of calculation as (a) and (b), and as much as (c). Another object of the present invention is to provide a motion-compensated prediction method capable of realizing the prediction efficiency.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、1つ前のフィールドを予測のために用い
る場合には、従来通り水平垂直両方向について動き補償
を行うが、2つ前のフィールドを予測のために用いる場
合には、水平方向のみについて動き補償を行うようにし
たものである。
In order to achieve the above object, according to the present invention, when the immediately preceding field is used for prediction, motion compensation is conventionally performed in both horizontal and vertical directions. When the previous field is used for prediction, motion compensation is performed only in the horizontal direction.

【0009】[0009]

【作用】本発明にあっては、垂直方向の動きを含む領域
では主に1つ前のフィールドを用いた動き補償予測が用
いられ、静止領域および水平移動領域では主に2つ前の
フィールドを用いた動き補償予測が用いられるため、従
来の(c)の方法とほぼ同程度の予測効率が得られる。
更に、2つ前のフィールドを用いる場合の動き補償は水
平方向のみに限定されているため、動ベクトル種類およ
び動べクトル決定のための演算量は、従来の(a)、
(b)の方法に比べ若干増加するに過ぎない。
According to the present invention, the motion compensation prediction using the immediately preceding field is mainly used in the area including the vertical motion, and the two previous fields are mainly used in the still area and the horizontally moving area. Since the used motion compensated prediction is used, almost the same prediction efficiency as the conventional method (c) can be obtained.
Further, since the motion compensation when using the two previous fields is limited to only the horizontal direction, the amount of calculation for determining the motion vector type and the motion vector is the same as the conventional (a),
It is only slightly increased as compared with the method (b).

【0010】[0010]

【実施例】以下、本発明の一実施例について図面により
詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below in detail with reference to the drawings.

【0011】図1は本発明の一実施例を示す構成図であ
る。図において、動き補償予測器11は時間的に1つ前
のフィールドを利用して水平垂直両方向について動き補
償予測値を求めるものであり、動き補償予測器12は2
つ前のフィールドを利用して水平方向のみについて動き
補償予測値を求めるものである。比較器13は入力端子
1の現画像フィール及び動き補償予測器11、12の予
測値を入力し、ブロック毎に予測誤差の絶対値和の小さ
い方の予測値が選択されるようにスイッチ14を切替え
るものである。これ以外の構成は基本的に従来の(c)
の場合と同様である。
FIG. 1 is a block diagram showing one embodiment of the present invention. In the figure, a motion compensation predictor 11 obtains a motion compensation prediction value in both the horizontal and vertical directions by using a temporally previous field.
The motion compensation prediction value is obtained only in the horizontal direction using the previous field. The comparator 13 inputs the current image field of the input terminal 1 and the predicted value of the motion compensation predictors 11 and 12, and sets the switch 14 so that the smaller predicted value of the sum of absolute values of prediction errors is selected for each block. Switch. Other configurations are basically the same as those of the conventional (c).
Is the same as

【0012】画像信号は入力端子1に入力され、減算器
2において、スイッチ4で選択された動き補償予測器1
1あるいは12の予測値を減ぜられる。減算器2の出力
差分信号は離散コサイン変換器3で離散コサイン変換さ
れ、変換係数が量子化器4で量子化される。この量子化
後の係数は可変長符号化器5で可変長符号化されて出力
端子15から出力されるとともに、逆量子化器6、逆離
散コサイン変換器7を通って、加算器8により、スイッ
チ14で選択された動き補償予測器11あるいは12の
予測値が加えられて再生値となる。再生値はフィールド
メモリ9に蓄えられ、動き補償予測器11において1フ
ィールド前のデータとして動き補償予測に利用される。
同時に、更に1フィールド前の再生値フィールドメモリ
10に蓄えられ、動き補償予測器12において2フィー
ルド前のデータとして動き補償予測に利用される。動き
補償予測器11による予測値と動き補償予測器12によ
る予測値は比較器13に入力される。比較器13では、
動き補償の単位となるブロック毎に、予測誤差の絶対値
和の小さい方が選択されるようスイッチ14を切替え
る。
An image signal is input to an input terminal 1, and a subtracter 2 selects a motion compensation predictor 1 selected by a switch 4.
One or twelve predicted values can be reduced. The output difference signal of the subtracter 2 is subjected to discrete cosine transform by the discrete cosine transformer 3, and the transform coefficient is quantized by the quantizer 4. The quantized coefficients are variable-length coded by the variable-length encoder 5 and output from the output terminal 15, pass through the inverse quantizer 6, the inverse discrete cosine transformer 7, and are added by the adder 8. The predicted value of the motion compensation predictor 11 or 12 selected by the switch 14 is added to become a reproduced value. The reproduction value is stored in the field memory 9 and used in the motion compensation prediction as data one field before in the motion compensation prediction unit 11.
At the same time, the data is further stored in the reproduction value field memory 10 one field before, and is used in the motion compensation prediction as data two fields before in the motion compensation prediction unit 12. The predicted value by the motion compensated predictor 11 and the predicted value by the motion compensated predictor 12 are input to the comparator 13. In the comparator 13,
The switch 14 is switched so that the smaller of the absolute value sums of the prediction errors is selected for each block that is a unit of motion compensation.

【0013】図2および図3は、動き補償予測器11お
よび動き補償予測器12における動ベクトル探索法をそ
れぞれ示したものである。
FIGS. 2 and 3 show a motion vector search method in the motion compensation predictor 11 and the motion compensation predictor 12, respectively.

【0014】動き補償予測器11では1つ前のフィール
ドを動き補償予測に用いており、探索範囲(1ブロッ
ク)は図2に示すとおり、水平方向±14.5pel、垂直
方向±14.5lineである。動き補償予測器11での動
ベクトル探索方法は以下の通りである。まず第1段目と
して(0,0)を中心に「●」で示された35点につい
て行い、その結果、(12,8)が選択されたものとす
る。次に第2段目として(12,8)を中心に「○」で
示された24点について行い、(14,10)が選択さ
れたものとする。最後に第3段目として画素と画素の間
の値を線形内挿によって求め、(14,10)を中心に
「×」で示された8点について行い、最後的に選ばれた
点の座標が動ベクトルとなる。したがって、動き補償予
測器11における動ベクトル探索回数は、 35+24+8=67 (1) 動ベクトルの種類は、 (14.5×2×2+1)×(10.5×2×2+1)=2537 (2) である。
The motion compensation predictor 11 uses the immediately preceding field for motion compensation prediction. The search range (one block) is ± 14.5 pel in the horizontal direction and ± 14.5 lines in the vertical direction as shown in FIG. is there. The motion vector search method in the motion compensation predictor 11 is as follows. First, it is assumed that the first step is performed for 35 points indicated by “●” around (0, 0), and as a result, (12, 8) is selected. Next, as the second step, it is assumed that (14, 10) has been selected with respect to (12, 8) and 24 points indicated by “○”. Finally, as a third step, the value between pixels is obtained by linear interpolation, and the calculation is performed for eight points indicated by “x” around (14, 10), and the coordinates of the finally selected point Becomes a motion vector. Therefore, the number of motion vector searches in the motion compensation predictor 11 is 35 + 24 + 8 = 67 (1) The type of motion vector is (14.5 × 2 × 2 + 1) × (10.5 × 2 × 2 + 1) = 2537 (2) It is.

【0015】一方、動き補償予測器12では2つ前のフ
ィールドを動き補償予測に用いており、探索範囲は図3
に示すとおり水平方向のみ±14.5pelである。動ベク
トル探索回数は、 7+4+2=13 (3) 動ベクトルの種類は、 14.5×2×2+1=59 (4) である。したがって、全体でのベクトル探索回数は8
0、動ベクトルの種類は2596である。
On the other hand, the motion-compensated predictor 12 uses the previous two fields for motion-compensated prediction, and the search range is as shown in FIG.
Is ± 14.5 pel only in the horizontal direction as shown in FIG. The number of motion vector searches is: 7 + 4 + 2 = 13 (3) The type of motion vector is 14.5 × 2 × 2 + 1 = 59 (4) Therefore, the total number of vector searches is 8
0 and the type of motion vector is 2596.

【0016】本発明の一実施例である上記の動き補償予
測方法の符号化特性を計算機シミュレーションにより求
めてみた。用いた画像は“画像1”と“画像2”の2種
類である。“画像1”は林の中の風景(多数の木の枝)
に対してカメラをチルト(垂直方向へ移動)させている
場面である。“画像2”は卓球をしている場面であり、
カメラのズームアウト(SC1)、カメラ静止(SC
2)、カメラのパン(水平方向への動き)(SC3)、
の3シーンから構成されている。符号化レートは9.6
Mbit/sである。
The coding characteristics of the above-described motion compensation prediction method according to one embodiment of the present invention were obtained by computer simulation. The used images are two types of “image 1” and “image 2”. "Image 1" is a landscape in a forest (many tree branches)
This is a scene where the camera is tilted (moved in the vertical direction) with respect to. "Image 2" is a scene of playing table tennis,
Camera zoom out (SC1), camera still (SC1)
2), camera pan (horizontal movement) (SC3),
3 scenes. The coding rate is 9.6
Mbit / s.

【0017】また、比較のため、従来の(a)、
(b)、(c)に対応する次の実験も行ってみた。 (a’) 時間的に1つ前のフィールドのみを利用して、
水平方向±14.5pel、垂直方向±10.5lineの動き
補償を行う予測 (b’) 時間的に2つ前のフィールドのみを利用して、
水平方向±14.5pel、垂直方向±10.5lineの動き
補償を行う予測 (c’) 上記(a’)の方法と上記(b’)の方法を組
合せて、ともに水平方向±14.5pel、垂直方向±1
0.5lineの動き補償を行い、ブロック毎に適応的に切
替える予測
For comparison, conventional (a),
The following experiments corresponding to (b) and (c) were also performed. (A ') Using only the previous field in time,
Prediction that performs motion compensation of ± 14.5 pel in the horizontal direction and ± 10.5 lines in the vertical direction (b ′) Using only the two fields before in time,
Prediction for performing motion compensation of ± 14.5 pel in the horizontal direction and ± 10.5 lines in the vertical direction (c ′) Combination of the above method (a ′) and the above method (b ′), both of which are ± 14.5 pel in the horizontal direction, Vertical direction ± 1
Prediction that performs motion compensation of 0.5 line and switches adaptively for each block

【0018】各々の動き補償予測方法における動ベクト
ルの種類、および動ベクトル探索回数は、図4に示す通
りである。すなわち、(a’)、(b’)の動ベクトル
の種類および探索回数は、各々、式(1)および(2)のとお
りであり、(c’)ではその2倍となる。
The types of motion vectors and the number of motion vector searches in each motion compensation prediction method are as shown in FIG. That is, the types of motion vectors and the number of searches in (a ′) and (b ′) are as shown in equations (1) and (2), respectively, and are twice as large in (c ′).

【0019】図5は各動き補償予測法の実験結果を示し
たもので、(a)は“画像1”、(b)は“画像2”に
それぞれ対応する。図5から明らかであるように、“画
像1”および“画像2”のSC1では、(a’)が
(b’)に比べてSN比が0.5〜1dB向上している
のに対し、“画像2”のSC2、SC3では逆にSN比
が2〜4dB低下している。一方、本発明による方法で
は、常に(a’)、(b’で優れている方の特性と同程
度の性能が得られており、(c’)と比較して常に同程
度の性能が得られている。
FIGS. 5A and 5B show experimental results of each motion compensation prediction method. FIG. 5A corresponds to "picture 1" and FIG. 5b corresponds to "picture 2". As is clear from FIG. 5, in SC1 of “image 1” and “image 2”, the SN ratio of (a ′) is improved by 0.5 to 1 dB as compared with (b ′), Conversely, in SC2 and SC3 of “image 2”, the SN ratio is reduced by 2 to 4 dB. On the other hand, in the method according to the present invention, the same performance as that of the superior characteristic in (a ′) and (b ′) is always obtained, and the same performance as that of (c ′) is always obtained. Have been.

【0020】[0020]

【発明の効果】以上説明したように、本発明によれば、
インタレース画像符号化のための動き補償予測におい
て、特に従来の(c)の予測方法に比較して、半分程度
の演算量、動ベクトルの種類で、同程度の予測効率を得
ることが出来る。
As described above, according to the present invention,
In motion-compensated prediction for interlaced image coding, the same prediction efficiency can be obtained with a calculation amount and a type of motion vector that are about half that of the conventional prediction method (c).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示す構成図である。FIG. 1 is a configuration diagram showing one embodiment of the present invention.

【図2】図1の動き補償予測器11における動ベクトル
探索法を示す図である。
FIG. 2 is a diagram showing a motion vector search method in the motion compensation predictor 11 of FIG.

【図3】図1の動き補償予測器12における動ベクトル
探索法を示す図である。
FIG. 3 is a diagram showing a motion vector search method in the motion compensation predictor 12 of FIG.

【図4】本発明及び従来方法で実験を行った各動き補償
予測における動ベクトルの種類、および動ベクトル探索
回数をまとめて示した図である。
FIG. 4 is a diagram collectively showing types of motion vectors and the number of times of motion vector search in each motion compensation prediction performed by experiments according to the present invention and the conventional method.

【図5】実験結果を示す図である。FIG. 5 is a diagram showing experimental results.

【符号の説明】[Explanation of symbols]

1 入力端子 2 減算器 3 離散コサイン変換器 4 量子化器 5 可変長符号化器 6 逆量子化器 7 逆離散コサイン変換器 8 加算器 9、10 フィールドメモリ 11、12 動き補償予測器 13 比較器 14 スイッチ 15 出力端子 Reference Signs List 1 input terminal 2 subtractor 3 discrete cosine transformer 4 quantizer 5 variable length encoder 6 inverse quantizer 7 inverse discrete cosine transformer 8 adder 9, 10 field memory 11, 12 motion compensation predictor 13 comparator 14 Switch 15 Output terminal

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 インタレース走査によって1つのフレー
ムが2つのフィールドから構成されている画像信号を符
号化する場合、画像を複数のブロックに分け、画像の動
き量をブロック毎に求め、その動き量だけずらした過去
の画像データの値を現在の画像データの予測値とする動
き補償予測方法であって、 第N番目のフィールドの画素値を予測するために、第
(N−1)番目のフィールドと第(N−2)番目のフィ
ールドとを利用し、これらをブロック毎の予測誤差値を
もとに選択的に切替えるとともに、第(N−1)番目の
フィールドを予測のために利用する場合には水平垂直両
方向について動き補償を行い、第(N−2)番目のフィ
ールドを予測のために用いる場合には水平方向のみにつ
いて動き補償を行うことを特徴とする動き補償予測方
法。
When encoding an image signal in which one frame is composed of two fields by interlaced scanning, the image is divided into a plurality of blocks, and the amount of motion of the image is obtained for each block. A motion-compensated prediction method in which a value of past image data shifted by the same amount is used as a prediction value of current image data, and an (N-1) -th field is used to predict a pixel value of an N-th field. And (N-2) th field are used, and these are selectively switched based on the prediction error value for each block, and the (N-1) th field is used for prediction. Motion compensation is performed in both horizontal and vertical directions, and when the (N-2) th field is used for prediction, motion compensation is performed only in the horizontal direction. Method.
JP20012391A 1991-07-15 1991-07-15 Motion compensation prediction method Expired - Fee Related JP2863026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20012391A JP2863026B2 (en) 1991-07-15 1991-07-15 Motion compensation prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20012391A JP2863026B2 (en) 1991-07-15 1991-07-15 Motion compensation prediction method

Publications (2)

Publication Number Publication Date
JPH0522718A JPH0522718A (en) 1993-01-29
JP2863026B2 true JP2863026B2 (en) 1999-03-03

Family

ID=16419208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20012391A Expired - Fee Related JP2863026B2 (en) 1991-07-15 1991-07-15 Motion compensation prediction method

Country Status (1)

Country Link
JP (1) JP2863026B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2586260B2 (en) * 1991-10-22 1997-02-26 三菱電機株式会社 Adaptive blocking image coding device

Also Published As

Publication number Publication date
JPH0522718A (en) 1993-01-29

Similar Documents

Publication Publication Date Title
Po et al. A novel four-step search algorithm for fast block motion estimation
US5453799A (en) Unified motion estimation architecture
US5661524A (en) Method and apparatus for motion estimation using trajectory in a digital video encoder
JP2000244927A (en) Moving picture transforming device
KR100945826B1 (en) Image information decoding method and apparatus
JPH05268594A (en) Motion detector for moving picture
JP4332246B2 (en) Image processing apparatus, method, and recording medium
KR100221171B1 (en) Method and apparatus for regenerating a dense motion vector field
JP2755851B2 (en) Moving picture coding apparatus and moving picture coding method
JP2863026B2 (en) Motion compensation prediction method
JP3164056B2 (en) Moving image encoding / decoding device, moving image encoding / decoding method, and moving image code recording medium
US6038345A (en) Apparatus for encoding/decoding image data
JP2883592B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3784086B2 (en) Video signal encoding / decoding device and encoding / decoding method
JP2001086508A (en) Method and device for moving image decoding
JPH0389792A (en) image encoding device
KR100240620B1 (en) Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JPH05122686A (en) Encoder and decoder for dynamic image forecasting
JPH06153185A (en) Motion compensation device and coder using the device
JP2758378B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2624718B2 (en) Image coding device
JPH05236456A (en) Method and device for encoding moving image
JPH10126749A (en) Sequential scanning conversion device
GB2379820A (en) Interpolating values for sub-pixels

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071211

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081211

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091211

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101211

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees