[go: up one dir, main page]

JP2000041255A - 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体 - Google Patents

動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体

Info

Publication number
JP2000041255A
JP2000041255A JP20877498A JP20877498A JP2000041255A JP 2000041255 A JP2000041255 A JP 2000041255A JP 20877498 A JP20877498 A JP 20877498A JP 20877498 A JP20877498 A JP 20877498A JP 2000041255 A JP2000041255 A JP 2000041255A
Authority
JP
Japan
Prior art keywords
block
image information
motion vector
prediction
predicted image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20877498A
Other languages
English (en)
Inventor
Tadayoshi Nakayama
忠義 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP20877498A priority Critical patent/JP2000041255A/ja
Publication of JP2000041255A publication Critical patent/JP2000041255A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 【課題】 処理速度の高速化を図り、ハードウェア規模
の縮小化を図ったオーバーラップ動き補償予測の回路を
提供する。 【解決手段】 判別手段101は、処理対象のマクロブ
ロック内における着目ブロックqの存在位置を判別す
る。情報取得手段102は、判別手段101の判別結果
に基づいて、着目ブロックq及び隣接ブロックu,d,
l,rの動きベクトル情報に対して予め定義された重み
係数マトリクスH2〜H6と、重み係数マトリクスH2
〜H6から生成された新たな重み係数マトリスクH7と
の少なくとも何れかを用いて、各予測画像情報に所定の
処理を行って最終的な予測画像情報pを取得する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、動画像の符号化に
用いられる動き補償処理方法、動き補償処理回路、それ
を備えた符号化装置、及びそれを実施するための処理ス
テップをコンピュータが読出可能に格納した記憶媒体に
関し、特に、オーバーラップ動き補償予測の動き補償処
理方法、動き補償処理回路、それを備えた符号化装置、
及びそれを実施するための処理ステップをコンピュータ
が読出可能に格納した記憶媒体に関するものである。
【0002】
【従来の技術】近年、画像情報の符号化技術や、符号化
した画像情報を伝送し蓄積する技術、また、符号化した
画像情報を安価なコストで復号化するための半導体技術
や、復号化した画像情報を表示する技術等、所謂画像情
報を扱うインフラ技術が発達してきた。これにより、動
画像情報のような大量の情報であっても、遠隔地に効率
よく転送して、送受信側で互いに情報交換することが可
能になってきた。
【0003】そこで、動画像情報の符号化方式として、
フレーム間の画像情報の相関を利用して、情報を大幅に
削減することが可能な、所謂動き補償予測を用いた符号
化方式(動き補償予測符号化方式)がある。この符号化
方式では、ブロック化された画像情報に対して、ブロッ
クごとに参照すべき画像の相対位置を表す動きベクトル
と呼ばれる情報を用い、該動きベクトルに基づいて得ら
れる画素値を予測値とし、該予測値と実際の画素値の差
分値をDCT(Discrete Cosine Transform :離散コサ
イン変換)等の直交変換処理により変換し、該変換情報
を人間の目の視覚特性に基づいて削減する。
【0004】しかしながら、上述の動き補償予測符号化
方式のような、ブロック単位での符号化方式において、
圧縮率を上げるために、直交変換後の情報を大幅に削減
すると、ブロック状の歪みが現れやすくなる。特に、符
号化の転送レートが低い符号化方式では、圧縮率を上げ
ることは必須であるため、この結果、ブロック状の歪み
の発生は避け難いものとなる。
【0005】そこで、ITU−TH.263規格やMP
EG4規格に従った符号化方式では、上述のブロック状
の歪みの発生を軽減するために、オーバーラップ動き補
償予測を用いるようにしている。
【0006】このオーバーラップ動き補償予測について
具体的に説明すると、まず、図19に示すように、画像
901において、着目するブロック902の位置情報
(x0,y0 )を、参照画像904上で動きベクトル9
03分だけずらした位置のブロック905の画像データ
(画素値)を、着目するブロック902の予測画像デー
タ(予測値)とするのが、通常の動き補償予測である。
【0007】ここで、隣接する2つのブロック間で動き
ベクトルが同一であれば、該隣接する2つのブロックの
予測画像データは、隣接部において連続性があり、予測
画像データ上ではブロック状の歪みが生じることはな
い。しかしながら、隣接する2つのブロック間で動きベ
クトルに若干の差が生じている場合、その動きベクトル
の差分が、該隣接する2つのブロック間の予測画像デー
タの隣接部における不連続性(ブロック状の歪み)とな
って現れてしまう。
【0008】そこで、オーバーラップ動き補償予測で
は、通常の動き補償予測が、着目するブロックの動きベ
クトルのみを用いて予測を行うのに対して、隣接するブ
ロックの動きベクトルが反映するように予測を行うこと
で、上述の不連続性の発生を軽減するようになされてい
る。すなわち、着目する1つのブロックの動きベクトル
を用いて得られた予測画像データ(1ブロック分)と、
それに隣接する4つのブロックの動きベクトルを用いて
得られた予測画像データ(1ブロック分×4)との各々
に重み係数を掛け、それらを加算したデータを最終的な
予測画像データ(予測値)とする。
【0009】さらに具体的には、着目する1つのブロッ
クの動きベクトルを用いて得られた予測画像データに
は、図20に示す重み係数マトリクス(着目ブロックの
動きベクトルに対して定義された重み係数マトリクス)
H2を掛け合わせ、その上に隣接するブロックの動きベ
クトルを用いて得られた予測画像データには、図21に
示す重み係数マトリクス(上に隣接するブロックの動き
ベクトルに対して定義された重み係数マトリクス)H3
を掛け合わせ、その下に隣接するブロックの動きベクト
ルを用いて得られた予測画像データには、図22に示す
重み係数マトリクス(下に隣接するブロックの動きベク
トルに対して定義された重み係数マトリクス)H4を掛
け合わせ、その左に隣接するブロックの動きベクトルを
用いて得られた予測画像データには、図23に示す重み
係数マトリクス(左に隣接するブロックの動きベクトル
に対して定義された重み係数マトリクス)H5を掛け合
わせ、その右に隣接するブロックの動きベクトルを用い
て得られた予測画像データには、図24に示す重み係数
マトリクス(右に隣接するブロックの動きベクトルに対
して定義された重み係数マトリクス)H6を掛け合わ
せ、それらの結果を加算した後に、”4”を加算し、そ
の加算結果を”8”で除算し、その除算結果を、最終的
な予測値とする。
【0010】これは、最終的な予測値を”p(x,
y)”として、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) なる式(1)で表される。
【0011】この式(1)において、”(x,y)”
は、画像全体における着目するブロック中の各画素の位
置を表す座標であり、”(i,j)”は、着目するブロ
ックの左上の座標を(x0 ,y0 )としたとき、”i=
x−x0 ”、”j=y−y0 ”という値をとる。ま
た、”q(x,y)”は、着目するブロックの動きベク
トルを用いて得られた予測画像データであり、”u
(x,y)”は、その上に隣接するブロックの動きベク
トルを用いて得られた予測画像データであり、”d
(x,y)”は、その下に隣接するブロックの動きベク
トルを用いて得られた予測画像データであり、”l
(x,y)”は、その左に隣接するブロックの動きベク
トルを用いて得られた予測画像データであり、”r
(x,y)”は、その右に隣接するブロックの動きベク
トルを用いて得られた予測画像データである。また、”
H2(i,j)”、”H3(i,j)”、”H4(i,
j)”、”H5(i,j)”、”H6(i,j)”は、
上記図20〜図24に示した重み係数マトリクスであ
り、”0≦i,j≦7”においてのみ値が定義されてい
る。
【0012】そして、各々の動きベクトルを”(MV1
x ,MV1y )”、”(MV2x ,MV2y )”、”
(MV3x ,MV3y )”、”(MV4x ,MV
y )”、”(MV5x ,MV5y )”とし、予測の元
となる参照画像を”ref(i,j)”とすると、各々
の予測画像データは、 q(x,y) = ref(x+MV1x,y+MV1y) u(x,y) = ref(x+MV2x,y+MV2y) d(x,y) = ref(x+MV3x,y+MV3y) l(x,y) = ref(x+MV4x,y+MV4y) r(x,y) = ref(x+MV5x,y+MV5y) で表される。
【0013】
【発明が解決しようとする課題】しかしながら、上記式
(1)に示されるように、オーバーラップ動き補償予測
を行うためには、多くの画像データを参照し、多くの演
算を行う必要があり、多くの処理時間を要する、という
問題があった。また、ハードウェア規模が大きくなる、
という問題があった。
【0014】そこで、本発明は、上記の欠点を除去する
ために成されたもので、処理速度の高速化を図ることが
でき、ハードウェア規模の縮小化を図ることができる動
き補償処理方法、及びそれを実施するための処理ステッ
プをコンピュータが読出可能に格納した記憶媒体を提供
することを目的とする。また、本発明は、処理速度の高
速化を図り、ハードウェア規模の縮小化を図った動き補
償処理回路、及びそれを備えた符号化装置を提供するこ
とを目的とする。
【0015】
【課題を解決するための手段】斯かる目的下において、
第1の発明は、動画像情報を複数ブロックから構成され
るマクロブロック単位で動き補償予測を行う際、着目ブ
ロックの動きベクトル情報を用いて予測して得られた予
測画像情報と、該着目ブロックの隣接ブロックの動きベ
クトル情報を用いて予測して得られた予測画像情報とか
ら、最終的な予測画像情報を生成するための動き補償処
理方法であって、上記マクロブロック内における着目ブ
ロックの存在位置を判別する判別ステップと、上記判別
ステップの判別結果に基づいて、上記着目ブロック及び
隣接ブロックの動きベクトル情報に対して予め定義され
た重み係数マトリクスと、該予め定義された重み係数マ
トリクスから生成された新たな重み係数マトリスクとの
少なくとも何れかを用いて、各予測画像情報に所定の処
理を行って上記最終的な予測画像情報を取得する情報取
得ステップとを含むことを特徴とする。
【0016】第2の発明は、上記第1の発明において、
上記情報取得ステップは、上記隣接ブロックの動きベク
トル情報を用いて予測して得られた予測画像情報のう
ち、上記判別ステップの判別結果に基づいた所定の予測
画像情報を、上記着目ブロックの動きベクトル情報を用
いて予測して得られた予測画像情報に置き換える情報置
換ステップと、上記着目ブロックの動きベクトル情報を
用いて予測して得られた予測画像情報に対しては上記新
たな重み係数マトリスクを用いた所定の処理を行う処理
ステップとを含むことを特徴とする。
【0017】第3の発明は、上記第2の発明において、
上記新たな重み係数マトリクスは、上記情報置換ステッ
プで置換対象となる予測画像情報に対応する重み係数マ
トリクスと、上記着目ブロックの動きベクトル情報を用
いて予測して得られた予測画像情報に対応する重み係数
マトリクスとから生成されることを特徴とする。
【0018】第4の発明は、動画像情報をブロック単位
で動き補償予測を行う際、着目ブロックの動きベクトル
情報を用いて予測して得られた予測画像情報と、該着目
ブロックの隣接ブロックの動きベクトル情報を用いて予
測して得られた予測画像情報とから、最終的な予測画像
情報を生成するための動き補償処理方法であって、上記
隣接ブロックの動きベクトル情報を用いて予測して得ら
れた予測画像情報から新たな画像情報を得て入力する入
力ステップと、上記入力ステップで得られた画像情報に
対して、上記隣接ブロックの動きベクトル情報に対して
予め定義された重み係数マトリクスに基づいて生成され
たシフト量マトリクスに従ったシフト処理を行うシフト
ステップとを含むことを特徴とする。
【0019】第5の発明は、上記第4の発明において、
上記シフトステップは、上記シフト量マトリクス内で処
理対象となる要素の存在位置を判別する判別ステップ
と、上記判別ステップに基づいて、上記要素に従った所
定の処理を行う第1の処理ステップと、上記判別ステッ
プに基づいて、上記要素は用いない所定の処理を行う第
2の処理ステップとを含むことを特徴とする。
【0020】第6の発明は、動画像情報をブロック単位
で動き補償予測を行う際、着目ブロックの動きベクトル
情報を用いて予測して得られた予測画像情報と、該着目
ブロックの隣接ブロックの動きベクトル情報を用いて予
測して得られた予測画像情報とから、最終的な予測画像
情報を生成して出力するための動き補償処理方法であっ
て、上記着目ブロック及び隣接ブロックの動きベクトル
情報に対して予め定義された重み係数マトリクスと、該
予め定義された重み係数マトリクスから生成された新た
な重み係数マトリスクと用いて、各予測画像情報に対し
て所定の処理を行って上記最終的な予測画像情報を取得
することを特徴とする。
【0021】第7の発明は、上記第6の発明において、
上記新たな重み係数マトリクスは、複数の上記予め定義
された重み係数マトリクスから生成されることを特徴と
する。
【0022】第8の発明は、動画像情報をブロック単位
で動き補償予測を行う際、着目ブロックの動きベクトル
情報を用いて予測して得られた予測画像情報と、該着目
ブロックの隣接ブロックの動きベクトル情報を用いて予
測して得られた予測画像情報とから、最終的な予測画像
情報を生成するための動き補償処理方法であって、上記
着目ブロック及び隣接ブロックの動きベクトル情報に対
して予め定義された重み係数マトリクスのうち、所定の
重み係数マトリクスをシフト量マトリクスに置き換え、
各予測画像情報に対して該シフト量マトリクスに従った
シフト処理を行って上記最終的な予測画像情報を取得す
ることを特徴とする。
【0023】第9の発明は、上記第8の発明において、
上記シフト量マトリクスの所定の行若しくは列について
は、その要素に基づいてシフト処理を行い、他の行若し
くは列については、その要素を用いずに所定の処理を行
って、上記最終的な予測画像情報を取得することを特徴
とする。
【0024】第10の発明は、動画像情報を複数ブロッ
クから構成されるマクロブロック単位で動き補償予測を
行う際、着目ブロックの動きベクトル情報を用いて予測
して得られた予測画像情報と、該着目ブロックの隣接ブ
ロックの動きベクトル情報を用いて予測して得られた予
測画像情報とから、最終的な予測画像情報を生成して出
力する動き補償処理回路であって、上記マクロブロック
内における着目ブロックの存在位置を判別する判別手段
と、上記判別手段の判別結果に基づいて、上記着目ブロ
ック及び隣接ブロックの動きベクトル情報に対して予め
定義された重み係数マトリクスと、該予め定義された重
み係数マトリクスから生成された新たな重み係数マトリ
スクとの少なくとも何れかを用いて、各予測画像情報に
所定の処理を行って上記最終的な予測画像情報を取得す
る情報取得手段とを備えることを特徴とする。
【0025】第11の発明は、上記第10の発明におい
て、上記情報取得手段は、上記隣接ブロックの動きベク
トル情報を用いて予測して得られた予測画像情報のう
ち、上記判別ステップの判別結果に基づいた所定の予測
画像情報を、上記着目ブロックの動きベクトル情報を用
いて予測して得られた予測画像情報に置き換える情報置
換手段と、上記着目ブロックの動きベクトル情報を用い
て予測して得られた予測画像情報に対しては上記新たな
重み係数マトリスクを用いた所定の処理を行う処理手段
とを含むことを特徴とする。
【0026】第12の発明は、上記第11の発明におい
て、上記新たな重み係数マトリクスは、上記情報置換ス
テップで置換対象となる予測画像情報に対応する重み係
数マトリクスと、上記着目ブロックの動きベクトル情報
を用いて予測して得られた予測画像情報に対応する重み
係数マトリクスとから生成されることを特徴とする。
【0027】第13の発明は、動画像情報をブロック単
位で動き補償予測を行う際、着目ブロックの動きベクト
ル情報を用いて予測して得られた予測画像情報と、該着
目ブロックの隣接ブロックの動きベクトル情報を用いて
予測して得られた予測画像情報とから、最終的な予測画
像情報を生成して出力する動き補償処理回路であって、
上記隣接ブロックの動きベクトル情報を用いて予測して
得られた予測画像情報から新たな画像情報を得て入力す
る入力手段と、上記入力手段で得られた画像情報に対し
て、上記隣接ブロックの動きベクトル情報に対して予め
定義された重み係数マトリクスに基づいて生成されたシ
フト量マトリクスに従ったシフト処理を行うシフト手段
とを備えることを特徴とする。
【0028】第14の発明は、上記第13の発明におい
て、上記シフト手段は、上記シフト量マトリクス内で処
理対象となる要素の存在位置を判別する判別手段と、上
記判別手段に基づいて、上記要素に従った所定の処理を
行う第1の処理手段と、上記判別手段に基づいて、上記
要素は用いない所定の処理を行う第2の処理手段とを含
むことを特徴とする。
【0029】第15の発明は、請求項10〜14の何れ
かに記載の動き補償処理回路を用いて、動画像情報を符
号化する符号化装置であることを特徴とする。
【0030】第16の発明は、請求項1〜9の何れかに
記載の動き補償処理方法のステップを、コンピュータが
読出可能に格納した記憶媒体であることを特徴とする。
【0031】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。
【0032】(第1の実施の形態)
【0033】本発明は、例えば、図1に示すような動き
補償処理回路100に適用される。この動き補償処理回
路100は、動画像情報をブロック化して符号化する符
号化装置に用いられ、該ブロック単位で動きベクトルを
用いた動き補償予測を行うことで生じる隣接ブロック間
の不連続性の歪みを軽減するオーバーラップ動き補償予
測の処理回路である。
【0034】すなわち、動き補償処理回路100は、上
述した式(1)の演算結果p(x,y)と同じ演算結果
を得るものであり、上記図1に示すように、先の符号化
処理で使用された動きベクトルが記憶されるメモリ11
1と、メモリ111に記憶された動きベクトル以外の必
要な動きベクトルを得る動きベクトル演算部112と、
局部復号器(図示せず)で直前に復号された1フレーム
の画像を保持する画像記憶部101と、画像記憶部10
1からの予測画像データから最終的な予測画像データを
得る演算処理部102と、上記図20〜図24の重み係
数マトリクスH2〜H6が予め記憶された記憶部103
と、重み係数マトリクスH2〜H6に基づいて生成され
た新たな重み係数マトリクスH7が記憶される記憶部1
04とを備えており、記憶部103及び104は各々、
演算処理部102に対して上記マトリクスのデータも出
力するようになされている。また、このような動き補償
処理回路100は、CPU105から全体動作が制御さ
れるようになされている。具体的には、プログラムメモ
リ106には、動き補償処理回路100の動作制御(特
に、オーバーラップ動き補償予測の処理のための動作制
御)のための処理プログラムが予め記憶されており、こ
の処理プログラムがCPU105により読み出され実行
されることで、後述するような動き補償処理回路100
の動作が実施される。
【0035】まず、動き補償処理回路100で採用され
ているオーバーラップ動き補償予測について説明する。
【0036】ITU−TH.263規格やMPEG4規
格では、図2に示すように、ブロック化された動画像情
報において、8×8のブロック(斜線部分)という単位
の上に16×16のマクロブロックと呼ばれる単位があ
る。したがって、このマクロブロックは、8×8の4つ
のブロックから構成されることになる。そして、画像の
符号化は、画像の左上からラスター順序で、マクロブロ
ック単位に行われる。さらに、マクロブロック内の4つ
のブロックは、図3に示すように、a→b→c→dの順
序で処理される。したがって、動き補償処理回路100
は、8×8のブロック単位で、a→b→c→dの順序で
オーバーラップ動き補償予測の処理を進める。このと
き、4つのブロックが各々別の動きベクトルを持つモー
ドと、4つのブロック全体で1つの動きベクトルを持つ
モードとの何れかのモードが設定されるが、ここでは、
各ブロックが各々別の動きベクトルを持つモードに設定
されているものとする。
【0037】また、従来のオーバーラップ動き補償予測
は、上述したように、式(1)で表される。この式
(1)により、着目ブロックの最終的な予測値(予測画
像データ)p(x,y)を得るためには、その上下左右
に隣接するブロックの動きベクトル(MV2x ,MV2
y )、(MV3x ,MV3y )、(MV4x ,MV
y )、及び(MV5x ,MV5y )が必要となる。
【0038】具体的には、例えば、図4に示すように、
ブロックaを着目ブロックとして、このブロックaの最
終的な予測画像データp(x,y)を得る場合、隣接す
る上下左右の4つのブロックa’、c、a”、及びbの
動きベクトルが必要となる。それらの4つのブロック
a’、c、a”、及びbのうち、上及び左に隣接するブ
ロックa’及びa”については、上述のラスター順序で
のマクロブロック単位の符号化処理により、既に処理済
みであるので(上記図4では、処理済みのマクロブロッ
クを斜線で示す)、該符号化処理で使用された動きベク
トルを使用すればよい(例えば、メモリ等に格納してお
き、必要となったときに読み出して使用する)。ところ
が、ブロックb及びcについては、処理済みでないた
め、これらのブロックの動きベクトルの演算を先行して
行う必要がある。
【0039】また、他のブロックb、c、及びdについ
ても同様に、右側に隣接するマクロブロックの左2つの
ブロックb”及びd”と、下に隣接するマクロブロック
の上2つのブロックc’及びd’の動きベクトルの演算
を先行して行う必要がある。しかしながら、ブロックc
及びdについては、その下に隣接するマクロブロックの
上2つのブロックc’及びd’は、かなり後に処理され
るものであるため、該ブロックの動きベクトルを前もっ
て演算することは、非常に困難である。
【0040】このため、動き補償処理回路100では、
ブロックa及びbについては、そのブロック(着目ブロ
ック)の動きベクトルと、その上下左右のブロックの動
きベクトルを用いて処理を行うが、ブロックc及びdに
ついては、その下に隣接するブロックc’及びd’の動
きベクトルを、着目ブロックの動きベクトルに置き換え
て処理を行う。
【0041】すなわち、ブロックc及びdについては、
その下に隣接するブロックの動きベクトル(MV3x
MV3y )を、着目ブロックの動きベクトル(MV
x ,MV1y )に置き換える。したがって、下に隣接
するブロックの動きベクトルから得られる予測画像デー
タd(x,y)は、 d(x,y) = ref(x+MV3x,y+MV3y) = ref(x+MV1x,y+MV1y) = q(x,y) で表され、この結果、上記式(1)は、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+q(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(2) なる式(2)で表される。さらに、予測画像データq
(x,y)(着目ブロックの動きベクトルを用いて得ら
れた予測画像データ)に対しては、新たに作成した図5
に示すような重み係数マトリクスH7を掛け合わせるよ
うにする。この重み係数マトリクスH7は、上記図20
の重み係数マトリクスH2に対して上記図22の重み係
数マトリクスH4を加算して作成したものである(H7
(i,j)=H2(i,j)+H4(i,j) )。したがって、上記式(2)
は、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+q(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(2) = (q(x,y)(H2(i,j)+H4(i,j)) +u(x,y)H3(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 = (q(x,y)H7(i,j) +u(x,y)H3(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 ・・・(3) なる式(3)で表される。
【0042】つぎに、動き補償処理回路100の動作に
ついて説明する。
【0043】動き補償処理回路100において、プログ
ラムメモリ106には、例えば、図6に示すようなフロ
ーチャートに従った処理プログラムが予め格納されてお
り、この処理プログラムがCPU105により読み出さ
れ実行されることで、動き補償処理回路100は次のよ
うに動作する。
【0044】先ず、CPU105は、上述した処理シー
ケンス(a→b→c→d)から、着目ブロックがブロッ
クa〜dの何れのブロックに対応するものであるかを判
別する(ステップS201)。
【0045】ステップS201の判別の結果、着目ブロ
ックがブロックa又はbに対応するものであった場合、
画像記憶部101は、メモリ111に記憶されている動
きベクトルと、動きベクトル演算部112で得られた動
きベクトルとにより(ステップS202)、予測画像デ
ータq(x,y)、u(x,y)、d(x,y)、l
(x,y)、及びr(x,y)を形成し、それらを演算
処理部102に供給する(ステップS203)。具体的
には、メモリ111には、先の符号化処理で使用された
動きベクトルが記憶されている。また、動きベクトル演
算部112では、メモリ111には記憶されていない、
オーバーラップ動き補償予測に必要な動きベクトルが得
られている。例えば、着目ブロックをブロックaとした
場合、上及び左に隣接するブロックa’及びa”の動き
ベクトル(MV2x ,MV2y )及び(MV4x ,MV
y )がメモリ111に記憶され、着目ブロックの動き
ベクトル(MV1x ,MV1y )と共に、下及び右に隣
接するブロックb及びcの動きベクトル(MV3x,M
V3y )及び(MV5x ,MV5y )が動きベクトル演
算部112により演算される。したがって、入力処理部
201は、これらの動きベクトルを用いて、 q(x,y) = ref(x+MV1x,y+MV1y) u(x,y) = ref(x+MV2x,y+MV2y) d(x,y) = ref(x+MV3x,y+MV3y) l(x,y) = ref(x+MV4x,y+MV4y) r(x,y) = ref(x+MV5x,y+MV5y) で表される上述した演算を行うことで、予測画像データ
q(x,y)、u(x,y)、d(x,y)、l(x,
y)、及びr(x,y)を得る。
【0046】演算処理部102は、この場合、記憶部1
03に記憶されている重み係数マトリクスH2〜H6を
読み出す(ステップS204)。そして、演算処理部1
02は、ステップS204で読み出した重み係数マトリ
クスH2〜H6と、画像記憶部101からの予測画像デ
ータq(x,y)、u(x,y)、d(x,y)、l
(x,y)、及びr(x,y)とを用いて、上述の式
(1)に従った演算処理を行うことで(ステップS20
5)、最終的な予測画像データp(x,y)を得て、そ
れを出力する(ステップS211)。
【0047】一方、ステップS201の判別の結果、着
目ブロックがブロックc又はdに対応するものであった
場合、画像記憶部101は、メモリ111に記憶されて
いる動きベクトルと、動きベクトル演算部112で得ら
れた動きベクトルとにより(ステップS206)、予測
画像データq(x,y)、u(x,y)、l(x,
y)、及びr(x,y)を得て、それらを演算処理部1
02に供給する(ステップS207)。具体的には、上
述の着目ブロックがブロックa又はbに対応するもので
あった場合と同様に、メモリ111には、先の符号化処
理で使用された動きベクトルが記憶されている。また、
動きベクトル演算部112では、メモリ111には記憶
されていない、オーバーラップ動き補償予測に必要な動
きベクトルが得られている。ところが、この場合には、
下に隣接するブロックの動きベクトルは、着目ブロック
の動きベクトルに置き換えるため、これについての演算
は、動きベクトル演算部112では行われない。例え
ば、着目ブロックをブロックcとした場合、上及び左に
隣接するブロックa及びc”の動きベクトル(MV
x ,MV2y )及び(MV4x ,MV4y )がメモリ
111に記憶され、着目ブロックの動きベクトル(MV
x ,MV1y )と共に、右に隣接するブロックdの動
きベクトル(MV5x ,MV5y )が動きベクトル演算
部112により演算される。したがって、入力処理部2
01は、これらの動きベクトルを用いて、 q(x,y) = ref(x+MV1x,y+MV1y) u(x,y) = ref(x+MV2x,y+MV2y) l(x,y) = ref(x+MV4x,y+MV4y) r(x,y) = ref(x+MV5x,y+MV5y) なる演算を行うことで、予測画像データq(x,y)、
u(x,y)、l(x,y)、及びr(x,y)を得
る。
【0048】演算処理部102は、この場合、記憶部1
03に記憶されている重み係数マトリクスH2〜H6の
うち、重み係数マトリクスH3、H5、及びH6を読み
出す(ステップS208)と共に、記憶部104に記憶
されている重み係数マトリクスH7を読み出す(ステッ
プS209)。この重み係数マトリクスH7について
は、例えば、CPU105により予め、上記図20の重
み係数マトリクスH2に対して上記図22の重み係数マ
トリクスH4を加算して作成され記憶されたものであ
る。そして、演算処理部102は、ステップS208及
びS209で読み出した重み係数マトリクスH3、H
5、H6、及びH7と、画像記憶部101からの予測画
像データq(x,y)、u(x,y)、l(x,y)、
及びr(x,y)とを用いて、上述の式(3)に従った
演算処理を行うことで(ステップS210)、最終的な
予測画像データp(x,y)を得て、それを出力する
(ステップS211)。
【0049】上述のように、本実施の形態では、ブロッ
クc及びdについては、上記式(1)において、そのブ
ロック(着目ブロック)の下に隣接するブロックの動き
ベクトルを用いて得られた予測画像データd(x,y)
を、着目ブロックの動きベクトルを用いて得られた予測
画像データq(x,y)に置き換えて、上記図20の重
み係数マトリクスH2及び上記図22の重み係数マトリ
クスH4から新たに作成した重み係数マトリクスH7
を、予測画像データq(x,y)に掛け合わせるように
した。このように構成したことで、ブロックc及びdに
対するオーバーラップ動き補償予測における加算処理回
数は、ブロックa及びbに対して3/4となり、全体的
な加算回数が減少することになり、この結果、処理速度
の高速化を図ることができ、ハードウェア規模の縮小化
を図ることができる。
【0050】(第2の実施の形態)
【0051】本実施の形態における動き補償処理回路
は、上述の第1の実施の形態における動き補償処理回路
100(上記図1)と同様の構成としているが、採用さ
れているオーバーラップ動き補償予測が異なる。以下、
本実施の形態における動き補償処理回路を、上記図1の
動き補償処理回路100として、第1の実施の形態と異
なる点についてのみ具体的に説明する。
【0052】本実施の形態では、例えば、CPU105
の判別処理により、着目ブロックが画像の上部境界に存
在するブロックであると判別された場合、その上には隣
接ブロックが存在しないため、該隣接ブロックの動きベ
クトルを、着目ブロックの動きベクトルに置き換える。
【0053】すなわち、上に隣接するブロックの動きベ
クトル(MV2x ,MV2y )を、着目ブロックの動き
ベクトル(MV1x ,MV1y )に置き換える。これに
より、上に隣接するブロックの動きベクトルから得られ
る予測画像データu(x,y)は、 u(x,y) = ref(x+MV2x,y+MV2y) = ref(x+MV1x,y+MV1y) = q(x,y) で表される。
【0054】したがって、画像記憶部101では、 q(x,y) = ref(x+MV1x,y+MV1y) d(x,y) = ref(x+MV3x,y+MV3y) l(x,y) = ref(x+MV4x,y+MV4y) r(x,y) = ref(x+MV5x,y+MV5y) なる演算が行われ、これらの予測画像データq(x,
y)、d(x,y)、l(x,y)、及びr(x,y)
が演算処理部102に供給される。
【0055】演算処理部102は、画像記憶部101か
らの予測画像データq(x,y)、d(x,y)、l
(x,y)、及びr(x,y)を用いて、最終的な予測
画像データp(x,y)を得るが、着目ブロックの動き
ベクトルを用いて得られた予測画像データq(x,y)
に対しては、図7に示すような重み係数マトリクスH8
を用いる。この重み係数マトリクスH8は、例えば、C
PU105により予め、上記図20の重み係数マトリク
スH2に対して上記図21の重み係数マトリクスH3を
加算して作成され、記憶部104に記憶されたものであ
る(H8(i,j)=H2(i,j)+H3(i,j) )。したがって、演算処
理部102は、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)H2(i,j)+ q(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 = (q(x,y)(H2(i,j)+H3(i,j))+ d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 = (q(x,y)H8(i,j)+ d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(4) なる式(4)で表される演算処理を行って、最終的な予
測画像データp(x,y)を得て出力する。
【0056】上述のように、本実施の形態では、着目ブ
ロックが画像の上部境界に存在するものであった場合に
は、上記式(1)において、そのブロック(着目ブロッ
ク)の上に隣接するブロックの動きベクトルを用いて得
られた予測画像データu(x,y)を、着目ブロックの
動きベクトルを用いて得られた予測画像データq(x,
y)に置き換えて、上記図20の重み係数マトリクスH
2及び上記図21の重み係数マトリクスH3から新たに
作成した重み係数マトリクスH8を、予測画像データq
(x,y)に掛け合わせるようにした。このように構成
したことで、画像の上部境界に存在するブロックに対す
るオーバーラップ動き補償予測における加算処理回数
を、他のブロックに対して減少させることができるた
め、この結果、処理速度の高速化を図ることができ、ハ
ードウェア規模の縮小化を図ることができる。また、画
像の上部境界以外のブロックについては、上述の第1の
実施の形態における構成を適用することで、処理速度の
さらなる高速化、ハードウェア規模のさらなる縮小化を
図ることができる。
【0057】(第3の実施の形態)
【0058】本実施の形態における動き補償処理回路
は、上述の第1の実施の形態における動き補償処理回路
100(上記図1)と同様の構成としているが、採用さ
れているオーバーラップ動き補償予測が異なる。以下、
本実施の形態における動き補償処理回路を、上記図1の
動き補償処理回路100として、第1の実施の形態と異
なる点についてのみ具体的に説明する。
【0059】本実施の形態では、例えば、画像記憶部1
01の判別部により、着目ブロックが画像の左境界に存
在するブロックであると判別された場合、その左には隣
接ブロックが存在しないため、該隣接ブロックの動きベ
クトルを、着目ブロックのベクトルに置き換える。ま
た、着目ブロックが画像の右境界に存在するブロックで
あると判別された場合、その右には隣接ブロックが存在
しないため、該隣接ブロックの動きベクトルを、着目ブ
ロックのベクトルに置き換える。
【0060】すなわち、着目ブロックが画像の左境界に
存在するブロックの場合、左に隣接するブロックの動き
ベクトル(MV4x ,MV4y )を、着目ブロックの動
きベクトル(MV1x ,MV1y )に置き換える。これ
により、左に隣接するブロックの動きベクトルから得ら
れる予測画像データl(x,y)は、 l(x,y) = ref(x+MV4x,y+MV4y) = ref(x+MV1x,y+MV1y) = q(x,y) で表される。また、着目ブロックが画像の右境界に存在
するブロックの場合、右に隣接するブロックの動きベク
トル(MV5x ,MV5y )を、着目ブロックの動きベ
クトル(MV1x ,MV1y )に置き換える。これによ
り、右に隣接するブロックの動きベクトルから得られる
予測画像データr(x,y)は、 r(x,y) = ref(x+MV5x,y+MV5y) = ref(x+MV1x,y+MV1y) = q(x,y) で表される。
【0061】したがって、画像記憶部101では、着目
ブロックが画像の左境界に存在するブロックの場合、 q(x,y) = ref(x+MV1x,y+MV1y) u(x,y) = ref(x+MV2x,y+MV2y) d(x,y) = ref(x+MV3x,y+MV3y) r(x,y) = ref(x+MV5x,y+MV5y) なる演算が行われ、これらの予測画像データq(x,
y)、u(x,y)、d(x,y)、及びr(x,y)
が演算処理部102に供給される。また、着目ブロック
が画像の右境界に存在するブロックの場合、 q(x,y) = ref(x+MV1x,y+MV1y) u(x,y) = ref(x+MV2x,y+MV2y) d(x,y) = ref(x+MV3x,y+MV3y) l(x,y) = ref(x+MV4x,y+MV4y) なる演算が行われ、これらの予測画像データq(x,
y)、u(x,y)、d(x,y)、及びl(x,y)
が演算処理部102に供給される。
【0062】演算処理部102は、着目ブロックが画像
の左境界に存在するブロックであるか、右境界に存在す
るブロックであるかによって、次のような演算処理を行
う。
【0063】(着目ブロックが画像の左境界に存在する
ブロックである場合)画像記憶部101からの予測画像
データq(x,y)、u(x,y)、d(x,y)、及
びr(x,y)を用いて、最終的な予測画像データp
(x,y)を得るが、着目ブロックがマクロブロック内
の上部に存在する場合には、図8に示すような重み係数
マトリクスH9と、記憶部103に記憶されている重み
係数マトリクスH3、H4、及びH6とを用い、下部に
存在する場合には、図9に示すような重み係数マトリク
スH10と、記憶部103に記憶されている重み係数マ
トリクスH3及びH6とを用いる。ここで、重み係数マ
トリクスH9及びH10は、例えば、CPU105によ
り予め作成され、記憶部104に記憶されたものであ
る。具体的には、重み係数マトリクスH9は、上記図2
0の重み係数マトリクスH2に対して上記図23の重み
係数マトリクスH5を加算して作成され、重み係数マト
リクスH10は、上記図20の重み係数マトリクスH2
及び上記図22の重み係数マトリクスH4から生成され
た上記図5の重み係数マトリクスH7に対して上記図2
3の重み係数マトリクスH5を加算して作成され、記憶
部104に記憶されたものである(H9(i,j)=H2(i,j)+H5
(i,j) ,H10(i,j)=H7(i,j)+H5(i,j) )。したがって、着
目ブロックがマクロブロック内の上部に存在する場合、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+q(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 = (q(x,y)(H2(i,j)+H5(i,j))+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+r(x,y)H6(i,j)+4)/8 = (q(x,y)H9(i,j) u(x,y)H3(i,j)+d(x,y)H4(i,j)+r(x,y)H6(i,j)+4)/8 ・・・(5) なる式(5)で表される演算処理を行って、最終的な予
測画像データp(x,y)を得て出力する。また、着目
ブロックがマクロブロック内の上部に存在する場合、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)(H2(i,j)+H3(i,j))+ d(x,y)H4(i,j)+q(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 = (q(x,y)H7(i,j)+ u(x,y)H3(i,j)+q(x,y)H5(i,j)+r(x,y)H6(i,j)+4)/8 = (q(x,y)(H7(i,j)+H5(i,j))+ u(x,y)H3(i,j)+r(x,y)H6(i,j)+4)/8 = (q(x,y)H10(i,j) u(x,y)H3(i,j)+r(x,y)H6(i,j)+4)/8 ・・・(6) なる式(6)で表される演算処理を行って、最終的な予
測画像データp(x,y)を得て出力する。
【0064】(着目ブロックが画像の右境界に存在する
ブロックである場合)画像記憶部101からの予測画像
データq(x,y)、u(x,y)、d(x,y)、及
びl(x,y)を用いて、最終的な予測画像データp
(x,y)を得るが、着目ブロックがマクロブロック内
の上部に存在する場合には、図10に示すような重み係
数マトリクスH11と、記憶部103に記憶されている
重み係数マトリクスH3、H4、及びH5とを用い、下
部に存在する場合には、図11に示すような重み係数マ
トリクスH12と、記憶部103に記憶されている重み
係数マトリクスH3及びH5とを用いる。ここで、重み
係数マトリクスH11及びH12は、例えば、CPU1
05により予め作成され、記憶部104に記憶されたも
のである。具体的には、重み係数マトリクスH11は、
上記図20の重み係数マトリクスH2に対して上記図2
4の重み係数マトリクスH6を加算して作成され、重み
係数マトリクスH12は、上述の重み係数マトリクスH
7に対して上記図24の重み係数マトリクスH6を加算
して作成され、記憶部104に記憶されたものである
(H11(i,j)=H2(i,j)+H6(i,j) ,H12(i,j)=H7(i,j)+H6(i,
j))。したがって、着目ブロックがマクロブロック内の
上部に存在する場合、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+q(x,y)H6(i,j)+ 4)/8 = (q(x,y)(H2(i,j)+H6(i,j))+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+4)/8 = (q(x,y)H11(i,j) u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+4)/8 ・・・(7) なる式(7)で表される演算処理を行って、最終的な予
測画像データp(x,y)を得て出力する。また、着目
ブロックがマクロブロック内の上部に存在する場合、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+q(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 = (q(x,y)(H2(i,j)+H4(i,j))+ u(x,y)H3(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 = (q(x,y)H7(i,j)+ u(x,y)H3(i,j)+l(x,y)H5(i,j)+q(x,y)H6(i,j)+4)/8 = (q(x,y)(H7(i,j)+H6(i,j))+ u(x,y)H3(i,j)+l(x,y)H5(i,j)+4)/8 = (q(x,y)H12(i,j) u(x,y)H3(i,j)+l(x,y)H5(i,j)+4)/8 ・・・(8) なる式(8)で表される演算処理を行って、最終的な予
測画像データp(x,y)を得て出力する。
【0065】上述のように、本実施の形態では、着目ブ
ロックが画像の右又は左境界に存在するものであった場
合には、上記式(1)において、そのブロック(着目ブ
ロック)の右又は左に隣接するブロックの動きベクトル
を用いて得られた予測画像データr(x,y)又はl
(x,y)を、着目ブロックの動きベクトルを用いて得
られた予測画像データq(x,y)に置き換えて、上記
図20〜上記図24の重み係数マトリクスH2〜H6か
ら新たに作成した重み係数マトリクスH9〜12を、予
測画像データr(x,y)又はl(x,y)に掛け合わ
せるようにした。このように構成したことで、画像の右
及び左境界に存在するブロックに対するオーバーラップ
動き補償予測における加算処理回数を、他のブロックに
対して減少させることができるため、この結果、処理速
度の高速化を図ることができ、ハードウェア規模の縮小
化を図ることができる。また、画像の右及び左境界以外
のブロックについては、上述の第1及び第2の実施の形
態における構成を適用することで、処理速度のさらなる
高速化、ハードウェア規模のさらなる縮小化を図ること
ができる。
【0066】(第4の実施の形態)
【0067】本発明は、例えば、図12に示すような動
き補償処理回路200に適用される。この動き補償処理
回路200は、上記図1の動き補償処理回路100と同
様の構成としているが、上述したような重み係数マトリ
クスの代わりに、シフト量マトリスクスを用いて、オー
バーラップ動き補償予測を行う点で異なる。すなわち、
動き補償処理回路200は、重み係数の代わりにシフト
量の値をマトリクスとして持ち、該シフト量に基づいて
データのシフト処理を行うことで、上述した式(1)の
演算結果p(x,y)と同じ演算結果を得る。このた
め、演算処理部202は、乗算処理と共にシフト処理
(シフト処理部)を行うようになされている。
【0068】尚、上記図12の動き補償処理回路200
において、上記図1の動き補償処理回路100と同様に
動作する箇所には同じ符号を付し、その詳細な説明は省
略する。以下では、第1の実施の形態と異なる点につい
てのみ、具体的に説明する。
【0069】動き補償処理回路200は、上記図12に
示すように、メモリ111及び動きベクトル演算部11
2からの動きベクトルを用いて得た予測画像データq
(x,y)、ud(x,y)、及びlr(x,y)を入
力する画像記憶部201と、画像記憶部201からの予
測画像データから最終的な予測画像データp(x,y)
を得て出力する演算処理部202と、シフト量マトリク
スS3及びS5が記憶される記憶部204とを備えてい
る。そして、演算処理部202は、上述の記憶部103
に記憶された重み係数マトリクスと、記憶部204のシ
フト量マトリクスとを用いて、上記最終的な予測画像デ
ータp(x,y)を得るようになされている。
【0070】まず、動き補償処理回路200で採用され
ているオーバーラップ動き補償予測について説明する。
【0071】上述の式(1)において、上記図20〜図
24に示した重み係数マトリクスH2〜H6の要素の値
が”0”の部分については、演算を行う必要がない。
【0072】そこで、動き補償処理回路200では、上
記図20〜図24に示した重み係数マトリクスH2〜H
6のうち、重み係数マトリクスH3の有意(非零)係数
部分と重み係数マトリクスH4の有意(非零)係数部分
を合体して、1つの重み係数マトリクスを再定義する。
また、重み係数マトリクスH5の有意(非零)係数部分
と重み係数マトリクスH6の有意(非零)係数部分と合
体して、1つの重み係数マトリクスを再定義する。具体
的には、重み係数マトリクスH3の上半分と、重み係数
マトリクスH4の下半分との有意係数から、図13に示
すようなマトリクスG3を構成する。また、重み係数マ
トリクスH5の左半分と、重み係数マトリクスH6の右
半分の有意係数から、図14に示すようなマトリクスG
5を構成する。
【0073】さらに、上述したようにして得られる予測
画像データq(x,y)、u(x,y)、d(x,
y)、l(x,y)、及びr(x,y)についても、上
半分が予測画像データu(x,y)、下半分が予測画像
データd(x,y)で構成される画像データ(画像デー
タマトリクス)ud(x,y)を定義し、左半分が予測
画像データl(x,y)、右半分が予測画像データr
(x,y)で構成される画像データlr(x,y)を定
義する。
【0074】したがって、上記式(1)は、 p(x,y) = (q(x,y)H2(i,j)+ u(x,y)H3(i,j)+d(x,y)H4(i,j)+l(x,y)H5(i,j)+r(x,y)H6(i,j)+ 4)/8 ・・・(1) = (q(x,y)H2(i,j)+ ud(x,y)G3(i,j)+lr(x,y)G5(i,j)+4)/8 ・・・(9) なる式(9)で表される。
【0075】ここで、上記図13及び図14に示した重
み係数マトリクスG3及びG5において、その各要
素(”1”、”2”)は、2のべき乗(2n :n=”
0”、”1”)で表され、該”n”を要素とするマトリ
クスを生成すると、図15及び図16に示すようなマト
リクスS3及びS5が得られる。これは、該”n”を、
加算する前の画像データを上位へシフトするビット数と
して、これを要素とするマトリクスを示している。
【0076】したがって、マトリクスS3及びS5、す
なわちシフト量マトリクスS3及びS5を用いると、上
記式(9)は、 p(x,y) = (q(x,y)H2(i,j)+ ud(x,y)G3(i,j)+lr(x,y)G5(i,j)+4)/8 = (q(x,y)H2(i,j)+ (ud(x,y)<<S3(i,j))+(lr(x,y)<<S5(i,j))+4)/8 ・・・(10) なる式(10)で表される。尚、上記式(10)におい
て、”<<”は、ビットシフト演算を示す。
【0077】つぎに、動き補償処理回路200の動作に
ついて説明する。
【0078】動き補償処理回路200において、プログ
ラムメモリ106には、例えば、図17に示すようなフ
ローチャートに従った処理プログラムが予め格納されて
おり、この処理プログラムがCPU105により読み出
され実行されることで、動き補償処理回路200は次の
ように動作する。
【0079】先ず、画像記憶部201は、上記図1の画
像記憶部101と同様にして、メモリ111に記憶され
ている動きベクトルと、動きベクトル演算部112で得
られた動きベクトルとにより(ステップS301)、予
測画像データq(x,y)、u(x,y)、d(x,
y)、l(x,y)、及びr(x,y)を形成する(ス
テップS302)。
【0080】次に、画像記憶部201は、ステップS3
01で取得した予測画像データu(x,y)、d(x,
y)、l(x,y)、及びr(x,y)を用いて、予測
画像データu(x,y)と、予測画像データd(x,
y)とから構成される画像データ(画像データマトリク
ス)ud(x,y)と、予測画像データl(x,y)
と、予測画像データr(x,y)とから構成される画像
データ(画像データマトリクス)lr(x,y)とを生
成する。そして、画像記憶部201は、それらの画像デ
ータud(x,y)及びlr(x,y)と、ステップS
301で取得した予測画像データq(x,y)とを演算
処理部202に供給する(ステップS303)。
【0081】次に、演算処理部202は、記憶部103
に記憶されている重み係数マトリクスH2を読み出すと
共に(ステップS304)、記憶部204に記憶されて
いるシフト量マトリクスS3及びS5を読み出す(ステ
ップS305)。ここで、シフト量マトリクスS3及び
S5については、例えば、CPU105により予め、上
述したようにして、記憶部103に記憶されている重み
係数マトリクスH3〜H6に基づいて生成され記憶され
たものである。
【0082】次に、演算処理部202は、ステップS3
04及びS305で読み出した重み係数マトリクスH
2、シフト量マトリクスS3及びS5、画像記憶部20
1からの画像データud(x,y)、lr(x,y)、
及びq(x,y)を用いて、上述の式(10)に従った
演算処理を行う(ステップS306)。したがって、画
像データ画像データud(x,y)及びlr(x,y)
に対しては、演算処理部202のシフト処理部により、
シフト量マトリクスS3及びS5の値(シフト量)に基
づいたシフト演算が行われることになる。そして、演算
処理部202は、ステップS306の演算の結果得られ
た最終的な予測画像データp(x,y)を出力する(ス
テップS307)。
【0083】上述のように、本実施の形態では、上記式
(1)が重み係数マトリクスH2〜H6を用いるのに対
して、重み係数マトリクスH2〜H6のうちの重み係数
マトリクスH3〜H6の代わりにシフト量マトリクスS
3及びS5として持ち、シフト量マトリクスS3及びS
5の各要素(シフト量)に基づいたシフト演算を行うよ
うにした。このように構成したことで、上記式(1)と
式(10)に示されるように、従来に比べて2/3の乗
算がシフト演算に代わるため、したがって、処理速度の
高速化を図ることができる。
【0084】(第5の実施の形態)
【0085】本実施の形態における動き補償処理回路
は、上述の第4の実施の形態における動き補償処理回路
200(上記図12)と同様の構成としているが、採用
されているオーバーラップ動き補償予測が異なる。以
下、本実施の形態における動き補償処理回路を、上記図
12の動き補償処理回路200として、第4の実施の形
態と異なる点についてのみ具体的に説明する。
【0086】本実施の形態では、例えば、演算処理部2
02のシフト処理部にてシフト演算を行う際、シフト量
マトリクスS3及びS5の特定の行若しくは列のみ、要
素値(シフト量)S3(i,j)、S5(i,j)を参
照し、その他の行若しくは列については、固定のシフト
演算を行う。
【0087】具体的には、例えば、上記図15のシフト
量マトリクスS3を各行に分解してみると、シフト量S
3(i,j)が全て”1”の行と、全て”0”の行
と、”1”と”0”が混在する行との3種類に分類でき
る。また、上記上記図16のシフト量マトリクスS5に
ついても同様に、各列に分解してみると、シフト量S5
(i,j)が全て”1”の列と、全て”0”の列と、”
1”と”0”が混在する列との3種類に分類できる。
【0088】そこで、ここでは、上述した式(10)
を、次のようにして、行若しくは列の上述の種類毎に場
合分けして演算式を定義する。尚、説明の簡単のため、
上記式(10)において、演算結果p(x,y)には既
に、”q(x,y)H2(i,j)+4”が演算され代
入されているものとする。したがって、上記式(10)
は、 p(x,y) = ((ud(x,y)<<S3(i,j))+(lr(x,y)<<S5(i,j)))/8 ・・・(10’) で表される。この式(10’)を種類毎に定義する。
【0089】(1)シフト量S3(i,j)が全て”
1”の行では、 p(x,y) = p(x,y)+(ud(x,y)<<1) ・・・(10’−1) (2)シフト量S3(i,j)が全て”0”の行では、 p(x,y) = p(x,y)+ud(x,y) ・・・(10’−2) (3)シフト量S3(i,j)が”1”と”0”が混在
する行では、 p(x,y) = p(x,y)+(ud(x,y)<<S3(i,j)) ・・・(10’−3) (4)シフト量S5(i,j)が全て”1”の列では、 p(x,y) = p(x,y)+(lr(x,y)<<1) ・・・(10’−4) (5)シフト量S5(i,j)が全て”0”の列では、 p(x,y) = p(x,y)+lr(x,y) ・・・(10’−5) (6)シフト量S5(i,j)が”1”と”0”が混在
する列では、 p(x,y) = p(x,y)+(lr(x,y)<<S5(i,j)) ・・・(10’−6)
【0090】これらの式(10’−1)〜(10’−
6)により、シフト量マトリクスS3の各行のうち、シ
フト量S3(i,j)が”1”と”0”が混在する行に
ついては、シフト量マトリクスS3を参照した演算が行
われ、シフト量S3(i,j)が全て”1”の行と、シ
フト量S3(i,j)が全て”0”の行とについては、
シフト量マトリクスS3を参照しない演算が行われる。
また、シフト量マトリクスS5の各行のうち、シフト量
S5(i,j)が”1”と”0”が混在する列について
は、シフト量マトリクスS5を参照した演算が行われ、
シフト量S5(i,j)が全て”1”の行と、シフト量
S5(i,j)が全て”0”の行とについては、シフト
量マトリクスS5を参照しない演算が行われる。
【0091】上述のような定義は、例えば、CPU10
5で予めなされている。また、CPU105は、例え
ば、図18に示すような処理プログラムを実行すること
で、演算処理部202の動作を制御する。すなわち、プ
ログラムメモリ106には、上記図18の処理プログラ
ムが予め格納されており、この処理プログラムがCPU
105から読み出され実行されることで、演算処理部2
02は、次のように動作する。
【0092】演算処理部202において、先ず、処理対
象となっているシフト量マトリクスが”S3”である
か”S5”であるかを判別する(ステップS401)。
【0093】ステップS401の判別の結果、処理対象
のシフト量マトリクスが”S3”である場合、さらに、
その処理対象の行(”i”)を判別する(ステップS4
02)。
【0094】ステップS402の判別の結果、i=”
0”又は”1”ならば、すなわちシフト量S3(i,
j)が全て”1”の行であるならば、式(10’−1)
に従った演算処理を行う(ステップS404)。また、
i=”2”〜”5”の何れかであるならば、すなわちシ
フト量S3(i,j)が全て”0”の行であるならば、
式(10’−2)に従った演算処理を行う(ステップS
405)。また、i=”1”又は”6”ならば、すなわ
ちシフト量S3(i,j)が”0”と”1”が混在する
行であるならば、式(10’−3)に従った演算処理を
行う(ステップS406)。
【0095】一方、ステップS401の判別の結果、処
理対象のシフト量マトリクスが”S5”である場合、さ
らに、その処理対象の列(”j”)を判別する(ステッ
プS403)。
【0096】ステップS403の判別の結果、j=”
0”又は”1”ならば、すなわちシフト量S5(i,
j)が全て”1”の列であるならば、式(10’−4)
に従った演算処理を行う(ステップS407)。また、
j=”2”〜”5”の何れかであるならば、すなわちシ
フト量S5(i,j)が全て”0”の列であるならば、
式(10’−5)に従った演算処理を行う(ステップS
408)。また、j=”1”又は”6”ならば、すなわ
ちシフト量S5(i,j)が”0”と”1”が混在する
列であるならば、式(10’−6)に従った演算処理を
行う(ステップS409)。
【0097】上述のように、本実施の形態では、演算処
理部202のシフト処理部にてシフト演算を行う際、シ
フト量マトリクスS3及びS5の特定の行若しくは列の
み、そのトシフト量S3(i,j)、S5(i,j)を
参照した演算を行い、その他の行若しくは列について
は、固定のシフト演算を行う。このように構成したこと
により、シフト演算の回数を減少させることができ(本
実施の形態では、半分に減少させることができる)、し
たがって、処理速度の高速化を図ることができる。
【0098】尚、本発明の目的は、上述した実施の形態
のホスト及び端末の機能を実現するソフトウェアのプロ
グラムコードを記憶した記憶媒体を、システム或いは装
置に供給し、そのシステム或いは装置のコンピュータ
(又はCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読みだして実行することによっても、達成
されることは言うまでもない。この場合、記憶媒体から
読み出されたプログラムコード自体が上述した実施の形
態の機能を実現することとなり、そのプログラムコード
を記憶した記憶媒体は本発明を構成することとなる。
【0099】プログラムコードを供給するための記憶媒
体としては、ROM、フロッピーディスク、ハードディ
スク、光ディスク、光磁気ディスク、CD−ROM、C
D−R、磁気テープ、不揮発性のメモリカード等を用い
ることができる。
【0100】また、コンピュータが読みだしたプログラ
ムコードを実行することにより、上述した実施の形態の
機能が実現されるだけでなく、そのプログラムコードの
指示に基づき、コンピュータ上で稼動しているOS等が
実際の処理の一部又は全部を行い、その処理によって実
施の形態の機能が実現される場合も含まれることは言う
までもない。
【0101】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された拡張機能ボー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張ボードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部又は全部を行い、
その処理によって上述した実施の形態の機能が実現され
る場合も含まれることは言うまでもない。
【0102】
【発明の効果】以上説明したように本発明では、予め定
義された重み係数マトリクスと、該重み係数マトリクス
から生成された新たな重み係数マトリクスとを用いて、
オーバーラップ動き補償予測を行うようにした。また、
予め定義された重み係数マトリクスの一部を、シフト量
マトリクスとして持ち、該シフト量マトクスの要素(シ
フト量)に従ったシフト演算を行って、オーバーラップ
動き補償予測を行うようにした。このように構成したこ
とで、オーバーラップ動き補償予測の処理に最適なマト
リクスを用いることができるため、データアクセス回
数、乗算回数、加算回数、シフト演算回数等を従来と比
較して減少させることができ、この結果、処理速度の高
速化を図ることができ、ハードウェア規模の縮小化を図
ることができる。
【0103】例えば、処理単位であるマクロブロックを
構成する4つのブロックにおいて、着目ブロックがどの
位置のブロックに対応するかを判別し、下のブロックに
対応する場合には、そのブロック(着目ブロック)の下
に隣接するブロックの動きベクトルを用いて得られた予
測画像情報を、着目ブロックの動きベクトルを用いて得
られた予測画像情報に置き換え、着目ブロックの動きベ
クトルをを用いて得られた予測画像情報に対しては、上
記下に隣接するブロックの動きベクトルに対して予め定
義された重み係数マトリクスと、上記着目ブロックの動
きベクトルに対して予め定義された重み係数マトリクス
とから生成された新たな重み係数マトリクスを用いるよ
うにする。これにより、下に隣接するブロックの動きベ
クトルを用いて得られた予測画像情報に対する演算を省
くことができる。また、上下(又は左右)に隣接するブ
ロックの動きベクトルを用いて得られた各予測画像情報
から新たな画像情報を生成し、この画像情報に対して、
上下(又は左右)に隣接するブロックの動きベクトルに
対して予め定義された各重み係数マトリクスから生成さ
れたシフト量マトリクスを用いる。これにより、乗算を
シフト演算で行うことができる。
【0104】よって、本発明は、ハードウェア規模の縮
小を図ることができ、処理速度の高速化も図ることがで
きる。
【図面の簡単な説明】
【図1】第1の実施の形態において、本発明を適用した
動き補償処理回路の構成を示すブロック図である。
【図2】マクロブロックの構成を説明するための図であ
る。
【図3】上記マクロブロックを構成する各ブロックの処
理順序を説明するための図である。
【図4】上記ブロック単位のオーバーラップ動き補償予
測の処理で必要なブロックの動きベクトルを説明するた
めの図である。
【図5】上記動き補償処理回路において、重み係数マト
リクスから新たに作成される重み係数マトリクスを説明
するための図である。
【図6】上記動き補償処理回路で実行されるオーバーラ
ップ動き補償予測の処理を説明するためのフローチャー
トである。
【図7】第2の実施の形態において、重み係数マトリク
スから新たに作成される重み係数マトリクスを説明する
ための図である。
【図8】第3の実施の形態において、重み係数マトリク
スから新たに作成される重み係数マトリクス(ブロック
位置が左境界/上部である場合に用いるマトリクス)を
説明するための図である。
【図9】上記新たに作成される重み係数マトリクス(ブ
ロック位置が左境界/下部である場合に用いるマトリク
ス)を説明するための図である。
【図10】上記新たに作成される重み係数マトリクス
(ブロック位置が右境界/上部である場合に用いるマト
リクス)を説明するための図である。
【図11】上記新たに作成される重み係数マトリクス
(ブロック位置が右境界/下部である場合に用いるマト
リクス)を説明するための図である。
【図12】第4の実施の形態において、本発明を適用し
た動き補償処理回路の構成を示すブロック図である。
【図13】上記動き補償処理回路において、重み係数マ
トリクスから新たに作成される重み係数マトリクス(上
下の有意係数から構成されたマトリクス)を説明するた
めの図である。
【図14】上記新たに作成される重み係数マトリクス
(左右の有意係数から構成されたマトリクス)を説明す
るための図である。
【図15】上記上下の有意係数から構成されたマトリク
スに基づいて得られるシフト量マトリクスを説明するた
めの図である。
【図16】上記左右の有意係数から構成されたマトリク
スに基づいて得られるシフト量マトリクスを説明するた
めの図である。
【図17】上記動き補償処理回路で実行されるオーバー
ラップ動き補償予測の処理を説明するためのフローチャ
ートである。
【図18】第5の実施の形態において、上記動き補償処
理回路で実行されるオーバーラップ動き補償予測の処理
を説明するためのフローチャートである。
【図19】参照画像、動きベクトル情報、1ブロック分
の予測画像データの関係を説明するための図である。
【図20】着目ブロックの動きベクトルに基づいて得ら
れた予測画像データに対して定義された従来の重み係数
マトリクスを説明するための図である。
【図21】上に隣接するブロックの動きベクトルに基づ
いて得られた予測画像データに対して定義された従来の
重み係数マトリクスを説明するための図である。
【図22】下に隣接するブロックの動きベクトルに基づ
いて得られた予測画像データに対して定義された従来の
重み係数マトリクスを説明するための図である。
【図23】左に隣接するブロックの動きベクトルに基づ
いて得られた予測画像データに対して定義された従来の
重み係数マトリクスを説明するための図である。
【図24】右に隣接するブロックの動きベクトルに基づ
いて得られた予測画像データに対して定義された従来の
重み係数マトリクスを説明するための図である。
【符号の説明】
100 動き補償処理回路 101 画像記憶部 102 演算処理部 103、104 記憶部 105 CPU 106 プログラムメモリ 111 メモリ 112 動きベクトル演算部 q 着目ブロックの動きベクトルから得られた予測
画像データ u 上に隣接するブロックの動きベクトルから得ら
れた予測画像データ d 下に隣接するブロックの動きベクトルから得ら
れた予測画像データ l 左に隣接するブロックの動きベクトルから得ら
れた予測画像データ r 右に隣接するブロックの動きベクトルから得ら
れた予測画像データ p 最終的な予測値 H2〜H6 重み係数マトリクス H7 新たな重み係数マトリクス

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 動画像情報を複数ブロックから構成され
    るマクロブロック単位で動き補償予測を行う際、着目ブ
    ロックの動きベクトル情報を用いて予測して得られた予
    測画像情報と、該着目ブロックの隣接ブロックの動きベ
    クトル情報を用いて予測して得られた予測画像情報とか
    ら、最終的な予測画像情報を生成するための動き補償処
    理方法であって、 上記マクロブロック内における着目ブロックの存在位置
    を判別する判別ステップと、 上記判別ステップの判別結果に基づいて、上記着目ブロ
    ック及び隣接ブロックの動きベクトル情報に対して予め
    定義された重み係数マトリクスと、該予め定義された重
    み係数マトリクスから生成された新たな重み係数マトリ
    スクとの少なくとも何れかを用いて、各予測画像情報に
    所定の処理を行って上記最終的な予測画像情報を取得す
    る情報取得ステップとを含むことを特徴とする動き補償
    処理方法。
  2. 【請求項2】 上記情報取得ステップは、上記隣接ブロ
    ックの動きベクトル情報を用いて予測して得られた予測
    画像情報のうち、上記判別ステップの判別結果に基づい
    た所定の予測画像情報を、上記着目ブロックの動きベク
    トル情報を用いて予測して得られた予測画像情報に置き
    換える情報置換ステップと、 上記着目ブロックの動きベクトル情報を用いて予測して
    得られた予測画像情報に対しては上記新たな重み係数マ
    トリスクを用いた所定の処理を行う処理ステップとを含
    むことを特徴とする請求項1記載の動き補償処理方法。
  3. 【請求項3】 上記新たな重み係数マトリクスは、上記
    情報置換ステップで置換対象となる予測画像情報に対応
    する重み係数マトリクスと、上記着目ブロックの動きベ
    クトル情報を用いて予測して得られた予測画像情報に対
    応する重み係数マトリクスとから生成されることを特徴
    とする請求項2記載の動き補償処理方法。
  4. 【請求項4】 動画像情報をブロック単位で動き補償予
    測を行う際、着目ブロックの動きベクトル情報を用いて
    予測して得られた予測画像情報と、該着目ブロックの隣
    接ブロックの動きベクトル情報を用いて予測して得られ
    た予測画像情報とから、最終的な予測画像情報を生成す
    るための動き補償処理方法であって、 上記隣接ブロックの動きベクトル情報を用いて予測して
    得られた予測画像情報から新たな画像情報を得て入力す
    る入力ステップと、 上記入力ステップで得られた画像情報に対して、上記隣
    接ブロックの動きベクトル情報に対して予め定義された
    重み係数マトリクスに基づいて生成されたシフト量マト
    リクスに従ったシフト処理を行うシフトステップとを含
    むことを特徴とする動き補償処理方法。
  5. 【請求項5】 上記シフトステップは、 上記シフト量マトリクス内で処理対象となる要素の存在
    位置を判別する判別ステップと、 上記判別ステップに基づいて、上記要素に従った所定の
    処理を行う第1の処理ステップと、 上記判別ステップに基づいて、上記要素は用いない所定
    の処理を行う第2の処理ステップとを含むことを特徴と
    する請求項4記載の動き補償処理方法。
  6. 【請求項6】 動画像情報をブロック単位で動き補償予
    測を行う際、着目ブロックの動きベクトル情報を用いて
    予測して得られた予測画像情報と、該着目ブロックの隣
    接ブロックの動きベクトル情報を用いて予測して得られ
    た予測画像情報とから、最終的な予測画像情報を生成し
    て出力するための動き補償処理方法であって、 上記着目ブロック及び隣接ブロックの動きベクトル情報
    に対して予め定義された重み係数マトリクスと、該予め
    定義された重み係数マトリクスから生成された新たな重
    み係数マトリスクと用いて、各予測画像情報に対して所
    定の処理を行って上記最終的な予測画像情報を取得する
    ことを特徴とする動き補償処理方法。
  7. 【請求項7】 上記新たな重み係数マトリクスは、複数
    の上記予め定義された重み係数マトリクスから生成され
    ることを特徴とする請求項6記載の動き補償処理方法。
  8. 【請求項8】 動画像情報をブロック単位で動き補償予
    測を行う際、着目ブロックの動きベクトル情報を用いて
    予測して得られた予測画像情報と、該着目ブロックの隣
    接ブロックの動きベクトル情報を用いて予測して得られ
    た予測画像情報とから、最終的な予測画像情報を生成す
    るための動き補償処理方法であって、 上記着目ブロック及び隣接ブロックの動きベクトル情報
    に対して予め定義された重み係数マトリクスのうち、所
    定の重み係数マトリクスをシフト量マトリクスに置き換
    え、各予測画像情報に対して該シフト量マトリクスに従
    ったシフト処理を行って上記最終的な予測画像情報を取
    得することを特徴とする動き補償処理方法。
  9. 【請求項9】 上記シフト量マトリクスの所定の行若し
    くは列については、その要素に基づいてシフト処理を行
    い、他の行若しくは列については、その要素を用いずに
    所定の処理を行って、上記最終的な予測画像情報を取得
    することを特徴とする請求項8記載の動き補償処理方
    法。
  10. 【請求項10】 動画像情報を複数ブロックから構成さ
    れるマクロブロック単位で動き補償予測を行う際、着目
    ブロックの動きベクトル情報を用いて予測して得られた
    予測画像情報と、該着目ブロックの隣接ブロックの動き
    ベクトル情報を用いて予測して得られた予測画像情報と
    から、最終的な予測画像情報を生成して出力する動き補
    償処理回路であって、上記マクロブロック内における着
    目ブロックの存在位置を判別する判別手段と、 上記判別手段の判別結果に基づいて、上記着目ブロック
    及び隣接ブロックの動きベクトル情報に対して予め定義
    された重み係数マトリクスと、該予め定義された重み係
    数マトリクスから生成された新たな重み係数マトリスク
    との少なくとも何れかを用いて、各予測画像情報に所定
    の処理を行って上記最終的な予測画像情報を取得する情
    報取得手段とを備えることを特徴とする動き補償処理回
    路。
  11. 【請求項11】 上記情報取得手段は、 上記隣接ブロックの動きベクトル情報を用いて予測して
    得られた予測画像情報のうち、上記判別ステップの判別
    結果に基づいた所定の予測画像情報を、上記着目ブロッ
    クの動きベクトル情報を用いて予測して得られた予測画
    像情報に置き換える情報置換手段と、 上記着目ブロックの動きベクトル情報を用いて予測して
    得られた予測画像情報に対しては上記新たな重み係数マ
    トリスクを用いた所定の処理を行う処理手段とを含むこ
    とを特徴とする請求項10記載の動き補償処理回路。
  12. 【請求項12】 上記新たな重み係数マトリクスは、上
    記情報置換ステップで置換対象となる予測画像情報に対
    応する重み係数マトリクスと、上記着目ブロックの動き
    ベクトル情報を用いて予測して得られた予測画像情報に
    対応する重み係数マトリクスとから生成されることを特
    徴とする請求項11記載の動き補償処理回路。
  13. 【請求項13】 動画像情報をブロック単位で動き補償
    予測を行う際、着目ブロックの動きベクトル情報を用い
    て予測して得られた予測画像情報と、該着目ブロックの
    隣接ブロックの動きベクトル情報を用いて予測して得ら
    れた予測画像情報とから、最終的な予測画像情報を生成
    して出力する動き補償処理回路であって、 上記隣接ブロックの動きベクトル情報を用いて予測して
    得られた予測画像情報から新たな画像情報を得て入力す
    る入力手段と、 上記入力手段で得られた画像情報に対して、上記隣接ブ
    ロックの動きベクトル情報に対して予め定義された重み
    係数マトリクスに基づいて生成されたシフト量マトリク
    スに従ったシフト処理を行うシフト手段とを備えること
    を特徴とする動き補償処理回路。
  14. 【請求項14】 上記シフト手段は、 上記シフト量マトリクス内で処理対象となる要素の存在
    位置を判別する判別手段と、 上記判別手段に基づいて、上記要素に従った所定の処理
    を行う第1の処理手段と、 上記判別手段に基づいて、上記要素は用いない所定の処
    理を行う第2の処理手段とを含むことを特徴とする請求
    項13記載の動き補償処理方法。
  15. 【請求項15】 請求項10〜14の何れかに記載の動
    き補償処理回路を用いて、動画像情報を符号化すること
    を特徴とする符号化装置。
  16. 【請求項16】 請求項1〜9の何れかに記載の動き補
    償処理方法のステップを、コンピュータが読出可能に格
    納したことを特徴とする記憶媒体。
JP20877498A 1998-07-24 1998-07-24 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体 Pending JP2000041255A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20877498A JP2000041255A (ja) 1998-07-24 1998-07-24 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20877498A JP2000041255A (ja) 1998-07-24 1998-07-24 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2000041255A true JP2000041255A (ja) 2000-02-08

Family

ID=16561882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20877498A Pending JP2000041255A (ja) 1998-07-24 1998-07-24 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP2000041255A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018019418A (ja) * 2009-03-23 2018-02-01 株式会社Nttドコモ 画像予測復号装置および画像予測復号方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018019418A (ja) * 2009-03-23 2018-02-01 株式会社Nttドコモ 画像予測復号装置および画像予測復号方法
TWI715906B (zh) * 2009-03-23 2021-01-11 日商Ntt都科摩股份有限公司 影像預測解碼裝置及影像預測編碼方法

Similar Documents

Publication Publication Date Title
JP7004782B2 (ja) 画像予測方法および関連装置
CN104539963B (zh) 由视频解码装置执行的方法
JP5768662B2 (ja) 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
JP3277111B2 (ja) 動画像符号化装置および動画像復号化装置
JP5310614B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
US9135717B2 (en) Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
CN101573984A (zh) 用于使用多个运动矢量预测因子来估计运动矢量的方法和设备,编码器、解码器和解码方法
CN112292861B (zh) 用于解码端运动矢量修正的基于误差面的子像素精确修正方法
CN111327901B (zh) 视频编码方法、装置、存储介质及编码设备
JPWO2012086829A1 (ja) 動き推定装置、動き推定方法、動き推定プログラム、および動画像符号化装置
JP5807402B2 (ja) 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
JP2000041255A (ja) 動き補償処理方法、動き補償処理回路、符号化装置、及び記憶媒体
JP5786988B2 (ja) 動画像復号方法、動画像復号装置、及び動画像復号プログラム
CN120391058A (zh) 用于视频处理的方法、装置和介质
JP2007097063A (ja) 動画像符号化プログラム、動画像符号化方法および動画像符号化装置
JP2008301085A (ja) 動きベクトル探索装置及びその制御方法、コンピュータプログラム