[go: up one dir, main page]

JP4026238B2 - Image decoding apparatus and image decoding method - Google Patents

Image decoding apparatus and image decoding method Download PDF

Info

Publication number
JP4026238B2
JP4026238B2 JP20838498A JP20838498A JP4026238B2 JP 4026238 B2 JP4026238 B2 JP 4026238B2 JP 20838498 A JP20838498 A JP 20838498A JP 20838498 A JP20838498 A JP 20838498A JP 4026238 B2 JP4026238 B2 JP 4026238B2
Authority
JP
Japan
Prior art keywords
pixel
field
discrete cosine
mode
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20838498A
Other languages
Japanese (ja)
Other versions
JP2000041252A (en
JP2000041252A5 (en
Inventor
数史 佐藤
健司 小森
哲夫 金子
聡 三橋
正三 五関
隆雄 寺尾
尚史 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP20838498A priority Critical patent/JP4026238B2/en
Priority to US09/358,451 priority patent/US6539056B1/en
Publication of JP2000041252A publication Critical patent/JP2000041252A/en
Publication of JP2000041252A5 publication Critical patent/JP2000041252A5/ja
Application granted granted Critical
Publication of JP4026238B2 publication Critical patent/JP4026238B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、所定の画素ブロック(マクロブロック)単位で動き予測をすることによる予測符号化、及び、所定の画素ブロック(直交変換ブロック)単位で直交変換することによる圧縮符号化をした第1の解像度の圧縮画像データを、復号する画像復号装置及び画像復号方法に関し、特に、第1の解像度の圧縮画像データを復号して、この第1の解像度よりも低い第2の解像度の動画像データに縮小する画像復号装置及び画像復号方法に関するものである。
【0002】
【従来の技術】
MPEG2(Moving Picture Experts Group phase2)等の画像圧縮方式を用いたデジタルテレビジョン放送の規格化が進められている。デジタルテレビジョン放送の規格には、標準解像度画像(例えば垂直方向の有効ライン数が576本)に対応した規格、高解像度画像(例えば垂直方向の有効ライン数が1152本)に対応した規格等がある。そのため、近年、高解像度画像の圧縮画像データを復号するとともにこの圧縮画像データを1/2の解像度に縮小することにより、標準解像度画像の画像データを生成して、この画像データを標準解像度に対応したテレビジョンモニタに表示するダウンデコーダが求められている。
【0003】
高解像度画像に対して動き予測による予測符号化及び離散コサイン変換による圧縮符号化をしたMPEG2等のビットストリームを、復号するとともに標準解像度画像にダウンサンプリングするダウンデコーダが、文献「低域ドリフトのないスケーラブル・デコーダ」(岩橋・神林・貴家:信学技報 CS94-186,DSP94-108,1995-01)に提案されている(以下、この文献を文献1と呼ぶ。)。この文献1には、以下の第1から第3のダウンデコーダが示されている。
【0004】
第1のダウンデコーダは、図34に示すように、高解像度画像のビットストリームに対して8(水平方向のDC成分から数えた係数の数)×8(垂直方向のDC成分から数えた係数の数)の逆離散コサイン変換をする逆離散コサイン変換装置1001と、離散コサイン変換がされた高解像度画像と動き補償がされた参照画像とを加算する加算装置1002と、参照画像を一時記憶するフレームメモリ1003と、フレームメモリ1003が記憶した参照画像に1/2画素精度で動き補償をする動き補償装置1004と、フレームメモリ1003が記憶した参照画像を標準解像度の画像に変換するダウンサンプリング装置1005とを備えている。
【0005】
この第1のダウンデコーダでは、逆離散コサイン変換を行い高解像度画像として復号した出力画像を、ダウンサンプリング装置1005で縮小して標準解像度の画像データを出力する。
【0006】
第2のダウンデコーダは、図35に示すように、高解像度画像のビットストリームのDCT(Discrete Cosine Transform)ブロックの高周波成分の係数を0に置き換えて8×8の逆離散コサイン変換をする逆離散コサイン変換装置1011と、離散コサイン変換がされた高解像度画像と動き補償がされた参照画像とを加算する加算装置1012と、参照画像を一時記憶するフレームメモリ1013と、フレームメモリ1013が記憶した参照画像に1/2画素精度で動き補償をする動き補償装置1014と、フレームメモリ1013が記憶した参照画像を標準解像度の画像に変換するダウンサンプリング装置1015とを備えている。
【0007】
この第2のダウンデコーダでは、DCTブロックの全ての係数のうち高周波成分の係数を0に置き換えて逆離散コサイン変換を行い高解像度画像として復号した出力画像を、ダウンサンプリング装置1005で縮小して標準解像度の画像データを出力する。
【0008】
第3のダウンデコーダは、図36に示すように、高解像度画像のビットストリームのDCTブロックの低周波成分の係数のみを用いて例えば4×4の逆離散コサイン変換をして標準解像度画像に復号する縮小逆離散コサイン変換装置1021と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置1022と、参照画像を一時記憶するフレームメモリ1023と、フレームメモリ1023が記憶した参照画像に1/4画素精度で動き補償をする動き補償装置1024とを備えている。
【0009】
この第3のダウンデコーダでは、DCTブロックの全ての係数のうち低周波成分の係数のみを用いて逆離散コサイン変換を行い、高解像度画像から標準解像度画像として復号する。
【0010】
ここで、上記第1のダウンデコーダでは、DCTブロック内の全ての係数に対して逆離散コサイン変換を行い高解像度画像を復号しているため、高い演算処理能力の逆離散コサイン変換装置1001と高容量のフレームメモリ1003とが必要となる。また、上記第2のダウンデコーダでは、DCTブロック内の係数のうち高周波成分を0として離散コサイン変換を行い高解像度画像を復号しているため、逆離散コサイン変換装置1011の演算処理能力は低くて良いが、やはり高容量のフレームメモリ1013が必要となる。これら第1及び第2のダウンデコーダに対し、第3のダウンデコーダでは、DCTブロック内の全ての係数うち低周波成分の係数のみを用いて逆離散コサイン変換をしているため逆離散コサイン変換装置1021の演算処理能力が低くてよく、さらに、標準解像度画像の参照画像を復号しているのでフレームメモリ1023の容量も少なくすることができる。
【0011】
ところで、テレビジョン放送等の動画像の表示方式には、順次走査方式と飛び越し走査方式とがある。順次走査方式は、フレーム内の全ての画素を同じタイミングでサンプリングした画像を、順次表示する表示方式である。飛び越し走査方式は、フレーム内の画素を水平方向の1ライン毎に異なるタイミングでサンプリングした画像を、交互に表示する表示方式である。
【0012】
この飛び越し走査方式では、フレーム内の画素を1ライン毎に異なるタイミングでサンプリングした画像のうちの一方を、トップフィールド(第1フィールドともいう。)といい、他方をボトムフィールド(第2のフィールドともいう。)という。フレームの水平方向の先頭ラインが含まれる画像がトップフィールドとなり、フレームの水平方向の2番目のラインが含まれる画像がボトムフィールドとなる。従って、飛び越し走査方式では、1つのフレームが2つのフィールドから構成されることとなる。
【0013】
MEPG2では、飛び越し走査方式に対応した動画像信号を効率良く圧縮するため、画面の圧縮単位であるピクチャにフレームを割り当てて符号化するだけでなく、ピクチャにフィールドを割り当てて符号化することもできる。
【0014】
MPEG2では、ピクチャにフィールドが割り当てられた場合には、そのビットストリームの構造をフィールド構造と呼び、ピクチャにフレームが割り当てられた場合には、そのビットストリームの構造をフレーム構造と呼ぶ。また、フィールド構造では、フィールド内の画素からDCTブロックが形成され、フィールド単位で離散コサイン変換がされる。このフィールド単位で離散コサイン変換を行う処理モードのことをフィールドDCTモードと呼ぶ。また、フレーム構造では、フレーム内の画素からDCTブロックが形成され、フレーム単位で離散コサイン変換がされる。このフレーム単位で離散コサイン変換を行う処理モードのことをフレームDCTモードと呼ぶ。さらに、フィールド構造では、フィールド内の画素からマクロブロックが形成され、フィールド単位で動き予測がされる。このフィールド単位で動き予測を行う処理モードのことをフィールド動き予測モードと呼ぶ。また、フレーム構造では、フレーム内の画素からマクロブロックが形成され、フレーム単位で動き予測がされる。フレーム単位で動き予測を行う処理モードのことをフレーム動き予測モードと呼ぶ。
【0015】
【発明が解決しようとする課題】
ところで、上記文献1に示された第3のダウンデコーダを利用して、飛び越し走査方式に対応した圧縮画像データを復号する画像復号装置が、例えば文献「A Compensation Method of Drift Errors in Scalability」(N.OBIKANE,K.TAHARA and J.YONEMITSU,HDTV Work Shop'93)に提案されている(以下、この文献を文献2と呼ぶ)。
【0016】
この文献2に示された従来の画像復号装置は、図37に示すように、高解像度画像をMPEG2で圧縮したビットストリームが供給され、このビットストリームを解析するビットストリーム解析装置1031と、データの発生頻度に応じた符号長を割り当てる可変長符号化がされたビットストリームを復号する可変長符号復号装置1032と、DCTブロックの各係数に量子化ステップを掛ける逆量子化装置1033と、DCTブロックの全ての係数のうち低周波成分の係数のみを用いて例えば4×4の逆離散コサイン変換をして標準解像度画像を復号する縮小逆離散コサイン変換装置1034と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置1035と、参照画像を一時記憶するフレームメモリ1036と、フレームメモリ1036が記憶した参照画像に1/4画素精度で動き補償をする動き補償装置1037とを備えている。
【0017】
この文献2に示された従来の画像復号装置の縮小逆離散コサイン変換装置1034は、DCTブロック内の全ての係数のうち低周波成分の係数のみを用いて逆離散コサイン変換をするが、フレームDCTモードとフィールドDCTモードとで、逆離散コサイン変換を行う係数の位置が異なっている。
【0018】
具体的には、縮小逆離散コサイン変換装置1034は、フィールドDCTモードの場合には、図38に示すように、DCTブロック内の8×8個のうち、低域の4×4個の係数のみに逆離散コサイン変換を行う。それに対し、縮小逆離散コサイン変換装置1034は、フレームDCTモードの場合には、図39に示すように、DCTブロック内の8×8個の係数のうち、4×2個+4×2個の係数のみに逆離散コサイン変換を行う。
【0019】
また、この文献2に示された従来の画像復号装置の動き補償装置1037は、高解像度画像に対して行われた動き予測の情報(動きベクトル)に基づき、フィールド動き予測モード及びフレーム動き予測モードのそれぞれに対応した1/4画素精度の動き補償を行う。すなわち、通常MPEG2では1/2画素精度で動き補償が行われることが定められているが、高解像度画像から標準解像度画像を復号する場合には、ピクチャ内の画素数が1/2に間引かれるため、動き補償装置1037では動き補償の画素精度を1/4画素精度として動き補償を行っている。
【0020】
従って、動き補償装置1037では、高解像度画像に対応した動き補償を行うため、標準解像度の画像としてフレームメモリ1036に格納された参照画像の画素に対して線形補間して、1/4画素精度の画素を生成している。
【0021】
具体的に、フィールド動き予測モード及びフレーム動き予測モードの場合の垂直方向の画素の線形補間処理を、図40及び図41を用いて説明する。なお、図面中には、縦方向に垂直方向の画素の位相を示し、表示画像の各画素が位置する位相を整数で示している。
【0022】
まず、フィールド動き予測モードで動き予測がされた画像の補間処理について、図40を用いて説明する。高解像度画像(上位レイヤー)に対しては、図40(a)に示すように、各フィールドそれぞれ独立に、1/2画素精度で動き補償がされる。これに対し、標準解像度画像(下位レイヤー)に対しては、図40(b)に示すように、整数精度の画素に基づきフィールド内で線形補間をして、垂直方向に1/4画素、1/2画素、3/4画素分の位相がずれた画素を生成し、動き補償がされる。すなわち、標準解像度画像(下位レイヤー)では、トップフィールドの整数精度の各画素に基づきトップフィールドの1/4画素精度の各画素が線形補間により生成され、ボトムフィールドの整数精度の各画素に基づきボトムフィールドの1/4画素精度の各画素が線形補間により生成される。例えば、垂直方向の位相が0の位置にあるトップフィールドの画素の値をa、垂直方向の位相が1の位置にあるトップフィールドの画素の値をbとする。この場合、垂直方向の位相が1/4の位置にあるトップフィールドの画素は(3a+b)/4となり、垂直方向の位相が1/2の位置にあるトップフィールドの画素は(a+b)/2となり、垂直方向の位相が3/4の位置にあるトップフィールドの画素は(a+3b)/4となる。
【0023】
続いて、フレーム動き予測モードで動き予測がされた画像の補間処理について、図41を用いて説明する。高解像度画像(上位レイヤー)に対しては、図41(a)に示すように、各フィールド間で補間処理がされ、すなわち、ボトムフィールドとトップフィールドとの間で補間処理がされ、1/2画素精度で動き補償がされる。標準解像度画像(下位レイヤー)に対しては、図41(b)に示すように、トップフィールド及びボトムフィールドの2つのフィールドの整数精度の各画素に基づき、垂直方向に1/4画素、1/2画素、3/4画素分の位相がずれた画素が線形補間により生成され、動き補償がされる。例えば、垂直方向の位相が−1の位置にあるボトムフィールドの画素の値をa、垂直方向の位相が0の位置にあるトップフィールドの画素の値をb、垂直方向の位相が1の位置にあるボトムフィールドの画素の値をc、垂直方向の位相が2の位置にあるトップフィールドの画素の値をd、垂直方向の位相が3の位置にあるボトムフィールドの画素の値をeとする。この場合、垂直方向の位相が0〜2の間にある1/4画素精度の各画素は、以下のように求められる。
【0024】
垂直方向の位相が1/4の位置にある画素は(a+4b+3c)/8となる。垂直方向の位相が1/2の位置にある画素は(a+3c)/4となる。垂直方向の位相が3/4の位置にある画素は(a+2b+3c+2d)/8となる。垂直方向の位相が5/4の位置にある画素は(2b+3c+2d+e)/8となる。垂直方向の位相が3/2の位置にある画素は(3c+e)/4となる。垂直方向の位相が7/4の位置にある画素は(3c+4d+e)/8となる。
【0025】
以上のように上記文献2に示された従来の画像復号装置は、飛び越し走査方式に対応した高解像度画像の圧縮画像データを、標準解像度画像データに復号することができる。
【0026】
しかしながら、上記文献2に示された従来の画像復号装置では、フィールドDCTモードで得られる標準解像度画像の各画素と、フレームDCTモードで得られる標準解像度の各画素との位相がずれる。具体的には、フィールドDCTモードでは、図42に示すように、下位レイヤーのトップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、下位レイヤーのボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。それに対して、フレームDCTモードでは、図43に示すように、下位レイヤーのトップフィールドの各画素の垂直方向の位相が0、2・・・となり、下位レイヤーのボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。そのため、位相が異なる画像がフレームメモリ1036に混在し、出力する画像の画質が劣化する。
【0027】
また、上記文献2に示された従来の画像復号装置では、フィールド動き予測モードとフレーム動き予測モードとで位相ずれの補正がされていない。そのため、出力する画像の画質が劣化する。
【0028】
本発明は、このような実情を鑑みてなされたものであり、復号に必要な演算量及び記憶容量を少なくすることができ、フィールド動き予測モードとフレーム動き予測モードとによる動き補償の際の画素の位相ずれをなくし、動き補償に起因する画質の劣化を防止することが可能な、高解像度画像の圧縮画像データから標準解像度の画像データを復号する画像復号装置及び画像復号方法を提供することを目的とする。
【0029】
【課題を解決するための手段】
本発明は、所定の画素ブロック(マクロブロック)単位で動き予測をすることによる予測符号化、及び、所定の画素ブロック(直交変換ブロック)単位で直交変換をすることによる圧縮符号化をした第1の解像度の圧縮画像データから、上記第1の解像度より低い第2の解像度の動画像データを復号する画像復号装置において、直交変換がされた上記圧縮画像データの直交変換ブロックの各係数のうち低周波成分の係数に対して逆直交変換をする逆直交変換手段と、上記逆直交変換手段により逆直交変換がされた圧縮画像データと動き補償がされた参照画像データとを加算して、第2の解像度の動画像データを出力する加算手段と、上記加算手段から出力される動画像データを参照画像データとして記憶する記憶手段と、飛び越し走査に対応した動き予測方式(フィールド動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をする第1の動き補償手段と、順次走査に対応した動き予測方式(フレーム動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をする第2の動き補償手段と、上記加算手段から出力された動画像データに対してポストフィルタリングを施し、動画像を構成する画面の画枠を変換するとともにトップフィールドとボトムフィールドとの間の位相ずれを補正する画枠変換位相補正手段とを備え、上記第1の動き補償手段及び上記第2の動き補償手段は、上記記憶手段が記憶している参照画像データのマクロブロックの各画素に対して補間をし、上記記憶手段が記憶している参照画像データに対して1/4画素精度の画素から構成されるマクロブロックを生成し、この生成したマクロブロックに対して動き補償をすることを特徴とする。
【0033】
本発明は、所定の画素ブロック(マクロブロック)単位で動き予測をすることによる予測符号化、及び、所定の画素ブロック(直交変換ブロック)単位で直交変換をすることによる圧縮符号化をした第1の解像度の圧縮画像データから、上記第1の解像度より低い第2の解像度の動画像データを復号する画像復号方法において、直交変換がされた上記圧縮画像データの直交変換ブロックの各係数のうち低周波成分の係数に対して逆直交変換をし、上記逆直交変換がされた圧縮画像データと動き補償がされた参照画像データとを加算することにより第2の解像度の動画像データを生成し、生成された上記第2の解像度の動画像データを参照画像データとして記憶し、生成された第2の解像度の動画像データに対してポストフィルタリングを施し、動画像を構成する画面の画枠を変換するとともにトップフィールドとボトムフィールドとの間の位相ずれを補正し、飛び越し走査に対応した動き予測方式(フィールド動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をし、順次走査に対応した動き予測方式(フレーム動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をし、上記フィールド動き予測モード又はフレーム動き予測モードでの動き補償において、記憶している参照画像データのマクロブロックの各画素に対して補間をし、上記参照画像データに対して1/4画素精度の画素から構成されるマクロブロックを生成し、この生成したマクロブロックに対して動き補償をすることを特徴とする。
【0037】
【発明の実施の形態】
以下、本発明の実施の形態として、本発明を適用した画像復号装置について、図面を参照しながら説明する。
【0038】
(第1の実施の形態)
まず、本発明の第1の実施の形態の画像復号装置について説明する。
【0039】
図1に示すように、本発明の第1の実施の形態の画像復号装置10は、垂直方向の有効ライン数が例えば1152本の高解像度画像をMPEG2で画像圧縮したビットストリームが入力され、この入力されたビットストリームを復号するとともに1/2の解像度に縮小して、垂直方向の有効ライン数が例えば576本の標準解像度画像を出力する装置である。
【0040】
なお、以下、本発明の実施の形態の説明をするにあたり、高解像度画像のことを上位レイヤーとも呼び、標準解像度画像のことを下位レイヤーとも呼ぶものとする。また、通常、8×8の離散コサイン係数を有するDCTブロックを逆離散コサイン変換した場合8×8の画素から構成される復号データを得ることができるが、例えば、8×8の離散コサイン係数を復号して4×4の画素から構成される復号データを得るような、逆離散コサイン変換をするとともに解像度を縮小する処理を、縮小逆離散コサイン変換という。
【0041】
この画像復号装置10は、圧縮された高解像度画像のビットストリームが供給され、このビットストリームを解析するビットストリーム解析装置11と、データの発生頻度に応じた符号長を割り当てる可変長符号化がされた上記ビットストリームを復号する可変長符号復号装置12と、DCTブロックの各係数に量子化ステップを掛ける逆量子化装置13と、フィールドDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフィールドモード用縮小逆離散コサイン変換装置14と、フレームDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフレームモード用縮小逆離散コサイン変換装置15と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置16と、参照画像を一時記憶するフレームメモリ17と、フレームメモリ17が記憶した参照画像にフィールド動き予測モードに対応した動き補償をするフィールドモード用動き補償装置18と、フレームメモリ17が記憶した参照画像にフレーム動き予測モードに対応した動き補償をするフレームモード用動き補償装置19と、フレームメモリ17が記憶した画像に対してポストフィルタリングをすることにより、画枠変換をするとともに画素の位相ずれを補正してテレビジョンモニタ等に表示するための標準解像度の画像データを出力する画枠変換・位相ずれ補正装置20とを備えている。
【0042】
フィールドモード用縮小逆離散コサイン変換装置14は、入力されたビットストリームのマクロブロックが、フィールドDCTモードで離散コサイン変換されている場合に用いられる。フィールドモード用縮小逆離散コサイン変換装置14は、フィールドDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、図38で示したような、低域の4×4の係数のみに逆離散コサイン変換を行う。すなわち、水平方向及び垂直方向の低域の4点の離散コサイン係数に基づき縮小逆離散コサイン変換を行う。このフィールドモード用縮小逆離散コサイン変換装置14では、以上のような縮小逆離散コサイン変換を行うことにより、1つのDCTブロックが4×4の画素から構成される標準解像度画像を復号することができる。この復号された画像データの各画素の位相は、図2に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。すなわち、復号された下位レイヤーのトップフィールドでは、先頭画素(位相が1/2の画素)の位相が上位レイヤーのトップフィールドの先頭から1番目と2番目の画素(位相が0と2の画素)の中間位相となり、先頭から2番目の画素(位相が5/2の画素)の位相が上位レイヤーのトップフィールドの先頭から3番目と4番目の画素(位相が4と6の画素)の中間位相となる。また、復号された下位レイヤーのボトムフィールドでは、先頭画素(位相が1の画素)の位相が上位レイヤーのボトムフィールドの先頭から1番目と2番目の画素(位相が1と3の画素)の中間位相となり、先頭から2番目の画素(位相が3の画素)の位相が上位レイヤーのボトムフィールドの先頭から3番目と4番目の画素(位相が5と7の画素)の中間位相となる。
【0043】
フレームモード用縮小逆離散コサイン変換装置15は、入力されたビットストリームのマクロブロックが、フレームDCTモードで離散コサイン変換されている場合に用いられる。フレームモード用縮小逆離散コサイン変換装置15は、フレームDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、縮小逆離散コサイン変換を行う。そして、フレームモード用縮小逆離散コサイン変換装置15では、1つのDCTブロックが4×4の画素から構成される解像度画像を復号するとともに、フィールドモード用縮小逆離散コサイン変換装置14で生成した標準解像度画像の画素の位相と同位相の画像を生成する。すなわち、フレームモード用縮小逆離散コサイン変換装置15で復号された画像データの各画素の位相は、図2に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。
【0044】
なお、このフレームモード用縮小逆離散コサイン変換装置15の処理については、その詳細を後述する。
【0045】
加算装置16は、フィールドモード用縮小逆離散コサイン変換装置14又はフレームモード用縮小逆離散コサイン変換装置15により縮小逆離散コサイン変換されたマクロブロックがイントラ画像の場合には、そのイントラ画像をそのままフレームメモリ17に格納する。また、加算装置16は、フィールドモード用縮小逆離散コサイン変換装置14又はフレームモード用縮小逆離散コサイン変換装置15により縮小逆離散コサイン変換されたマクロブロックがインター画像である場合には、そのインター画像に、フィールドモード用動き補償装置18或いはフレームモード用動き補償装置19により動き補償がされた参照画像を合成して、フレームメモリ17に格納する。
【0046】
フィールドモード用動き補償装置18は、マクロブロックの動き予測モードがフィールド動き予測モードの場合に用いられる。フィールドモード用動き補償装置18は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、トップフィールドとボトムフィールドとの間の位相ずれ成分を考慮した形で1/4画素精度で補間処理を行い、フィールド動き予測モードに対応した動き補償をする。このフィールドモード用動き補償装置18により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0047】
フレームモード用動き補償装置19は、マクロブロックの動き予測モードがフレーム動き予測モードの場合に用いられる。フレームモード用動き補償装置19は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、トップフィールドとボトムフィールドとの間の位相ずれ成分を考慮した形で1/4画素精度で補間処理を行い、フレーム動き予測モードに対応した動き補償をする。このフレームモード用動き補償装置19により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0048】
画枠変換・位相ずれ補正装置20は、フレームメモリ17が記憶した標準解像度の参照画像或いは加算装置16が合成した画像が供給され、この画像をポストフィルタリングにより、トップフィールドとボトムフィールドとの間の位相ずれ成分を補正するとともに画枠を標準解像度のテレビジョンの規格に合致するように変換する。すなわち、画枠変換・位相ずれ補正装置20は、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる標準解像度画像を、例えば、トップフィールドの各画素の垂直方向の位相が0、2、4・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3、5・・・となるように補正する。また、画枠変換・位相ずれ補正装置20は、高解像度のテレビジョン規格の画枠を、1/4に縮小して標準解像度のテレビジョン規格の画枠に変換する。
【0049】
本発明の第1の実施の形態の画像復号装置10では、以上のような構成を有することにより、高解像度画像をMPEG2で画像圧縮したビットストリームを、復号するとともに解像度を1/2に縮小して、標準解像度画像を出力することができる。
【0050】
つぎに、上記フレームモード用縮小逆離散コサイン変換装置15の処理内容について、さらに詳細に説明する。
【0051】
なお、このフレームモード用縮小逆離散コサイン変換装置15では、以下に説明する1ブロック処理及び2ブロック処理のいずれか或いは両者の処理を行うことができる。フレームモード用縮小逆離散コサイン変換装置15は、必要に応じて、1ブロック処理又は2ブロック処理を切り換えて用いても良いし、或いは、いずれか一方の処理のみを行っても良い。
【0052】
まず、1ブロック処理について説明する。図3に、1ブロック処理の内容を説明するための図を示す。
【0053】
フレームモード用縮小逆離散コサイン変換装置15には、図3に示すように、高解像度画像を圧縮符号化したビットストリームが、1つのDCTブロック単位で入力される。
【0054】
まず、ステップS1において、この1つのDCTブロックの離散コサイン係数y(DCTブロックの全ての離散コサイン係数のうち垂直方向の係数をy1〜y8として図中に示す。)に対して、8×8の逆離散コサイン変換(IDCT8×8)を行う。逆離散コサイン変換をすることにより、8×8の復号された画素データx(DCTブロックの全ての画素データのうち垂直方向の画素データをx1〜x8として図中に示す。)を得ることができる。
【0055】
続いて、ステップS2において、この8×8の画素データxを、垂直方向に1ライン毎交互に取り出して、飛び越し走査に対応した4×4のトップフィールドの画素ブロックと、飛び越し走査に対応した4×4のボトムフィールドの画素ブロックの2つの画素ブロックに分離する。すなわち、垂直方向に1ライン目の画素データx1と、3ライン目の画素データx3と、5ライン目の画素データx5と、7ライン目の画素データx7とを取り出して、トップフィールドに対応した画素ブロックを生成する。また、垂直方向に2ライン目の画素データx2と、4ライン目の画素データx4と、6ライン目の画素データx6と、8ライン目の画素データx8とを取り出して、ボトムフィールドに対応した画素ブロックを生成する。なお、DCTブロックの各画素を飛び越し走査に対応した2つの画素ブロックに分離する処理を、以下フィールド分離という。
【0056】
続いて、ステップS3において、フィールド分離した2つの画素ブロックそれぞれに対して4×4の離散コサイン変換(DCT4×4)をする。
【0057】
続いて、ステップS4において、4×4の離散コサイン変換をして得られたトップフィールドに対応する画素ブロックの離散コサイン係数z(トップフィールドに対応する画素ブロックの全ての係数のうち垂直方向の離散コサイン係数をz1,z3,z5,z7として図中に示す。)の高域成分を間引き、2×2の離散コサイン係数から構成される画素ブロックとする。また、4×4の離散コサイン変換をして得られたボトムフィールドに対応する画素ブロックの離散コサイン係数z(ボトムフィールドに対応する画素ブロックの全ての係数のうち垂直方向の離散コサイン係数をz2,z4,z6,z8として図中に示す。)の高域成分を間引き、2×2の離散コサイン係数から構成される画素ブロックとする。
【0058】
続いて、ステップS5において、高域成分の離散コサイン係数を間引いた画素ブロックに対して、2×2の逆離散コサイン変換(IDCT2×2)を行う。2×2の逆離散コサイン変換をすることにより、2×2の復号された画素データx′(トップフィールドの画素ブロックの全ての画素データのうち垂直方向の画素データをx′1,x′3として図中に示し、また、ボトムフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′2,x′4として図中に示す。)を得ることができる。
【0059】
続いて、ステップS6において、トップフィールドに対応する画素ブロックの画素データと、ボトムフィールドに対応する画素ブロックの画素データとを、垂直方向に1ラインずつ交互に合成して、4×4の画素データから構成される縮小逆離散コサイン変換をしたDCTブロックを生成する。なお、トップフィールドとボトムフィールドに対応した2つの画素ブロックの各画素を垂直方向に交互に合成する処理を、以下フレーム合成という。
【0060】
以上のステップS1〜ステップS6で示した1ブロック処理を行うことにより、フレームモード用縮小逆離散コサイン変換装15では、図2で示したような、フィールドモード用縮小逆離散コサイン変換装置14で生成した標準解像度画像の画素の位相と同位相の画素から構成される4×4のDCTブロックを生成することができる。
【0061】
また、フレームモード用縮小逆離散コサイン変換装置15では、以上のステップS1からステップS6までの1ブロック処理を1つの行列を用いて演算する。具体的には、フレームモード用縮小逆離散コサイン変換装置15では、以上の処理を加法定理を用いて展開計算することにより得られる以下の式1に示す行列[FS′]と、1つのDCTブロックの離散コサイン係数y(y1〜y8)とを行列演算することにより、縮小逆離散コサイン変換したDCTブロックの画素データx′(x′1〜x′4)を得ることができる。
【0062】
【数1】

Figure 0004026238
【0063】
但し、この式(1)において、A〜Jは以下の通りである。
【0064】
【数2】
Figure 0004026238
【0065】
つぎに、2ブロック処理について説明する。図4に、2ブロック処理の内容を説明するための図を示す。
【0066】
フレームモード用縮小逆離散コサイン変換装置15には、図4に示すように、高解像度画像を圧縮符号化したビットストリームが、2つのDCTブロック単位で入力される。例えば、マクロブロックが4つの輝度成分のDCTブロックと2つの色差成分のDCTブロックとから構成されるいわゆる420フォーマットからなる場合には、垂直方向に隣接した2つの輝度成分(Y)のDCTブロックが入力される。マクロブロックが図5に示すように構成されている場合には、輝度成分(Y)のDCTブロック0とDCTブロック2とが対となって入力され、また、DCTブロック1とDCTブロック3とが対となって入力される。
【0067】
まず、ステップS11において、2つのDCTブロックの離散コサイン係数y(時間的に前のDCTブロックの全ての離散コサイン係数のうち垂直方向の係数をy1〜y8として図中に示し、時間的に後のDCTブロックの全ての離散コサイン係数のうち垂直方向の係数をy9〜y16として図中に示す。)に対して、それぞれ独立に8×8の逆離散コサイン変換(IDCT8×8)を行う。逆離散コサイン変換をすることにより、8×8の復号された画素データx(時間的に前のDCTブロックの全ての画素データのうち垂直方向の画素データをx1〜x8として図中に示し、時間的に後のDCTブロックの全ての画素データのうち垂直方向の画素データをx9〜x16として図中に示す。)を得ることができる。
【0068】
続いて、ステップS12において、2つのDCTブロックの8×8の画素データxを、垂直方向に1ライン毎交互に取り出して、飛び越し走査に対応したトップフィールドの8×8の画素ブロックと、飛び越し走査に対応したボトムフィールドの8×8の画素ブロックの2つの画素ブロックにフィールド分離する。すなわち、時間的に前のDCTブロックから、垂直方向に1ライン目の画素データx1と、3ライン目の画素データx3と、5ライン目の画素データx5と、7ライン目の画素データx7とを取り出し、時間的に後のDCTブロックから、垂直方向に1ライン目の画素データx9と、3ライン目の画素データx11と、5ライン目の画素データx13と、7ライン目の画素データx15とを取り出して、トップフィールドに対応した8×8の画素ブロックを生成する。また、時間的に前のDCTブロックから、垂直方向に2ライン目の画素データx2と、4ライン目の画素データx4と、6ライン目の画素データx6と、8ライン目の画素データx8とを取り出し、時間的に後のDCTブロックから、垂直方向に2ライン目の画素データx10と、4ライン目の画素データx12と、6ライン目の画素データx14と、8ライン目の画素データx16とを取り出して、ボトムフィールドに対応した画素ブロックを生成する。
【0069】
続いて、ステップS13において、フィールド分離した2つの8×8の画素ブロックそれぞれに対して8×8の離散コサイン変換(DCT8×8)をする。
【0070】
続いて、ステップS14において、8×8の離散コサイン変換をして得られたトップフィールドに対応する画素ブロックの離散コサイン係数z(トップフィールドに対応する画素ブロックの全ての係数のうち垂直方向の離散コサイン係数をz1,z3,z5,z7,z9,z11,z13,z15として図中に示す。)の高域成分を間引いて、4×4の離散コサイン係数から構成される画素ブロックとする。また、8×8の離散コサイン変換をして得られたボトムフィールドに対応する画素ブロックの離散コサイン係数z(ボトムフィールドに対応する画素ブロックの全ての係数のうち垂直方向の離散コサイン係数をz2,z4,z6,z8,z10,z12,z14,z16として図中に示す。)の高域成分を間引き、4×4の離散コサイン係数から構成される画素ブロックとする。
【0071】
続いて、ステップS15において、高域成分の離散コサイン係数を間引いた4×4の画素ブロックそれぞれに対して、4×4の逆離散コサイン変換(IDCT4×4)を行う。4×4の逆離散コサイン変換をすることにより、4×4の復号された画素データx′(トップフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′1,x′3,x′5,x′7として図中に示し、また、ボトムフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′2,x′4,x′6,x′8として図中に示す。)を得ることができる。
【0072】
続いて、ステップS16において、トップフィールドに対応する画素ブロックの画素データと、ボトムフィールドに対応する画素ブロックの画素データとを、垂直方向に1ラインずつ交互にフレーム合成して、8×8の画素データから構成される縮小逆離散コサイン変換をしたDCTブロックを生成する。
【0073】
以上のステップS11〜ステップS16で示した2ブロック処理を行うことにより、フレームモード用縮小逆離散コサイン変換装15では、図2で示したような、フィールドモード用縮小逆離散コサイン変換装置14で生成した標準解像度画像の画素の位相と同位相の画素から構成されるDCTブロックを生成することができる。
【0074】
また、フレームモード用縮小逆離散コサイン変換装置15では、以上のステップS11〜ステップS16までの2ブロック処理を1つの行列を用いて演算する。具体的には、フレームモード用縮小逆離散コサイン変換装置15では、以上の処理を加法定理を用いて展開計算することにより得られる以下の式(2)に示す行列[FS′′]と、2つのDCTブロックの離散コサイン係数y(y1〜y16)とを行列演算して、縮小逆離散コサイン変換したDCTブロックの画素データx′(x′1〜x′8)を得ることができる。
【0075】
【数3】
Figure 0004026238
【0076】
但し、この式(2)において、A〜Dは、以下の通りである。
【0077】
【数4】
Figure 0004026238
【0078】
【数5】
Figure 0004026238
【0079】
【数6】
Figure 0004026238
【0080】
【数7】
Figure 0004026238
【0081】
また、この式(2)において、a〜gは、以下の通りである。
【0082】
【数8】
Figure 0004026238
【0083】
なお、上記フレームモード用縮小逆離散コサイン変換装置15では、図5で示したいわゆる420フォーマットのマクロブロックが入力された場合には、輝度成分に対しては上記ステップS11〜ステップS16に示した2ブロック処理を行って縮小逆離散コサイン変換を行い、色差成分に対しては、上記ステップS1〜ステップS6に示した1ブロック処理を行って縮小逆離散コサイン変換を行っても良い。
【0084】
以上のように本発明の第1の実施の形態の画像復号装置10では、フィールドDCTモードでは、トップフィールドとボトムフィールドとのそれぞれに4×4の縮小逆離散コサイン変換を行い標準解像度画像を復号し、フレームDCTモードでは、フレーム分離をして縮小逆離散コサイン変換を行い標準解像度画像を復号する。この画像復号装置10では、このようにフィールドDCTモードとフレームDCTモードとで異なる処理を行うため、飛び越し走査画像が有するインタレース性を損なうことなく、かつ、フィールドDCTモードとフレームDCTモードとで復号した画像の位相を同一とすることができ、出力する画像の画質を劣化させない。
【0085】
なお、上記画像復号装置10では、フィールドモード用縮小逆離散コサイン変換装置14の4×4の縮小逆離散コサイン変換処理、及び、フレームモード用縮小逆離散コサイン変換装置15の上記ステップS1〜ステップS6による1ブロック処理による縮小逆離散コサイン変換処理を、高速アルゴリズムを用いて処理してもよい。
【0086】
例えば、Wangのアルゴリズム(参考文献:Zhong DE Wang.,"Fast Algorithms for the Discrete W Transform and for the Discrete Fourier Transform",IEEE Tr.ASSP-32,NO.4,pp.803-816, Aug.1984)を用いることにより、処理を高速化することができる。
【0087】
フィールドモード用縮小逆離散コサイン変換装置14が演算をする行列を、Wangのアルゴリズムを用いて分解すると、以下の式(3)に示すように分解される。
【0088】
【数9】
Figure 0004026238
【0089】
また、図6にフィールドモード用縮小逆離散コサイン変換装置14の処理にWangのアルゴリズムを適用した場合の処理フローを示す。この処理フローに示すように、第1から第5の乗算器14a〜14e及び第1から第9の加算器14f〜14nを用いて、高速化を実現することができる。
【0090】
フレームモード用縮小逆離散コサイン変換装置15が演算をする行列[FS′]を、Wangのアルゴリズムを用いて分解すると、以下の式(4)に示すように分解される。
【0091】
【数10】
Figure 0004026238
【0092】
但し、この式(4)において、A〜Jは、以下の通りである。
【0093】
【数11】
Figure 0004026238
【0094】
また、図7にフレームモード用縮小逆離散コサイン変換装置15の処理にWangのアルゴリズムを適用した場合の処理フローを示す。この処理フローに示すように、第1から第10の乗算器15a〜15j及び第1から第13の加算器15k〜15wを用いて、高速化を実現することができる。
【0095】
(第2の実施の形態)
つぎに、本発明の第2の実施の形態の画像復号装置について説明する。なお、この第2の実施の形態の画像復号装置の説明にあたり、上記第1の画像復号装置10と同一の構成要素については図面中に同一の符号を付け、その詳細な説明を省略する。また、第3の実施の形態以後もそれ以前の実施の形態と同一の構成要素については図面中に同一の符号を付け、その詳細な説明を省略する。
【0096】
図8に示すように、本発明の第2の実施の形態の画像復号装置30は、垂直方向の有効ライン数が例えば1152本の高解像度画像をMPEG2で画像圧縮したビットストリームが入力され、この入力されたビットストリームを復号するとともに1/2の解像度に縮小して、垂直方向の有効ライン数が例えば576本の標準解像度画像を出力する装置である。
【0097】
この画像復号装置30は、圧縮された高解像度画像のビットストリームが供給され、このビットストリームを解析するビットストリーム解析装置11と、データの発生頻度に応じた符号長を割り当てる可変長符号化がされた上記ビットストリームを復号する可変長符号復号装置12と、DCTブロックの各係数に量子化ステップを掛ける逆量子化装置13と、フィールドDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフィールドモード用位相補正縮小逆離散コサイン変換装置31と、フレームDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフレームモード用位相補正縮小逆離散コサイン変換装置32と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置16と、参照画像を一時記憶するフレームメモリ17と、フレームメモリ17が記憶した参照画像にフィールド動き予測モードに対応した動き補償をするフィールドモード用動き補償装置18と、フレームメモリ17が記憶した参照画像にフレーム動き予測モードに対応した動き補償をするフレームモード用動き補償装置19と、フレームメモリ17に記憶した画像に対して、画枠変換をしてモニタ等に表示するための標準解像度の画像データを出力する画枠変換装置33とを備えている。
【0098】
フィールドモード用位相補正縮小逆離散コサイン変換装置31は、入力されたビットストリームのマクロブロックが、フィールドDCTモードで離散コサイン変換されている場合に用いられる。フィールドモード用位相補正縮小逆離散コサイン変換装置31は、フィールドDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックの全ての係数のうち4×8の係数のみに対して、トップフィールドとボトムフィールドの垂直方向の画素の位相ずれを補正した逆離散コサイン変換を行う。すなわち、水平方向に対して低域の4点の離散コサイン係数に基づき逆離散コサイン変換を行い、垂直方向に対して8点の離散コサイン係数に基づき位相ずれを補正した逆離散コサイン変換を行う。具体的には、トップフィールドの垂直方向の各画素に対しては、1/4画素分の位相補正を行い、ボトムフィールドの垂直方向の各画素に対しては、3/4画素分の位相補正を行う。そして、以上のような縮小逆離散コサイン変換を行うことにより、図9に示すような、トップフィールドの各画素の垂直方向の位相が1/4、9/4・・・となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4・・・となる標準解像度画像(下位レイヤー)を生成する。
【0099】
フレームモード用位相補正縮小逆離散コサイン変換装置32は、入力されたビットストリームのマクロブロックが、フレームDCTモードで離散コサイン変換されている場合に用いられる。フレームモード用位相補正縮小逆離散コサイン変換装置32は、フレームDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、詳細を後述する1ブロック処理或いは2ブロック処理により、トップフィールドとボトムフィールドの垂直方向の画素の位相ずれを補正した縮小逆離散コサイン変換を行う。そして、フィールドモード用位相補正縮小逆離散コサイン変換装置31で生成した標準解像度画像の画素の位相と同位相の画像を生成する。すなわち、1ブロック処理或いは2ブロック処理で縮小逆離散コサイン変換を行うことにより、図9に示すような、トップフィールドの各画素の垂直方向の位相が1/4、9/4・・・となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4・・・となる標準解像度画像(下位レイヤー)を生成する。
【0100】
フィールドモード用動き補償装置18は、マクロブロックの動き予測モードがフィールド動き予測モードの場合に用いられる。フィールドモード用動き補償装置18は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、1/4画素精度で補間処理を行い、フィールド動き予測モードに対応した動き補償をする。このフィールドモード用動き補償装置18により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0101】
フレームモード用動き補償装置19は、マクロブロックの動き予測モードがフレーム動き予測モードの場合に用いられる。フレームモード用動き補償装置19は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、1/4画素精度で補間処理を行い、フレーム動き予測モードに対応した動き補償をする。このフレームモード用動き補償装置19により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0102】
画枠変換装置33は、フレームメモリ17が記憶した標準解像度の参照画像が供給され、この参照画像をポストフィルタリングにより、画枠を標準解像度のテレビジョンの規格に合致するように変換する。すなわち、画枠変換装置33は、高解像度のテレビジョン規格の画枠を、1/4に縮小した標準解像度のテレビジョン規格の画枠に変換する。なお、この画枠変換装置33は、フレームメモリ17に格納されている画像がトップフィールドとボトムフィールドとの間に位相ずれが生じていないので、上述した第1の実施の形態の画枠変換・位相ずれ補正装置20と異なり、画素の位相ずれの補正は行わなくて良い。
【0103】
本発明の第2の実施の形態の画像復号装置30では、以上のような構成を有することにより、高解像度画像をMPEG2で画像圧縮したビットストリームを、復号するとともに1/2の解像度に縮小して、標準解像度画像を出力することができる。
【0104】
つぎに、上記フィールドモード用位相補正縮小逆離散コサイン変換装置31の処理内容について、さらに詳細に説明する。
【0105】
フィールドモード用位相補正縮小逆離散コサイン変換装置31には、図10に示すように、高解像度画像を圧縮符号化したビットストリームが、1つのDCTブロック単位で入力される。
【0106】
まず、ステップS21において、この1つのDCTブロックの離散コサイン係数y(DCTブロックの全ての離散コサイン係数のうち垂直方向の係数をy1〜y8として図中に示す。)に対して、8×8の逆離散コサイン変換(IDCT8×8)を行う。逆離散コサイン変換をすることにより、8×8の復号された画素データx(DCTブロックの全ての画素データのうち垂直方向の画素データをx1〜x8として図中に示す。)を得ることができる。
【0107】
続いて、ステップS22において、この8×8の画素データを、4×8の位相補正フィルタ行列によりDCTブロック内で閉じた変換を行い、位相補正した画素データx′(全ての画素データのうち垂直方向の画素データをx′1,x′2,x′3,x′4として図中に示す。)を得る。
【0108】
以上のステップS21〜ステップS22の処理を行うことにより、フィールドモード用位相補正縮小逆離散コサイン変換装置31では、トップフィールドとボトムフィールドとの間で、画素の位相ずれがない画像を生成することができる。
【0109】
また、フィールドモード用位相補正縮小逆離散コサイン変換装置31では、図11に示すように、以上の処理を1つの行列(4×8位相補正IDCT行列)を用いて演算してもよい。
【0110】
つぎに、上記フィールドモード用位相補正縮小逆離散コサイン変換装置31により演算が行われる4×8位相補正IDCT行列の設計手順を図12に示し、この4×8位相補正IDCT行列について説明する。この4×8位相補正IDCT行列は、プロトタイプフィルタをポリフェーズ分解して作成される。
【0111】
ここで、画像復号装置30では、図13(a)に示すような周波数特性の高解像度画像を、図13(b)に示すような信号帯域がローパスフィルタにより半分とされた周波数特性の1/2の解像度の標準解像度画像に、ダウンデコードする。そのため、プロトタイプフィルタに求められる周波数特性は、標準解像度画像の1/4位相の画素値を得ることができるように、図13(c)に示すような4倍のオーバーサンプリングを行った周波数特性となる。
【0112】
まず、ステップS31において、ナイキスト周波数以下を等間隔に{(N−1)/2}分割し、その周波数サンプルからゲインリストを作成する。例えば、図14に示すように、ナイキスト周波数以下の周波数を等間隔に(57−1)/2=28分割して、29個のゲインリストを作成する。
【0113】
続いて、ステップS32において、周波数サンプリング法により、57個のインパルス応答を作成する。すなわち、29個のゲインリストを逆離散フーリエ変換して、57個のFIRフィルタのインパルス応答を作成する。この57個のインパルス応答を図15に示す。
【0114】
続いて、ステップS33において、このインパルス応答に窓関数をかけて、57タップのフィルタ係数c1〜c57を作成する。
【0115】
このステップS33で作成されたフィルタがプロトタイプフィルタとなる。
【0116】
続いて、ステップS34において、57個のフィルタ係数c1〜c57を有するプロトタイプフィルタをポリフェーズ分解して、1/4位相補正特性を有する14個のフィルタ係数c′1〜c′14のみを取り出し、ポリフェーズフィルタを作成する。
【0117】
ここで、ポリフェーズフィルタとは、図16に示すように、入力信号をN倍にオーバーサンプリングし、オーバーサンプリングして得られた信号からN画素間隔で画素を抜き出すポリフェーズ分解を行い、入力信号と1/N位相のずれをもった信号を出力するフィルタである。例えば、入力信号に対して1/4位相ずれた信号を得るためには、図17に示すように、入力信号を4倍にオーバサンプリングして、この信号から1/4位相ずれた信号を取り出せばよい。
【0118】
具体的に、57個の係数を有するプロトタイプフィルタc1〜c57から作成された14個のフィルタ係数c′1〜c′14は、例えば、以下の式(5)で示すような係数となる。
【0119】
【数12】
Figure 0004026238
【0120】
このようにポリフェーズフィルタを作成した後、トップフィールド用の4×8位相補正IDCT行列と、ボトムフィールド用の4×8位相補正IDCT行列とで、設計処理が分割する。
【0121】
まず、トップフィールド用の4×8位相補正IDCT行列を作成する場合には、ステップS35において、フィルタ係数が1/4位相補正特性となるように、ポリフェーズ分解された14個のフィルタ係数c′1〜c′14から、群遅延が1/4、9/4、17/4、25/4位相となる8個の係数を取り出し、4×8位相補正フィルタ行列を作成する。このように作成された4×8位相補正フィルタを、図18に示す。
【0122】
例えば、上記式(5)の14個のフィルタ係数c′1〜c′14から、以下の式(6)で示すような係数が取り出される。
【0123】
【数13】
Figure 0004026238
【0124】
式(6)の係数から4×8位相補正フィルタ行列を求めると、以下の式(7)で示すような行列となる。
【0125】
【数14】
Figure 0004026238
【0126】
この式(7)で示した4×8位相補正フィルタ行列を正規化すると、以下の式(8)に示すような行列となる。
【0127】
【数15】
Figure 0004026238
【0128】
そして、ステップS36において、8×8のIDCT行列と、この4×8位相補正フィルタ行列とを掛け合わせ、トップフィールド用の4×8位相補正IDCT行列を作成する。
【0129】
8×8のIDCT行列と上記式(8)で示す4×8の位相補正フィルタとを掛け合わせた4×8位相補正IDCT行列は、以下の式(9)に示すような行列となる。
【0130】
【数16】
Figure 0004026238
【0131】
一方、ボトムフィールド用の4×8位相補正IDCT行列を作成する場合には、ステップS37において、フィルタ係数が3/4位相補正特性となるように、ポリフェイズ分解された14個のフィルタ係数c′1〜c′14を、左右反転させる。
【0132】
続いて、ステップS38において、左右反転させた14個のフィルタ係数c′1〜c′14から、群遅延が3/4、11/4、19/4、27/4位相となる8個の係数を取り出し、4×8位相補正フィルタ行列を作成する。
【0133】
そして、ステップS39において、8×8のIDCT行列と、この4×8位相補正フィルタ行列とを掛け合わせ、ボトムフィールド用の4×8位相補正IDCT行列を作成する。
【0134】
このようにステップS31〜ステップS39の各処理を行うことによって、フィールドモード用位相補正縮小逆離散コサイン変換装置31が演算を行う4×8位相補正IDCT行列を作成することができる。
【0135】
以上のように、フィールドモード用位相補正縮小逆離散コサイン変換装置31では、この4×8位相補正IDCT行列と、入力されたフィールドDCTモードで離散コサイン変換がされたDCTブロックの係数とを行列演算することにより、トップフィールドとボトムフィールドとの間の位相ずれがない、標準解像度の画像を復号することができる。すなわち、このフィールドモード用位相補正縮小逆離散コサイン変換装置31では、図9に示すような、トップフィールドの各画素の垂直方向の位相が1/4、9/4・・・となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4・・・となる標準解像度画像(下位レイヤー)を生成することができる。
【0136】
つぎに、上記フレームモード用位相補正縮小逆離散コサイン変換装置32の処理内容について、さらに詳細に説明する。
【0137】
なお、フレームモード用位相補正縮小逆離散コサイン変換装置32では、以下に説明する1ブロック処理及び2ブロック処理のいずれか或いは両者の処理を行うことができる。必要に応じて、1ブロック処理又は2ブロック処理を切り換えて用いても良いし、或いは、いずれか一方の処理のみを行っても良い。
【0138】
まず、1ブロック処理について説明する。図19に、1ブロック処理の内容を説明するための図を示す。
【0139】
フレームモード用位相補正縮小逆離散コサイン変換装置32には、図19に示すように、高解像度画像を圧縮符号化したビットストリームが、1つのDCTブロック単位で入力される。
【0140】
まず、ステップS41において、この1つのDCTブロックの離散コサイン係数yに対して、8×8の逆離散コサイン変換を行う。続いて、ステップS42において、この8×8の画素データをフィールド分離する。続いて、ステップS43において、フィールド分離した2つの画素ブロックそれぞれに対して4×4の離散コサイン変換をする。続いて、ステップS44において、各画素ブロックの離散コサイン係数zの高域成分を間引き、2×2の離散コサイン係数から構成される画素ブロックとする。以上のステップS41からステップS44までの処理は、図3に示す1ブロック処理におけるステップS1からステップS4までの処理と同一である。
【0141】
続いて、ステップS45において、トップフィールドに対応する画素ブロックに対しては、1/4画素分の位相補正をする2×4位相補正IDCT行列を用いて、垂直方向の画素の位相ずれを補正した逆離散コサイン変換を行う。また、ボトムフィールドに対応する画素ブロックに対しては、3/4画素分の位相補正をする2×4位相補正IDCT行列を用いて、垂直方向の画素の位相ずれを補正した逆離散コサイン変換を行う。以上のような縮小逆離散コサイン変換を行うことにより、2×2の画素データx′(トップフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′1,x′3として図中に示し、また、ボトムフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′2,x′4として図中に示す。)を得ることができる。この画素データx′は、トップフィールドの各画素の垂直方向の位相が1/4、9/4となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4となる標準解像度画像(下位レイヤー)を生成する。なお、この2×4位相補正IDCT行列の設計方法については詳細を後述する。
【0142】
続いて、ステップS46において、トップフィールドに対応する画素ブロックの画素データとボトムフィールドの画像ブロックの画素データとをフレーム合成する。このステップS46の処理は、図3に示す1ブロック処理におけるステップS6の処理と同一である。
【0143】
以上のステップS41〜ステップS46の処理を行うことにより、フレームモード用位相補正縮小逆離散コサイン変換装置32では、画素間の位相ずれがない画像を生成することができる。また、上記フィールドモード用位相補正縮小逆離散コサイン変換装置31で復号した画像と位相ずれが生じない画像を生成することができる。
【0144】
また、フレームモード用位相補正縮小逆離散コサイン変換装置32では、以上のステップS41からステップS46までの処理を1つの行列を用いて演算してもよい。
【0145】
つぎに、フレームモード用位相補正縮小逆離散コサイン変換装置32のステップS45で演算が行われる2×4位相補正IDCT行列の設計手順を図20に示し、この2×8位相補正IDCT行列について説明する。
【0146】
まず、ステップS51において、ナイキスト周波数以下を等間隔に{(N−1)/2}分割し、その周波数サンプルからゲインリストを作成する。例えば、図21に示すように、ナイキスト周波数以下の周波数を等間隔に(25−1)/2=12分割して、13個のゲインリストを作成する。
【0147】
続いて、ステップS52において、周波数サンプリング法により、25個のインパルス応答を作成する。すなわち、13個のゲインリストを逆離散フーリエ変換して、25個のFIRフィルタのインパルス応答を作成する。この25個のインパルス応答を図22に示す。
【0148】
続いて、ステップS53において、このインパルス応答に窓関数をかけて、25タップのフィルタ係数c1〜c25を作成する。
【0149】
このステップS53で作成されたフィルタがプロトタイプフィルタとなる。
【0150】
続いて、ステップS54において、25個のフィルタ係数c1〜c25を有するプロトタイプフィルタをポリフェーズ分解して、1/4位相補正特性を有する6個のフィルタ係数c′1〜c′6のみを取り出し、ポリフェーズフィルタを作成する。
【0151】
具体的に、57個の係数を有するプロトタイプフィルタc1〜c25から作成された14個のフィルタ係数c′1〜c′6は、例えば、以下の式(10)で示すような係数となる。
【0152】
【数17】
Figure 0004026238
【0153】
このようにポリフェーズフィルタを作成した後、トップフィールド用の2×4位相補正IDCT行列と、ボトムフィールド用の2×4位相補正IDCT行列とで、設計処理が分割する。
【0154】
まず、トップフィールド用の2×4位相補正IDCT行列を作成する場合には、ステップS55において、ポリフェーズ分解された6個のフィルタ係数c′1〜c′6から、群遅延が1/4、9/4位相となるように、それぞれ2個の係数を取り出し、2×4位相補正フィルタ行列を作成する。このように作成された2×4位相補正フィルタを、図23に示す。
【0155】
例えば、上記式(10)の6個のフィルタ係数c′1〜c′6から、以下の式(11)で示すような係数が取り出される。
【0156】
【数18】
Figure 0004026238
【0157】
式(11)の係数から2×4位相補正フィルタ行列を求めると、以下の式(12)で示すような行列となる。
【0158】
【数19】
Figure 0004026238
【0159】
この式(12)で示した2×4位相補正フィルタ行列を正規化すると、以下の式(13)に示すような行列となる。
【0160】
【数20】
Figure 0004026238
【0161】
そして、ステップS56において、4×4のIDCT行列と、この2×4位相補正フィルタ行列とを掛け合わせ、トップフィールド用の2×4位相補正IDCT行列を作成する。
【0162】
2×4のIDCT行列と上記式(13)で示す2×4の位相補正フィルタとを掛け合わせた2×4位相補正IDCT行列は、以下の式(14)に示すような行列となる。
【0163】
【数21】
Figure 0004026238
【0164】
一方、ボトムフィールド用の2×4位相補正IDCT行列を作成する場合には、ステップS57において、フィルタ係数が3/4位相補正特性となるように、ポリフェイズ分解された6個のフィルタ係数c′1〜c′6を、左右反転させる。
【0165】
続いて、ステップS58において、左右反転させた6個のフィルタ係数c′1〜c′6から、群遅延が3/4、11/4位相となるように、それぞれ2個の係数を取り出し、2×4位相補正フィルタ行列を作成する。
【0166】
そして、ステップS59において、4×4のIDCT行列と、この2×4位相補正フィルタ行列とを掛け合わせ、ボトムフィールド用の2×4位相補正IDCT行列を作成する。
【0167】
以上のようにステップS51〜ステップS59の各処理を行うことによって、フレームモード用位相補正縮小逆離散コサイン変換装置32が上記ステップS45で演算を行う2×4位相補正IDCT行列を作成することができる。
【0168】
つぎに、2ブロック処理について説明する。図24に、2ブロック処理の内容を説明するための図を示す。
【0169】
フレームモード用位相補正縮小逆離散コサイン変換装置32には、図24に示すように、高解像度画像を圧縮符号化したビットストリームが、2つのDCTブロック単位で入力される。例えば、マクロブロックが4つの輝度成分のDCTブロックと2つの色差成分のDCTブロックとから構成される場合には、垂直方向に隣接した2つのDCTブロックが入力される。例えば、マクロブロックが上述した図5に示すように構成されている場合には、輝度成分(Y)のDCTブロック0とDCTブロック2とが対となって入力され、また、DCTブロック1とDCTブロック3とが対となって入力される。
【0170】
まず、ステップS61において、2つのDCTブロックの離散コサイン係数yに対して、それぞれ独立に8×8の逆離散コサイン変換を行う。逆離散コサイン変換をすることにより、8×8の復号された画素データxを得ることができる。続いて、ステップS62において、2つの8×8の画素データをフィールド分離する。続いて、ステップS63において、フィールド分離した2つの8×8の画素ブロックそれぞれに対して8×8の離散コサイン変換をする。続いて、ステップS64において、8×8の離散コサイン変換をして得られたトップフィールドに対応する画素ブロックの離散コサイン係数zの高域成分を間引いて、4×4の離散コサイン係数から構成される画素ブロックとする。また、8×8の離散コサイン変換をして得られたボトムフィールドに対応する画素ブロックの離散コサイン係数zの高域成分を間引き、4×4の離散コサイン係数から構成される画素ブロックとする。
【0171】
以上のステップS61からステップS64までの処理は、図4に示す2ブロック処理におけるステップS11からステップS14までの処理と同一である。
【0172】
続いて、ステップS65において、トップフィールドの画素ブロックに対しては、1/4画素分の位相補正をする4×8位相補正IDCT行列を用いて、垂直方向の画素の位相ずれを補正した逆離散コサイン変換を行う。また、ボトムフィールドの画素ブロックに対しては、3/4画素分の位相補正をする4×8位相補正IDCT行列を用いて、垂直方向の画素の位相ずれを補正した逆離散コサイン変換を行う。以上のような縮小逆離散コサイン変換を行うことにより、4×4の画素データx′(トップフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′1,x′3,x′5,x′7として図中に示し、また、ボトムフィールドに対応する画素ブロックの全ての画素データのうち垂直方向の画素データをx′2,x′4,x′6,x′8として図中に示す。)を得ることができる。この画素データx′は、トップフィールドの各画素の垂直方向の位相が1/4、9/4・・・となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4・・・となる標準解像度画像(下位レイヤー)を生成する。なお、この4×8位相補正IDCT行列の設計方法は、上述したフィールドモード用位相補正縮小逆離散コサイン変換装置31で演算される行列と同一である。
【0173】
続いて、ステップS66において、トップフィールドに対応する画素ブロックの画素データと、ボトムフィールドに対応する画素ブロックの画素データとを、垂直方向に1ラインずつ交互にフレーム合成して、8×8の画素データから構成される縮小逆離散コサイン変換をしたDCTブロックを生成する。
【0174】
以上のステップS61〜ステップS66の2ブロック処理を行うことにより、フレームモード用位相補正縮小逆離散コサイン変換装置32では、画素間の位相ずれがない画像を生成することができる。また、上記フィールドモード用位相補正縮小逆離散コサイン変換装置31で復号した画像と位相ずれが生じない画像を生成することができる。
【0175】
また、フレームモード用位相補正縮小逆離散コサイン変換装置32では、以上のステップS61からステップS66までの処理を1つの行列を用いて演算してもよい。
【0176】
以上のように本発明の第2の実施の形態の画像復号装置30では、フィールドDCTモードでは、トップフィールドとボトムフィールドとのそれぞれに4×4の縮小逆離散コサイン変換を行うとともに位相補正をして標準解像度画像を復号し、フレームDCTモードでは、フレーム分離をして縮小逆離散コサイン変換を行うとともに位相補正をして標準解像度画像を復号する。この画像復号装置30では、このようにフィールドDCTモードとフレームDCTモードとでそれぞれで処理を行うため飛び越し走査画像が有するインタレース性を損なうことなく、かつ、縮小逆離散コサイン変換を行うときに生じるトップフィールドとボトムフィールドとの間の位相ずれをなくし、出力する画像の画質を劣化させない。即ち、この画像復号装置30では、フレームメモリ17に格納された復号画像を出力する際に、位相補正をする必要が無く、処理が簡易化するとともに画質の劣化を生じさせない。
【0177】
(第3の実施の形態)
つぎに、本発明の第3の実施の形態の画像復号装置について説明する。
【0178】
図25に示すように、本発明の第3の実施の形態の画像復号装置40は、垂直方向の有効ライン数が例えば1152本の高解像度画像をMPEG2で画像圧縮したビットストリームが入力され、この入力されたビットストリームを復号するとともに1/2の解像度に縮小して、垂直方向の有効ライン数が例えば576本の標準解像度画像を出力する装置である。
【0179】
この画像復号装置40は、圧縮された高解像度画像のビットストリームが供給され、このビットストリームを解析するビットストリーム解析装置11と、データの発生頻度に応じた符号長を割り当てる可変長符号化がされた上記ビットストリームを復号する可変長符号復号装置12と、DCTブロックの各係数に量子化ステップを掛ける逆量子化装置13と、フィールドDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフィールドモード用縮小逆離散コサイン変換装置14と、フレームDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフレームモード用縮小逆離散コサイン変換装置15と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置16と、参照画像を一時記憶するフレームメモリ17と、フレームメモリ17が記憶した参照画像にフィールド動き予測モードに対応した動き補償をするフィールドモード用動き補償装置41と、フレームメモリ17が記憶した参照画像にフレーム動き予測モードに対応した動き補償をするフレームモード用動き補償装置42と、フレームメモリ17に記憶した画像に対してポストフィルタリングをすることにより、画枠変換をするとともに画素の位相ずれを補正してテレビジョンモニタ等に表示するための標準解像度の画像データを出力する画枠変換・位相ずれ補正装置20とを備えている。
【0180】
フィールドモード用縮小逆離散コサイン変換装置14は、入力されたビットストリームのマクロブロックが、フィールドDCTモードで離散コサイン変換されている場合に用いられる。フィールドモード用縮小逆離散コサイン変換装置14は、フィールドDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、図38で示したような、低域の4×4の係数のみに逆離散コサイン変換を行う。すなわち、水平方向及び垂直方向の低域の4点の離散コサイン係数に基づき縮小逆離散コサイン変換を行う。このフィールドモード用縮小逆離散コサイン変換装置14では、以上のような縮小逆離散コサイン変換を行うことにより、1つのDCTブロックが4×4の画素から構成される標準解像度画像を復号することができる。この復号された画像データの各画素の位相は、図2に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。
【0181】
フレームモード用縮小逆離散コサイン変換装置15は、入力されたビットストリームのマクロブロックが、フレームDCTモードで離散コサイン変換されている場合に用いられる。フレームモード用縮小逆離散コサイン変換装置15は、フレームDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、縮小逆離散コサイン変換を行う。そして、フレームモード用縮小逆離散コサイン変換装置15では、1つのDCTブロックが4×4の画素から構成される解像度画像を復号するとともに、フィールドモード用縮小逆離散コサイン変換装置14で生成した標準解像度画像の画素の位相と同位相の画像を生成する。すなわち、フレームモード用縮小逆離散コサイン変換装置15で復号された画像データの各画素の位相は、図2に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。
【0182】
フィールドモード用動き補償装置41は、マクロブロックの動き予測モードがフィールド動き予測モードの場合に用いられる。フィールドモード用動き補償装置41は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、トップフィールドとボトムフィールドとの間の位相ずれ成分を考慮した形で1/4画素精度で補間処理を行い、フィールド動き予測モードに対応した動き補償をする。このフィールドモード用動き補償装置41により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0183】
フレームモード用動き補償装置42は、マクロブロックの動き予測モードがフレーム動き予測モードの場合に用いられる。フレームモード用動き補償装置42は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、トップフィールドとボトムフィールドとの間の位相ずれ成分を考慮した形で1/4画素精度で補間処理を行い、フレーム動き予測モードに対応した動き補償をする。このフレームモード用動き補償装置42により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0184】
本発明の第3の実施の形態の画像復号装置40では、以上のような構成を有することにより、高解像度画像をMPEG2で画像圧縮したビットストリームを、復号するとともに解像度を1/2に縮小して、標準解像度画像を出力することができる。
【0185】
つぎに、フィールドモード用動き補償装置41及びフレームモード用動き補償装置42について、さらに詳細に説明する。
【0186】
まず、フィールドモード用動き補償装置41が行う補間処理について説明する。このフィールドモード用動き補償装置41では、以下に説明するように、高解像度画像の1/2画素精度の動き補償に対応するように、フレームメモリ17に記憶されている標準解像度画像の画素を補間して、1/4画素精度の画素を生成する。
【0187】
水平方向の画素に対しては、まず、2倍補間フィルタを用いて、フレームメモリ17に記憶された整数精度の画素から1/2画素精度の画素を生成する。フィールドモード用動き補償装置41は、例えば、ハーフバンドフィルタを用いて、1/2画素精度の画素を生成する。続いて、線形補間フィルタを用いて、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。フィールドモード用動き補償装置41では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフィールドモード用動き補償装置41では、高速な処理を行うことができる。また、このフィールドモード用動き補償装置41では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0188】
垂直方向の画素に対しては、まず、図26(a)に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となるような、トップフィールドとボトムフィールドとのフィールド間で位相ずれを含む標準解像度画像の整数精度の画素を、フレームメモリ17から取り出す。
【0189】
続いて、垂直方向の画素に対しては、図26(b)に示すように、ハーフバンドフィルタのような2倍補間フィルタを用いて、フィールド内で、フレームメモリ17から取り出した整数精度の画素から1/2画素精度の画素を生成する。すなわち、トップフィールドの整数精度の画素に基づきトップフィールドの1/2画素精度の画素を生成し、ボトムフィールドの整数精度の画素に基づきボトムフィールドの1/2画素精度の画素を生成する。例えば、この図26(b)に示すように、垂直方向の位相が7/2の位置にあるトップフィールドの画素は、・・・1/2,5/2,9/2,13/2・・・の位置にあるトップフィールドの画素から2倍補間をされて生成される。また、垂直方向の位相が4の位置にあるボトムフィールドの画素は、・・・1,3,5,7・・・の位置にあるボトムフィールドの画素から2倍補間をされて生成される。
【0190】
続いて、垂直方向の画素に対しては、図26(c)に示すように、線形補間フィルタを用いて、フィールド内で、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。すなわち、トップフィールドの1/2画素精度の画素に基づきトップフィールドの1/4画素精度の画素を生成し、ボトムフィールドの1/2画素精度の画素に基づきボトムフィールドの1/4画素精度の画素を生成する。例えば、この図26(c)に示すように、垂直方向の位相が9/4の位置にあるトップフィールドの画素は、2,5/2の位置にあるトップフィールドの画素から線形補間をされて生成される。また、垂直方向の位相が10/4の位置にあるボトムフィールドの画素は、9/4,11/4の位置にあるボトムフィールドの画素から線形補間をされて生成される。
【0191】
このように垂直方向の補間を行うことによりフィールドモード用動き補償装置41では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフィールドモード用動き補償装置41では、高速な処理を行うことができる。また、このフィールドモード用動き補償装置41では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0192】
つぎに、フレームモード用動き補償装置42が行う補間処理について説明する。このフレームモード用動き補償装置42では、以下に説明するように、高解像度画像の1/2画素精度の動き補償に対応するように、フレームメモリ17に記憶されている標準解像度画像の画素を補間して、1/4画素精度の画素を生成する。
【0193】
水平方向の画素に対しては、まず、2倍補間フィルタを用いて、フレームメモリ17に記憶された整数精度の画素から1/2画素精度の画素を生成する。フレームモード用動き補償装置42は、例えば、ハーフバンドフィルタを用いて、1/2画素精度の画素を生成する。続いて、線形補間フィルタを用いて、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。フレームモード用動き補償装置42では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフレームモード用動き補償装置42では、高速な処理を行うことができる。また、このフレームモード用動き補償装置42では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0194】
垂直方向の画素に対しては、まず、図27(a)に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となるような、トップフィールドとボトムフィールドとのフィールド間で位相ずれを含む標準解像度画像の整数精度の画素を、フレームメモリ17から取り出す。
【0195】
続いて、垂直方向の画素に対しては、図27(b)に示すように、ハーフバンドフィルタのような2倍補間フィルタを用いて、フィールド内で、フレームメモリ17から取り出した整数精度の画素から1/2画素精度の画素を生成する。すなわち、トップフィールドの整数精度の画素に基づきトップフィールドの1/2画素精度の画素を生成し、ボトムフィールドの整数精度の画素に基づきボトムフィールドの1/2画素精度の画素を生成する。例えば、この図27(b)に示すように、垂直方向の位相が7/2の位置にあるトップフィールドの画素は、・・・1/2,5/2,9/2,13/2・・・の位置にあるトップフィールドの画素から2倍補間をされて生成される。また、垂直方向の位相が4の位置にあるボトムフィールドの画素は、・・・1,3,5,7・・・の位置にあるボトムフィールドの画素から2倍補間をされて生成される。
【0196】
続いて、垂直方向の画素に対しては、図27(c)に示すように、線形補間フィルタを用いて、トップフィールドとボトムフィールドの2つのフィールド間で、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。例えば、この図27(c)に示すように、垂直方向の位相が1/4の位置にある画素は、0の位置にあるトップフィールドの画素と、1/2の位置にあるボトムフィールドの画素から線形補間をされて生成される。また、垂直方向の位相が3/4の位置にある画素は、1/2の位置にあるボトムフィールドの画素と1の位置にあるトップフィールドの画素から線形補間をされて生成される。
【0197】
このように垂直方向の補間を行うことによりフレームモード用動き補償装置42では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフィールドモード用動き補償装置41では、高速な処理を行うことができる。また、トップフィールドとボトムフィールドとの間で位相ずれが生じず、いわゆるフィールド反転やフィールドミックスを防ぐことができ、画質の劣化を防止することができる。また、このフレームモード用動き補償装置42では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0198】
以上のように本発明の第3の実施の形態の画像復号装置40では、フィールドDCTモードでは、トップフィールドとボトムフィールドとのそれぞれに4×4の縮小逆離散コサイン変換を行い標準解像度画像を復号し、フレームDCTモードでは、フレーム分離をして縮小逆離散コサイン変換を行い標準解像度画像を復号する。この画像復号装置40では、このようにフィールドDCTモードとフレームDCTモードとでそれぞれで処理を行うため飛び越し走査画像が有するインタレース性を損なうことなく、かつ、フィールドDCTモードとフレームDCTモードとで復号した画像の位相を同一とすることができ、出力する画像の画質を劣化させない。さらに、この画像復号装置40では、動き補償に起因する画質の劣化を防止する。また、この画像復号装置40では、動き補償の際に、2倍補間フィルタを用いてフレームメモリ17に記憶した画像の補間をすることで、タップ数に応じた積和演算を行うことなく、高速に処理ができる。
【0199】
なお、この画像復号装置40では、入力されたビットストリーム中の動きベクトルの値に応じて、必要な画素のみを生成しても良い。また、水平方向と垂直方向の動きベクトルの値に応じたフィルタ係数を予め用意しておき、垂直方向と水平方向の補間を1度に行っても良い。
【0200】
ところで、この第3の実施の形態の画像復号装置40のフレームモード用動き補償装置42は、以下に説明するように垂直方向の画素に対して、トップフィールドとボトムフィールドとを区別せずに補間処理を行っても良い。
【0201】
まず、図28(a)に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となるような、トップフィールドとボトムフィールドとのフィールド間で位相ずれを含む標準解像度画像の整数精度の画素を、フレームメモリ17から取り出す。なお、この図28には、トップフィールドとボトムフィールドとを区別せずに画素値を記載している。
【0202】
続いて、垂直方向の画素に対して、不等間隔のサンプリング点から補間値を生成するフィルタを用いて、トップフィールドとボトムフィールドとの間で補間を行い、図28(c)に示すような1/4画素精度の画素を生成する。この不等間隔のサンプリング点から補間値を生成するフィルタは、例えば、N次元曲線近似方式等を用いて設計することが可能である。N次元曲線近似等を用いて設計されたフィルタを用いることにより、フレームメモリ17から取り出された画素をそのまま出力する場合には、演算を行う必要がなく、処理を高速化することができる。
【0203】
また、垂直方向の画素に対しては、図28(b)に示すようにトップフィールドとボトムフィールドとの間で画素の補間を行って1/2画素精度の画素を生成し、図28(c)に示すように、線形補間フィルタを用いてトップフィールドとボトムフィールドの2つのフィールド間で1/4画素精度の画素を生成してもよい。この場合、2段階のフィルタ処理に相当する係数を予め用意しておき、その係数をフレームメモリ17から取り出した画素値に直接演算することにより、動き補償の処理を高速化することができる。
【0204】
フレームモード用動き補償装置42は、図27で示したフィールド内で2倍補間を行う補間処理と、図28で示したフィールドを区別せずに行う補間処理とを、所定の条件で切り換えて、画像の内容等に応じた最適な補間処理を行っても良い。
【0205】
(第4の実施の形態)
つぎに、本発明の第4の実施の形態の画像復号装置について説明する。
【0206】
図29に示すように、本発明の第4の実施の形態の画像復号装置50は、垂直方向の有効ライン数が例えば1152本の高解像度画像をMPEG2で画像圧縮したビットストリームが入力され、この入力されたビットストリームを復号するとともに1/2の解像度に縮小して、垂直方向の有効ライン数が例えば576本の標準解像度画像を出力する装置である。
【0207】
この画像復号装置50は、圧縮された高解像度画像のビットストリームが供給され、このビットストリームを解析するビットストリーム解析装置11と、データの発生頻度に応じた符号長を割り当てる可変長符号化がされた上記ビットストリームを復号する可変長符号復号装置12と、DCTブロックの各係数に量子化ステップを掛ける逆量子化装置13と、フィールドDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフィールドモード用位相補正縮小逆離散コサイン変換装置31と、フレームDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフレームモード用位相補正縮小逆離散コサイン変換装置32と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置16と、参照画像を一時記憶するフレームメモリ17と、フレームメモリ17が記憶した参照画像にフィールド動き予測モードに対応した動き補償をするフィールドモード用動き補償装置51と、フレームメモリ17が記憶した参照画像にフレーム動き予測モードに対応した動き補償をするフレームモード用動き補償装置52と、フレームメモリ17に記憶した画像に対して、画枠変換をしてモニタ等に表示するための標準解像度の画像データを出力する画枠変換装置33とを備えている。
【0208】
フィールドモード用位相補正縮小逆離散コサイン変換装置31は、入力されたビットストリームのマクロブロックが、フィールドDCTモードで離散コサイン変換されている場合に用いられる。フィールドモード用位相補正縮小逆離散コサイン変換装置31は、フィールドDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックの全ての係数のうち4×8の係数のみに対して、トップフィールドとボトムフィールドとの間の垂直方向の画素の位相ずれを補正した逆離散コサイン変換を行う。すなわち、水平方向に対して低域の4点の離散コサイン係数に基づき逆離散コサイン変換を行い、垂直方向に対して8点の離散コサイン係数に基づき位相ずれを補正した逆離散コサイン変換を行う。具体的には、トップフィールドの垂直方向の各画素に対しては、1/4画素分の位相補正を行い、ボトムフィールドの垂直方向の各画素に対しては、3/4画素分の位相補正を行う。そして、以上のような縮小逆離散コサイン変換を行うことにより、図9に示すような、トップフィールドの各画素の垂直方向の位相が1/4、9/4・・・となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4・・・となる標準解像度画像(下位レイヤー)を生成する。
【0209】
フレームモード用位相補正縮小逆離散コサイン変換装置32は、入力されたビットストリームのマクロブロックが、フレームDCTモードで離散コサイン変換されている場合に用いられる。フレームモード用位相補正縮小逆離散コサイン変換装置32は、フレームDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、1ブロック処理或いは2ブロック処理により、トップフィールドとボトムフィールドとの間の垂直方向の画素の位相ずれを補正した縮小逆離散コサイン変換を行う。そして、フィールドモード用位相補正縮小逆離散コサイン変換装置31で生成した標準解像度画像の画素の位相と同位相の画像を生成する。すなわち、1ブロック処理或いは2ブロック処理で縮小逆離散コサイン変換を行うことにより、図9に示すような、トップフィールドの各画素の垂直方向の位相が1/4、9/4・・・となり、ボトムフィールドの各画素の垂直方向の位相が5/4、13/4・・・となる標準解像度画像(下位レイヤー)を生成する。
【0210】
フィールドモード用動き補償装置51は、マクロブロックの動き予測モードがフィールド動き予測モードの場合に用いられる。フィールドモード用動き補償装置51は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、1/4画素精度で補間処理を行い、フィールド動き予測モードに対応した動き補償をする。このフィールドモード用動き補償装置51により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0211】
フレームモード用動き補償装置52は、マクロブロックの動き予測モードがフレーム動き予測モードの場合に用いられる。フレームモード用動き補償装置52は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、1/4画素精度で補間処理を行い、フレーム動き予測モードに対応した動き補償をする。このフレームモード用動き補償装置52により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。
【0212】
本発明の第4の実施の形態の画像復号装置50では、以上のような構成を有することにより、高解像度画像をMPEG2で画像圧縮したビットストリームを、復号するとともに1/2の解像度に縮小して、標準解像度画像を出力することができる。
【0213】
つぎに、フィールドモード用動き補償装置51及びフレームモード用動き補償装置52について、さらに詳細に説明する。
【0214】
まず、フレームモード用動き補償装置52が行う補間処理について説明する。このフレームモード用動き補償装置52では、以下に説明するように、高解像度画像の1/2画素精度の動き補償に対応するように、フレームメモリ17に記憶されている標準解像度画像の画素を補間して、1/4画素精度の画素を生成する。
【0215】
水平方向の画素に対しては、まず、2倍補間フィルタを用いて、フレームメモリ17に記憶された整数精度の画素から1/2画素精度の画素を生成する。フィールドモード用動き補償装置51は、例えば、ハーフバンドフィルタを用いて、1/2画素精度の画素を生成する。続いて、線形補間フィルタを用いて、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。フィールドモード用動き補償装置51では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフィールドモード用動き補償装置51では、高速な処理を行うことができる。また、このフィールドモード用動き補償装置51では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0216】
垂直方向の画素に対しては、まず、図30(a)に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2、9/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が3/2、7/2、11/2・・・となるような、トップフィールドとボトムフィールドとのフィールド間で位相ずれが補正された標準解像度画像の整数精度の画素を、フレームメモリ17から取り出す。
【0217】
続いて、垂直方向の画素に対しては、図30(b)に示すように、ハーフバンドフィルタのような2倍補間フィルタを用いて、フィールド内で、フレームメモリ17から取り出した整数精度の画素から1/2画素精度の画素を生成する。すなわち、トップフィールドの整数精度の画素に基づきトップフィールドの1/2画素精度の画素が生成され、ボトムフィールドの整数精度の画素に基づきボトムフィールドの1/2画素精度の画素が生成される。例えば、この図30(b)に示すように、垂直方向の位相が7/2の位置にあるトップフィールドの画素は、・・・1/2,5/2,9/2,13/2・・・の位置にあるトップフィールドの画素から2倍補間をされて生成される。また、垂直方向の位相が9/2の位置にあるボトムフィールドの画素は、・・・3/2,7/2,11/2,15/2・・・の位置にあるボトムフィールドの画素から2倍補間をされて生成される。
【0218】
続いて、垂直方向の画素に対しては、図30(c)に示すように、線形補間フィルタを用いて、フィールド内で、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。すなわち、トップフィールドの1/2画素精度の画素に基づきトップフィールドの1/4画素精度の画素を生成し、ボトムフィールドの1/2画素精度の画素に基づきボトムフィールドの1/4画素精度の画素を生成する。例えば、この図30(c)に示すように、垂直方向の位相が9/4の位置にあるトップフィールドの画素は、2,5/2の位置にあるトップフィールドの画素から線形補間をされて生成される。また、垂直方向の位相が11/4の位置にあるボトムフィールドの画素は、10/4,3の位置にあるボトムフィールドの画素から線形補間をされて生成される。
【0219】
このように垂直方向の補間を行うことによりフィールドモード用動き補償装置51では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフィールドモード用動き補償装置51では、高速な処理を行うことができる。また、このフィールドモード用動き補償装置51では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0220】
つぎに、フレームモード用動き補償装置52が行う補間処理について説明する。このフレームモード用動き補償装置52では、以下に説明するように、高解像度画像の1/2画素精度の動き補償に対応するように、フレームメモリ17に記憶されている標準解像度画像の画素を補間して、1/4画素精度の画素を生成する。
【0221】
水平方向の画素に対しては、まず、2倍補間フィルタを用いて、フレームメモリ17に記憶された整数精度の画素から1/2画素精度の画素を生成する。フレームモード用動き補償装置52は、例えば、ハーフバンドフィルタを用いて、1/2画素精度の画素を生成する。続いて、線形補間フィルタを用いて、2倍補間フィルタを用いて生成した1/2画素精度の画素から1/4画素精度の画素を生成する。フレームモード用動き補償装置52では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフレームモード用動き補償装置52では、高速な処理を行うことができる。また、このフレームモード用動き補償装置52では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0222】
垂直方向の画素に対しては、まず、図31(a)に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2、9/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が3/2、7/2、11/2・・・となるような、トップフィールドとボトムフィールドとのフィールド間で位相ずれが無い標準解像度画像の整数精度の画素を、フレームメモリ17から取り出す。
【0223】
続いて、垂直方向の画素に対しては、図31(b)に示すように、一方のフィールドに対しては、ハーフバンドフィルタのような2倍補間フィルタを用いて、フレームメモリ17から取り出した整数精度の画素から1/2画素精度の画素を生成する。また、他方のフィールドに対しては、フィルタを用いて、フレームメモリ17から取り出した整数精度の画素から、1/4及び3/4位相ずれた画素を生成する。例えば、トップフィールドの整数精度の画素に基づきトップフィールドの1/2画素精度の画素を生成し、ボトムフィールドの整数精度の画素に基づきボトムフィールドの1/4、3/4画素分の位相がずれた画素を生成する。具体的には、この図31(b)に示すように、垂直方向の位相が7/2の位置にあるトップフィールドの画素は、・・・1/2,5/2,9/2,13/2・・・の位置にあるトップフィールドの画素から2倍補間をされて生成される。また、垂直方向の位相が4及び5の位置にあるボトムフィールドの画素は、・・・3/2,7/2,11/2,15/2・・・の位置にあるボトムフィールドの画素から1/4又は3/4位相がずれた補間がされて生成される。
【0224】
続いて、垂直方向の画素に対しては、図31(c)に示すように、線形補間フィルタを用いて、トップフィールドとボトムフィールドの2つのフィールド間で、生成した1/2画素精度の画素から1/4画素精度の画素を生成する。例えば、この図31(c)に示すように、垂直方向の位相が1/4の位置にある画素は、0の位置にあるトップフィールドの画素と、1/2の位置にあるボトムフィールドの画素から線形補間をされて生成される。また、垂直方向の位相が3/4の位置にある画素は、1/2の位置にあるボトムフィールドの画素と1の位置にあるトップフィールドの画素から線形補間をされて生成される。
【0225】
このように垂直方向の補間を行うことによりフレームモード用動き補償装置52では、ハーフバンドフィルタのような2倍補間フィルタを用いることで、タップ数に応じた積和演算を行うことなく、フレームメモリ17に記憶した標準解像度画像の画素と同位相の画素を高解像度画像に対応した参照画像として出力することができる。そのため、このフィールドモード用動き補償装置51では、高速な処理を行うことができる。また、トップフィールドとボトムフィールドとの間で位相ずれが生じず、いわゆるフィールド反転やフィールドミックスを防ぐことができ、画質の劣化を防止することができる。また、このフレームモード用動き補償装置52では、以上の処理を1つの行列を用いて演算してもよく、また、4倍補間フィルタを用いて整数精度の画素から1/4精度の画素を生成しても良い。
【0226】
以上のように本発明の第3の実施の形態の画像復号装置50では、フィールドDCTモードでは、トップフィールドとボトムフィールドとのそれぞれに4×4の縮小逆離散コサイン変換を行うとともに位相ずれを補正した標準解像度画像を復号し、フレームDCTモードでは、フレーム分離をして縮小逆離散コサイン変換を行い位相ずれを補正した標準解像度画像を復号する。この画像復号装置50では、このようにフィールドDCTモードとフレームDCTモードとでそれぞれで処理を行うため飛び越し走査画像が有するインタレース性を損なうことなく、かつ、フィールドDCTモードとフレームDCTモードとで復号した画像の位相を同一とすることができ、出力する画像の画質を劣化させない。さらに、この画像復号装置50では、動き補償に起因する画質の劣化を防止する。また、この画像復号装置50では、動き補償の際に、2倍補間フィルタを用いてフレームメモリ17に記憶した画像の補間をすることで、タップ数に応じた積和演算を行うことなく、高速に処理ができる。
【0227】
なお、この画像復号装置50では、入力されたビットストリーム中の動きベクトルの値に応じて、必要な画素のみを生成しても良い。また、水平方向と垂直方向の動きベクトルの値に応じたフィルタ係数を予め用意しておき、垂直方向と水平方向の補間を1度に行っても良い。
【0228】
ところで、この第4の実施の形態の画像復号装置50のフレームモード用動き補償装置52は、以下に説明するように垂直方向の画素に対して、トップフィールドとボトムフィールドとを区別せずに補間処理を行っても良い。
【0229】
まず、図32(a)に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が3/2、7/2・・・となるような、トップフィールドとボトムフィールドとのフィールド間で位相ずれが無い標準解像度画像の整数精度の画素を、フレームメモリ17から取り出す。なお、この図32には、トップフィールドとボトムフィールドとを区別せずに画素値を記載している。
【0230】
続いて、垂直方向の画素に対して、ハーフバンドフィルタ等の2倍補間フィルタ等を用いて、トップフィールドとボトムフィールドとの間で補間を行い、図32(b)に示すような1/2画素精度の画素を生成する。このハーフバンドフィルタ等を用いることにより、フレームメモリ17から取り出された画素をそのまま出力する場合には、演算を行う必要がなく、処理を高速化することができる。
【0231】
続いて、2倍補間をした画素を、フィールド間で線形補間フィルタを用いて補間を行い、図32(c)に示すような1/4画素精度の画素を生成する。
【0232】
フレームモード用動き補償装置52は、このような2段階のフィルタ処理に相当する係数を予め用意しておき、その係数をフレームメモリ17から取り出した画素値に直接演算することにより、動き補償の処理を高速化することができる。
【0233】
また、フレームモード用動き補償装置52は、1/4補間フィルタを用いて、図32(a)に示す整数精度の画素から、図32(c)に示す1/4画素精度の画素を直接生成してもよい。
【0234】
また、 フレームモード用動き補償装置52は、図31で示したフィールド内で2倍補間を行う補間処理と、図32で示したフィールドを区別せずに行う補間処理とを、所定の条件で切り換えて、画像の内容等に応じた最適な補間処理を行っても良い。
【0235】
(第5の実施の形態)
つぎに、本発明の第5の実施の形態の画像復号装置について説明する。
【0236】
図33に示すように、本発明の第5の実施の形態の画像復号装置60は、垂直方向の有効ライン数が例えば1152本の高解像度画像をMPEG2で画像圧縮したビットストリームが入力され、この入力されたビットストリームを復号するとともに1/2の解像度に縮小して、垂直方向の有効ライン数が例えば576本の標準解像度画像を出力する装置である。
【0237】
この画像復号装置60は、圧縮された高解像度画像のビットストリームが供給され、このビットストリームを解析するビットストリーム解析装置11と、データの発生頻度に応じた符号長を割り当てる可変長符号化がされた上記ビットストリームを復号する可変長符号復号装置12と、DCTブロックの各係数に量子化ステップを掛ける逆量子化装置13と、フィールドDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフィールドモード用縮小逆離散コサイン変換装置14と、フレームDCTモードで離散コサイン変換がされたDCTブロックに対して縮小逆離散コサイン変換をして標準解像度画像を生成するフレームモード用縮小逆離散コサイン変換装置15と、縮小逆離散コサイン変換がされた標準解像度画像と動き補償がされた参照画像とを加算する加算装置16と、参照画像を一時記憶するフレームメモリ17と、フレームメモリ17が記憶した参照画像にフィールド動き予測モードに対応した動き補償をするフィールドモード用動き補償装置61と、フレームメモリ17が記憶した参照画像にフレーム動き予測モードに対応した動き補償をするフレームモード用動き補償装置62と、フィールドモード用動き補償装置61のフィルタリングのタップ数を決定するフィールドモード用フィルタ決定装置63と、フレームモード用動き補償装置62のフィルタリングのタップ数を決定するフレームモード用フィルタ決定装置64と、フレームメモリ17に記憶した画像に対してポストフィルタリングをすることにより、画枠変換をするとともに画素の位相ずれを補正してテレビジョンモニタ等に表示するための標準解像度の画像データを出力する画枠変換・位相ずれ補正装置20とを備えている。
【0238】
フィールドモード用縮小逆離散コサイン変換装置14は、入力されたビットストリームのマクロブロックが、フィールドDCTモードで離散コサイン変換されている場合に用いられる。フィールドモード用縮小逆離散コサイン変換装置14は、フィールドDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、図38で示したような、低域の4×4の係数のみに逆離散コサイン変換を行う。すなわち、水平方向及び垂直方向の低域の4点の離散コサイン係数に基づき縮小逆離散コサイン変換を行う。このフィールドモード用縮小逆離散コサイン変換装置14では、以上のような縮小逆離散コサイン変換を行うことにより、1つのDCTブロックが4×4の画素から構成される標準解像度画像を復号することができる。この復号された画像データの各画素の位相は、図2に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。
【0239】
フレームモード用縮小逆離散コサイン変換装置15は、入力されたビットストリームのマクロブロックが、フレームDCTモードで離散コサイン変換されている場合に用いられる。フレームモード用縮小逆離散コサイン変換装置15は、フレームDCTモードで離散コサイン変換がされたマクロブロック内の8×8個の係数が示されたDCTブロックに対して、縮小逆離散コサイン変換を行う。そして、フレームモード用縮小逆離散コサイン変換装置15では、1つのDCTブロックが4×4の画素から構成される解像度画像を復号するとともに、フィールドモード用縮小逆離散コサイン変換装置14で生成した標準解像度画像の画素の位相と同位相の画像を生成する。すなわち、フレームモード用縮小逆離散コサイン変換装置15で復号された画像データの各画素の位相は、図2に示すように、トップフィールドの各画素の垂直方向の位相が1/2、5/2・・・となり、ボトムフィールドの各画素の垂直方向の位相が1、3・・・となる。
【0240】
フィールドモード用動き補償装置61は、マクロブロックの動き予測モードがフィールド動き予測モードの場合に用いられる。フィールドモード用動き補償装置61は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、位相ずれ成分を考慮した形で1/4画素精度で補間処理を行い、フィールド動き予測モードに対応した動き補償をする。このフィールドモード用動き補償装置61により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。このフィールドモード用動き補償装置61は、所定のタップ数のフィルタリングをして補間処理を行うが、このフィルタリングのタップ数は、フィールドモード用フィルタ決定装置63により決定される。
【0241】
フレームモード用動き補償装置62は、マクロブロックの動き予測モードがフレーム動き予測モードの場合に用いられる。フレームモード用動き補償装置62は、フレームメモリ17に記憶されている標準解像度画像の参照画像に対して、位相ずれ成分を考慮した形で1/4画素精度で補間処理を行い、フレーム動き予測モードに対応した動き補償をする。このフレームモード用動き補償装置62により動き補償がされた参照画像は、加算装置16に供給され、インター画像に合成される。このフレームモード用動き補償装置62は、所定のタップ数のフィルタリングをして補間処理を行うが、このフィルタリングのタップ数は、フレームモード用フィルタ決定装置64により決定される。
【0242】
フィールドモード用フィルタ決定装置63は、入力された高解像度画像のビットストリームの中のマクロブロックに関する情報に基づき、上記フィールドモード用動き補償装置61がフィルタリングをする際のタップ数を決定する。
【0243】
ここで、高解像度画像を標準解像度の画像に縮小する場合、出力する標準解像度画像の画質と、フィルタリングを行う際のタップ数とは、トレードオフの関係が成り立つ。すなわち、フィルタリングのタップ数を増やすことにより出力する標準解像度画像の画質は向上するが、フィルタリングのタップ数を増やすことにより演算量が増加する。つまり、演算能力の低いフィールドモード用動き補償装置61を用いている場合には、フィルタリングのタップ数を増やして画質を向上させると、リアルタイムに動作しなくなる可能性が生じる。反対に、フィルタリングのタップ数を減らしてリアルタイム性を確保している場合には、画質が劣化する。
【0244】
このフィールドモード用フィルタ決定装置63では、マクロブロックに関する情報に基づき、フィールドモード用動き補償装置61のタップ数を切り換え、出力する標準解像度画像の画質を向上させるとともにリアルタイム性も確保している。
【0245】
フレームモード用フィルタ決定装置64は、入力された高解像度画像のビットストリームの中のマクロブロックに関する情報に基づき、上記フレームモード用動き補償装置62がフィルタリングをする際のタップ数を決定する。
【0246】
このフレームモード用フィルタ決定装置64では、マクロブロックに関する情報に基づき、フィールドモード用フィルタ決定装置63のタップ数を切り換え、出力する標準解像度画像の画質を向上させるとともにリアルタイム性も確保している。
【0247】
本発明の第5の実施の形態の画像復号装置60では、以上のような構成を有することにより、高解像度画像をMPEG2で画像圧縮したビットストリームを、復号するとともに解像度を1/2に縮小して、標準解像度画像を出力することができる。
【0248】
つぎに、フィールドモード用フィルタ決定装置63及びフレームモード用フィルタ決定装置64により行われるフィルタのタップ数の決定処理について説明する。フィールドモード用フィルタ決定装置63及びフレームモード用フィルタ決定装置64は、例えば、例えば、ビットストリーム解析装置11により解析された入力されたビットストリーム中の情報を基に、フィルタのタップ数を決定する。
【0249】
フィルタのタップ数の決定のための情報は、例えば、次の6通りの情報及びこれらの組み合わせとなる。
【0250】
第1に、処理されるデータが輝度信号であるか、色差信号であるかによりフィルタのタップ数を決定する。この理由は、以下の通りである。
【0251】
画質の主観的な評価は、輝度信号により大きく影響する。また、デジタルテレビジョン放送で用いられる420フォーマットにおいては、輝度信号は色差信号の4倍の情報を持つ。さらに、MPEG2では、符号化時に、輝度信号を用いて検出された動きベクトルが色差信号にも用いられる。このため、輝度信号のための動き補償には多くのタップ数を用いたフィルタリングを施し、色差信号のための動き補償には線形補間、若しくはそれに近い、少ないタップ数によるフィルタリングを施すことで、見た目の画質を落とすことなく演算量を減らすことが可能である。
【0252】
第2に、処理されるデータが、Pピクチャに属するものであるか、Bピクチャに属するものであるかによりフィルタのタップ数を決定する。この理由は、以下の通りである。
【0253】
上記画像復号装置60のようなMPEG等のビットストリームのDCT係数の低域のみを復号する装置においては、動き補償に起因する誤差の蓄積による画質の劣化が生じる。Pピクチャにおける誤差は、次のPピクチャ及びBピクチャに影響を及ぼす。しかしながら、Bピクチャにおける誤差は、伝搬しない。このため、Pピクチャに属する画素の動き補償には多くのタップ数を用いたフィルタリングを施し、Bピクチャに属する画素の動き補償には線形補間、若しくはそれに近い、少ないタップ数によるフィルタリングを施すことで、画質を落とすことなく演算量を減らすことが可能である。
【0254】
第3に、処理されるデータの動き補償モードが、前方向予測モード/後方向予測モードであるか、双方向予測モードであるかによりフィルタのタップ数を決定する。この理由は、以下の通りである。
【0255】
第2の場合と同様の理由により、前方向予測モード若しくは後方向予測モードの場合の動き補償には多くのタップ数を用いたフィルタリングを施し、双方向予測モードの場合の動き補償には線形補間、若しくは、それに近い、少ないタップ数によるフィルタリングを施すことで、画質を落とすことなく演算量を減らすことが可能である。
【0256】
第4に、処理されるデータを含むマクロブロックの動きベクトルの値がどのような値であるかによりフィルタのタップ数を決定する。この理由は、以下の通りである。
【0257】
例えば、動き補償装置が、動きベクトルの値により1/2画素精度の位相に相当する画素値を出力する場合に比べて、1/4画素精度の位相に相当する画素値を出力する場合の方が、少ないタップ数で補間を行っても画質劣化が目立ちにくい。そのため、動きベクトルの値に応じてフィルタのタップ数を切り換えることで、画質を落とすことなく演算量を減らすことが可能である。
【0258】
第5に、水平方向の補間処理であるか、垂直方向の補間処理であるかによりフィルタのタップ数を決定する。この理由は、以下の通りである。
【0259】
特に飛び越し走査画像の場合、フィルタのタップ数の減少による画質の劣化は、水平方向よりも垂直方向により顕著である。そのため、垂直方向に対する動き補償には多くのタップ数を用いたフィルタリングを施し、水平方向に対する動き補償には線形補間、若しくはそれに近い、少ないタップ数によるフィルタリングを施すことで、画質を落とすことなく演算量を減らすことが可能である。
【0260】
第6に、処理されるデータが、フィールド動き補償モードであるか、フレーム動き補償モードであるかによりフィルタのタップ数を決定する。この理由は、以下の通りである。
【0261】
一般的な画像符号化装置においては。フィールド間の差分の大きいマクロブロックに対してはフィールド動き補償モードで処理が施され、小さいマクロブロックに対してはフレーム動き補償モードで処理が施される。そのため、フィールド動き補償モードに多くのタップ数を割り当て、フレーム動き補償モードに少ないタップ数を割り当てることで画質を落とすことなく演算量を減らすことが可能である。
【0262】
以上のように本発明の第5の実施の形態の画像復号装置60では、フィールドDCTモードでは、トップフィールドとボトムフィールドとのそれぞれに4×4の縮小逆離散コサイン変換を行い標準解像度画像を復号し、フレームDCTモードでは、フレーム分離をして縮小逆離散コサイン変換を行い標準解像度画像を復号する。この画像復号装置60では、このようにフィールドDCTモードとフレームDCTモードとでそれぞれで処理を行うため飛び越し走査画像が有するインタレース性を損なうことなく、かつ、フィールドDCTモードとフレームDCTモードとで復号した画像の位相を同一とすることができ、出力する画像の画質を劣化させない。さらに、この画像復号装置60では、マクロブロックに関する情報に基づき、フィールドモード用フィルタ決定装置63のタップ数を切り換えることにより、動き補償に起因する画質の劣化を防止するとともに、動き補償の演算量を削減することができる。
【0263】
なお、この本発明の第5の実施の形態の画像復号装置60のフィールドモード用フィルタ決定装置63及びフレームモード用フィルタ決定装置64を、上述した第3、第4の実施の形態の画像復号装置40,50に適用しても良い。
【0264】
以上本発明の第1〜第5の実施の形態の画像復号装置について説明したが、本発明で処理されるデータは、MPEG2方式の画像データに限られない。すなわち、所定の画素ブロック単位で動き予測をすることによる予測符号化、及び、所定の画素ブロック単位で直交変換することによる圧縮符号化をした第1の解像度の圧縮画像データであればどのようなデータであってもよい。例えば、ウェーブレット方式等を用いた圧縮画像データであってもよい。
【0265】
【発明の効果】
本発明では、記憶している参照画像データのマクロブロックの各画素に対して補間をして、1/4画素精度の画素から構成されるマクロブロックを生成する。そして、この画像復号方法では、第1の解像度より低い第2の解像度の動画像データを出力する。
【0266】
このことにより、本発明では、復号に必要な演算量及び記憶容量を少なくすることができ、フィールド動き予測モードとフレーム動き予測モードとによる動き補償の際の画素の位相ずれをなくし、動き補償に起因する画質の劣化を防止することができる。
【0267】
本発明では、フィルタのタップ数を切り換えて、記憶している参照画像データのマクロブロックの各画素に対して補間をして、1/4画素精度の画素から構成されるマクロブロックを生成する。
【0268】
このことにより、本発明では、画質を劣化させずに動き補償の際の演算量を少なくすることができ、処理の高速化を図ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の画像復号装置のブロック図である。
【図2】上記第1の実施の形態の画像復号装置のフレームメモリに格納される参照画像の垂直方向の画素の位相を説明するための図である。
【図3】上記第1の実施の形態の画像復号装置のフレームモード用縮小逆離散コサイン変換装置の1ブロック処理の内容を説明するための図である。
【図4】上記第1の実施の形態の画像復号装置のフレームモード用縮小逆離散コサイン変換装置の2ブロック処理の内容を説明するための図である。
【図5】420フォーマットのマクロブロック内の輝度成分及び色差成分のDCTブロックについて説明をする図である。
【図6】Wangのアルゴリズムを上記第1の実施の形態の画像復号装置のフィールドモード用縮小逆離散コサイン変換装置の処理に適用した場合の演算フローを示す図である。
【図7】Wangのアルゴリズムを上記第1の実施の形態の画像復号装置のフレームモード用縮小逆離散コサイン変換装置の1ブロック処理に適用した場合の演算フローを示す図である。
【図8】本発明の第2の実施の形態の画像復号装置のブロック図である。
【図9】上記第2の実施の形態の画像復号装置のフレームメモリに格納される参照画像の垂直方向の画素の位相を説明するための図である。
【図10】上記第2の実施の形態の画像復号装置のフィールドモード用位相補正縮小逆離散コサイン変換装置の処理内容を説明するための図である。
【図11】1つの行列により処理を行う場合の上記フィールドモード用位相補正縮小逆離散コサイン変換装置の処理内容を説明するための図である。
【図12】上記フィールドモード用位相補正縮小逆離散コサイン変換装置により演算が行われる4×8位相補正IDCT行列の設計手順を説明するためのフローチャートである。
【図13】上記4×8位相補正IDCT行列の設計に必要となるプロトタイプフィルタの周波数特性を説明するための図である。
【図14】ナイキスト周波数以下を等間隔に{(N−1)/2}分割し、その周波数サンプルから作成されたゲインのリストを説明するための図である。
【図15】上記ゲインリストを逆離散フーリエ変換して作成されたインパルス応答を説明するための図である。
【図16】ポリフェイズフィルタを説明するための図である。
【図17】入力信号に対して1/4位相ずれた信号を出力するポリフェイズフィルタを説明するための図である。
【図18】上記フィールドモード用位相補正縮小逆離散コサイン変換装置により演算が行われる4×8位相補正IDCT行列を説明するための図である。
【図19】上記第2の実施の形態の画像復号装置のフレームモード用位相補正縮小逆離散コサイン変換装置の1ブロック処理の内容を説明するための図である。
【図20】フレームモード用位相補正縮小逆離散コサイン変換装置により演算が行われる2×4位相補正IDCT行列の設計手順を説明するためのフローチャートである。
【図21】ナイキスト周波数以下を等間隔に{(N−1)/2}分割し、その周波数サンプルから作成されたゲインのリストを説明するための図である。
【図22】上記ゲインリストを逆離散フーリエ変換して作成されたインパルス応答を説明するための図である。
【図23】上記フレームモード用位相補正縮小逆離散コサイン変換装置により演算が行われる2×4位相補正IDCT行列を説明するための図である。
【図24】上記第2の実施の形態の画像復号装置のフレームモード用位相補正縮小逆離散コサイン変換装置の2ブロック処理の内容を説明するための図である。
【図25】本発明の第3の実施の形態の画像復号装置のブロック図である。
【図26】上記第3の実施の形態の画像復号装置のフィールドモード用動き補償装置における補間処理を説明するための図である。
【図27】上記第3の実施の形態の画像復号装置のフレームモード用動き補償装置における補間処理を説明するための図である。
【図28】上記第3の実施の形態の画像復号装置のフレームモード用動き補償装置における他の補間処理を説明するための図である。
【図29】本発明の第4の実施の形態の画像復号装置のブロック図である。
【図30】上記第4の実施の形態の画像復号装置のフィールドモード用動き補償装置における補間処理を説明するための図である。
【図31】上記第4の実施の形態の画像復号装置のフレームモード用動き補償装置における補間処理を説明するための図である。
【図32】上記第4の実施の形態の画像復号装置のフレームモード用動き補償装置における他の補間処理を説明するための図である。
【図33】本発明の第5の実施の形態の画像復号装置のブロック図である。
【図34】従来の第1のダウンデコーダを示すブロック図である。
【図35】従来の第2のダウンデコーダを示すブロック図である。
【図36】従来の第3のダウンデコーダを示すブロック図である。
【図37】従来の画像復号装置のブロック図である。
【図38】上記従来の画像復号装置のフィールドDCTモードにおける縮小逆離散コサイン変換処理を説明するための図である。
【図39】上記従来の画像復号装置のフィールドDCTモードにおける縮小逆離散コサイン変換処理を説明するための図である。
【図40】上記従来の画像復号装置のフィールド動き予測モードにおける線形補間処理を説明するための図である。
【図41】上記従来の画像復号装置のフレーム動き予測モードにおける線形補間処理を説明するための図である。
【図42】上記従来の画像復号装置のフィールドDCTモードの結果得られる画素の位相を説明するための図である。
【図43】上記従来の画像復号装置のフレームDCTモードの結果得られる画素の位相を説明するための図である。
【符号の説明】
10,30,40,50,60 画像復号装置、14 フィールドモード用縮小逆離散コサイン変換装置、15 フレームモード用縮小逆離散コサイン変換装置、16 加算装置、17 フレームメモリ、18,41,61 フィールドモード用動き補償装置、19,42,62 フレームモード用動き補償装置、20画枠変換・位相ずれ補正装置、31 フィールドモード用位相補正縮小逆離散コサイン変換装置、32 フレームモード用位相補正縮小逆離散コサイン変換装置、33 画枠変換装置[0001]
BACKGROUND OF THE INVENTION
In the present invention, the first encoding is performed by predictive coding by performing motion prediction in units of predetermined pixel blocks (macroblocks), and compression encoding by performing orthogonal transform in units of predetermined pixel blocks (orthogonal transform blocks). The present invention relates to an image decoding apparatus and an image decoding method for decoding compressed image data having a resolution, and in particular, decoding compressed image data having a first resolution to moving image data having a second resolution lower than the first resolution. The present invention relates to an image decoding apparatus and an image decoding method for reduction.
[0002]
[Prior art]
The standardization of digital television broadcasting using an image compression method such as MPEG2 (Moving Picture Experts Group phase 2) is underway. Standards for digital television broadcasting include standards corresponding to standard resolution images (for example, 576 effective lines in the vertical direction), standards corresponding to high resolution images (for example, 1152 effective lines in the vertical direction), and the like. is there. Therefore, in recent years, by decoding compressed image data of a high resolution image and reducing the compressed image data to 1/2 resolution, image data of a standard resolution image is generated, and this image data corresponds to the standard resolution. There is a need for a down decoder for display on a television monitor.
[0003]
A down-decoder that decodes a bit stream such as MPEG2 that has been subjected to predictive coding by motion prediction and compression coding by discrete cosine transform on a high-resolution image and down-samples it into a standard-resolution image is described in the document “No low frequency drift” "Scalable Decoder" (Iwahashi, Kamibayashi, Takaya: IEICE Tech. Reports CS94-186, DSP94-108, 1995-01) (hereinafter referred to as Document 1). The document 1 shows the following first to third down decoders.
[0004]
As shown in FIG. 34, the first down decoder performs 8 (the number of coefficients counted from the DC component in the horizontal direction) × 8 (the number of coefficients counted from the DC component in the vertical direction) for the bit stream of the high resolution image. The inverse discrete cosine transform device 1001 that performs inverse discrete cosine transform, an adder 1002 that adds the high-resolution image that has been subjected to discrete cosine transform and the reference image that has undergone motion compensation, and a frame that temporarily stores the reference image A memory 1003, a motion compensation device 1004 that performs motion compensation on the reference image stored in the frame memory 1003 with 1/2 pixel accuracy, and a downsampling device 1005 that converts the reference image stored in the frame memory 1003 into a standard resolution image. It has.
[0005]
In the first down decoder, an output image obtained by performing inverse discrete cosine transform and decoded as a high-resolution image is reduced by a down-sampling device 1005 to output standard-resolution image data.
[0006]
As shown in FIG. 35, the second down decoder replaces the coefficient of the high frequency component of the DCT (Discrete Cosine Transform) block of the bit stream of the high resolution image with 0 and performs inverse discrete cosine transform of 8 × 8. A cosine transform device 1011; an adder 1012 that adds a high-resolution image that has undergone discrete cosine transform and a reference image that has undergone motion compensation; a frame memory 1013 that temporarily stores the reference image; and a reference that is stored in the frame memory 1013 A motion compensation device 1014 that performs motion compensation on an image with 1/2 pixel accuracy and a downsampling device 1015 that converts a reference image stored in the frame memory 1013 into a standard resolution image are provided.
[0007]
In this second down decoder, the output image decoded as a high resolution image by performing inverse discrete cosine transform by replacing the coefficient of the high frequency component among all the coefficients of the DCT block with 0 is reduced by the downsampling device 1005 and standardized. Output resolution image data.
[0008]
As shown in FIG. 36, the third down decoder performs, for example, 4 × 4 inverse discrete cosine transform using only the low-frequency component coefficient of the DCT block of the bit stream of the high-resolution image and decodes it to the standard-resolution image. A reduced inverse discrete cosine transform device 1021, an addition device 1022 for adding the standard resolution image subjected to the reduced inverse discrete cosine transform and the motion compensated reference image, a frame memory 1023 for temporarily storing the reference image, and a frame A motion compensation device 1024 that performs motion compensation on the reference image stored in the memory 1023 with 1/4 pixel accuracy is provided.
[0009]
In the third down decoder, inverse discrete cosine transform is performed using only the coefficients of the low frequency component among all the coefficients of the DCT block, and the high resolution image is decoded as the standard resolution image.
[0010]
Here, since the first down-decoder performs inverse discrete cosine transform on all the coefficients in the DCT block and decodes the high-resolution image, the first down-decoder and the inverse discrete cosine transform apparatus 1001 having high arithmetic processing capability and the high resolution image are decoded. The frame memory 1003 having a capacity is required. In the second down decoder, the high-frequency component of the coefficients in the DCT block is set to 0 to perform discrete cosine transform and a high-resolution image is decoded. Therefore, the inverse discrete cosine transform apparatus 1011 has low arithmetic processing capability. Although it is good, a high-capacity frame memory 1013 is still necessary. In contrast to the first and second down decoders, the third down decoder performs inverse discrete cosine transform using only the coefficients of the low frequency component among all the coefficients in the DCT block, and thus the inverse discrete cosine transform apparatus. The calculation processing capacity of 1021 may be low, and further, since the reference image of the standard resolution image is decoded, the capacity of the frame memory 1023 can be reduced.
[0011]
By the way, there are a sequential scanning method and an interlaced scanning method as a moving image display method such as television broadcasting. The sequential scanning method is a display method that sequentially displays images obtained by sampling all pixels in a frame at the same timing. The interlaced scanning method is a display method that alternately displays images obtained by sampling pixels in a frame at different timings for each line in the horizontal direction.
[0012]
In this interlaced scanning method, one of images obtained by sampling pixels in a frame at different timings for each line is called a top field (also called a first field), and the other is called a bottom field (also called a second field). Say.) An image including the top line in the horizontal direction of the frame is a top field, and an image including the second line in the horizontal direction of the frame is a bottom field. Therefore, in the interlace scanning method, one frame is composed of two fields.
[0013]
In MPEG2, in order to efficiently compress a moving image signal corresponding to the interlace scanning method, not only can a frame be assigned to a picture, which is a compression unit of a screen, but also a field can be assigned to a picture for encoding. .
[0014]
In MPEG2, when a field is assigned to a picture, the structure of the bit stream is called a field structure, and when a frame is assigned to a picture, the structure of the bit stream is called a frame structure. In the field structure, a DCT block is formed from pixels in the field, and discrete cosine transform is performed on a field basis. A processing mode in which discrete cosine transform is performed on a field basis is called a field DCT mode. In the frame structure, a DCT block is formed from pixels in the frame, and discrete cosine transform is performed on a frame basis. A processing mode in which discrete cosine transformation is performed in units of frames is called a frame DCT mode. Furthermore, in the field structure, a macroblock is formed from pixels in the field, and motion prediction is performed in field units. A processing mode in which motion prediction is performed in units of fields is referred to as field motion prediction mode. In the frame structure, a macro block is formed from pixels in the frame, and motion prediction is performed on a frame basis. A processing mode in which motion prediction is performed in units of frames is called a frame motion prediction mode.
[0015]
[Problems to be solved by the invention]
By the way, an image decoding apparatus that decodes compressed image data corresponding to the interlace scanning method using the third down decoder shown in the above-mentioned document 1 is disclosed in, for example, the document “A Compensation Method of Drift Errors in Scalability” (N OBIKANE, K. TAHARA and J. YONEMITSU, HDTV Work Shop '93) (hereinafter referred to as Document 2).
[0016]
As shown in FIG. 37, the conventional image decoding device shown in this document 2 is supplied with a bitstream obtained by compressing a high-resolution image with MPEG2, and analyzes a bitstream analysis device 1031 for analyzing the bitstream. A variable-length code decoding apparatus 1032 that decodes a variable-length-encoded bitstream that assigns a code length according to the frequency of occurrence, an inverse quantization apparatus 1033 that multiplies each coefficient of the DCT block, and a DCT block A reduced inverse discrete cosine transform apparatus 1034 that decodes a standard resolution image by performing, for example, 4 × 4 inverse discrete cosine transform using only the low frequency component coefficients among all the coefficients, and a standard that has been subjected to reduced inverse discrete cosine transform An adder 1035 for adding the resolution image and the motion-compensated reference image, and a frame for temporarily storing the reference image. A frame memory 1036, and a motion compensation unit 1037 for motion compensation in 1/4 pixel precision in the reference picture frame memory 1036 and stored.
[0017]
The reduced inverse discrete cosine transform device 1034 of the conventional image decoding device shown in this document 2 performs inverse discrete cosine transform using only the coefficients of the low frequency component among all the coefficients in the DCT block. The position of the coefficient for performing the inverse discrete cosine transform differs between the mode and the field DCT mode.
[0018]
Specifically, in the case of the field DCT mode, the reduced inverse discrete cosine transform apparatus 1034, as shown in FIG. 38, only 4 × 4 coefficients in the low band among 8 × 8 in the DCT block. Perform inverse discrete cosine transform on. On the other hand, in the frame DCT mode, the reduced inverse discrete cosine transform apparatus 1034 has 4 × 2 coefficients + 4 × 2 coefficients among 8 × 8 coefficients in the DCT block, as shown in FIG. Only the inverse discrete cosine transform is performed.
[0019]
Also, the motion compensation device 1037 of the conventional image decoding device shown in this document 2 is based on the information (motion vector) of motion prediction performed on the high resolution image, and the field motion prediction mode and the frame motion prediction mode. The motion compensation with 1/4 pixel accuracy corresponding to each of the above is performed. In other words, in normal MPEG2, it is determined that motion compensation is performed with 1/2 pixel accuracy, but when decoding a standard resolution image from a high resolution image, the number of pixels in the picture is reduced to 1/2. Therefore, the motion compensation apparatus 1037 performs motion compensation with the pixel accuracy of motion compensation being ¼ pixel accuracy.
[0020]
Therefore, in order to perform motion compensation corresponding to a high-resolution image, the motion compensation device 1037 performs linear interpolation on the reference image pixels stored in the frame memory 1036 as a standard-resolution image, and has a 1/4 pixel accuracy. A pixel is generated.
[0021]
Specifically, linear interpolation processing of pixels in the vertical direction in the field motion prediction mode and the frame motion prediction mode will be described with reference to FIGS. 40 and 41. FIG. In the drawing, the phase of pixels in the vertical direction is shown in the vertical direction, and the phase in which each pixel of the display image is located is shown as an integer.
[0022]
First, an interpolation process for an image subjected to motion prediction in the field motion prediction mode will be described with reference to FIG. For a high-resolution image (upper layer), as shown in FIG. 40A, motion compensation is performed with ½ pixel accuracy independently for each field. On the other hand, for a standard resolution image (lower layer), as shown in FIG. 40 (b), linear interpolation is performed in the field based on integer precision pixels, and 1/4 pixel, 1 / 2 pixels and 3/4 pixels out of phase are generated and motion compensation is performed. In other words, in the standard resolution image (lower layer), each pixel having the ¼ pixel accuracy of the top field is generated by linear interpolation based on each pixel having the integer accuracy of the top field, and the bottom of each pixel having the integer accuracy of the bottom field is generated. Each pixel with 1/4 pixel accuracy of the field is generated by linear interpolation. For example, the value of the pixel in the top field where the vertical phase is 0 is a, and the value of the pixel in the top field where the vertical phase is 1 is b. In this case, the top field pixel whose vertical phase is 1/4 is (3a + b) / 4, and the top field pixel whose vertical phase is 1/2 is (a + b) / 2. The pixel in the top field at the position where the vertical phase is 3/4 is (a + 3b) / 4.
[0023]
Subsequently, an interpolation process for an image subjected to motion prediction in the frame motion prediction mode will be described with reference to FIG. For a high-resolution image (upper layer), as shown in FIG. 41A, interpolation processing is performed between the fields, that is, interpolation processing is performed between the bottom field and the top field. Motion compensation is performed with pixel accuracy. For the standard resolution image (lower layer), as shown in FIG. 41 (b), based on the integer precision pixels of the two fields of the top field and the bottom field, 1/4 pixel, 1 / Pixels whose phases are shifted by 2 pixels and 3/4 pixels are generated by linear interpolation, and motion compensation is performed. For example, the value of the bottom field pixel whose vertical phase is -1 is set to a, the value of the top field pixel whose vertical phase is 0 is set to b, and the vertical phase is set to 1 Let c be the value of a pixel in a certain bottom field, d be the value of a pixel in the top field where the vertical phase is at position 2, and e be the value of the pixel in the bottom field where the vertical phase is at position 3. In this case, each pixel with 1/4 pixel accuracy whose vertical phase is between 0 and 2 is obtained as follows.
[0024]
The pixel whose vertical phase is ¼ is (a + 4b + 3c) / 8. A pixel having a vertical phase of 1/2 is (a + 3c) / 4. A pixel whose vertical phase is 3/4 is (a + 2b + 3c + 2d) / 8. A pixel having a vertical phase of 5/4 is (2b + 3c + 2d + e) / 8. A pixel whose vertical phase is 3/2 is (3c + e) / 4. A pixel whose vertical phase is 7/4 is (3c + 4d + e) / 8.
[0025]
As described above, the conventional image decoding apparatus disclosed in Document 2 can decode compressed image data of a high resolution image corresponding to the interlace scanning method into standard resolution image data.
[0026]
However, in the conventional image decoding device shown in the above-mentioned document 2, the phase of each pixel of the standard resolution image obtained in the field DCT mode is shifted from that of each pixel of the standard resolution obtained in the frame DCT mode. Specifically, in the field DCT mode, as shown in FIG. 42, the vertical phase of each pixel in the top field of the lower layer is 1/2, 5/2. The vertical phase of the pixels is 1, 3,. On the other hand, in the frame DCT mode, as shown in FIG. 43, the vertical phase of each pixel in the top field of the lower layer is 0, 2,. The phase is 1, 3,. Therefore, images having different phases are mixed in the frame memory 1036, and the image quality of the output image is deteriorated.
[0027]
Further, in the conventional image decoding device disclosed in the above-mentioned document 2, the phase shift is not corrected in the field motion prediction mode and the frame motion prediction mode. Therefore, the image quality of the output image is deteriorated.
[0028]
The present invention has been made in view of such circumstances, and can reduce the amount of computation and storage capacity necessary for decoding, and can perform pixel compensation in motion compensation in the field motion prediction mode and the frame motion prediction mode. The present invention provides an image decoding apparatus and an image decoding method for decoding standard resolution image data from compressed image data of a high resolution image, which can eliminate the phase shift of the image and prevent deterioration in image quality due to motion compensation. Objective.
[0029]
[Means for Solving the Problems]
The present invention Prediction coding by performing motion prediction in units of predetermined pixel blocks (macroblocks), and compression of the first resolution by compression encoding by performing orthogonal transform in units of predetermined pixel blocks (orthogonal transform blocks) In an image decoding apparatus for decoding moving image data having a second resolution lower than the first resolution from image data, Inverse orthogonal transformation means for performing inverse orthogonal transformation on the coefficients of the low frequency component among the coefficients of the orthogonal transformation block of the compressed image data subjected to orthogonal transformation, and compression obtained by inverse orthogonal transformation by the inverse orthogonal transformation means Addition means for adding image data and motion compensated reference image data to output moving image data of the second resolution, and storage for storing the moving image data output from the addition means as reference image data Means, First motion compensation means for performing motion compensation on a macroblock of reference image data that has been motion-predicted by a motion prediction method (field motion prediction mode) that supports interlaced scanning, and a motion prediction method that supports sequential scanning ( Second motion compensation means for performing motion compensation on the macroblock of the reference image data subjected to motion prediction in the frame motion prediction mode); Post-filtering is performed on the moving image data output from the adding means to convert the image frame of the screen constituting the moving image, and to correct the phase shift between the top field and the bottom field. Means and The first motion compensation means and the second motion compensation means interpolate each pixel of the macroblock of the reference image data stored in the storage means, and the storage means stores The present invention is characterized in that a macro block composed of 1/4 pixel precision pixels is generated for the reference image data, and motion compensation is performed on the generated macro block.
[0033]
The present invention Prediction encoding by performing motion prediction in units of a predetermined pixel block (macroblock), and compression of the first resolution by compression encoding by performing orthogonal transform in units of a predetermined pixel block (orthogonal transform block) In an image decoding method for decoding moving image data having a second resolution lower than the first resolution from image data, Of the coefficients of the orthogonal transform block of the compressed image data subjected to the orthogonal transform, the low frequency component coefficient is subjected to inverse orthogonal transform, and the compressed image data subjected to the inverse orthogonal transform and the motion compensated reference image The moving image data of the second resolution is generated by adding the data, the generated moving image data of the second resolution is stored as reference image data, and the generated moving image data of the second resolution Post-filtering is performed, the frame of the screen composing the moving image is converted, and the phase shift between the top field and the bottom field is corrected, Motion compensation is performed on the macroblocks of the reference image data that has been motion-predicted using the motion prediction method (field motion prediction mode) that supports interlaced scanning, and motion is performed using the motion prediction method (frame motion prediction mode) that supports sequential scanning. Motion compensation is performed on the predicted macroblock of the reference image data, the above Field motion prediction mode or frame motion prediction mode Remembered in motion compensation Interpolate each pixel of the macroblock of the reference image data, the above The present invention is characterized in that a macroblock composed of pixels with 1/4 pixel precision is generated for reference image data, and motion compensation is performed on the generated macroblock.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, as an embodiment of the present invention, an image decoding device to which the present invention is applied will be described with reference to the drawings.
[0038]
(First embodiment)
First, the image decoding apparatus according to the first embodiment of the present invention will be described.
[0039]
As shown in FIG. 1, the image decoding apparatus 10 according to the first embodiment of the present invention receives a bitstream obtained by compressing a high-resolution image having, for example, 1152 effective lines in the vertical direction using MPEG2. This is a device that decodes an input bit stream and reduces the resolution to ½, and outputs a standard resolution image having, for example, 576 effective lines in the vertical direction.
[0040]
In the following description of embodiments of the present invention, a high resolution image is also referred to as an upper layer, and a standard resolution image is also referred to as a lower layer. In general, when a DCT block having 8 × 8 discrete cosine coefficients is subjected to inverse discrete cosine transform, decoded data composed of 8 × 8 pixels can be obtained. For example, 8 × 8 discrete cosine coefficients are The process of performing inverse discrete cosine transform and reducing the resolution so as to obtain decoded data composed of 4 × 4 pixels by decoding is called reduced inverse discrete cosine transform.
[0041]
The image decoding apparatus 10 is supplied with a bit stream of a compressed high-resolution image, and performs a variable-length encoding that assigns a code length according to the frequency of data generation, and a bit stream analysis apparatus 11 that analyzes the bit stream. Further, the variable length code decoding device 12 that decodes the bit stream, the inverse quantization device 13 that applies a quantization step to each coefficient of the DCT block, and the reduced inverse of the DCT block that has been subjected to discrete cosine transform in the field DCT mode. A reduced inverse discrete cosine transform device for field mode 14 that generates a standard resolution image by performing discrete cosine transform, and a standard resolution image by performing a reduced inverse discrete cosine transform on a DCT block that has undergone discrete cosine transform in the frame DCT mode. A reduced inverse discrete cosine transform device 15 for frame mode for generating An adder 16 for adding the standard resolution image subjected to the small inverse discrete cosine transform and the reference image subjected to motion compensation, a frame memory 17 for temporarily storing the reference image, and a field motion in the reference image stored in the frame memory 17. A field mode motion compensation device 18 that performs motion compensation corresponding to the prediction mode, a frame mode motion compensation device 19 that performs motion compensation corresponding to the frame motion prediction mode on the reference image stored in the frame memory 17, and a frame memory 17 Post-filtering the image stored in the image frame to convert the image frame, correct the phase shift of the pixel, and output the standard resolution image data for display on a television monitor etc. And a deviation correction device 20.
[0042]
The reduced inverse discrete cosine transform device 14 for field mode is used when the macroblock of the input bit stream is subjected to discrete cosine transform in the field DCT mode. The reduced inverse cosine transform device 14 for field mode uses a DCT block in which 8 × 8 coefficients in a macroblock subjected to discrete cosine transform in the field DCT mode are shown, as shown in FIG. Inverse discrete cosine transform is performed only on low-frequency 4 × 4 coefficients. That is, the reduced inverse discrete cosine transform is performed based on the four discrete cosine coefficients in the horizontal and vertical low bands. The reduced inverse discrete cosine transform device 14 for field mode can decode a standard resolution image in which one DCT block is composed of 4 × 4 pixels by performing the reduced inverse discrete cosine transform as described above. . As shown in FIG. 2, the phase of each pixel of the decoded image data is 1/2, 5/2..., And the vertical phase of each pixel in the bottom field is vertical. The phase of the direction is 1, 3,. That is, in the decoded top layer of the lower layer, the first pixel (the pixel whose phase is ½) is the first and second pixels (the pixels whose phase is 0 and 2) from the top of the top field of the upper layer. The phase of the second pixel from the top (pixel having a phase of 5/2) is the middle phase of the third and fourth pixels from the top of the top field of the upper layer (pixels having a phase of 4 and 6). It becomes. In the bottom layer of the decoded lower layer, the phase of the first pixel (pixel having a phase of 1) is intermediate between the first and second pixels (pixels having a phase of 1 and 3) from the top of the bottom field of the upper layer. The phase of the second pixel from the top (pixel having a phase of 3) is an intermediate phase between the third and fourth pixels (pixels having a phase of 5 and 7) from the top of the bottom field of the upper layer.
[0043]
The frame mode reduced inverse discrete cosine transform device 15 is used when a macroblock of an input bit stream is subjected to discrete cosine transform in the frame DCT mode. The frame mode reduced inverse discrete cosine transform device 15 performs a reduced inverse discrete cosine transform on a DCT block in which 8 × 8 coefficients in a macroblock subjected to discrete cosine transform in the frame DCT mode are indicated. The reduced inverse discrete cosine transform device 15 for frame mode decodes a resolution image in which one DCT block is composed of 4 × 4 pixels, and the standard resolution generated by the reduced inverse discrete cosine transform device 14 for field mode. An image having the same phase as the pixel phase of the image is generated. That is, as shown in FIG. 2, the phase of each pixel of the image data decoded by the reduced inverse discrete cosine transform device 15 for frame mode is 1/2, 5/2. The vertical phase of each pixel in the bottom field is 1, 3,.
[0044]
Details of the processing of the reduced inverse discrete cosine transform device 15 for frame mode will be described later.
[0045]
When the macroblock subjected to the reduced inverse discrete cosine transform 14 by the field mode reduced inverse discrete cosine transform device 14 or the frame mode reduced inverse discrete cosine transform device 15 is an intra image, the adder 16 directly converts the intra image into a frame. Store in the memory 17. Further, when the macroblock subjected to the reduced inverse discrete cosine transform by the field mode reduced inverse discrete cosine transform device 14 or the frame mode reduced inverse discrete cosine transform device 15 is an inter image, the adder 16 also performs the inter image. In addition, the reference image subjected to motion compensation by the field mode motion compensation device 18 or the frame mode motion compensation device 19 is synthesized and stored in the frame memory 17.
[0046]
The field mode motion compensation device 18 is used when the motion prediction mode of the macroblock is the field motion prediction mode. The field mode motion compensator 18 has a 1/4 pixel accuracy with respect to the reference image of the standard resolution image stored in the frame memory 17 in consideration of the phase shift component between the top field and the bottom field. Interpolation processing is performed, and motion compensation corresponding to the field motion prediction mode is performed. The reference image that has been subjected to motion compensation by the field mode motion compensation device 18 is supplied to the adder 16 and is combined with the inter image.
[0047]
The frame mode motion compensation device 19 is used when the macroblock motion prediction mode is the frame motion prediction mode. The frame mode motion compensator 19 has a 1/4 pixel accuracy with respect to the reference image of the standard resolution image stored in the frame memory 17 in consideration of the phase shift component between the top field and the bottom field. Interpolation processing is performed, and motion compensation corresponding to the frame motion prediction mode is performed. The reference image that has been subjected to motion compensation by the frame mode motion compensation device 19 is supplied to the addition device 16 and synthesized with the inter image.
[0048]
The frame conversion / phase shift correction device 20 is supplied with a standard resolution reference image stored in the frame memory 17 or an image synthesized by the addition device 16, and post-filtering this image between the top field and the bottom field. The phase shift component is corrected and the image frame is converted so as to conform to the standard definition television standard. That is, in the image frame conversion / phase shift correction device 20, the vertical phase of each pixel in the top field is 1/2, 5/2..., And the vertical phase of each pixel in the bottom field is 1, 3 For example, the vertical phase of each pixel in the top field is 0, 2, 4,..., And the vertical phase of each pixel in the bottom field is 1, 3, 5,. -Correct so that Further, the image frame conversion / phase shift correction device 20 reduces the image frame of the high-resolution television standard to 1/4 and converts it to the standard-definition television standard image frame.
[0049]
The image decoding apparatus 10 according to the first embodiment of the present invention has the above-described configuration, thereby decoding a bitstream obtained by compressing a high-resolution image with MPEG2 and reducing the resolution to ½. Thus, a standard resolution image can be output.
[0050]
Next, the processing contents of the reduced inverse discrete cosine transform device 15 for frame mode will be described in more detail.
[0051]
The reduced inverse discrete cosine transform device 15 for frame mode can perform either one or both of the one-block processing and the two-block processing described below. The frame mode reduced inverse discrete cosine transform device 15 may switch between 1-block processing and 2-block processing as necessary, or may perform only one of the processing.
[0052]
First, one-block processing will be described. FIG. 3 shows a diagram for explaining the contents of the one-block process.
[0053]
As shown in FIG. 3, the reduced inverse discrete cosine transform device 15 for frame mode receives a bit stream obtained by compressing and encoding a high resolution image in units of one DCT block.
[0054]
First, in step S1, the discrete cosine coefficient y of this one DCT block (the coefficient in the vertical direction of all the discrete cosine coefficients of the DCT block is expressed as y 1 ~ Y 8 As shown in the figure. ) Is subjected to 8 × 8 inverse discrete cosine transform (IDCT 8 × 8). By performing inverse discrete cosine transform, 8 × 8 decoded pixel data x (vertical pixel data of all the pixel data of the DCT block is converted to x 1 ~ X 8 As shown in the figure. ) Can be obtained.
[0055]
Subsequently, in step S2, the 8 × 8 pixel data x is alternately extracted for each line in the vertical direction, and a 4 × 4 top field pixel block corresponding to interlaced scanning and 4 corresponding to interlaced scanning. The pixel block of the x4 bottom field is separated into two pixel blocks. That is, the pixel data x of the first line in the vertical direction 1 And pixel data x on the third line Three And pixel data x on the fifth line Five And pixel data x of the seventh line 7 And a pixel block corresponding to the top field is generated. Also, pixel data x of the second line in the vertical direction 2 And pixel data x on the fourth line Four And pixel data x of the sixth line 6 And pixel data x of the eighth line 8 And a pixel block corresponding to the bottom field is generated. The process of separating each pixel of the DCT block into two pixel blocks corresponding to interlaced scanning is hereinafter referred to as field separation.
[0056]
Subsequently, in step S3, 4 × 4 discrete cosine transform (DCT4 × 4) is performed on each of the two pixel blocks separated in the field.
[0057]
Subsequently, in step S4, the discrete cosine coefficient z of the pixel block corresponding to the top field obtained by performing the 4 × 4 discrete cosine transform (the discrete in the vertical direction among all the coefficients of the pixel block corresponding to the top field) The cosine coefficient is z 1 , Z Three , Z Five , Z 7 As shown in the figure. ) Is a pixel block composed of 2 × 2 discrete cosine coefficients. Also, the discrete cosine coefficient z of the pixel block corresponding to the bottom field obtained by the 4 × 4 discrete cosine transform (the discrete cosine coefficient in the vertical direction among all the coefficients of the pixel block corresponding to the bottom field is z 2 , Z Four , Z 6 , Z 8 As shown in the figure. ) Is a pixel block composed of 2 × 2 discrete cosine coefficients.
[0058]
Subsequently, in step S5, 2 × 2 inverse discrete cosine transform (IDCT2 × 2) is performed on the pixel block obtained by thinning out the discrete cosine coefficients of the high frequency components. By performing 2 × 2 inverse discrete cosine transform, 2 × 2 decoded pixel data x ′ (vertical pixel data of all pixel data of the top field pixel block is converted to x ′ 1 , X ′ Three In the figure, the pixel data in the vertical direction among all the pixel data of the pixel block corresponding to the bottom field is x ′. 2 , X ′ Four As shown in the figure. ) Can be obtained.
[0059]
Subsequently, in step S6, the pixel data of the pixel block corresponding to the top field and the pixel data of the pixel block corresponding to the bottom field are alternately synthesized one line at a time in the vertical direction to obtain 4 × 4 pixel data. A DCT block having a reduced inverse discrete cosine transform composed of The process of alternately synthesizing the pixels of the two pixel blocks corresponding to the top field and the bottom field in the vertical direction is hereinafter referred to as frame synthesis.
[0060]
By performing the one-block processing shown in steps S1 to S6 above, the reduced inverse discrete cosine transform device 15 for frame mode generates the reduced inverse discrete cosine transform device 14 for field mode as shown in FIG. A 4 × 4 DCT block composed of pixels having the same phase as the pixels of the standard resolution image can be generated.
[0061]
In the reduced inverse discrete cosine transform device 15 for frame mode, the one block processing from the above step S1 to step S6 is calculated using one matrix. Specifically, in the reduced inverse discrete cosine transform device 15 for frame mode, a matrix [FS ′] shown in the following equation 1 obtained by performing expansion calculation on the above processing using the addition theorem, and one DCT block Discrete cosine coefficient y (y 1 ~ Y 8 ) And the pixel data x ′ (x ′) of the DCT block subjected to the reduced inverse discrete cosine transform. 1 ~ X ' Four ) Can be obtained.
[0062]
[Expression 1]
Figure 0004026238
[0063]
However, in this formula (1), A to J are as follows.
[0064]
[Expression 2]
Figure 0004026238
[0065]
Next, the 2-block process will be described. FIG. 4 shows a diagram for explaining the contents of the two-block process.
[0066]
As shown in FIG. 4, the reduced inverse discrete cosine transform device 15 for frame mode receives a bit stream obtained by compression-coding a high-resolution image in units of two DCT blocks. For example, when the macro block is composed of a so-called 420 format composed of four luminance component DCT blocks and two chrominance component DCT blocks, two luminance component (Y) DCT blocks adjacent in the vertical direction are included. Entered. When the macro block is configured as shown in FIG. 5, the DCT block 0 and the DCT block 2 of the luminance component (Y) are inputted as a pair, and the DCT block 1 and the DCT block 3 are inputted. Input in pairs.
[0067]
First, in step S11, the discrete cosine coefficients y of two DCT blocks (vertical coefficients among all the discrete cosine coefficients of the previous DCT block are expressed as y 1 ~ Y 8 As shown in the figure, the vertical coefficient among all the discrete cosine coefficients of the DCT block later in time is represented by y. 9 ~ Y 16 As shown in the figure. ), 8 × 8 inverse discrete cosine transform (IDCT 8 × 8) is performed independently. By performing inverse discrete cosine transform, 8 × 8 decoded pixel data x (vertical pixel data of all pixel data of the previous DCT block is converted to x 1 ~ X 8 As shown in the figure, the pixel data in the vertical direction among all the pixel data of the DCT block later in time is x 9 ~ X 16 As shown in the figure. ) Can be obtained.
[0068]
Subsequently, in step S12, 8 × 8 pixel data x of the two DCT blocks are alternately extracted for each line in the vertical direction, and the top field 8 × 8 pixel block corresponding to the interlaced scan and the interlaced scan. Is divided into two pixel blocks of an 8 × 8 pixel block corresponding to the bottom field. That is, the pixel data x of the first line in the vertical direction from the previous DCT block in time. 1 And pixel data x on the third line Three And pixel data x on the fifth line Five And pixel data x of the seventh line 7 And the pixel data x of the first line in the vertical direction from the later DCT block 9 And pixel data x on the third line 11 And pixel data x on the fifth line 13 And pixel data x of the seventh line 15 And 8 × 8 pixel block corresponding to the top field is generated. Also, the pixel data x of the second line in the vertical direction from the previous DCT block in time. 2 And pixel data x on the fourth line Four And pixel data x of the sixth line 6 And pixel data x of the eighth line 8 And the pixel data x of the second line in the vertical direction from the later DCT block Ten And pixel data x on the fourth line 12 And pixel data x of the sixth line 14 And pixel data x of the eighth line 16 And a pixel block corresponding to the bottom field is generated.
[0069]
Subsequently, in step S13, 8 × 8 discrete cosine transform (DCT8 × 8) is performed on each of the two 8 × 8 pixel blocks separated in the field.
[0070]
Subsequently, in step S14, the discrete cosine coefficient z of the pixel block corresponding to the top field obtained by performing the 8 × 8 discrete cosine transform (the discrete value in the vertical direction among all the coefficients of the pixel block corresponding to the top field). The cosine coefficient is z 1 , Z Three , Z Five , Z 7 , Z 9 , Z 11 , Z 13 , Z 15 As shown in the figure. ) Is thinned out to obtain a pixel block composed of 4 × 4 discrete cosine coefficients. Also, the discrete cosine coefficient z of the pixel block corresponding to the bottom field obtained by 8 × 8 discrete cosine transform (the discrete cosine coefficient in the vertical direction among all the coefficients of the pixel block corresponding to the bottom field is z 2 , Z Four , Z 6 , Z 8 , Z Ten , Z 12 , Z 14 , Z 16 As shown in the figure. ) Is a pixel block composed of 4 × 4 discrete cosine coefficients.
[0071]
Subsequently, in step S15, 4 × 4 inverse discrete cosine transform (IDCT 4 × 4) is performed on each 4 × 4 pixel block obtained by thinning out the high frequency component discrete cosine coefficients. By performing 4 × 4 inverse discrete cosine transform, 4 × 4 decoded pixel data x ′ (vertical pixel data of all pixel data of the pixel block corresponding to the top field is converted to x ′ 1 , X ′ Three , X ′ Five , X ′ 7 In the figure, the pixel data in the vertical direction among all the pixel data of the pixel block corresponding to the bottom field is x ′. 2 , X ′ Four , X ′ 6 , X ′ 8 As shown in the figure. ) Can be obtained.
[0072]
Subsequently, in step S16, the pixel data of the pixel block corresponding to the top field and the pixel data of the pixel block corresponding to the bottom field are alternately frame-combined one line at a time in the vertical direction to obtain an 8 × 8 pixel. A DCT block having reduced inverse discrete cosine transform composed of data is generated.
[0073]
By performing the two-block processing shown in steps S11 to S16, the reduced inverse discrete cosine transform unit 15 for frame mode generates the reduced inverse discrete cosine transform device 14 for field mode as shown in FIG. A DCT block composed of pixels having the same phase as the pixels of the standard resolution image can be generated.
[0074]
In the reduced inverse discrete cosine transform device 15 for frame mode, the above two-block processing from step S11 to step S16 is calculated using one matrix. Specifically, in the reduced inverse discrete cosine transform device 15 for frame mode, a matrix [FS ′] shown in the following equation (2) obtained by performing expansion calculation of the above processing using the addition theorem, 2 Discrete cosine coefficients y (y 1 ~ Y 16 ) And the pixel data x ′ (x ′) of the DCT block subjected to the reduced inverse discrete cosine transform. 1 ~ X ' 8 ) Can be obtained.
[0075]
[Equation 3]
Figure 0004026238
[0076]
However, in this formula (2), A to D are as follows.
[0077]
[Expression 4]
Figure 0004026238
[0078]
[Equation 5]
Figure 0004026238
[0079]
[Formula 6]
Figure 0004026238
[0080]
[Expression 7]
Figure 0004026238
[0081]
Moreover, in this Formula (2), ag is as follows.
[0082]
[Equation 8]
Figure 0004026238
[0083]
When the so-called 420-format macroblock shown in FIG. 5 is input to the reduced inverse discrete cosine transform device 15 for frame mode, the luminance component 2 shown in steps S11 to S16 is used. Block processing may be performed to perform reduced inverse discrete cosine transform, and for the color difference component, the reduced inverse discrete cosine transform may be performed by performing the one block processing shown in steps S1 to S6.
[0084]
As described above, in the image decoding apparatus 10 according to the first embodiment of the present invention, in the field DCT mode, 4 × 4 reduced inverse discrete cosine transform is performed on each of the top field and the bottom field to decode a standard resolution image. In the frame DCT mode, the standard resolution image is decoded by performing the frame separation and performing the reduced inverse discrete cosine transform. Since the image decoding apparatus 10 performs different processing in the field DCT mode and the frame DCT mode in this way, decoding is performed in the field DCT mode and the frame DCT mode without impairing the interlaced property of the interlaced scanning image. The phase of the output image can be made the same, and the image quality of the output image is not deteriorated.
[0085]
In the image decoding device 10, the 4 × 4 reduced inverse discrete cosine transform process of the field mode reduced inverse discrete cosine transform device 14 and the step S 1 to step S 6 of the frame mode reduced inverse discrete cosine transform device 15. The reduced inverse discrete cosine transform processing by one block processing according to may be processed using a high-speed algorithm.
[0086]
For example, Wang's algorithm (reference: Zhong DE Wang., “Fast Algorithms for the Discrete W Transform and for the Discrete Fourier Transform”, IEEE Tr.ASSP-32, NO.4, pp.803-816, Aug.1984. ) Can be used to speed up the processing.
[0087]
When the matrix operated by the reduced inverse cosine transform device 14 for field mode is decomposed using the Wang algorithm, it is decomposed as shown in the following equation (3).
[0088]
[Equation 9]
Figure 0004026238
[0089]
FIG. 6 shows a processing flow when the Wang algorithm is applied to the processing of the reduced inverse discrete cosine transform device 14 for field mode. As shown in this processing flow, the first to fifth multipliers 14a to 14e and the first to ninth adders 14f to 14n can be used to increase the speed.
[0090]
When the matrix [FS ′] calculated by the reduced inverse discrete cosine transform device 15 for frame mode is decomposed using the Wang algorithm, it is decomposed as shown in the following equation (4).
[0091]
[Expression 10]
Figure 0004026238
[0092]
However, in this formula (4), A to J are as follows.
[0093]
[Expression 11]
Figure 0004026238
[0094]
FIG. 7 shows a processing flow when the Wang algorithm is applied to the processing of the reduced inverse discrete cosine transform device 15 for frame mode. As shown in this processing flow, the first to tenth multipliers 15a to 15j and the first to thirteenth adders 15k to 15w can be used to increase the speed.
[0095]
(Second Embodiment)
Next, an image decoding apparatus according to the second embodiment of the present invention will be described. In the description of the image decoding apparatus according to the second embodiment, the same components as those in the first image decoding apparatus 10 are denoted by the same reference numerals in the drawing, and detailed description thereof is omitted. In the third and subsequent embodiments, the same components as those in the previous embodiments are denoted by the same reference numerals in the drawings, and detailed description thereof is omitted.
[0096]
As shown in FIG. 8, the image decoding apparatus 30 according to the second embodiment of the present invention receives a bitstream obtained by compressing a high-resolution image having 1152 effective lines in the vertical direction by MPEG2, for example. This is a device that decodes an input bit stream and reduces the resolution to ½, and outputs a standard resolution image having, for example, 576 effective lines in the vertical direction.
[0097]
The image decoding device 30 is supplied with a bit stream of a compressed high-resolution image, and performs a variable length encoding that assigns a code length according to the frequency of data generation, and a bit stream analysis device 11 that analyzes the bit stream. Further, the variable length code decoding device 12 for decoding the bit stream, the inverse quantization device 13 for multiplying each coefficient of the DCT block by a quantization step, and the reduced inverse of the DCT block subjected to discrete cosine transform in the field DCT mode. Field mode phase-corrected reduced inverse discrete cosine transform device 31 for generating a standard resolution image by performing discrete cosine transform, and reduced inverse discrete cosine transform for a DCT block subjected to discrete cosine transform in the frame DCT mode and performing standard Phase corrected reduced inverse discrete cosine for frame mode to generate resolution image The conversion device 32, the addition device 16 for adding the standard resolution image subjected to the reduced inverse discrete cosine transform and the motion compensated reference image, the frame memory 17 for temporarily storing the reference image, and the frame memory 17 are stored. A field mode motion compensation device 18 that performs motion compensation corresponding to the field motion prediction mode on the reference image, and a frame mode motion compensation device 19 that performs motion compensation corresponding to the frame motion prediction mode on the reference image stored in the frame memory 17. And an image frame conversion device 33 for converting the image frame from the image stored in the frame memory 17 and outputting standard resolution image data for display on a monitor or the like.
[0098]
The field mode phase correction reduced inverse discrete cosine transform device 31 is used when a macroblock of an input bit stream is subjected to discrete cosine transform in the field DCT mode. The phase correction reduced inverse discrete cosine transform device 31 for field mode uses 4 × 8 of all the coefficients of the DCT block in which 8 × 8 coefficients in the macroblock subjected to the discrete cosine transform in the field DCT mode are shown. For only the coefficients, inverse discrete cosine transform is performed by correcting the phase shift of the pixels in the vertical direction of the top field and the bottom field. That is, inverse discrete cosine transformation is performed based on four discrete cosine coefficients in the low frequency range in the horizontal direction, and inverse discrete cosine transformation is performed in the vertical direction with phase deviation corrected based on eight discrete cosine coefficients. Specifically, phase correction for 1/4 pixel is performed for each pixel in the vertical direction of the top field, and phase correction for 3/4 pixel is performed for each pixel in the vertical direction of the bottom field. I do. Then, by performing the reduced inverse discrete cosine transform as described above, the vertical phase of each pixel in the top field becomes 1/4, 9/4... As shown in FIG. A standard resolution image (lower layer) in which the vertical phase of the pixels is 5/4, 13/4... Is generated.
[0099]
The frame mode phase correction reduced inverse discrete cosine transform device 32 is used when a macroblock of the input bit stream is subjected to discrete cosine transform in the frame DCT mode. The phase correction reduced inverse discrete cosine transform device 32 for the frame mode is a block that will be described in detail later with respect to the DCT block in which 8 × 8 coefficients are indicated in the macroblock subjected to the discrete cosine transform in the frame DCT mode. The reduced inverse discrete cosine transform is performed by correcting the phase shift of the pixels in the vertical direction of the top field and the bottom field by the process or the two-block process. Then, an image having the same phase as the pixel phase of the standard resolution image generated by the field mode phase correction reduced inverse discrete cosine transform device 31 is generated. That is, by performing the reduced inverse discrete cosine transform in one block processing or two block processing, the vertical phase of each pixel in the top field becomes 1/4, 9/4... A standard resolution image (lower layer) in which the vertical phase of each pixel in the bottom field is 5/4, 13/4... Is generated.
[0100]
The field mode motion compensation device 18 is used when the motion prediction mode of the macroblock is the field motion prediction mode. The field mode motion compensation device 18 performs interpolation processing on the reference image of the standard resolution image stored in the frame memory 17 with 1/4 pixel accuracy, and performs motion compensation corresponding to the field motion prediction mode. The reference image that has been subjected to motion compensation by the field mode motion compensation device 18 is supplied to the adder 16 and is combined with the inter image.
[0101]
The frame mode motion compensation device 19 is used when the macroblock motion prediction mode is the frame motion prediction mode. The frame mode motion compensation device 19 performs an interpolation process on the reference image of the standard resolution image stored in the frame memory 17 with 1/4 pixel accuracy, and performs motion compensation corresponding to the frame motion prediction mode. The reference image that has been subjected to motion compensation by the frame mode motion compensation device 19 is supplied to the addition device 16 and synthesized with the inter image.
[0102]
The image frame conversion device 33 is supplied with the standard resolution reference image stored in the frame memory 17, and converts the reference image to match the standard resolution television standard by post-filtering. That is, the image frame conversion device 33 converts the image frame of the high resolution television standard into the image frame of the standard resolution television standard reduced to ¼. Since the image stored in the frame memory 17 does not cause a phase shift between the top field and the bottom field, the image frame conversion device 33 does not have the image frame conversion / conversion of the first embodiment described above. Unlike the phase shift correction device 20, it is not necessary to correct the phase shift of the pixel.
[0103]
The image decoding apparatus 30 according to the second embodiment of the present invention has the above-described configuration, thereby decoding a bit stream obtained by compressing a high-resolution image with MPEG2 and reducing the bit stream to 1/2 resolution. Thus, a standard resolution image can be output.
[0104]
Next, the processing contents of the field mode phase correction reduced inverse discrete cosine transform device 31 will be described in more detail.
[0105]
As shown in FIG. 10, a bit stream obtained by compressing and encoding a high resolution image is input to the field mode phase correction reduced inverse discrete cosine transform device 31 in units of one DCT block.
[0106]
First, in step S21, the discrete cosine coefficient y of this one DCT block (the vertical coefficient of all the discrete cosine coefficients of the DCT block is expressed as y 1 ~ Y 8 As shown in the figure. ) Is subjected to 8 × 8 inverse discrete cosine transform (IDCT 8 × 8). By performing inverse discrete cosine transform, 8 × 8 decoded pixel data x (vertical pixel data of all the pixel data of the DCT block is converted to x 1 ~ X 8 As shown in the figure. ) Can be obtained.
[0107]
Subsequently, in step S22, the 8 × 8 pixel data is transformed by being closed in the DCT block by the 4 × 8 phase correction filter matrix, and the phase corrected pixel data x ′ (vertical out of all the pixel data). X ' 1 , X ′ 2 , X ′ Three , X ′ Four As shown in the figure. )
[0108]
By performing the processes in steps S21 to S22 described above, the field mode phase correction reduced inverse discrete cosine transform device 31 can generate an image having no pixel phase shift between the top field and the bottom field. it can.
[0109]
In the field mode phase correction reduced inverse discrete cosine transform device 31, as shown in FIG. 11, the above processing may be performed using one matrix (4 × 8 phase correction IDCT matrix).
[0110]
Next, FIG. 12 shows a design procedure of a 4 × 8 phase correction IDCT matrix that is calculated by the field mode phase correction reduced inverse discrete cosine transform device 31. This 4 × 8 phase correction IDCT matrix will be described. This 4 × 8 phase correction IDCT matrix is created by polyphase decomposition of a prototype filter.
[0111]
Here, in the image decoding device 30, a high-resolution image having a frequency characteristic as shown in FIG. 13A is converted into a 1 / F of the frequency characteristic in which the signal band as shown in FIG. Down-decode into a standard resolution image of 2 resolution. Therefore, the frequency characteristics required for the prototype filter are the frequency characteristics obtained by performing oversampling four times as shown in FIG. 13C so that a 1/4 phase pixel value of the standard resolution image can be obtained. Become.
[0112]
First, in step S31, the Nyquist frequency or lower is divided {(N−1) / 2} at equal intervals, and a gain list is created from the frequency samples. For example, as shown in FIG. 14, 29 gain lists are created by dividing a frequency equal to or lower than the Nyquist frequency by (57-1) / 2 = 28 at equal intervals.
[0113]
Subsequently, in step S32, 57 impulse responses are created by the frequency sampling method. That is, the 29 gain lists are subjected to inverse discrete Fourier transform to generate 57 FIR filter impulse responses. The 57 impulse responses are shown in FIG.
[0114]
In step S33, a 57-tap filter coefficient c1 to c57 is created by multiplying the impulse response by a window function.
[0115]
The filter created in step S33 is a prototype filter.
[0116]
Subsequently, in step S34, the prototype filter having 57 filter coefficients c1 to c57 is subjected to polyphase decomposition, and only 14 filter coefficients c′1 to c′14 having ¼ phase correction characteristics are extracted, Create a polyphase filter.
[0117]
Here, as shown in FIG. 16, the polyphase filter oversamples the input signal N times, performs polyphase decomposition that extracts pixels at intervals of N pixels from the signal obtained by oversampling, and performs input signal processing. And a signal that outputs a signal having a 1 / N phase shift. For example, in order to obtain a signal that is 1/4 phase shifted from the input signal, as shown in FIG. 17, the input signal is oversampled 4 times, and a signal that is 1/4 phase shifted can be extracted from this signal. That's fine.
[0118]
Specifically, the 14 filter coefficients c′1 to c′14 created from the prototype filters c1 to c57 having 57 coefficients are, for example, coefficients as shown in the following equation (5).
[0119]
[Expression 12]
Figure 0004026238
[0120]
After creating the polyphase filter in this way, the design process is divided into a 4 × 8 phase correction IDCT matrix for the top field and a 4 × 8 phase correction IDCT matrix for the bottom field.
[0121]
First, when creating a top field 4 × 8 phase correction IDCT matrix, in step S35, 14 filter coefficients c ′ subjected to polyphase decomposition so that the filter coefficients have ¼ phase correction characteristics. Eight coefficients having group delays of ¼, 9/4, 17/4, and 25/4 phases are extracted from 1 to c′14, and a 4 × 8 phase correction filter matrix is created. The 4 × 8 phase correction filter created in this way is shown in FIG.
[0122]
For example, coefficients as shown in the following expression (6) are extracted from the 14 filter coefficients c′1 to c′14 in the expression (5).
[0123]
[Formula 13]
Figure 0004026238
[0124]
When a 4 × 8 phase correction filter matrix is obtained from the coefficient of Expression (6), the matrix is as shown in Expression (7) below.
[0125]
[Expression 14]
Figure 0004026238
[0126]
When the 4 × 8 phase correction filter matrix shown in the equation (7) is normalized, a matrix as shown in the following equation (8) is obtained.
[0127]
[Expression 15]
Figure 0004026238
[0128]
In step S36, the 8 × 8 IDCT matrix and the 4 × 8 phase correction filter matrix are multiplied to create a top field 4 × 8 phase correction IDCT matrix.
[0129]
The 4 × 8 phase correction IDCT matrix obtained by multiplying the 8 × 8 IDCT matrix and the 4 × 8 phase correction filter shown in the above equation (8) is a matrix as shown in the following equation (9).
[0130]
[Expression 16]
Figure 0004026238
[0131]
On the other hand, when creating a 4 × 8 phase correction IDCT matrix for the bottom field, in step S37, 14 filter coefficients c ′ subjected to polyphase decomposition so that the filter coefficients have a 3/4 phase correction characteristic. 1 to c'14 are reversed left and right.
[0132]
Subsequently, in step S38, eight coefficients having group delays of 3/4, 11/4, 19/4, and 27/4 phases are obtained from the 14 filter coefficients c'1 to c'14 that are reversed left and right. And a 4 × 8 phase correction filter matrix is created.
[0133]
In step S39, the 8 × 8 IDCT matrix is multiplied by this 4 × 8 phase correction filter matrix to create a 4 × 8 phase correction IDCT matrix for the bottom field.
[0134]
Thus, by performing each processing of step S31 to step S39, it is possible to create a 4 × 8 phase correction IDCT matrix on which the field mode phase correction reduced inverse discrete cosine transform device 31 performs an operation.
[0135]
As described above, the field mode phase correction reduced inverse discrete cosine transform device 31 performs a matrix operation on the 4 × 8 phase correction IDCT matrix and the coefficient of the DCT block subjected to the discrete cosine transform in the input field DCT mode. By doing so, it is possible to decode a standard resolution image with no phase shift between the top field and the bottom field. That is, in this field mode phase correction reduced inverse discrete cosine transform device 31, as shown in FIG. 9, the vertical phase of each pixel in the top field becomes 1/4, 9/4. A standard resolution image (lower layer) in which the vertical phase of each pixel is 5/4, 13/4... Can be generated.
[0136]
Next, the processing contents of the frame mode phase correction reduced inverse discrete cosine transform device 32 will be described in more detail.
[0137]
The frame mode phase correction reduced inverse discrete cosine transform device 32 can perform either one or both of the one-block processing and the two-block processing described below. If necessary, one block processing or two block processing may be switched and used, or only one of the processing may be performed.
[0138]
First, one-block processing will be described. FIG. 19 is a diagram for explaining the contents of one block processing.
[0139]
As shown in FIG. 19, a bit stream obtained by compressing and encoding a high-resolution image is input to the frame mode phase correction reduced inverse discrete cosine transform device 32 in units of one DCT block.
[0140]
First, in step S41, 8 × 8 inverse discrete cosine transformation is performed on the discrete cosine coefficient y of this one DCT block. In step S42, the 8 × 8 pixel data is field-separated. Subsequently, in step S43, 4 × 4 discrete cosine transform is performed on each of the two pixel blocks separated in the field. Subsequently, in step S44, the high frequency component of the discrete cosine coefficient z of each pixel block is thinned out to be a pixel block composed of 2 × 2 discrete cosine coefficients. The processing from step S41 to step S44 is the same as the processing from step S1 to step S4 in the one-block processing shown in FIG.
[0141]
Subsequently, in step S45, for the pixel block corresponding to the top field, the phase shift of the pixels in the vertical direction is corrected using a 2 × 4 phase correction IDCT matrix that corrects the phase for ¼ pixel. Perform inverse discrete cosine transform. For the pixel block corresponding to the bottom field, inverse discrete cosine transform is performed by correcting the phase shift of the pixels in the vertical direction using a 2 × 4 phase correction IDCT matrix that performs phase correction for 3/4 pixels. Do. By performing the reduced inverse discrete cosine transform as described above, 2 × 2 pixel data x ′ (vertical pixel data among all pixel data of the pixel block corresponding to the top field is converted to x ′. 1 , X ′ Three In the figure, the pixel data in the vertical direction among all the pixel data of the pixel block corresponding to the bottom field is x ′. 2 , X ′ Four As shown in the figure. ) Can be obtained. The pixel data x ′ is a standard resolution image in which the vertical phase of each pixel in the top field is 1/4 and 9/4, and the vertical phase of each pixel in the bottom field is 5/4 and 13/4. (Lower layer) is generated. Details of the design method of the 2 × 4 phase correction IDCT matrix will be described later.
[0142]
Subsequently, in step S46, the pixel data of the pixel block corresponding to the top field and the pixel data of the image block of the bottom field are frame-synthesized. The process of step S46 is the same as the process of step S6 in the one-block process shown in FIG.
[0143]
By performing the processes in steps S41 to S46, the frame mode phase correction reduced inverse discrete cosine transform device 32 can generate an image having no phase shift between pixels. In addition, it is possible to generate an image in which no phase shift occurs from the image decoded by the field mode phase correction reduced inverse discrete cosine transform device 31.
[0144]
Further, in the frame mode phase correction reduced inverse discrete cosine transform device 32, the processing from step S41 to step S46 may be calculated using one matrix.
[0145]
Next, FIG. 20 shows a design procedure of the 2 × 4 phase correction IDCT matrix which is calculated in step S45 of the phase correction reduced inverse discrete cosine transform device 32 for frame mode, and this 2 × 8 phase correction IDCT matrix will be described. .
[0146]
First, in step S51, the Nyquist frequency or lower is divided {(N-1) / 2} at equal intervals, and a gain list is created from the frequency samples. For example, as shown in FIG. 21, 13 gain lists are created by dividing a frequency equal to or lower than the Nyquist frequency by equal intervals (25-1) / 2 = 12.
[0147]
Subsequently, in step S52, 25 impulse responses are created by the frequency sampling method. That is, the 13 gain lists are subjected to inverse discrete Fourier transform to generate impulse responses of 25 FIR filters. These 25 impulse responses are shown in FIG.
[0148]
Subsequently, in step S53, a 25-tap filter coefficient c1 to c25 is created by multiplying the impulse response by a window function.
[0149]
The filter created in step S53 is a prototype filter.
[0150]
Subsequently, in step S54, the prototype filter having 25 filter coefficients c1 to c25 is subjected to polyphase decomposition, and only 6 filter coefficients c′1 to c′6 having a ¼ phase correction characteristic are extracted. Create a polyphase filter.
[0151]
Specifically, the 14 filter coefficients c′1 to c′6 created from the prototype filters c1 to c25 having 57 coefficients are, for example, coefficients as shown in the following formula (10).
[0152]
[Expression 17]
Figure 0004026238
[0153]
After creating the polyphase filter in this way, the design process is divided into a 2 × 4 phase correction IDCT matrix for the top field and a 2 × 4 phase correction IDCT matrix for the bottom field.
[0154]
First, when creating a 2 × 4 phase correction IDCT matrix for the top field, in step S55, the group delay is ¼ from the six filter coefficients c′1 to c′6 subjected to polyphase decomposition, Two coefficients are extracted for each of the 9/4 phases, and a 2 × 4 phase correction filter matrix is created. The 2 × 4 phase correction filter created in this way is shown in FIG.
[0155]
For example, coefficients as shown in the following expression (11) are extracted from the six filter coefficients c′1 to c′6 in the expression (10).
[0156]
[Expression 18]
Figure 0004026238
[0157]
When a 2 × 4 phase correction filter matrix is obtained from the coefficient of Expression (11), the matrix is as shown by Expression (12) below.
[0158]
[Equation 19]
Figure 0004026238
[0159]
When the 2 × 4 phase correction filter matrix shown in the equation (12) is normalized, a matrix as shown in the following equation (13) is obtained.
[0160]
[Expression 20]
Figure 0004026238
[0161]
In step S56, the 4 × 4 IDCT matrix is multiplied by this 2 × 4 phase correction filter matrix to create a 2 × 4 phase correction IDCT matrix for the top field.
[0162]
The 2 × 4 phase correction IDCT matrix obtained by multiplying the 2 × 4 IDCT matrix by the 2 × 4 phase correction filter represented by the above equation (13) is a matrix as shown in the following equation (14).
[0163]
[Expression 21]
Figure 0004026238
[0164]
On the other hand, when the 2 × 4 phase correction IDCT matrix for the bottom field is created, in step S57, six filter coefficients c ′ subjected to polyphase decomposition so that the filter coefficients have a 3/4 phase correction characteristic. 1 to c'6 are reversed left and right.
[0165]
In step S58, two coefficients are extracted from the six left-right inverted filter coefficients c'1 to c'6 so that the group delay becomes 3/4 and 11/4 phases, respectively. A x4 phase correction filter matrix is created.
[0166]
In step S59, the 4 × 4 IDCT matrix and the 2 × 4 phase correction filter matrix are multiplied to create a 2 × 4 phase correction IDCT matrix for the bottom field.
[0167]
As described above, by performing each processing of step S51 to step S59, it is possible to create a 2 × 4 phase correction IDCT matrix in which the frame mode phase correction reduced inverse discrete cosine transform device 32 performs the calculation in step S45. .
[0168]
Next, the 2-block process will be described. FIG. 24 is a diagram for explaining the contents of the two-block process.
[0169]
As shown in FIG. 24, a bit stream obtained by compression-coding a high-resolution image is input to the frame mode phase correction reduced inverse discrete cosine transform device 32 in units of two DCT blocks. For example, when the macroblock is composed of four luminance component DCT blocks and two color difference component DCT blocks, two DCT blocks adjacent in the vertical direction are input. For example, when the macro block is configured as shown in FIG. 5 described above, the DCT block 0 and the DCT block 2 of the luminance component (Y) are input as a pair, and the DCT block 1 and the DCT block are input. Block 3 is input as a pair.
[0170]
First, in step S61, 8 × 8 inverse discrete cosine transform is independently performed on the discrete cosine coefficients y of the two DCT blocks. By performing inverse discrete cosine transform, 8 × 8 decoded pixel data x can be obtained. Subsequently, in step S62, the two 8 × 8 pixel data are field-separated. Subsequently, in step S63, 8 × 8 discrete cosine transform is performed on each of the two 8 × 8 pixel blocks subjected to field separation. Subsequently, in step S64, the high frequency component of the discrete cosine coefficient z of the pixel block corresponding to the top field obtained by the 8 × 8 discrete cosine transform is thinned out to be composed of 4 × 4 discrete cosine coefficients. Pixel block. Further, a high frequency component of the discrete cosine coefficient z of the pixel block corresponding to the bottom field obtained by 8 × 8 discrete cosine transform is thinned out to be a pixel block configured by 4 × 4 discrete cosine coefficients.
[0171]
The above processing from step S61 to step S64 is the same as the processing from step S11 to step S14 in the two-block processing shown in FIG.
[0172]
Subsequently, in step S65, for the top-field pixel block, a 4 × 8 phase correction IDCT matrix that performs phase correction for ¼ pixel is used to perform inverse discrete correction in which the vertical pixel phase shift is corrected. Perform cosine transformation. For the bottom field pixel block, inverse discrete cosine transform is performed by correcting the phase shift of the pixels in the vertical direction using a 4 × 8 phase correction IDCT matrix that performs phase correction for 3/4 pixels. By performing the reduced inverse discrete cosine transformation as described above, 4 × 4 pixel data x ′ (vertical pixel data among all pixel data of the pixel block corresponding to the top field is converted to x ′. 1 , X ′ Three , X ′ Five , X ′ 7 In the figure, the pixel data in the vertical direction among all the pixel data of the pixel block corresponding to the bottom field is x ′. 2 , X ′ Four , X ′ 6 , X ′ 8 As shown in the figure. ) Can be obtained. In this pixel data x ′, the vertical phase of each pixel in the top field is 1/4, 9/4..., And the vertical phase of each pixel in the bottom field is 5/4, 13/4. Generate a standard resolution image (lower layer) The 4 × 8 phase correction IDCT matrix design method is the same as the matrix calculated by the field mode phase correction reduced inverse discrete cosine transform device 31 described above.
[0173]
Subsequently, in step S66, the pixel data of the pixel block corresponding to the top field and the pixel data of the pixel block corresponding to the bottom field are alternately frame-combined one line at a time in the vertical direction to obtain an 8 × 8 pixel. A DCT block having reduced inverse discrete cosine transform composed of data is generated.
[0174]
By performing the above-described two-block processing from step S61 to step S66, the frame mode phase correction reduced inverse discrete cosine transform device 32 can generate an image having no phase shift between pixels. In addition, it is possible to generate an image in which no phase shift occurs from the image decoded by the field mode phase correction reduced inverse discrete cosine transform device 31.
[0175]
Further, in the frame mode phase correction reduced inverse discrete cosine transform device 32, the above processing from step S61 to step S66 may be calculated using one matrix.
[0176]
As described above, in the image decoding apparatus 30 according to the second embodiment of the present invention, in the field DCT mode, 4 × 4 reduced inverse discrete cosine transform is performed on each of the top field and the bottom field, and phase correction is performed. The standard resolution image is decoded, and in the frame DCT mode, the frame is separated and the reduced inverse discrete cosine transform is performed and the phase correction is performed to decode the standard resolution image. In this image decoding apparatus 30, processing is performed in the field DCT mode and the frame DCT mode as described above, so that the interlace property of the interlaced scanning image is not impaired and the inverse inverse discrete cosine transform is performed. The phase shift between the top field and the bottom field is eliminated, and the image quality of the output image is not deteriorated. That is, the image decoding apparatus 30 does not need to perform phase correction when outputting the decoded image stored in the frame memory 17, simplifies the process and does not cause deterioration in image quality.
[0177]
(Third embodiment)
Next, an image decoding apparatus according to the third embodiment of the present invention will be described.
[0178]
As shown in FIG. 25, the image decoding apparatus 40 according to the third embodiment of the present invention receives a bitstream obtained by compressing a high-resolution image having, for example, 1152 effective lines in the vertical direction using MPEG2. This is a device that decodes an input bit stream and reduces the resolution to ½, and outputs a standard resolution image having, for example, 576 effective lines in the vertical direction.
[0179]
The image decoding apparatus 40 is supplied with a bit stream of a compressed high-resolution image, and performs a variable length encoding that assigns a code length according to the frequency of data generation, and a bit stream analysis apparatus 11 that analyzes the bit stream. Further, the variable length code decoding device 12 that decodes the bit stream, the inverse quantization device 13 that applies a quantization step to each coefficient of the DCT block, and the reduced inverse of the DCT block that has been subjected to discrete cosine transform in the field DCT mode. A reduced inverse discrete cosine transform device for field mode 14 that generates a standard resolution image by performing discrete cosine transform, and a standard resolution image by performing a reduced inverse discrete cosine transform on a DCT block that has undergone discrete cosine transform in the frame DCT mode. A reduced inverse discrete cosine transform device 15 for frame mode for generating An adder 16 for adding the standard resolution image subjected to the small inverse discrete cosine transform and the reference image subjected to motion compensation, a frame memory 17 for temporarily storing the reference image, and a field motion in the reference image stored in the frame memory 17. A field mode motion compensation device 41 that performs motion compensation corresponding to the prediction mode, a frame mode motion compensation device 42 that performs motion compensation corresponding to the frame motion prediction mode on the reference image stored in the frame memory 17, and the frame memory 17 Post-filtering the image stored in the image to convert the image frame, correct the phase shift of the pixel and output image data of standard resolution for display on a television monitor etc. And a deviation correction device 20.
[0180]
The reduced inverse discrete cosine transform device 14 for field mode is used when the macroblock of the input bit stream is subjected to discrete cosine transform in the field DCT mode. The reduced inverse cosine transform device 14 for field mode uses a DCT block in which 8 × 8 coefficients in a macroblock subjected to discrete cosine transform in the field DCT mode are shown, as shown in FIG. Inverse discrete cosine transform is performed only on low-frequency 4 × 4 coefficients. That is, the reduced inverse discrete cosine transform is performed based on the four discrete cosine coefficients in the horizontal and vertical low bands. The reduced inverse discrete cosine transform device 14 for field mode can decode a standard resolution image in which one DCT block is composed of 4 × 4 pixels by performing the reduced inverse discrete cosine transform as described above. . As shown in FIG. 2, the phase of each pixel of the decoded image data is 1/2, 5/2..., And the vertical phase of each pixel in the bottom field is vertical. The phase of the direction is 1, 3,.
[0181]
The frame mode reduced inverse discrete cosine transform device 15 is used when a macroblock of an input bit stream is subjected to discrete cosine transform in the frame DCT mode. The frame mode reduced inverse discrete cosine transform device 15 performs a reduced inverse discrete cosine transform on a DCT block in which 8 × 8 coefficients in a macroblock subjected to discrete cosine transform in the frame DCT mode are indicated. The reduced inverse discrete cosine transform device 15 for frame mode decodes a resolution image in which one DCT block is composed of 4 × 4 pixels, and the standard resolution generated by the reduced inverse discrete cosine transform device 14 for field mode. An image having the same phase as the pixel phase of the image is generated. That is, as shown in FIG. 2, the phase of each pixel of the image data decoded by the reduced inverse discrete cosine transform device 15 for frame mode is 1/2, 5/2. The vertical phase of each pixel in the bottom field is 1, 3,.
[0182]
The field mode motion compensation device 41 is used when the motion prediction mode of the macroblock is the field motion prediction mode. The field mode motion compensator 41 has a 1/4 pixel accuracy with respect to the reference image of the standard resolution image stored in the frame memory 17 in consideration of the phase shift component between the top field and the bottom field. Interpolation processing is performed, and motion compensation corresponding to the field motion prediction mode is performed. The reference image subjected to motion compensation by the field mode motion compensation device 41 is supplied to the adding device 16 and is synthesized with the inter image.
[0183]
The frame mode motion compensation device 42 is used when the motion prediction mode of the macroblock is the frame motion prediction mode. The motion compensation device for frame mode 42 has a 1/4 pixel accuracy with respect to the reference image of the standard resolution image stored in the frame memory 17 in consideration of the phase shift component between the top field and the bottom field. Interpolation processing is performed, and motion compensation corresponding to the frame motion prediction mode is performed. The reference image that has been subjected to motion compensation by the frame mode motion compensation device 42 is supplied to the adder 16 and is combined with the inter image.
[0184]
The image decoding apparatus 40 according to the third embodiment of the present invention has the above-described configuration, thereby decoding a bitstream obtained by compressing a high-resolution image with MPEG2 and reducing the resolution to ½. Thus, a standard resolution image can be output.
[0185]
Next, the field mode motion compensation device 41 and the frame mode motion compensation device 42 will be described in more detail.
[0186]
First, an interpolation process performed by the field mode motion compensation device 41 will be described. In the field mode motion compensator 41, as will be described below, the pixels of the standard resolution image stored in the frame memory 17 are interpolated so as to correspond to the motion compensation of the 1/2 pixel accuracy of the high resolution image. Thus, a pixel with 1/4 pixel accuracy is generated.
[0187]
For the pixels in the horizontal direction, first, a ½ pixel precision pixel is generated from the integer precision pixels stored in the frame memory 17 using a double interpolation filter. For example, the field mode motion compensation device 41 generates half-pixel precision pixels using a half-band filter. Subsequently, using a linear interpolation filter, a ¼ pixel precision pixel is generated from a ½ pixel precision pixel generated using the double interpolation filter. The field mode motion compensation device 41 uses a double interpolation filter such as a half-band filter, so that the same as the pixels of the standard resolution image stored in the frame memory 17 without performing a product-sum operation according to the number of taps. Phase pixels can be output as a reference image corresponding to a high-resolution image. Therefore, the field mode motion compensation device 41 can perform high-speed processing. In the field mode motion compensation device 41, the above processing may be performed using one matrix, and a quarter precision pixel is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0188]
For the pixels in the vertical direction, first, as shown in FIG. 26A, the vertical phase of each pixel in the top field is 1/2, 5/2. The pixels of integer resolution of the standard resolution image including the phase shift between the top field and the bottom field so that the vertical phase is 1, 3,... Are extracted from the frame memory 17.
[0189]
Subsequently, for pixels in the vertical direction, as shown in FIG. 26 (b), an integer precision pixel extracted from the frame memory 17 in the field using a double interpolation filter such as a half-band filter. A pixel with 1/2 pixel accuracy is generated. In other words, a half-field precision pixel of the top field is generated based on the top-field integer precision pixel, and a bottom-field half-pixel precision pixel is generated based on the bottom field integer precision pixel. For example, as shown in FIG. 26 (b), the top-field pixels having a vertical phase position of 7/2 are: 1/2, 5/2, 9/2, 13/2 · Generated by double interpolation from the top field pixel at the position. Also, the bottom field pixels whose vertical phase is at position 4 are generated by performing double interpolation from the bottom field pixels at positions 1, 3, 5, 7,.
[0190]
Subsequently, for the pixels in the vertical direction, as shown in FIG. 26 (c), from the pixels with half-pixel accuracy generated using the linear interpolation filter and using the double interpolation filter in the field. A pixel with 1/4 pixel accuracy is generated. That is, a pixel having a ¼ pixel accuracy in the top field is generated based on the pixel having a ½ pixel accuracy in the top field, and a pixel having a ¼ pixel accuracy in the bottom field is generated based on the ½ pixel accuracy pixel in the bottom field. Is generated. For example, as shown in FIG. 26 (c), a top-field pixel whose vertical phase is 9/4 is linearly interpolated from a top-field pixel whose position is 2/5/2. Generated. Also, the bottom field pixel whose vertical phase is at the position of 10/4 is generated by linear interpolation from the bottom field pixel at the position of 9/4, 11/4.
[0191]
By performing interpolation in the vertical direction in this way, the field mode motion compensation device 41 uses a double interpolation filter such as a half-band filter, so that a frame memory can be obtained without performing a product-sum operation according to the number of taps. The pixels having the same phase as the pixels of the standard resolution image stored in 17 can be output as a reference image corresponding to the high resolution image. Therefore, the field mode motion compensation device 41 can perform high-speed processing. In the field mode motion compensation device 41, the above processing may be performed using one matrix, and a quarter precision pixel is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0192]
Next, an interpolation process performed by the frame mode motion compensation device 42 will be described. In the frame mode motion compensation device 42, as described below, the pixels of the standard resolution image stored in the frame memory 17 are interpolated so as to correspond to the motion compensation of 1/2 pixel accuracy of the high resolution image. Thus, a pixel with 1/4 pixel accuracy is generated.
[0193]
For the pixels in the horizontal direction, first, a ½ pixel precision pixel is generated from the integer precision pixels stored in the frame memory 17 using a double interpolation filter. The frame mode motion compensator 42 generates a pixel with ½ pixel accuracy using, for example, a half-band filter. Subsequently, using a linear interpolation filter, a ¼ pixel precision pixel is generated from a ½ pixel precision pixel generated using the double interpolation filter. The frame mode motion compensator 42 uses a double interpolation filter such as a half-band filter, so that the same as the pixels of the standard resolution image stored in the frame memory 17 without performing a product-sum operation according to the number of taps. Phase pixels can be output as a reference image corresponding to a high-resolution image. Therefore, the frame mode motion compensation device 42 can perform high-speed processing. Further, in the frame mode motion compensation device 42, the above processing may be performed using one matrix, and a quarter precision pixel is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0194]
For the pixels in the vertical direction, first, as shown in FIG. 27A, the vertical phase of each pixel in the top field is 1/2, 5/2. The pixels of integer resolution of the standard resolution image including the phase shift between the top field and the bottom field so that the vertical phase is 1, 3,... Are extracted from the frame memory 17.
[0195]
Subsequently, with respect to the pixels in the vertical direction, as shown in FIG. 27B, a double interpolation filter such as a half-band filter is used to extract integer precision pixels extracted from the frame memory 17 within the field. A pixel with 1/2 pixel accuracy is generated. In other words, a half-field precision pixel of the top field is generated based on the top-field integer precision pixel, and a bottom-field half-pixel precision pixel is generated based on the bottom field integer precision pixel. For example, as shown in FIG. 27 (b), the top-field pixels whose vertical phase is 7/2 are: 1/2, 5/2, 9/2, 13/2 · Generated by double interpolation from the top field pixel at the position. Also, the bottom field pixels whose vertical phase is at position 4 are generated by performing double interpolation from the bottom field pixels at positions 1, 3, 5, 7,.
[0196]
Subsequently, as shown in FIG. 27C, the vertical pixels are generated by using the linear interpolation filter and the double interpolation filter between the two fields of the top field and the bottom field. A pixel with 1/4 pixel accuracy is generated from a pixel with 1/2 pixel accuracy. For example, as shown in FIG. 27 (c), a pixel whose vertical phase is ¼ is a top field pixel at 0 position and a bottom field pixel at ½ position. Is generated by linear interpolation. Also, a pixel whose vertical phase is 3/4 is generated by linear interpolation from a bottom field pixel at 1/2 position and a top field pixel at 1 position.
[0197]
By performing interpolation in the vertical direction in this way, the frame mode motion compensation device 42 uses a double interpolation filter such as a half-band filter, so that a frame memory can be obtained without performing a product-sum operation according to the number of taps. The pixels having the same phase as the pixels of the standard resolution image stored in 17 can be output as a reference image corresponding to the high resolution image. Therefore, the field mode motion compensation device 41 can perform high-speed processing. Further, no phase shift occurs between the top field and the bottom field, so that so-called field inversion and field mixing can be prevented, and deterioration of image quality can be prevented. Further, in the frame mode motion compensation device 42, the above processing may be performed using one matrix, and a quarter precision pixel is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0198]
As described above, in the image decoding device 40 according to the third embodiment of the present invention, in the field DCT mode, 4 × 4 reduced inverse discrete cosine transform is performed on each of the top field and the bottom field to decode the standard resolution image. In the frame DCT mode, the standard resolution image is decoded by performing the frame separation and performing the reduced inverse discrete cosine transform. Since the image decoding apparatus 40 performs processing in the field DCT mode and the frame DCT mode as described above, the image decoding apparatus 40 performs decoding in the field DCT mode and the frame DCT mode without impairing the interlaced property of the interlaced scanning image. The phase of the output image can be made the same, and the image quality of the output image is not deteriorated. Further, the image decoding device 40 prevents image quality deterioration due to motion compensation. Further, in this image decoding apparatus 40, by interpolating the image stored in the frame memory 17 using a double interpolation filter at the time of motion compensation, the product decoding operation according to the number of taps can be performed at high speed. Can be processed.
[0199]
In the image decoding device 40, only necessary pixels may be generated according to the value of the motion vector in the input bit stream. Further, filter coefficients corresponding to the values of the motion vectors in the horizontal direction and the vertical direction may be prepared in advance, and the interpolation in the vertical direction and the horizontal direction may be performed at a time.
[0200]
By the way, the frame mode motion compensation device 42 of the image decoding device 40 according to the third embodiment interpolates the vertical pixels without distinguishing between the top field and the bottom field as described below. Processing may be performed.
[0201]
First, as shown in FIG. 28A, the vertical phase of each pixel in the top field is 1/2, 5/2..., And the vertical phase of each pixel in the bottom field is 1, 3,. Extracting from the frame memory 17 integer precision pixels of a standard resolution image including a phase shift between the top field and the bottom field such that In FIG. 28, pixel values are described without distinguishing between the top field and the bottom field.
[0202]
Subsequently, interpolation is performed between the top field and the bottom field using a filter that generates interpolation values from sampling points at unequal intervals with respect to the pixels in the vertical direction, as shown in FIG. A pixel with 1/4 pixel accuracy is generated. A filter that generates an interpolation value from sampling points at unequal intervals can be designed using, for example, an N-dimensional curve approximation method. By using a filter designed using N-dimensional curve approximation or the like, when the pixels extracted from the frame memory 17 are output as they are, it is not necessary to perform an operation, and the processing can be speeded up.
[0203]
As for the pixels in the vertical direction, as shown in FIG. 28 (b), the pixels are interpolated between the top field and the bottom field to generate pixels with 1/2 pixel accuracy. As shown in FIG. 5B, a pixel having a 1/4 pixel accuracy may be generated between two fields of the top field and the bottom field using a linear interpolation filter. In this case, it is possible to speed up the motion compensation process by preparing in advance a coefficient corresponding to the two-stage filter process and directly calculating the coefficient on the pixel value extracted from the frame memory 17.
[0204]
The motion compensation device for frame mode 42 switches between interpolation processing for performing double interpolation in the field shown in FIG. 27 and interpolation processing performed without distinguishing the field shown in FIG. 28 under a predetermined condition. You may perform the optimal interpolation process according to the content etc. of the image.
[0205]
(Fourth embodiment)
Next, an image decoding apparatus according to the fourth embodiment of the present invention will be described.
[0206]
As shown in FIG. 29, the image decoding apparatus 50 according to the fourth embodiment of the present invention receives a bitstream obtained by compressing a high-resolution image having, for example, 1152 effective lines in the vertical direction using MPEG2. This is a device that decodes an input bit stream and reduces the resolution to ½, and outputs a standard resolution image having, for example, 576 effective lines in the vertical direction.
[0207]
The image decoding device 50 is supplied with a compressed bit stream of a high-resolution image, and performs a variable-length encoding that assigns a code length according to the frequency of data generation, and a bit stream analysis device 11 that analyzes the bit stream. Further, the variable length code decoding device 12 that decodes the bit stream, the inverse quantization device 13 that applies a quantization step to each coefficient of the DCT block, and the reduced inverse of the DCT block that has been subjected to discrete cosine transform in the field DCT mode. Field-mode phase-corrected reduced inverse discrete cosine transform device 31 that generates a standard resolution image by performing discrete cosine transform, and a standard by performing reduced inverse discrete cosine transform on a DCT block that has undergone discrete cosine transform in a frame DCT mode Phase corrected reduced inverse discrete cosine for frame mode to generate resolution image The conversion device 32, the addition device 16 that adds the standard-resolution image subjected to the reduced inverse discrete cosine transform and the motion-compensated reference image, the frame memory 17 that temporarily stores the reference image, and the frame memory 17 store the reference image. A field mode motion compensation device 51 that performs motion compensation corresponding to the field motion prediction mode on the reference image, and a frame mode motion compensation device 52 that performs motion compensation corresponding to the frame motion prediction mode on the reference image stored in the frame memory 17. And an image frame conversion device 33 for converting the image frame from the image stored in the frame memory 17 and outputting standard resolution image data for display on a monitor or the like.
[0208]
The field mode phase correction reduced inverse discrete cosine transform device 31 is used when a macroblock of an input bit stream is subjected to discrete cosine transform in the field DCT mode. The phase correction reduced inverse discrete cosine transform device 31 for field mode uses 4 × 8 of all the coefficients of the DCT block in which 8 × 8 coefficients in the macroblock subjected to the discrete cosine transform in the field DCT mode are shown. For only the coefficients, inverse discrete cosine transform is performed by correcting the phase shift of the pixels in the vertical direction between the top field and the bottom field. That is, inverse discrete cosine transformation is performed based on four discrete cosine coefficients in the low frequency range in the horizontal direction, and inverse discrete cosine transformation is performed in the vertical direction with phase deviation corrected based on eight discrete cosine coefficients. Specifically, phase correction for 1/4 pixel is performed for each pixel in the vertical direction of the top field, and phase correction for 3/4 pixel is performed for each pixel in the vertical direction of the bottom field. I do. Then, by performing the reduced inverse discrete cosine transform as described above, the vertical phase of each pixel in the top field becomes 1/4, 9/4... As shown in FIG. A standard resolution image (lower layer) in which the vertical phase of the pixels is 5/4, 13/4... Is generated.
[0209]
The frame mode phase correction reduced inverse discrete cosine transform device 32 is used when a macroblock of the input bit stream is subjected to discrete cosine transform in the frame DCT mode. The phase correction reduced inverse discrete cosine transform device 32 for the frame mode performs one block processing or two blocks on the DCT block in which 8 × 8 coefficients in the macroblock subjected to the discrete cosine transform in the frame DCT mode are indicated. By the processing, a reduced inverse discrete cosine transform is performed by correcting a vertical pixel phase shift between the top field and the bottom field. Then, an image having the same phase as the pixel phase of the standard resolution image generated by the field mode phase correction reduced inverse discrete cosine transform device 31 is generated. That is, by performing the reduced inverse discrete cosine transform in one block processing or two block processing, the vertical phase of each pixel in the top field becomes 1/4, 9/4... A standard resolution image (lower layer) in which the vertical phase of each pixel in the bottom field is 5/4, 13/4... Is generated.
[0210]
The field mode motion compensation device 51 is used when the motion prediction mode of the macroblock is the field motion prediction mode. The field mode motion compensation device 51 performs interpolation processing with a 1/4 pixel accuracy on the reference image of the standard resolution image stored in the frame memory 17 to perform motion compensation corresponding to the field motion prediction mode. The reference image that has been subjected to motion compensation by the field mode motion compensation device 51 is supplied to the adder 16 and is combined with the inter image.
[0211]
The frame mode motion compensation device 52 is used when the motion prediction mode of the macroblock is the frame motion prediction mode. The motion compensation device for frame mode 52 performs interpolation processing with a 1/4 pixel accuracy on the reference image of the standard resolution image stored in the frame memory 17, and performs motion compensation corresponding to the frame motion prediction mode. The reference image that has been subjected to motion compensation by the frame mode motion compensation device 52 is supplied to the adder 16 and is combined with the inter image.
[0212]
In the image decoding apparatus 50 according to the fourth embodiment of the present invention, the bit stream obtained by compressing a high-resolution image with MPEG2 is decoded and reduced to 1/2 resolution by having the above-described configuration. Thus, a standard resolution image can be output.
[0213]
Next, the field mode motion compensation device 51 and the frame mode motion compensation device 52 will be described in more detail.
[0214]
First, an interpolation process performed by the frame mode motion compensation device 52 will be described. In the frame mode motion compensation device 52, as described below, the pixels of the standard resolution image stored in the frame memory 17 are interpolated so as to correspond to the motion compensation of the ½ pixel accuracy of the high resolution image. Thus, a pixel with 1/4 pixel accuracy is generated.
[0215]
For the pixels in the horizontal direction, first, a ½ pixel precision pixel is generated from the integer precision pixels stored in the frame memory 17 using a double interpolation filter. For example, the field mode motion compensation device 51 generates half-pixel precision pixels using a half-band filter. Subsequently, using a linear interpolation filter, a ¼ pixel precision pixel is generated from a ½ pixel precision pixel generated using the double interpolation filter. The field mode motion compensation device 51 uses a double interpolation filter such as a half-band filter, so that the same as the pixels of the standard resolution image stored in the frame memory 17 without performing a product-sum operation according to the number of taps. Phase pixels can be output as a reference image corresponding to a high-resolution image. Therefore, the field mode motion compensation device 51 can perform high-speed processing. In the field mode motion compensation apparatus 51, the above processing may be performed using one matrix, and a quarter precision pixel is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0216]
For vertical pixels, first, as shown in FIG. 30A, the vertical phase of each pixel in the top field is 1/2, 5/2, 9/2. Integer resolution of a standard resolution image in which the phase shift is corrected between the top field and the bottom field so that the vertical phase of each pixel is 3/2, 7/2, 11/2. Are extracted from the frame memory 17.
[0217]
Subsequently, with respect to the pixels in the vertical direction, as shown in FIG. 30 (b), an integer precision pixel extracted from the frame memory 17 in the field using a double interpolation filter such as a half-band filter. A pixel with 1/2 pixel accuracy is generated. That is, a half-field precision pixel of the top field is generated based on the top-field integer precision pixel, and a bottom-field half-pixel precision pixel is generated based on the bottom field integer precision pixel. For example, as shown in FIG. 30 (b), the top-field pixels whose vertical phase is 7/2 are: 1/2, 5/2, 9/2, 13/2 · Generated by double interpolation from the top field pixel at the position. Also, the bottom field pixels whose vertical phase is 9/2 are ... from the bottom field pixels at 3/2, 7/2, 11/2, 15/2 ... It is generated by double interpolation.
[0218]
Subsequently, with respect to the pixels in the vertical direction, as shown in FIG. 30C, from the pixels with 1/2 pixel accuracy generated by using the double interpolation filter in the field using the linear interpolation filter. A pixel with 1/4 pixel accuracy is generated. That is, a pixel having a ¼ pixel accuracy in the top field is generated based on the pixel having a ½ pixel accuracy in the top field, and a pixel having a ¼ pixel accuracy in the bottom field is generated based on the ½ pixel accuracy pixel in the bottom field. Is generated. For example, as shown in FIG. 30C, the top field pixel whose vertical phase is at 9/4 is linearly interpolated from the top field pixel at 2, 5/2. Generated. Also, the bottom-field pixel whose vertical phase is 11/4 is generated by linear interpolation from the bottom-field pixels 10/4 and 3.
[0219]
By performing interpolation in the vertical direction in this way, the field mode motion compensation device 51 uses a double interpolation filter such as a half-band filter, so that a frame memory can be obtained without performing a product-sum operation according to the number of taps. The pixels having the same phase as the pixels of the standard resolution image stored in 17 can be output as a reference image corresponding to the high resolution image. Therefore, the field mode motion compensation device 51 can perform high-speed processing. In the field mode motion compensation apparatus 51, the above processing may be performed using one matrix, and a quarter precision pixel is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0220]
Next, an interpolation process performed by the frame mode motion compensation device 52 will be described. In the frame mode motion compensation device 52, as described below, the pixels of the standard resolution image stored in the frame memory 17 are interpolated so as to correspond to the motion compensation of the ½ pixel accuracy of the high resolution image. Thus, a pixel with 1/4 pixel accuracy is generated.
[0221]
For the pixels in the horizontal direction, first, a ½ pixel precision pixel is generated from the integer precision pixels stored in the frame memory 17 using a double interpolation filter. For example, the frame mode motion compensation device 52 generates half-pixel precision pixels using a half-band filter. Subsequently, using a linear interpolation filter, a ¼ pixel precision pixel is generated from a ½ pixel precision pixel generated using the double interpolation filter. The frame mode motion compensation device 52 uses a double interpolation filter such as a half-band filter, so that the same as the pixel of the standard resolution image stored in the frame memory 17 without performing a product-sum operation according to the number of taps. Phase pixels can be output as a reference image corresponding to a high-resolution image. Therefore, this frame mode motion compensation device 52 can perform high-speed processing. In the frame mode motion compensation device 52, the above processing may be performed using a single matrix, and a quarter precision filter is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0222]
For the pixels in the vertical direction, first, as shown in FIG. 31A, the vertical phase of each pixel in the top field is 1/2, 5/2, 9/2. Pixels of standard resolution images with no phase shift between the top field and the bottom field such that the vertical phase of each pixel is 3/2, 7/2, 11/2... Are taken out from the frame memory 17.
[0223]
Subsequently, as shown in FIG. 31B, the pixels in the vertical direction are taken out from the frame memory 17 using a double interpolation filter such as a half-band filter for one field. A pixel with half pixel accuracy is generated from the pixel with integer accuracy. For the other field, a filter is used to generate ¼ and ¾ phase shifted pixels from integer precision pixels extracted from the frame memory 17. For example, a half-field precision pixel of the top field is generated based on the integer precision pixel of the top field, and the phase of 1/4 or 3/4 pixel of the bottom field is shifted based on the integer precision pixel of the bottom field. Generated pixels. Specifically, as shown in FIG. 31 (b), the top-field pixels whose vertical phase is 7/2 are: 1/2, 5/2, 9/2, 13 ... Is generated from the top field pixel at the position of. Also, the bottom field pixels whose vertical phase is at positions 4 and 5 are ... from the bottom field pixels at the positions 3/2, 7/2, 11/2, 15/2. Interpolated with a phase shift of 1/4 or 3/4.
[0224]
Subsequently, with respect to the pixels in the vertical direction, as shown in FIG. 31 (c), the generated pixels with 1/2 pixel accuracy between the two fields of the top field and the bottom field using a linear interpolation filter. To generate a pixel accuracy of 1/4 pixel. For example, as shown in FIG. 31 (c), a pixel whose vertical phase is ¼ is a top field pixel at a 0 position and a bottom field pixel at a ½ position. Is generated by linear interpolation. Also, a pixel whose vertical phase is 3/4 is generated by linear interpolation from a bottom field pixel at 1/2 position and a top field pixel at 1 position.
[0225]
By performing interpolation in the vertical direction in this way, the frame mode motion compensation device 52 uses a double interpolation filter such as a half-band filter, so that a frame memory can be obtained without performing a product-sum operation according to the number of taps. The pixels having the same phase as the pixels of the standard resolution image stored in 17 can be output as a reference image corresponding to the high resolution image. Therefore, the field mode motion compensation device 51 can perform high-speed processing. Further, no phase shift occurs between the top field and the bottom field, so that so-called field inversion and field mixing can be prevented, and deterioration of image quality can be prevented. In the frame mode motion compensation device 52, the above processing may be performed using a single matrix, and a quarter precision filter is used to generate a quarter precision pixel from an integer precision pixel. You may do it.
[0226]
As described above, in the image decoding apparatus 50 according to the third embodiment of the present invention, in the field DCT mode, the 4 × 4 reduced inverse discrete cosine transform is performed on each of the top field and the bottom field and the phase shift is corrected. In the frame DCT mode, the standard resolution image obtained by performing frame separation and performing the reduced inverse discrete cosine transform and correcting the phase shift is decoded. Since the image decoding apparatus 50 performs processing in the field DCT mode and the frame DCT mode as described above, the image decoding apparatus 50 performs decoding in the field DCT mode and the frame DCT mode without impairing the interlaced property of the interlaced scanning image. The phase of the output image can be made the same, and the image quality of the output image is not deteriorated. Further, the image decoding device 50 prevents image quality deterioration due to motion compensation. Further, in this image decoding device 50, by interpolating the image stored in the frame memory 17 using a double interpolation filter at the time of motion compensation, the product decoding operation according to the number of taps can be performed at high speed. Can be processed.
[0227]
In the image decoding device 50, only necessary pixels may be generated according to the value of the motion vector in the input bit stream. Further, filter coefficients corresponding to the values of the motion vectors in the horizontal direction and the vertical direction may be prepared in advance, and the interpolation in the vertical direction and the horizontal direction may be performed at a time.
[0228]
By the way, the frame mode motion compensation device 52 of the image decoding device 50 according to the fourth embodiment interpolates the vertical pixels without distinguishing the top field and the bottom field as described below. Processing may be performed.
[0229]
First, as shown in FIG. 32A, the vertical phase of each pixel in the top field is 1/2, 5/2..., And the vertical phase of each pixel in the bottom field is 3/2. The integer precision pixels of the standard resolution image having no phase shift between the top field and the bottom field, such as 7/2... Are extracted from the frame memory 17. In FIG. 32, pixel values are described without distinguishing between the top field and the bottom field.
[0230]
Subsequently, interpolation is performed between the top field and the bottom field by using a double interpolation filter such as a half-band filter for the pixels in the vertical direction, and 1/2 as shown in FIG. Generate pixels with pixel accuracy. By using this half-band filter or the like, when the pixels extracted from the frame memory 17 are output as they are, it is not necessary to perform an operation, and the processing can be speeded up.
[0231]
Subsequently, the pixel subjected to the double interpolation is interpolated between the fields by using a linear interpolation filter to generate a pixel having a 1/4 pixel accuracy as shown in FIG.
[0232]
The motion compensation device for frame mode 52 prepares a coefficient corresponding to such a two-stage filter process in advance, and directly calculates the coefficient to the pixel value extracted from the frame memory 17, thereby performing motion compensation processing. Can be speeded up.
[0233]
In addition, the frame mode motion compensation device 52 directly generates a pixel with 1/4 pixel accuracy shown in FIG. 32C from the integer accuracy pixel shown in FIG. 32A using a 1/4 interpolation filter. May be.
[0234]
Also, the frame mode motion compensation device 52 switches between interpolation processing for performing double interpolation within the field shown in FIG. 31 and interpolation processing performed without distinguishing the field shown in FIG. 32 under a predetermined condition. Thus, an optimal interpolation process according to the content of the image may be performed.
[0235]
(Fifth embodiment)
Next, an image decoding apparatus according to the fifth embodiment of the present invention will be described.
[0236]
As shown in FIG. 33, the image decoding apparatus 60 according to the fifth embodiment of the present invention receives a bitstream obtained by compressing a high-resolution image having 1152 effective lines in the vertical direction by MPEG2, for example. This is a device that decodes an input bit stream and reduces the resolution to ½, and outputs a standard resolution image having, for example, 576 effective lines in the vertical direction.
[0237]
The image decoding device 60 is supplied with a bit stream of a compressed high-resolution image, and performs a variable-length encoding that assigns a code length according to the frequency of data generation, and a bit stream analysis device 11 that analyzes the bit stream. Further, the variable length code decoding device 12 that decodes the bit stream, the inverse quantization device 13 that applies a quantization step to each coefficient of the DCT block, and the reduced inverse of the DCT block that has been subjected to discrete cosine transform in the field DCT mode. A reduced inverse discrete cosine transform device for field mode 14 that generates a standard resolution image by performing discrete cosine transform, and a standard resolution image by performing a reduced inverse discrete cosine transform on a DCT block that has undergone discrete cosine transform in the frame DCT mode. A reduced inverse discrete cosine transform device 15 for frame mode for generating An adder 16 for adding the standard resolution image subjected to the small inverse discrete cosine transform and the reference image subjected to motion compensation, a frame memory 17 for temporarily storing the reference image, and a field motion in the reference image stored in the frame memory 17. Field mode motion compensation device 61 that performs motion compensation corresponding to the prediction mode, frame mode motion compensation device 62 that performs motion compensation corresponding to the frame motion prediction mode on the reference image stored in the frame memory 17, and field mode use The field mode filter determination device 63 that determines the number of filtering taps of the motion compensation device 61, the frame mode filter determination device 64 that determines the number of filtering taps of the frame mode motion compensation device 62, and the frame memory 17. Post filtering on selected images By, and a picture frame conversion and phase shift correcting device 20 that corrects the phase shift of the pixels outputting a standard resolution picture data for display on a television monitor or the like as well as a picture frame conversion.
[0238]
The reduced inverse discrete cosine transform device 14 for field mode is used when the macroblock of the input bit stream is subjected to discrete cosine transform in the field DCT mode. The reduced inverse cosine transform device 14 for field mode uses a DCT block in which 8 × 8 coefficients in a macroblock subjected to discrete cosine transform in the field DCT mode are shown, as shown in FIG. Inverse discrete cosine transform is performed only on low-frequency 4 × 4 coefficients. That is, the reduced inverse discrete cosine transform is performed based on the four discrete cosine coefficients in the horizontal and vertical low bands. The reduced inverse discrete cosine transform device 14 for field mode can decode a standard resolution image in which one DCT block is composed of 4 × 4 pixels by performing the reduced inverse discrete cosine transform as described above. . As shown in FIG. 2, the phase of each pixel of the decoded image data is 1/2, 5/2..., And the vertical phase of each pixel in the bottom field is vertical. The phase of the direction is 1, 3,.
[0239]
The frame mode reduced inverse discrete cosine transform device 15 is used when a macroblock of an input bit stream is subjected to discrete cosine transform in the frame DCT mode. The frame mode reduced inverse discrete cosine transform device 15 performs a reduced inverse discrete cosine transform on a DCT block in which 8 × 8 coefficients in a macroblock subjected to discrete cosine transform in the frame DCT mode are indicated. The reduced inverse discrete cosine transform device 15 for frame mode decodes a resolution image in which one DCT block is composed of 4 × 4 pixels, and the standard resolution generated by the reduced inverse discrete cosine transform device 14 for field mode. An image having the same phase as the pixel phase of the image is generated. That is, as shown in FIG. 2, the phase of each pixel of the image data decoded by the reduced inverse discrete cosine transform device 15 for frame mode is 1/2, 5/2. The vertical phase of each pixel in the bottom field is 1, 3,.
[0240]
The field mode motion compensation device 61 is used when the motion prediction mode of the macroblock is the field motion prediction mode. The field mode motion compensator 61 interpolates the reference image of the standard resolution image stored in the frame memory 17 with a 1/4 pixel accuracy in consideration of the phase shift component, and performs the field motion prediction mode. Compensate for motion. The reference image subjected to motion compensation by the field mode motion compensator 61 is supplied to the adder 16 and synthesized with the inter image. The field mode motion compensation device 61 performs interpolation processing by filtering a predetermined number of taps, and the field mode filter determination device 63 determines the number of taps for the filtering.
[0241]
The frame mode motion compensation device 62 is used when the macroblock motion prediction mode is the frame motion prediction mode. The frame mode motion compensator 62 interpolates the reference image of the standard resolution image stored in the frame memory 17 with a 1/4 pixel accuracy in consideration of the phase shift component, thereby obtaining a frame motion prediction mode. Compensate for motion. The reference image that has undergone motion compensation by the frame mode motion compensator 62 is supplied to the adder 16 and is combined with the inter image. The frame mode motion compensation device 62 performs interpolation processing by filtering a predetermined number of taps. The number of taps for filtering is determined by the frame mode filter determination device 64.
[0242]
The field mode filter determination device 63 determines the number of taps when the field mode motion compensation device 61 performs filtering based on the information regarding the macroblock in the bit stream of the input high resolution image.
[0243]
Here, when a high resolution image is reduced to a standard resolution image, there is a trade-off relationship between the image quality of the standard resolution image to be output and the number of taps when filtering is performed. That is, the image quality of the standard resolution image to be output is improved by increasing the number of filtering taps, but the amount of calculation increases by increasing the number of filtering taps. In other words, when the field mode motion compensation device 61 having a low calculation capability is used, if the number of filtering taps is increased to improve the image quality, there is a possibility that the operation may not be performed in real time. On the other hand, when the number of filtering taps is reduced to ensure real-time performance, the image quality deteriorates.
[0244]
In the field mode filter determination device 63, the number of taps of the field mode motion compensation device 61 is switched based on the information about the macroblock, thereby improving the image quality of the standard resolution image to be output and securing the real time property.
[0245]
The frame mode filter determination device 64 determines the number of taps when the frame mode motion compensation device 62 performs filtering based on information on macroblocks in the input high-resolution image bitstream.
[0246]
In this frame mode filter determination device 64, the number of taps of the field mode filter determination device 63 is switched based on the information about the macroblock, thereby improving the image quality of the standard resolution image to be output and ensuring the real time property.
[0247]
The image decoding apparatus 60 according to the fifth embodiment of the present invention has the above-described configuration, thereby decoding a bit stream obtained by compressing a high-resolution image with MPEG2 and reducing the resolution to ½. Thus, a standard resolution image can be output.
[0248]
Next, the filter tap number determination processing performed by the field mode filter determination device 63 and the frame mode filter determination device 64 will be described. The field mode filter determination device 63 and the frame mode filter determination device 64 determine the number of filter taps based on, for example, information in the input bitstream analyzed by the bitstream analysis device 11.
[0249]
Information for determining the number of taps of the filter is, for example, the following six types of information and combinations thereof.
[0250]
First, the number of taps of the filter is determined depending on whether the data to be processed is a luminance signal or a color difference signal. The reason for this is as follows.
[0251]
Subjective evaluation of image quality is greatly influenced by the luminance signal. In the 420 format used in digital television broadcasting, the luminance signal has information four times that of the color difference signal. Further, in MPEG2, a motion vector detected using a luminance signal at the time of encoding is also used for a color difference signal. For this reason, filtering with a large number of taps is performed for motion compensation for luminance signals, and linear interpolation or a filtering with a small number of taps, which is similar to that, is performed for motion compensation for color difference signals. It is possible to reduce the amount of calculation without degrading the image quality.
[0252]
Second, the number of filter taps is determined depending on whether the data to be processed belongs to a P picture or a B picture. The reason for this is as follows.
[0253]
In an apparatus such as the image decoding apparatus 60 that decodes only a low frequency region of a DCT coefficient of a bit stream such as MPEG, image quality is deteriorated due to accumulation of errors due to motion compensation. An error in a P picture affects the next P picture and B picture. However, the error in the B picture does not propagate. For this reason, filtering using a large number of taps is performed for motion compensation of pixels belonging to the P picture, and linear interpolation or a filtering with a small number of taps, which is close thereto, is performed for motion compensation of the pixels belonging to the B picture. It is possible to reduce the amount of calculation without degrading the image quality.
[0254]
Third, the number of taps of the filter is determined depending on whether the motion compensation mode of the data to be processed is the forward prediction mode / backward prediction mode or the bidirectional prediction mode. The reason for this is as follows.
[0255]
For the same reason as in the second case, filtering using a large number of taps is performed for motion compensation in the forward prediction mode or backward prediction mode, and linear interpolation is performed for motion compensation in the bidirectional prediction mode. Alternatively, by performing filtering with a small number of taps, which is close to that, it is possible to reduce the amount of calculation without degrading the image quality.
[0256]
Fourth, the number of taps of the filter is determined depending on the value of the motion vector value of the macroblock including the data to be processed. The reason for this is as follows.
[0257]
For example, the case where the motion compensator outputs a pixel value corresponding to a phase with ¼ pixel accuracy as compared with a case where the motion vector value outputs a pixel value corresponding to a phase with ½ pixel accuracy. However, even when interpolation is performed with a small number of taps, image quality deterioration is not noticeable. Therefore, by switching the number of filter taps according to the value of the motion vector, it is possible to reduce the amount of calculation without degrading the image quality.
[0258]
Fifth, the number of taps of the filter is determined depending on whether the interpolation process is in the horizontal direction or the interpolation process in the vertical direction. The reason for this is as follows.
[0259]
In particular, in the case of an interlaced scanned image, image quality degradation due to a decrease in the number of filter taps is more noticeable in the vertical direction than in the horizontal direction. For this reason, filtering with a large number of taps is performed for motion compensation in the vertical direction, and linear interpolation or filtering with a small number of taps, which is similar to linear interpolation, is performed for motion compensation in the horizontal direction, without reducing the image quality. It is possible to reduce the amount.
[0260]
Sixth, the number of taps of the filter is determined depending on whether the data to be processed is in the field motion compensation mode or the frame motion compensation mode. The reason for this is as follows.
[0261]
In a general image encoding device. A macroblock having a large difference between fields is processed in the field motion compensation mode, and a macroblock having a small difference is processed in the frame motion compensation mode. Therefore, by assigning a large number of taps to the field motion compensation mode and assigning a small number of taps to the frame motion compensation mode, it is possible to reduce the amount of calculation without degrading the image quality.
[0262]
As described above, in the image decoding device 60 according to the fifth embodiment of the present invention, in the field DCT mode, 4 × 4 reduced inverse discrete cosine transform is performed on each of the top field and the bottom field to decode the standard resolution image. In the frame DCT mode, the standard resolution image is decoded by performing the frame separation and performing the reduced inverse discrete cosine transform. Since the image decoding apparatus 60 performs processing in the field DCT mode and the frame DCT mode as described above, the image decoding apparatus 60 performs decoding in the field DCT mode and the frame DCT mode without impairing the interlaced property of the interlaced scanning image. The phase of the output image can be made the same, and the image quality of the output image is not deteriorated. Further, in this image decoding device 60, the number of taps of the field mode filter determination device 63 is switched based on the information about the macroblock, thereby preventing image quality deterioration due to motion compensation and reducing the amount of motion compensation calculation. Can be reduced.
[0263]
The field mode filter determination device 63 and the frame mode filter determination device 64 of the image decoding device 60 according to the fifth embodiment of the present invention are the same as the image decoding devices according to the third and fourth embodiments described above. You may apply to 40,50.
[0264]
Although the image decoding apparatus according to the first to fifth embodiments of the present invention has been described above, the data processed by the present invention is not limited to the image data of the MPEG2 system. That is, any compression image data of the first resolution that has been subjected to predictive coding by performing motion prediction in units of predetermined pixel blocks and compression encoded by performing orthogonal transform in units of predetermined pixel blocks It may be data. For example, it may be compressed image data using a wavelet method or the like.
[0265]
【The invention's effect】
In the present invention, interpolation is performed on each pixel of the macroblock of the stored reference image data to generate a macroblock composed of 1/4 pixel precision pixels. In this image decoding method, moving image data having a second resolution lower than the first resolution is output.
[0266]
As a result, the present invention can reduce the amount of computation and the storage capacity required for decoding, eliminate the phase shift of the pixels in the motion compensation between the field motion prediction mode and the frame motion prediction mode, and achieve motion compensation. It is possible to prevent the deterioration of the image quality caused by it.
[0267]
In the present invention, the number of taps of the filter is switched, and interpolation is performed on each pixel of the macroblock of the stored reference image data to generate a macroblock composed of pixels with ¼ pixel accuracy.
[0268]
As a result, in the present invention, the amount of calculation in motion compensation can be reduced without degrading the image quality, and the processing speed can be increased.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image decoding apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining a phase of a pixel in a vertical direction of a reference image stored in a frame memory of the image decoding apparatus according to the first embodiment.
FIG. 3 is a diagram for explaining the contents of one block processing of the frame mode reduced inverse discrete cosine transform device of the image decoding device according to the first embodiment;
FIG. 4 is a diagram for explaining the contents of 2-block processing of the reduced inverse discrete cosine transform device for frame mode of the image decoding device according to the first embodiment.
FIG. 5 is a diagram illustrating a DCT block of luminance components and color difference components in a 420 format macroblock.
FIG. 6 is a diagram illustrating a calculation flow when the Wang algorithm is applied to processing of the reduced inverse discrete cosine transform device for field mode of the image decoding device according to the first embodiment.
FIG. 7 is a diagram illustrating a calculation flow when the Wang algorithm is applied to one-block processing of the frame mode reduced inverse discrete cosine transform device of the image decoding device according to the first embodiment.
FIG. 8 is a block diagram of an image decoding apparatus according to a second embodiment of the present invention.
FIG. 9 is a diagram for explaining a phase of a pixel in a vertical direction of a reference image stored in a frame memory of the image decoding apparatus according to the second embodiment.
FIG. 10 is a diagram for explaining processing contents of the field mode phase correction reduced inverse discrete cosine transform device of the image decoding device according to the second embodiment;
FIG. 11 is a diagram for explaining the processing contents of the field mode phase correction reduced inverse discrete cosine transform device when processing is performed with one matrix;
FIG. 12 is a flowchart for explaining a design procedure of a 4 × 8 phase correction IDCT matrix that is calculated by the field mode phase correction reduced inverse discrete cosine transform device.
FIG. 13 is a diagram for explaining frequency characteristics of a prototype filter necessary for designing the 4 × 8 phase correction IDCT matrix.
FIG. 14 is a diagram for explaining a list of gains generated by dividing {(N−1) / 2} equal to or lower than the Nyquist frequency at equal intervals;
FIG. 15 is a diagram for explaining an impulse response created by performing inverse discrete Fourier transform on the gain list.
FIG. 16 is a diagram for explaining a polyphase filter;
FIG. 17 is a diagram for explaining a polyphase filter that outputs a signal having a phase shift of ¼ with respect to an input signal;
FIG. 18 is a diagram for explaining a 4 × 8 phase correction IDCT matrix that is calculated by the field mode phase correction reduced inverse discrete cosine transform device.
FIG. 19 is a diagram for explaining the contents of one block processing of the frame mode phase correction reduced inverse discrete cosine transform device of the image decoding device according to the second embodiment;
FIG. 20 is a flowchart for explaining a design procedure of a 2 × 4 phase correction IDCT matrix that is calculated by the frame mode phase correction reduced inverse discrete cosine transform device;
FIG. 21 is a diagram for explaining a list of gains created by dividing {(N−1) / 2} equal to or lower than the Nyquist frequency at equal intervals;
FIG. 22 is a diagram for explaining an impulse response created by inverse discrete Fourier transform of the gain list.
FIG. 23 is a diagram for explaining a 2 × 4 phase correction IDCT matrix which is calculated by the frame mode phase correction reduced inverse discrete cosine transform device.
FIG. 24 is a diagram for explaining the contents of 2-block processing of the frame mode phase correction reduced inverse discrete cosine transform device of the image decoding device according to the second embodiment;
FIG. 25 is a block diagram of an image decoding apparatus according to a third embodiment of the present invention.
FIG. 26 is a diagram for explaining interpolation processing in the field mode motion compensation device of the image decoding device according to the third embodiment.
FIG. 27 is a diagram for explaining interpolation processing in the frame mode motion compensation device of the image decoding device according to the third embodiment;
FIG. 28 is a diagram for explaining another interpolation process in the frame mode motion compensation device of the image decoding device according to the third embodiment.
FIG. 29 is a block diagram of an image decoding apparatus according to a fourth embodiment of the present invention.
FIG. 30 is a diagram for explaining interpolation processing in the field mode motion compensation device of the image decoding device according to the fourth embodiment.
FIG. 31 is a diagram for explaining interpolation processing in the frame mode motion compensation device of the image decoding device according to the fourth embodiment;
FIG. 32 is a diagram for explaining another interpolation process in the frame mode motion compensation device of the image decoding device according to the fourth embodiment;
FIG. 33 is a block diagram of an image decoding apparatus according to a fifth embodiment of the present invention.
FIG. 34 is a block diagram showing a conventional first down decoder.
FIG. 35 is a block diagram showing a conventional second down decoder.
FIG. 36 is a block diagram showing a conventional third down decoder.
FIG. 37 is a block diagram of a conventional image decoding device.
FIG. 38 is a diagram for explaining a reduced inverse discrete cosine transform process in a field DCT mode of the conventional image decoding apparatus.
FIG. 39 is a diagram for explaining a reduced inverse discrete cosine transform process in a field DCT mode of the conventional image decoding apparatus.
FIG. 40 is a diagram for describing linear interpolation processing in a field motion prediction mode of the conventional image decoding device.
FIG. 41 is a diagram for describing linear interpolation processing in a frame motion prediction mode of the conventional image decoding device.
FIG. 42 is a diagram for explaining a phase of a pixel obtained as a result of a field DCT mode of the conventional image decoding device.
FIG. 43 is a diagram for explaining a phase of a pixel obtained as a result of the frame DCT mode of the conventional image decoding device.
[Explanation of symbols]
10, 30, 40, 50, 60 Image decoding device, 14 field mode reduced inverse discrete cosine transform device, 15 frame mode reduced inverse discrete cosine transform device, 16 adder, 17 frame memory, 18, 41, 61 field mode Motion compensation device, 19, 42, 62 frame mode motion compensation device, 20-frame conversion / phase shift correction device, 31 field mode phase correction reduced inverse discrete cosine transform device, 32 frame mode phase correction reduced inverse discrete cosine Conversion device, 33 Image frame conversion device

Claims (2)

所定の画素ブロック(マクロブロック)単位で動き予測をすることによる予測符号化、及び、所定の画素ブロック(直交変換ブロック)単位で直交変換をすることによる圧縮符号化をした第1の解像度の圧縮画像データから、上記第1の解像度より低い第2の解像度の動画像データを復号する画像復号装置において、
直交変換がされた上記圧縮画像データの直交変換ブロックの各係数のうち低周波成分の係数に対して逆直交変換をする逆直交変換手段と、
上記逆直交変換手段により逆直交変換がされた圧縮画像データと動き補償がされた参照画像データとを加算して、第2の解像度の動画像データを出力する加算手段と、
上記加算手段から出力される動画像データを参照画像データとして記憶する記憶手段と、
飛び越し走査に対応した動き予測方式(フィールド動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をする第1の動き補償手段と、
順次走査に対応した動き予測方式(フレーム動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をする第2の動き補償手段と、
上記加算手段から出力された動画像データに対してポストフィルタリングを施し、動画像を構成する画面の画枠を変換するとともにトップフィールドとボトムフィールドとの間の位相ずれを補正する画枠変換位相補正手段とを備え、
上記第1の動き補償手段及び上記第2の動き補償手段は、上記記憶手段が記憶している参照画像データのマクロブロックの各画素に対して補間をし、上記記憶手段が記憶している参照画像データに対して1/4画素精度の画素から構成されるマクロブロックを生成し、この生成したマクロブロックに対して動き補償をすることを特徴とする画像復号装置。
Prediction coding by performing motion prediction in units of predetermined pixel blocks (macroblocks), and compression of the first resolution by compression encoding by performing orthogonal transform in units of predetermined pixel blocks (orthogonal transform blocks) In an image decoding apparatus for decoding moving image data having a second resolution lower than the first resolution from image data,
An inverse orthogonal transform means for performing an inverse orthogonal transform on the coefficient of the low frequency component among the coefficients of the orthogonal transform block of the compressed image data subjected to the orthogonal transform;
Adding means for adding the compressed image data subjected to inverse orthogonal transform by the inverse orthogonal transform means and the reference image data subjected to motion compensation to output moving image data of the second resolution;
Storage means for storing moving image data output from the adding means as reference image data;
First motion compensation means for performing motion compensation on a macroblock of reference image data subjected to motion prediction by a motion prediction method (field motion prediction mode) corresponding to interlaced scanning;
Second motion compensation means for performing motion compensation on the macroblock of the reference image data subjected to motion prediction by a motion prediction method (frame motion prediction mode) corresponding to progressive scanning;
Post-filtering is performed on the moving image data output from the adding means to convert the image frame of the screen constituting the moving image, and to correct the phase shift between the top field and the bottom field. Means and
The first motion compensation unit and the second motion compensation unit interpolate each pixel of the macroblock of the reference image data stored in the storage unit, and the reference stored in the storage unit An image decoding apparatus characterized by generating a macroblock composed of pixels of 1/4 pixel precision for image data and performing motion compensation on the generated macroblock.
所定の画素ブロック(マクロブロック)単位で動き予測をすることによる予測符号化、及び、所定の画素ブロック(直交変換ブロック)単位で直交変換をすることによる圧縮符号化をした第1の解像度の圧縮画像データから、上記第1の解像度より低い第2の解像度の動画像データを復号する画像復号方法において、  Prediction encoding by performing motion prediction in units of a predetermined pixel block (macroblock), and compression of the first resolution by compression encoding by performing orthogonal transform in units of a predetermined pixel block (orthogonal transform block) In an image decoding method for decoding moving image data having a second resolution lower than the first resolution from image data,
直交変換がされた上記圧縮画像データの直交変換ブロックの各係数のうち低周波成分の係数に対して逆直交変換をし、  The orthogonal transform is performed on the low frequency component coefficients among the coefficients of the orthogonal transform block of the compressed image data subjected to the orthogonal transform,
上記逆直交変換がされた圧縮画像データと動き補償がされた参照画像データとを加算することにより第2の解像度の動画像データを生成し、  Generating moving image data of the second resolution by adding the compressed image data subjected to the inverse orthogonal transform and the reference image data subjected to motion compensation;
生成された上記第2の解像度の動画像データを参照画像データとして記憶し、  Storing the generated moving image data of the second resolution as reference image data;
生成された第2の解像度の動画像データに対してポストフィルタリングを施し、動画像を構成する画面の画枠を変換するとともにトップフィールドとボトムフィールドとの間の位相ずれを補正し、  Post-filtering is performed on the generated moving image data of the second resolution, the image frame of the screen constituting the moving image is converted, and the phase shift between the top field and the bottom field is corrected,
飛び越し走査に対応した動き予測方式(フィールド動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をし、  Motion compensation is performed on the macroblock of the reference image data subjected to motion prediction by the motion prediction method (field motion prediction mode) corresponding to interlaced scanning,
順次走査に対応した動き予測方式(フレーム動き予測モード)により動き予測がされた参照画像データのマクロブロックに対して動き補償をし、  Motion compensation is performed on macroblocks of reference image data subjected to motion prediction by a motion prediction method (frame motion prediction mode) corresponding to progressive scanning,
上記フィールド動き予測モード又はフレーム動き予測モードでの動き補償において、記憶している参照画像データのマクロブロックの各画素に対して補間をし、上記参照画像データに対して1/4画素精度の画素から構成されるマクロブロックを生成し、この生成したマクロブロックに対して動き補償をすることを特徴とする画像復号方法。  In the motion compensation in the field motion prediction mode or the frame motion prediction mode, interpolation is performed for each pixel of the macroblock of the stored reference image data, and the pixel having a 1/4 pixel accuracy is obtained for the reference image data. An image decoding method comprising: generating a macroblock comprising: motion compensation for the generated macroblock.
JP20838498A 1998-07-23 1998-07-23 Image decoding apparatus and image decoding method Expired - Fee Related JP4026238B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP20838498A JP4026238B2 (en) 1998-07-23 1998-07-23 Image decoding apparatus and image decoding method
US09/358,451 US6539056B1 (en) 1998-07-23 1999-07-21 Picture decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20838498A JP4026238B2 (en) 1998-07-23 1998-07-23 Image decoding apparatus and image decoding method

Publications (3)

Publication Number Publication Date
JP2000041252A JP2000041252A (en) 2000-02-08
JP2000041252A5 JP2000041252A5 (en) 2005-09-08
JP4026238B2 true JP4026238B2 (en) 2007-12-26

Family

ID=16555383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20838498A Expired - Fee Related JP4026238B2 (en) 1998-07-23 1998-07-23 Image decoding apparatus and image decoding method

Country Status (2)

Country Link
US (1) US6539056B1 (en)
JP (1) JP4026238B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279932B2 (en) 2009-04-07 2012-10-02 Sony Corporation Information processing apparatus and method

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044692A1 (en) * 2000-10-25 2002-04-18 Goertzen Kenbe D. Apparatus and method for optimized compression of interlaced motion images
US6983018B1 (en) 1998-11-30 2006-01-03 Microsoft Corporation Efficient motion vector coding for video compression
JP2001204026A (en) * 2000-01-21 2001-07-27 Sony Corp Image information conversion apparatus and method
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
CN1298171C (en) * 2001-09-18 2007-01-31 松下电器产业株式会社 Image encoding method and image decoding method
CN101448162B (en) * 2001-12-17 2013-01-02 微软公司 Method for processing video image
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7110459B2 (en) * 2002-04-10 2006-09-19 Microsoft Corporation Approximate bicubic filter
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US7305034B2 (en) * 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
US7116831B2 (en) * 2002-04-10 2006-10-03 Microsoft Corporation Chrominance motion vector rounding
US20030206184A1 (en) * 2002-05-06 2003-11-06 Reshetov Alexander V. Displaying content in different resolutions
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7280700B2 (en) * 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
EP1383339A1 (en) 2002-07-15 2004-01-21 Matsushita Electric Industrial Co., Ltd. Memory management method for video sequence motion estimation and compensation
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
CN1578477B (en) * 2003-07-16 2011-05-04 三星电子株式会社 Video encoding/decoding apparatus and method for color image
US7499495B2 (en) * 2003-07-18 2009-03-03 Microsoft Corporation Extended range motion vectors
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7426308B2 (en) * 2003-07-18 2008-09-16 Microsoft Corporation Intraframe and interframe interlace coding and decoding
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7317839B2 (en) 2003-09-07 2008-01-08 Microsoft Corporation Chroma motion vector derivation for interlaced forward-predicted fields
US7620106B2 (en) 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7616692B2 (en) 2003-09-07 2009-11-10 Microsoft Corporation Hybrid motion vector prediction for interlaced forward-predicted fields
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7623574B2 (en) 2003-09-07 2009-11-24 Microsoft Corporation Selecting between dominant and non-dominant motion vector predictor polarities
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7577200B2 (en) 2003-09-07 2009-08-18 Microsoft Corporation Extended range variable length coding/decoding of differential motion vector information
KR100531895B1 (en) 2004-02-26 2005-11-29 엘지전자 주식회사 Apparatus and method for concealing block error of image in mobile communication system
KR100809686B1 (en) 2006-02-23 2008-03-06 삼성전자주식회사 Image Resizing Method and Device Using Discrete Cosine Transform
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
JP5359302B2 (en) * 2008-03-18 2013-12-04 ソニー株式会社 Information processing apparatus and method, and program
JP4656190B2 (en) * 2008-06-10 2011-03-23 ソニー株式会社 Information processing apparatus and method
JP4780172B2 (en) * 2008-10-10 2011-09-28 ソニー株式会社 Information processing apparatus and method
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
US9774881B2 (en) 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9942560B2 (en) 2014-01-08 2018-04-10 Microsoft Technology Licensing, Llc Encoding screen capture data
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
CN106254719B (en) * 2016-07-25 2018-11-30 清华大学深圳研究生院 A kind of light field image compression method based on linear transformation and image interpolation
CN109845266B (en) 2016-10-14 2021-08-10 联发科技股份有限公司 Smoothing filtering method and device for removing ripple effect

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4322343C2 (en) * 1992-07-06 1996-10-02 Mitsubishi Electric Corp Means for detecting a motion vector and method for determining a motion vector
KR960010487B1 (en) * 1993-08-18 1996-08-01 엘지전자 주식회사 Sequential Scanning Image Format Converter Using Motion Vector
KR0126657B1 (en) * 1993-10-28 1997-12-29 구자홍 Moving compensation device for digital image recovery
TW283289B (en) * 1994-04-11 1996-08-11 Gen Instrument Corp

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279932B2 (en) 2009-04-07 2012-10-02 Sony Corporation Information processing apparatus and method

Also Published As

Publication number Publication date
JP2000041252A (en) 2000-02-08
US6539056B1 (en) 2003-03-25

Similar Documents

Publication Publication Date Title
JP4026238B2 (en) Image decoding apparatus and image decoding method
JP3975629B2 (en) Image decoding apparatus and image decoding method
JP2000059793A (en) Image decoding apparatus and image decoding method
KR100192270B1 (en) The video decoding circuit in hdtv
RU2456761C1 (en) Operations of repeated digitisation and variation of image size for video coding and decoding with alternating defining power
US7630566B2 (en) Method and apparatus for improved estimation and compensation in digital video compression and decompression
WO1999023834A1 (en) Method for converting digital signal and apparatus for converting digital signal
JP2006518568A (en) Video encoding
JP2001285863A (en) Image information conversion apparatus and method
JP3649370B2 (en) Motion compensation coding apparatus and motion compensation coding method
JP3937599B2 (en) Image decoding apparatus and image decoding method
JP4051772B2 (en) Image decoding apparatus and image decoding method
JP2000041248A (en) Image decoding device and image decoding method
JP4016166B2 (en) Image decoding apparatus and image decoding method
JP3611461B2 (en) Video signal encoding device
JP2000175194A (en) Image decoding apparatus and image decoding method
JP4051799B2 (en) Image decoding apparatus and image decoding method
JP2001086508A (en) Method and device for moving image decoding
JP2000041253A (en) Image decoding device and image decoding method
JP3937632B2 (en) Image decoding apparatus and image decoding method
JP4556286B2 (en) Motion vector conversion apparatus and method
JP2000059777A (en) Image decoding apparatus and image decoding method
JP2000041254A (en) Image decoding device and image decoding method
KR0129214B1 (en) High definition tv decoder
JP2001285875A (en) Image information conversion apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070730

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees