[go: up one dir, main page]

JP4344184B2 - Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program - Google Patents

Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program Download PDF

Info

Publication number
JP4344184B2
JP4344184B2 JP2003198606A JP2003198606A JP4344184B2 JP 4344184 B2 JP4344184 B2 JP 4344184B2 JP 2003198606 A JP2003198606 A JP 2003198606A JP 2003198606 A JP2003198606 A JP 2003198606A JP 4344184 B2 JP4344184 B2 JP 4344184B2
Authority
JP
Japan
Prior art keywords
image
residual
compensation
inverse
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003198606A
Other languages
Japanese (ja)
Other versions
JP2005039428A5 (en
JP2005039428A (en
Inventor
和夫 杉本
チュンセン ブン
禎篤 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2003198606A priority Critical patent/JP4344184B2/en
Publication of JP2005039428A publication Critical patent/JP2005039428A/en
Publication of JP2005039428A5 publication Critical patent/JP2005039428A5/ja
Application granted granted Critical
Publication of JP4344184B2 publication Critical patent/JP4344184B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラムに関するものである。
【0002】
【従来の技術】
動画像符号化装置では、一般に、符号化対象画像が所定サイズの複数のブロックに分割され、各々のブロックと参照フレームの所定領域における参照画像との動き補償予測が行われることによって動きベクトルが検出されて、符号化対象画像の予測画像が生成される。かかる動画像符号化装置では、符号化対象画像が参照画像からの動きベクトルによって表現されることによって時間方向に存在する冗長度が削減される。また、符号化対象画像と予測画像との差による予測残差画像が、DCT(Discrete Cosine Transform)変換され、DCT係数として表現されることによって、空間方向に存在する冗長度が削減される。
【0003】
【特許文献1】
特開平7−264592号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上記の予測残差画像は符号化済の画像である参照画像と符号化前の画像である符号化対象画像との間で動き補償予測を行った後に差分をとるため、偏った分布を持つ画像信号であることが知られている。上述した従来の動画像符号化装置は、このような特徴を持つ画像信号に対しても、その特徴を利用せずにDCTによる変換符号化を行っているために、効率のよい符号化が実現できないという問題があった。
【0005】
本発明は上記問題点を解決するためになされたもので、動画像の効率の良い符号化を実現可能な動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムを提供し、また、この動画像符号化装置によって符号化された動画像を復号する動画像復号装置、動画像復号方法、及び動画像復号プログラムを提供することを課題としている。
【0006】
【課題を解決するための手段】
上記課題を解決するため、本発明の動画像符号化装置は、参照画像に基づいて符号化対象画像の動き補償予測を行うことによって予測画像及び動き情報を生成する動き補償予測手段と、上記符号化対象画像と上記予測画像との差演算に基づき予測残差画像を生成する残差画像生成手段と、所定の第1の変換規則に基づいて上記予測残差画像から残差補償情報を生成すると共に、該残差補償情報に基づいて残差補償画像を生成する残差補償手段と、上記残差補償画像と上記予測残差画像との差演算に基づき補償残差画像を生成する減算手段と、上記補償残差画像を所定の第2の変換規則に基づいて変換してなる変換係数を生成し、該変換係数を量子化することによって量子化変換係数を生成する量子化変換手段と、上記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、上記所定の第2の変換規則の逆変換である所定の第2の逆変換規則に基づき該逆量子化変換係数を用いて逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、上記復号補償残差画像と上記残差補償画像とを加算することによって復号予測残差画像を生成する加算手段と、上記復号予測残差画像と上記予測画像とを加算することによって復号画像を生成する復号画像生成手段と、上記復号画像生成手段によって生成された上記復号画像を、上記動き補償予測手段による動き補償予測に提供する上記参照画像として記憶する参照画像記憶手段と、上記動き情報と上記残差補償情報と上記量子化変換係数とを符号化してなる符号化データを含む圧縮データを生成する符号化手段とを備え、上記残差補償手段は、上記所定の第1の変換規則に基づき、複数の二次元基底を用いて、該二次元基底を特定するための基底情報と、該基底情報によって特定される二次元基底に付する補償係数とに上記予測残差画像を変換し、該基底情報を上記残差補償情報に含める変換手段と、上記補償係数を量子化することによって量子化補償係数を生成し、該量子化補償係数を上記残差補償情報に含める量子化手段と、上記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、上記所定の第1の変換規則の逆変換である所定の第1の逆変換規則に基づき、上記逆量子化補償係数を用いて逆変換を行うことによって上記残差補償画像を生成する逆変換手段とを有することを特徴としている。さらに、本発明の動画像符号化装置は、上記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段を更に備え、上記変換手段は、上記復号予測残差画像記憶手段に記憶された上記参照復号予測残差画像の部分画像を上記二次元基底として用いて上記予測残差画像を変換し、上記逆変換手段は、上記変換手段によって用いられた上記二次元基底を用いて逆変換することを特徴としている。
【0007】
また、上記課題を解決するため本発明の動画像符号化方法は、動き補償予測手段が、参照画像に基づいて符号化対象画像の動き補償予測を行うことによって予測画像及び動き情報を生成する動き補償予測ステップと、残差画像生成手段が、上記符号化対象画像と上記予測画像との差演算に基づき予測残差画像を生成する残差画像生成ステップと、残差補償手段が、所定の第1の変換規則に基づいて上記予測残差画像から残差補償情報を生成すると共に、該残差補償情報に基づいて残差補償画像を生成する残差補償ステップと、減算手段が、上記残差補償画像と上記予測残差画像との差演算に基づき補償残差画像を生成する減算ステップと、量子化変換手段が、上記補償残差画像を所定の第2の変換規則に基づいて変換してなる変換係数を生成し、該変換係数を量子化することによって量子化変換係数を生成する量子化変換ステップと、逆量子化変換手段が、上記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、上記所定の第2の変換規則の逆変換である所定の第2の逆変換規則に基づき該逆量子化変換係数を用いて逆変換を行うことによって復号補償残差画像を生成する逆量子化変換ステップと、加算手段が、上記復号補償残差画像と上記残差補償画像とを加算することによって復号予測残差画像を生成する加算ステップと、復号画像生成手段が、上記復号予測残差画像と上記予測画像とを加算することによって復号画像を生成する復号画像生成ステップと、参照画像記憶手段が、上記復号画像生成手段によって生成された上記復号画像を、上記動き補償予測手段による動き補償予測に提供する上記参照画像として記憶する参照画像記憶ステップと、符号化手段が、上記動き情報と上記残差補償情報と上記量子化変換係数とを符号化してなる符号化データを含む圧縮データを生成する符号化ステップとを備え、上記残差補償ステップは、変換手段が、上記所定の第1の変換規則に基づき、複数の二次元基底を用いて、該二次元基底を特定するための基底情報と、該基底情報によって特定される二次元基底に付する補償係数とに上記予測残差画像を変換し、該基底情報を上記残差補償情報に含める変換ステップと、量子化手段が、上記補償係数を量子化することによって量子化補償係数を生成し、該量子化補償係数を上記残差補償情報に含める量子化ステップと、逆量子化手段が、上記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化ステップと、逆変換手段が、上記所定の第1の変換規則の逆変換である所定の第1の逆変換規則に基づき、上記逆量子化補償係数を用いて逆変換を行うことによって上記残差補償画像を生成する逆変換ステップと含むことを特徴としている。さらに、本発明の動画像符号化方法は、復号予測残差画像記憶手段が、上記復号予測残差画像を参照復号予測残差画像として記憶するステップを更に備え、上記変換ステップでは、上記変換手段が、上記復号予測残差画像記憶手段に記憶された上記参照復号予測残差画像の部分画像を上記二次元基底として用いて上記予測残差画像を変換し、上記逆変換ステップでは、上記逆変換手段が、上記変換手段によって用いられた上記二次元基底を用いて逆変換することを特徴としている。
【0008】
また、上記課題を解決するため、本発明の動画像符号化プログラムは、コンピュータを、参照画像に基づいて符号化対象画像の動き補償予測を行うことによって予測画像及び動き情報を生成する動き補償予測手段と、上記符号化対象画像と上記予測画像との差演算に基づき予測残差画像を生成する残差画像生成手段と、所定の第1の変換規則に基づいて上記予測残差画像から残差補償情報を生成すると共に、該残差補償情報に基づいて残差補償画像を生成する残差補償手段と、上記残差補償画像と上記予測残差画像との差演算に基づき補償残差画像を生成する減算手段と、上記補償残差画像を所定の第2の変換規則に基づいて変換してなる変換係数を生成し、該変換係数を量子化することによって量子化変換係数を生成する量子化変換手段と、上記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、上記所定の第2の変換規則の逆変換である所定の第2の逆変換規則に基づき該逆量子化変換係数を用いて逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、上記復号補償残差画像と上記残差補償画像とを加算することによって復号予測残差画像を生成する加算手段と、上記復号予測残差画像と上記予測画像とを加算することによって復号画像を生成する復号画像生成手段と、上記復号画像生成手段によって生成された上記復号画像を、上記動き補償予測手段による動き補償予測に提供する上記参照画像として記憶する参照画像記憶手段と、上記動き情報と上記残差補償情報と上記量子化変換係数とを符号化してなる符号化データを含む圧縮データを生成する符号化手段と、として機能させ、上記残差補償手段は、上記所定の第1の変換規則に基づき、複数の二次元基底を用いて、該二次元基底を特定するための基底情報と、該基底情報によって特定される二次元基底に付する補償係数とに上記予測残差画像を変換し、該基底情報を上記残差補償情報に含める変換手段と、上記補償係数を量子化することによって量子化補償係数を生成し、該量子化補償係数を上記残差補償情報に含める量子化手段と、上記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、上記所定の第1の変換規則の逆変換である所定の第1の逆変換規則に基づき、上記逆量子化補償係数を用いて逆変換を行うことによって上記残差補償画像を生成する逆変換手段とを有することを特徴としている。さらに、本発明の動画像符号化プログラムは、上記コンピュータを、上記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段として更に機能させ、上記変換手段は、上記復号予測残差画像記憶手段に記憶された上記参照復号予測残差画像の部分画像を上記二次元基底として用いて上記予測残差画像を変換し、上記逆変換手段は、上記変換手段によって用いられた上記二次元基底を用いて逆変換することを特徴としている。
【0009】
これらの発明によれば、二次元基底を用いた所定の第1の変換規則によって予測残差画像が補償係数と二次元基底を特定するための基底情報とを含む残差補償情報に分解されるので、DCT等の直交変換に比して少ない数の情報によって予測残差画像を表すことが可能となる。また、予測残差画像と残差補償情報から復元される残差補償画像との差に基づく補償残差画像は、上述したような画像信号中の偏った分布が取り除かれた画像とされているので、例えばDCTといった所定の第2の変換規則によって効率よく分解される。また、二次元基底として復号予測残差画像の部分画像を用いて予測残差画像が分解されるので、予測残差画像の類似性を利用した更に効果的な残差補償が実現される。
【0010】
また、本発明の動画像符号化装置においては、上記残差補償手段は、上記変換手段に提供する二次元基底を記憶する基底記憶手段を更に有し、上記変換手段は、上記基底記憶手段に記憶された二次元基底を用いて上記予測残差画像を変換し、上記逆変換手段は、上記基底記憶手段に記憶された二次元基底を用いて上記逆変換を行うことを特徴としても良い。
【0011】
この発明によれば、二次元基底として復号予測残差画像の部分画像と、基底記憶手段に記憶された二次元基底とを用いることができるので、例えば、フレーム間に急激な変化が生じている場合にでも、予測残差画像が効率的に分解される。
【0013】
また、上記課題を解決するため、本発明の動画像復号装置は、復号画像に対する予測画像を生成するための動き情報と、上記予測画像に対する残差補償画像を復元するための量子化補償係数と基底情報とを含む残差補償情報と、上記予測画像と上記残差補償画像との差に基づく補償残差画像を復元するための量子化変換係数とが符号化されてなる符号化データを含む圧縮データを復号することによって、上記動き情報と上記残差補償情報と上記量子化変換係数とを生成する復号手段と、上記残差補償情報を用いて所定の第1の逆変換規則に基づき逆変換を行うことによって上記残差補償画像を生成する残差復号手段と、上記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、該逆量子化変換係数を用いて所定の第2の逆変換規則に基づく逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、上記残差補償画像と上記復号補償残差画像との加算に基づき復号予測残差画像を生成する加算手段と、参照画像及び上記動き情報を用いて動き補償予測を行うことによって上記予測画像を生成する動き補償予測手段と、上記復号予測残差画像と上記予測画像との加算に基づき復号画像を生成する復号画像生成手段と、上記復号画像生成手段によって生成された上記復号画像を、上記動き補償予測手段による上記動き補償予測に提供する上記参照画像として記憶する参照画像記憶手段とを備え、上記残差復号手段は、上記残差補償情報に含まれている上記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、複数の二次元基底のうち上記残差補償情報に含まれる基底情報によって特定される二次元基底と、上記逆量子化手段によって生成された上記逆量子化補償係数逆変換とを用い、上記所定の第1の逆変換規則に基づき逆変換を行うことによって上記残差補償画像を生成する逆変換手段とを有することを特徴としている。さらに、本発明の動画像復号装置は、上記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段を更に備え、上記逆変換手段は、上記復号予測残差画像記憶手段に記憶された上記参照復号予測残差画像の部分画像を上記二次元基底として用い上記逆変換を行うことを特徴としている。

【0014】
また、上記課題を解決するため、本発明の動画像復号方法は、復号手段が、復号画像に対する予測画像を生成するための動き情報と、上記予測画像に対する残差補償画像を復元するための量子化補償係数と基底情報とを含む残差補償情報と、上記予測画像と上記残差補償画像との差に基づく補償残差画像を復元するための量子化変換係数とが符号化されてなる符号化データを含む圧縮データを復号することによって、上記動き情報と上記残差補償情報と上記量子化変換係数とを生成する復号ステップと、残差復号手段が、上記残差補償情報を用いて所定の第1の逆変換規則に基づき逆変換を行うことによって上記残差補償画像を生成する残差復号ステップと、逆量子化変換手が、上記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、該逆量子化変換係数を用いて所定の第2の逆変換規則に基づく逆変換を行うことによって復号補償残差画像を生成する逆量子化変換ステップと、加算手段が、上記残差補償画像と上記復号補償残差画像との加算に基づき復号予測残差画像を生成する加算ステップと、動き補償予測手段が、参照画像及び上記動き情報を用いて動き補償予測を行うことによって上記予測画像を生成する動き補償予測ステップと、復号画像生成手段が、上記復号予測残差画像と上記予測画像との加算に基づき復号画像を生成する復号画像生成ステップと、参照画像記憶手段が、上記復号画像生成手段によって生成された上記復号画像を、上記動き補償予測手段による上記動き補償予測に提供する上記参照画像として記憶する参照画像記憶ステップとを備え、上記残差復号ステップは、逆量子化手段が、上記残差補償情報に含まれている上記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化ステップと、逆変換手段が、複数の二次元基底のうち上記残差補償情報に含まれる基底情報によって特定される二次元基底と、上記逆量子化手段によって生成された上記逆量子化補償係数逆変換とを用い、上記所定の第1の逆変換規則に基づき逆変換を行うことによって上記残差補償画像を生成する逆変換ステップとを含むことを特徴としている。さらに、本発明の動画像復号方法は、復号予測残差画像記憶手段が、上記復号予測残差画像を参照復号予測残差画像として記憶するステップを更に備え、上記逆変換ステップにおいて、上記逆変換手段が、上記復号予測残差画像記憶手段に記憶された上記参照復号予測残差画像の部分画像を上記二次元基底として用い上記逆変換を行うことを特徴としている。
【0015】
また、上記課題を解決するため、本発明の動画像復号プログラムは、コンピュータを、復号画像に対する予測画像を生成するための動き情報と、上記予測画像に対する残差補償画像を復元するための量子化補償係数と基底情報とを含む残差補償情報と、上記予測画像と上記残差補償画像との差に基づく補償残差画像を復元するための量子化変換係数とが符号化されてなる符号化データを含む圧縮データを復号することによって、上記動き情報と上記残差補償情報と上記量子化変換係数とを生成する復号手段と、上記残差補償情報を用いて所定の第1の逆変換規則に基づき逆変換を行うことによって上記残差補償画像を生成する残差復号手段と、上記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、該逆量子化変換係数を用いて所定の第2の逆変換規則に基づく逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、上記残差補償画像と上記復号補償残差画像との加算に基づき復号予測残差画像を生成する加算手段と、参照画像及び上記動き情報を用いて動き補償予測を行うことによって上記予測画像を生成する動き補償予測手段と、上記復号予測残差画像と上記予測画像との加算に基づき復号画像を生成する復号画像生成手段と、上記復号画像生成手段によって生成された上記復号画像を、上記動き補償予測手段による上記動き補償予測に提供する上記参照画像として記憶する参照画像記憶手段と、として機能させ、上記残差復号手段は、上記残差補償情報に含まれている上記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、複数の二次元基底のうち上記残差補償情報に含まれる基底情報によって特定される二次元基底と、上記逆量子化手段によって生成された上記逆量子化補償係数逆変換とを用い、上記所定の第1の逆変換規則に基づき逆変換を行うことによって上記残差補償画像を生成する逆変換手段とを有することを特徴としている。さらに、本発明の動画像復号プログラムは、上記コンピュータを、上記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段として更に機能させ、上記逆変換手段は、上記復号予測残差画像記憶手段に記憶された上記参照復号予測残差画像の部分画像を上記二次元基底として用い上記逆変換を行うことを特徴としている。
【0016】
これらの発明によれば、圧縮データから復号される残差補償情報に基づいて残差補償画像が復元され、圧縮データから復号される量子化変換係数に基づいて復号補償残差画像が復元され、残差補償画像と復号補償残差画像が加算されることによって復号予測残差画像が生成される。また、圧縮データから復号される動き情報に基づいて予測画像が生成され、予測画像と復号予測残差画像が加算されることによって、復号画像が生成される。したがって、上述した動画像符号化装置によって生成された圧縮データから動画像が忠実に復元される。また、上記の復号予測残差画像の部分画像が二次元基底として用いられるので、上述した動画像符号化装置によって生成された圧縮データから動画像が忠実に復元される。
【0017】
また、本発明の動画像復号装置においては、上記残差復号手段は、上記複数の二次元基底を記憶する基底記憶手段を更に有し、上記逆変換手段は、上記基底記憶部に記憶された上記二次元基底を用いて上記逆変換を行うことを特徴としても良い。
【0020】
【発明の実施の形態】
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
【0021】
まず、本発明の第1実施形態にかかる動画像符号化装置1について説明する。動画像符号化装置1は、物理的には、CPU(中央演算装置)、メモリといった記憶装置、ハードディスクといった格納装置等を備えるコンピュータである。ここでの「コンピュータ」とは、パーソナルコンピュータ等の通常のコンピュータに加えて、移動通信端末といった情報携帯端末も含むものであり、本発明の思想は情報処理可能な機器に広く適用される。
【0022】
図1は、動画像符号化装置1の機能的な構成を示す図である。動画像符号化装置1は、機能的には、動き補償予測部(動き補償予測手段)2と、動き残差生成部(動き補償残差生成手段)4と、残差補償部(残差補償手段)6と、減算部(減算手段)8と、量子化変換部(量子化変換手段)10と、符号化部(符号化手段)12と、逆量子化変換部(逆量子化変換手段)14と、加算部(加算手段)16と、復号画像生成部(復号画像生成手段)18と、参照画像記憶部(参照画像記憶手段)20とを備える。
【0023】
動き補償予測部2は、参照画像記憶部20に記憶されている参照画像を用いて動き補償予測を行い符号化対象画像I0の予測画像I1を生成し、予測画像I1を動き残差生成部4及び復号画像生成部18に出力する。また、動き補償予測部2は、動き補償予測を再現するために必要な動き情報I2を符号化部12に出力する。
【0024】
より具体的には、動き補償予測部2は、符号化対象画像I0を所定のサイズのブロックに分割する。この所定のサイズは、例えば16画素×16ライン、16画素×8ライン、8画素×16ライン、8画素×8ラインなどのようにサイズや形状の異なる複数種類のブロックに符号化対象画像I0を分割することができる。
【0025】
動き補償予測部2は、符号化対象画像を分割した複数のブロックの各々について、参照画像記憶部20に記憶されている参照画像のうち所定の領域の予測参照領域に対するブロックマッチングを行い、複数のブロック各々の参照画像に対する動きベクトルを検出する。
【0026】
動き補償予測部2は、上記の動きベクトルを用いて参照画像から符号化対象画像I0の予測画像I1を生成する。動き補償予測部2は、生成した予測画像I1を動き残差生成部4及び復号画像生成部18に出力する。また、動き補償予測部2は、検出した動きベクトル、及びブロック形状を特定するための情報を動き情報I2として符号化部12に出力する。
【0027】
なお、参照画像から生成される予測参照領域の画像は、整数画素のみによって構成される画像に限らず、整数画素間の1/2位置、1/4位置を補間する補間画素を設けた画像とされても良い。このように補間画素を設けることによって、動きベクトルを高解像度に検出することが可能とされる。また、動き補償予測部2は、着目するブロックの動きベクトルによって得られる画素値と隣接するブロックの動きベクトルを用いて得られる画素値とに重み付けを行って画素値を得るオーバーラップ動き補償を適用することによって予測画像I1を得ても良い。
【0028】
動き残差生成部4は、動き補償予測部2によって生成された予測画像I1と符号化対象画像I0との差演算を実行し、予測画像I1と符号化対象画像I0との残差からなる予測残差画像I3を生成する。動き残差生成部4は、予測残差画像I3を残差補償部6及び減算部8に出力する。
【0029】
残差補償部6は、動き残差生成部4によって出力された予測残差画像I3に対する残差補償を行い残差補償画像I4を生成する。残差補償部6は、生成した残差補償画像I4を減算部8及び加算部16に出力する。また、残差補償部6は、残差補償を再現するために必要な情報を残差補償情報I5として符号化部12に出力する。なお、残差補償部6についての詳細は後述する。
【0030】
減算部8は、残差補償部6によって出力された残差補償画像I4と動き残差生成部4によって出力された予測残差画像I3との差演算を実行し、残差補償画像I4と予測残差画像I3との残差からなる補償残差画像I6を生成する。減算部8は、生成した補償残差画像I6を量子化変換部10に出力する。
【0031】
量子化変換部10は、減算部8によって出力された補償残差画像I6を所定の第2の変換規則を用いて係数の集合に分解する変換処理を行う。この所定の変換規則としては、例えばDCT(Discrete Cosine Transform)を用いることができる。DCTが用いられる場合には、補償残差画像I6はDCT係数の集合に変換される。量子化変換部10は、上記の係数に量子化操作を施して量子化変換係数I7を生成する。量子化変換部10は、生成した量子化変換係数I7を符号化部12及び逆量子化変換部14に出力する。
【0032】
符号化部12は、動き補償予測部2によって出力された動き情報I2を符号化してなる符号化データを生成する。また、符号化部12は残差補償部6よって出力された残差補償情報I5を符号化してなる符号化データを生成する。さらに、符号化部12は量子化変換部10よって出力された量子化変換係数I7を符号化してなる符号化データを生成する。符号化部12はこれら符号化データを含む圧縮データI16を生成する。この符号化処理には、例えば、ハフマン符号化や算術符号化といったエントロピー符号化処理を用いることができる。
【0033】
逆量子化変換部14は、量子化変換部10によって生成された量子化変換係数I7を逆量子化することによって逆量子化変換係数を生成する。逆量子化変換部14は、生成した逆量子化変換係数に量子化変換部10によって用いられる上記の変換処理の逆変換処理を行うことによって、復号補償残差画像I8を生成する。逆量子化変換部14は、生成した復号補償残差画像I8を加算部16に出力する。
【0034】
加算部16は、残差補償部6によって出力された残差補償画像I4と加算部16によって出力された復号補償残差画像I8を加算することによって、復号予測残差画像I9を生成する。加算部16は、生成した復号予測残差画像I9を復号画像生成部18に出力する。
【0035】
復号画像生成部18は、動き補償予測部2によって出力された予測画像I1と加算部16によって出力された復号予測残差画像I9を加算することによって、復号画像I10を生成する。復号画像生成部18は、復号画像I10を参照画像記憶部20に出力する。参照画像記憶部20は、復号画像生成部18によって出力された復号画像I10を参照画像I11として記憶し、次フレームに対する動き補償予測部2による処理のために、この参照画像I11を提供する。なお、復号画像生成部18は、復号画像I10にデブロッキングフィルタを適用した画像を、参照画像記憶部20に出力しても良い。
【0036】
以下、残差補償部6について詳細に説明する。図2は、残差補償部6の構成を示す図である。残差補償部6は、変換部(変換手段)6aと、基底記憶部(基底記憶手段)6bと、量子化部(量子化手段)6cと、逆量子化部(逆量子化手段)6dと、逆変換部(逆変換手段)6eとを有している。
【0037】
変換部6aは、予測残差画像I3に所定の第1の変換規則を用いた変換処理を施す。所定の第1の変換規則としては、Matching Pursuits法(以下、「MP法」という)を用いることができる。MP法は、予測残差画像I3を初期の残差成分とし、下式(1)に従い残差成分を基底セットを用いて分解する処理を反復するものである。
【数1】

Figure 0004344184
ここで、式(1)において、fは予測残差画像、Rnfは第n反復後の残差成分であり、gknはRnfとの内積値を最大とする基底であり、Rmfは第m反復処理後の残差成分である。
【0038】
MP法によれば、基底セットのうちから残差成分との内積値を最大とする基底が選択され、選択された基底とこの基底に乗じる為の係数である最大の内積値とに残差成分が分解される。
【0039】
ここで、動き補償予測の予測残差である予測残差画像は偏った分布を持つ画像信号であることが知られている。MP法では、予め基底として予測残差画像に出現しやすいパターンを二次元基底として記憶しておくことによって、記憶された二次元基底の中からより残差成分が小さくなるような基底を用いて画像を順次分解することが可能となる。したがって、DCTなどといった直交変換に比べて少ない数の基底を用いて効果的に予測残差画像を表すことができる。
【0040】
本実施形態では、基底記憶部6bが基底セットを記憶している。変換部6aは、基底記憶部6bによって提供される基底セットを用い、残差成分との内積値を最大とする基底を特定するための基底情報I12を求め、基底情報I12を逆変換部6eに出力する。また、基底情報I12は、残差補償情報I5の一部として符号化部12に出力される。変換部6aは、上記の内積値を補償係数I13として求め、補償係数I13を量子化部6cに出力する。
【0041】
量子化部6cは、変換部6aによって出力された補償係数I13に量子化操作を施すことによって、量子化補償係数I14を生成する。量子化部6cは、量子化補償係数I14を逆量子化部6dに出力すると共に、量子化補償係数I14を残差補償情報I5の一部として符号化部12に出力する。
【0042】
逆量子化部6dは、量子化補償係数I14を逆量子化し、逆量子化補償係数I15を生成する。逆量子化部6dは、逆量子化補償係数I15を逆変換部6eに出力する。逆変換部6eは、逆量子化補償係数I15、基底情報I12、及び基底記憶部6bに記憶されている基底を用い、変換部6aによって行われる上述の変換処理の逆変換処理を実行することによって、残差補償画像I4を生成する。逆変換部6eは、残差補償画像I4を減算部8及び加算部16に出力する。
【0043】
上述したように、符号化部12は、動き補償予測部2によって出力された動き情報I2を符号化してなる符号化データ、量子化変換部10によって出力された量子化変換係数I7を符号化してなる符号化データ、及び、残差補償部6よって出力された残差補償情報I5を符号化してなる符号化データを生成する。符号化部12は、これら符号化データを含む圧縮データI16を生成する。この符号化処理には、例えば、ハフマン符号化や算術符号化といったエントロピー符号化処理を用いることができる。符号化部12は、動き情報I2および量子化変換係数I7に関しては、例えばMPEG−4符号化方式などといった従来の動画像符号化方式に採用されているエントロピー符号化と同様の方法によって符号化を行うことができる。
【0044】
残差補償情報I5のエントロピー符号化について説明する。上述したように、残差補償情報I5は基底情報I12および量子化補償係数I14を含んでいる。基底情報I12は基底セットの中から1つの基底を特定するための情報であるので、例えば2c個の基底が基底記憶部6bに記憶されている場合、cビットの固定長符号によって基底情報I12を符号化することができる。また、量子化補償係数I14は基底に乗じるスカラ値を量子化したものであり、例えばレンジを1〜2dの範囲とすると、dビットの固定長符号によって量子化補償係数I14を符号化することができる。
【0045】
次に、動画像符号化装置1の動作について説明する。併せて、本発明の第1実施形態にかかる動画像符号化方法について説明する。図3は第1実施形態にかかる動画像符号化方法のフローチャートである。また、図4は、第1実施形態の動画像符号化方法における残差補償に関する処理のフローチャートである。
【0046】
図3に示すように、第1実施形態にかかる動画像符号化方法においては、まず、動き補償予測部2によって動き補償予測が行われる(ステップS01)。動き補償予測においては、符号化対象画像I0が所定のサイズのブロックに分割される。そして、各々のブロックについて動き補償予測部2によって参照画像に対する動きベクトルが求められ、符号化対象画像I0に関する予測画像I1が生成される。参照画像としては、参照画像記憶部20に記憶された画像が用いられる。また、動き補償予測部2によって、動きベクトルといった情報を含む上述の動き情報I2が符号化部12に出力される。
【0047】
次に、動き補償予測部2によって出力された予測画像I1と符号化対象画像I0との差演算が、動き残差生成部4によって実行されることによって予測残差画像I3が生成される(ステップS02)。
【0048】
次に、残差補償部6によって残差補償が行われる(ステップS03)。残差補償においては、図4に示すように、変換部6aによって基底記憶部6bに記憶されている基底を用いて予測残差画像I3が分解される。そして、変換部6aによって、予測残差画像I3の分解に用いられた基底を特定するための基底情報I12と基底に乗ずる補償係数I13が出力される(ステップS04)。
【0049】
次に、量子化部6cによって補償係数I13が量子化され、量子化補償係数I14とされる(ステップS05)。基底情報I12および量子化補償係数I14は残差補償情報I5として符号化部12に出力される。
【0050】
次に、逆量子化部6dによって量子化補償係数I14が、逆量子化され、逆量子化補償係数I15とされる(ステップS06)。そして、逆変換部6eによって、逆量子化補償係数I15、基底情報I12、及び基底記憶部6bに記憶されている基底が用いられ変換部6aによる変換処理の逆操作である逆変換処理が行われることによって、残差補償画像I4が生成される。(ステップS07)。
【0051】
図3を参照すると、次に、残差補償部6によって出力された残差補償画像I4と動き残差生成部4よって出力された予測残差画像I3との差演算が減算部8によって実行されることによって、補償残差画像I6が生成される(ステップS08)。
【0052】
次に、量子化変換部10によって、補償残差画像I6が上述したように係数の集合に分解された後、その集合に含まれる係数に量子化操作が施されることによって量子化変換係数I7が出力される(ステップS09)。
【0053】
次に、逆量子化変換部14によって量子化変換係数I7に逆量子化操作が施されることによって、逆量子化変換係数が生成される。そして、逆量子化変換係数に、量子化変換部10によって実行された変換処理の逆変換処理が施され、復号補償残差画像I8が生成される(ステップS10)。
【0054】
次に、復号補償残差画像I8と残差補償画像I4が、加算部16によって加算され、復号予測残差画像I9が生成される(ステップS11)。さらに、復号画像生成部18によって復号予測残差画像I9と予測画像I1が加算されることによって、復号画像I10が生成される(ステップS12)。復号画像I10は、上述したように参照画像記憶部20によって参照画像I11として記憶され(ステップS13)、動き補償予測部2によって符号化対象画像の予測画像を生成する処理に用いられる。そして、動き情報I2と残差補償情報I5と、量子化変換係数I7とが符号化部12によって符号化されることによって、圧縮データI16が生成される(ステップS14)。
【0055】
次に、コンピュータを動画像符号化装置1として機能させる動画像符号化プログラム30について説明する。図5は、動画像符号化プログラム30の構成を示す図である。図5に示すように動画像符号化プログラム30は、処理を統括するメインモジュール31と、動き補償予測モジュール32と、動き残差生成モジュール34と、残差補償モジュール36と、減算モジュール38と、量子化変換モジュール40と、符号化モジュール42と、逆量子化変換モジュール44と、加算モジュール46と、復号画像生成モジュール48と、参照画像記憶モジュール50とを備える。残差補償モジュール36は、変換サブモジュール36aと、基底記憶サブモジュール36bと、量子化サブモジュール36cと、逆量子化サブモジュール36dと、逆変換サブモジュール36eとを備えている。
【0056】
動き補償予測モジュール32、動き残差生成モジュール34、残差補償モジュール36、減算モジュール38、量子化変換モジュール40、符号化モジュール42、逆量子化変換モジュール44、加算モジュール46、復号画像生成モジュール48、参照画像記憶モジュール50、変換サブモジュール36a、基底記憶サブモジュール36b、量子化サブモジュール36c、逆量子化サブモジュール36d、逆変換サブモジュール36eがコンピュータに実現させる機能は、動き補償予測部2、動き残差生成部4、残差補償部6、減算部8、量子化変換部10、符号化部12、逆量子化変換部14、加算部16、復号画像生成部18、参照画像記憶部20、変換部6a、基底記憶部6b、量子化部6c、逆量子化部6d、逆変換部6eとそれぞれ同様である。
【0057】
以下、第1実施形態にかかる動画像符号化装置1の作用及び効果について説明する。動画像符号化装置1では、符号化対象画像に対して動き補償予測を施して生成される予測画像と上記符号化対象画像との差分である予測残差画像に対してMP法を適用することによって、少ない基底数で効率よく予測残差画像に出現しやすい信号パターンを表すことができる。例えば、エッジ部分の画像のようにDCTやウェーブレット変換のような直交変換ではすべての周波数帯域に係数が出現するため、効率的に符号化を行うことができない。しかし、二次元基底にエッジ形状のものを予め記憶することによって、少ない数の基底を用いて予測残差画像を表現することが可能となるので、より効率的な符号化が実現される。
【0058】
また、残差補償画像と予測残差画像との差分である補償残差画像は、予測残差画像において出現しやすいパターンを取り除かれた画像であるため、DCTを用いて効率よく表すことができる。このように、本発明の第1実施形態にかかる動画像符号化装置1においては、予測残差画像と残差補償画像をそれぞれに適した方法で分解することができる。その結果、符号化対象画像をより効率よく符号化することができる。
【0059】
なお、本実施形態における変換部6aは、所定の第1の変換規則としてMP法に従うように構成されていたが、MP法に限らず、特定のパターンをより効果的に分解できる変換規則に従う限り、本発明の思想による効果が得られる。例えば、所定の第1の変換規則には、MP法の他にベクトル量子化法(以下VQ法とよぶ)を適用することができる。
【0060】
VQ法は、予測残差画像を初期の残差成分とし、下式(2)を用いて残差成分を基底セットを用いて分解する処理を反復するものである。
【数2】
Figure 0004344184
ここで、式(2)において、fは予測残差画像であり、Rmfは第m反復処理後の残差成分である。Rmfのエネルギーを最小とする(係数an,基底vkn)の組み合わせを選択し、選択された基底とこの基底に乗じる為の係数に残差成分が分解される。VQ法では、予測残差画像に出現しやすいパターンを基底とする基底セットを用いることによって、基底セットの中から残差成分が小さくなるような基底を用いて画像を順次分解するので、少ない基底数でより効率的に予測残差画像を分解することができる。
【0061】
次に、本発明の第2実施形態にかかる動画像符号化装置60について説明する。動画像符号化装置60は、参照復号予測残差画像I17を記憶するための復号予測残差画像記憶部(復号予測残差画像記憶手段)68を備え、残差補償における変換で用いられる基底として復号予測残差画像記憶部68に記憶された参照復号予測残差画像I17の部分画像を用いることを特徴とする。以下、動画像符号化装置60について詳細に説明する。
【0062】
動画像符号化装置60の機能的な構成について説明する。図6は、動画像符号化装置60の機能的な構成を示す図である。動画像符号化装置60は、機能的には、動き補償予測部2と、動き残差生成部4と、残差補償部(残差補償手段)62と、減算部8と、量子化変換部10と、符号化部(符号化手段)64と、逆量子化変換部14と、加算部(加算手段)66と、復号画像生成部18と、参照画像記憶部20と、復号予測残差画像記憶部(復号予測残差画像記憶手段)68とを備える。以下、第1実施形態の動画像符号化装置1と異なる要素について説明する。
【0063】
復号予測残差画像記憶部68は、加算部66によって出力された復号予測残差画像I9を参照復号予測残差画像I17として記憶し、記憶した参照復号予測残差画像I17を残差補償部62に提供する。
【0064】
残差補償部62は、動き残差生成部4によって出力された予測残差画像I3に対する残差補償を行い残差補償画像I4を生成する。また、残差補償部62は、残差補償を再現するために必要な情報を残差補償情報I5として符号化部64に出力する。
【0065】
以下、残差補償部62について詳細に説明する。図7は、残差補償部62の構成を示す図である。残差補償部62は、変換部(変換手段)62aと、量子化部(量子化手段)62bと、逆量子化部(逆量子化手段)62cと、逆変換部(逆変換手段)62dとを有している。
【0066】
変換部62aは、第1実施形態の変換部6aと同様に、予測残差画像I3に所定の第1の変換規則を用いた変換処理を施す。変換部62aは、この所定の第1の変換規則として、MP法やVQ法を適用することができる。第1実施形態の変換部6aは、MP法やVQ法に用いる基底として基底記憶部6bに記憶されている基底を用いていたが、変換部62aは、参照復号予測残差画像I17の部分画像を基底として用いる。
【0067】
図8は、変換部62aによる変換処理を説明するための図である。図8に示すように、変換部62aは、予測残差画像I3における注目領域R1の画像の変換処理に、参照復号予測残差画像I17の対応する領域R2の部分画像とその近傍の領域R3における部分画像を基底として用いる。変換部62aは、これらの部分画像のうち、注目領域R1の画像に対する残差エネルギーを最小とする部分画像を基底として選択することによって、注目領域R1の画像を基底に分解する。変換部62aは、分解に用いた基底(部分画像)を特定するための情報を基底情報I12として、逆変換部62dに出力する。また、変換部62aは、基底情報I12を、残差補償情報I5の一部として符号化部64に出力する。また、変換部62aは、基底に乗じる係数を補償係数I13として、量子化部62bに出力する。
【0068】
量子化部62bは、変換部62aによって出力された補償係数I13に量子化操作を施すことによって、量子化補償係数I14を生成する。量子化部62bは、量子化補償係数I14を逆量子化部62cに出力すると共に、量子化補償係数I14を残差補償情報I5の一部として符号化部64に出力する。
【0069】
逆量子化部62cは、量子化補償係数I14を逆量子化し、逆量子化補償係数I15を生成する。逆量子化部62cは、逆量子化補償係数I15を逆変換部62dに出力する。逆変換部62dは、逆量子化補償係数I15、基底情報I12、及び参照復号予測残差画像I17を用い、変換部62aによって行われる上述の変換処理の逆変換処理を実行することによって、残差補償画像I4を生成する。逆変換部62dは、残差補償画像I4を減算部8及び加算部66に出力する。
【0070】
符号化部64は、動き補償予測部2によって出力された動き情報I2と、量子化変換部10によって出力された量子化変換係数I7と、残差補償部62によって出力された残差補償情報I5をそれぞれ圧縮してなる符号化データを生成し、これら符号化データを含む圧縮データを出力する。なお、符号化部64による圧縮処理は、第1実施形態の符号化部12と同様の処理である。
【0071】
以下、動画像符号化装置60の動作を説明し、併せて本発明の第2実施形態にかかる動画像符号化方法について説明する。図9は、第2実施形態にかかる動画像符号化方法のフローチャートである。図10は、第2実施形態の動画像符号化方法における残差補償に関する処理のフローチャートである。
【0072】
図9に示すように、第2実施形態にかかる動画像符号化方法においては、まず、動き補償予測部2によって動き補償予測が行われる(ステップS21)。ステップS21における処理は、第1実施形態のステップS01の処理と同様である。
【0073】
次に、動き補償予測部2によって出力された予測画像I1と符号化対象画像I0との差演算が、動き残差生成部4によって実行されることによって予測残差画像I3が生成される(ステップS22)。
【0074】
次に、残差補償部62によって残差補償が行われる(ステップS23)。残差補償においては、図10に示すように、変換部62aによって予測残差画像I3が分解される。ここで、変換部62aは、上述したように、復号予測残差画像記憶部68によって提供される参照復号予測残差画像I17の部分画像を基底として用い予測残差画像I3の分解を行う。そして、変換部62aによって、予測残差画像I3の分解に用いられた基底(部分画像)を特定するための基底情報I12と基底に乗ずる補償係数I13が出力される(ステップS24)。
【0075】
次に、量子化部62bによって補償係数I13が量子化され、量子化補償係数I14とされる(ステップS25)。基底情報I12および量子化補償係数I14は残差補償情報I5として符号化部64に出力される。
【0076】
次に、逆量子化部62cによって量子化補償係数I14が、逆量子化され、逆量子化補償係数I15とされる(ステップS26)。そして、逆変換部62dによって、かかる逆量子化補償係数I15、基底情報I12、及び参照復号予測残差画像I17が用いられ、変換部62aによる変換処理の逆操作である逆変換処理が行われることによって、残差補償画像I4が生成される。(ステップS27)。
【0077】
図9を参照すると、次に、残差補償部6によって出力された残差補償画像I4と動き残差生成部4よって出力された予測残差画像I3との差演算が減算部8によって実行されることによって、補償残差画像I6が生成される(ステップS28)。
【0078】
次に、量子化変換部10によって、補償残差画像I6が上述したように係数の集合に分解された後、その集合に含まれる係数に量子化操作が施されることによって量子化変換係数I7が出力される(ステップS29)。
【0079】
次に、逆量子化変換部14によって量子化変換係数I7に逆量子化操作が施されることによって、逆量子化変換係数が生成される。そして、逆量子化変換係数に、量子化変換部10によって実行された変換処理の逆変換処理が施され、復号補償残差画像I8が生成される(ステップS30)。
【0080】
次に、復号補償残差画像I8と残差補償画像I4が、加算部66によって加算され、復号予測残差画像I9が生成される(ステップS31)。復号予測残差画像I9は、復号予測残差画像記憶部68によって参照復号予測残差画像I17として記憶され、残差補償部62による処理に提供される(ステップS32)。
【0081】
次に、復号画像生成部18によって復号予測残差画像I9と予測画像I1が加算されることによって、復号画像I10が生成される(ステップS33)。復号画像I10は、上述したように参照画像記憶部20によって参照画像I11として記憶され(ステップS34)、動き補償予測部2によって符号化対象画像の予測画像を生成する処理に用いられる。そして、動き情報I2と残差補償情報I5と、量子化変換係数I7とが符号化部64によって符号化されることによって、圧縮データI16が生成される(ステップS35)。
【0082】
次に、コンピュータを動画像符号化装置60として機能させる動画像符号化プログラム70について説明する。図11は、動画像符号化プログラム70の構成を示す図である。図11に示すように動画像符号化プログラム70は、処理を統括するメインモジュール31と、動き補償予測モジュール32と、動き残差生成モジュール34と、残差補償モジュール72と、減算モジュール38と、量子化変換モジュール40と、符号化モジュール74と、逆量子化変換モジュール44と、加算モジュール76と、復号予測残差画像記憶モジュール78と、復号画像生成モジュール48と、参照画像記憶モジュール50とを備える。残差補償モジュール72は、変換サブモジュール72aと、量子化サブモジュール72bと、逆量子化サブモジュール72cと、逆変換サブモジュール72dとを備えている。
【0083】
動き補償予測モジュール32、動き残差生成モジュール34、残差補償モジュール72、減算モジュール38、量子化変換モジュール40、符号化モジュール74、逆量子化変換モジュール44、加算モジュール76、復号予測残差画像記憶モジュール78、復号画像生成モジュール48、参照画像記憶モジュール50、変換サブモジュール72a、量子化サブモジュール72b、逆量子化サブモジュール72c、逆変換サブモジュール72dがコンピュータに実現させる機能は、動き補償予測部2、動き残差生成部4、残差補償部62、減算部8、量子化変換部10、符号化部64、逆量子化変換部14、加算部66、復号予測残差画像記憶部68、復号画像生成部18、参照画像記憶部20、変換部62a、量子化部62b、逆量子化部62c、逆変換部62dとそれぞれ同様である。
【0084】
以上のように、残差補償における変換処理に用いる基底として、復号予測残差画像記憶部68に記憶された参照復号予測残差画像(復号予測残差画像)の部分画像を用いることによって、予測残差画像の類似性を利用した更に効果的な残差補償を行うことができるので、効率の良い符号化を実現することができる。
【0085】
次に、本発明の第3実施形態にかかる動画像符号化装置80について説明する。動画像符号化装置80は、基底セットを記憶するための基底記憶部(基底記憶手段)82bと、参照復号予測残差画像I17を記憶するための復号予測残差画像記憶部(復号予測残差画像記憶手段)68とを備え、残差補償における変換で用いられる基底として基底記憶部82bに記憶された基底セット、又は、復号予測残差画像記憶部68に記憶された参照復号予測残差画像I17の部分画像を用いることを特徴とする。
【0086】
動画像符号化装置80の機能的な構成について説明する。図12は、動画像符号化装置80の機能的な構成を示す図である。動画像符号化装置80は、機能的には、動き補償予測部2と、動き残差生成部4と、残差補償部(残差補償手段)82と、減算部8と、量子化変換部10と、符号化部(符号化手段)84と、逆量子化変換部14と、加算部66と、復号画像生成部18と、参照画像記憶部20と、復号予測残差画像記憶部68とを備える。以下、第1実施形態の動画像符号化装置1、又は、第2実施形態の動画像符号化装置60と異なる要素について説明する。
【0087】
残差補償部82は、予測残差画像I3に対する残差補償を行い残差補償画像I4を生成する。残差補償部82は、生成した残差補償画像I4を減算部8及び加算部66に出力する。また、残差補償部82は、残差補償を再現するために必要な情報を残差補償情報I5として符号化部84に出力する。
【0088】
以下、残差補償部82について詳細に説明する。図13は、残差補償部82の構成を示す図である。図13に示すように、残差補償部82は、変換部(変換手段)82aと、基底記憶部(基底記憶手段)82bと、量子化部(量子化手段)82cと、逆量子化部(逆量子化手段)82dと、逆変換部(逆変換手段)82eとを有している。
【0089】
変換部82aは、予測残差画像I3に所定の第1の変換規則を用いた変換処理を施す。所定の第1の変換規則としては、第1実施形態と同様にMP法、或いはVQ法を用いることができる。
【0090】
本実施形態では、基底記憶部82bが複数の二次元基底を含む基底セットを記憶している。変換部82aは、第1実施形態と同様に基底記憶部82bによって提供される基底セットを用いて予測残差画像I3を分解することができ、また、第2実施形態と同様に復号予測残差画像記憶部68から提供される参照復号予測残差画像I17中の部分画像を用いて予測残差画像I3を分解することもできる。
【0091】
変換部82aは、基底記憶部82bに記憶されている基底セットまたは復号予測残差画像記憶部68から提供される参照復号予測残差画像I17中の部分画像のうち、エネルギー減少量が最大のものを基底として選択し、予測残差画像I3の分解を行う。変換部82aは、この分解に用いられた基底を特定するための情報を基底情報I12として逆変換部62dに出力する。また、変換部82aは、基底情報I12を、残差補償情報I5の一部として符号化部84に出力する。また、変換部62aは、基底に乗じる係数を補償係数I13として、量子化部82cに出力する。
【0092】
量子化部82cは、変換部82aによって出力された補償係数I13に量子化操作を施すことによって、量子化補償係数I14を生成する。量子化部82cは、量子化補償係数I14を逆量子化部82dに出力すると共に、量子化補償係数I14を残差補償情報I5の一部として符号化部84に出力する。
【0093】
逆量子化部82dは、量子化補償係数I14を逆量子化し、逆量子化補償係数I15を生成する。逆量子化部82dは、逆量子化補償係数I15を逆変換部82eに出力する。逆変換部82eは、逆量子化補償係数I15、基底情報I12、基底記憶部82bに記憶された基底セット、及び参照復号予測残差画像I17を用い、変換部82aによって行われる上述の変換処理の逆変換処理を実行することによって、残差補償画像I4を生成する。逆変換部82eは、残差補償画像I4を減算部8及び加算部66に出力する。
【0094】
符号化部64は、動き補償予測部2によって出力された動き情報I2と、量子化変換部10によって出力された量子化変換係数I7と、残差補償部62によって出力された残差補償情報I5をそれぞれ圧縮してなる符号化データを生成し、これら符号化データを含む圧縮データを出力する。なお、符号化部84による圧縮処理は、第1実施形態の符号化部12と同様の処理である。
【0095】
以下、動画像符号化装置80の動作を説明し、併せて本発明の第3実施形態にかかる動画像符号化方法について説明する。図14は、第3実施形態にかかる動画像符号化方法のフローチャートである。図15は、第3実施形態の動画像符号化方法における残差補償に関する処理のフローチャートである。
【0096】
図14に示すように、第3実施形態にかかる動画像符号化方法においては、まず、動き補償予測部2によって動き補償予測が行われる(ステップS41)。ステップS41における処理は、第1実施形態のステップS01の処理と同様である。
【0097】
次に、動き補償予測部2によって出力された予測画像I1と符号化対象画像I0との差演算が、動き残差生成部4によって実行されることによって予測残差画像I3が生成される(ステップS42)。
【0098】
次に、残差補償部82によって残差補償が行われる(ステップS43)。残差補償においては、図15に示すように、変換部82aによって予測残差画像I3が分解される。ここで、変換部82aは、上述したように、基底記憶部82bに記憶された記憶セット及び復号予測残差画像記憶部68によって提供される参照復号予測残差画像I17の部分画像を基底として用い予測残差画像I3の分解を行う。そして、変換部82aによって、予測残差画像I3の分解に用いられた基底を特定するための基底情報I12と基底に乗ずる補償係数I13が出力される(ステップS44)。
【0099】
次に、量子化部82cによって補償係数I13が量子化され、量子化補償係数I14とされる(ステップS45)。基底情報I12および量子化補償係数I14は残差補償情報I5として符号化部64に出力される。
【0100】
次に、逆量子化部82dによって量子化補償係数I14が、逆量子化され、逆量子化補償係数I15とされる(ステップS46)。そして、逆変換部82eによって、かかる逆量子化補償係数I15、基底情報I12、基底記憶部82bに記憶された基底セット、及び参照復号予測残差画像I17が用いられ、変換部62aによる変換処理の逆操作である逆変換処理が行われることによって、残差補償画像I4が生成される。(ステップS47)。
【0101】
図14を参照すると、次に、残差補償部82によって出力された残差補償画像I4と動き残差生成部4よって出力された予測残差画像I3との差演算が減算部8によって実行されることによって、補償残差画像I6が生成される(ステップS48)。
【0102】
次に、量子化変換部10によって、補償残差画像I6が上述したように係数の集合に分解された後、その集合に含まれる係数に量子化操作が施されることによって量子化変換係数I7が出力される(ステップS49)。
【0103】
次に、逆量子化変換部14によって量子化変換係数I7に逆量子化操作が施されることによって、逆量子化変換係数が生成される。そして、逆量子化変換係数に、量子化変換部10によって実行された変換処理の逆変換処理が施され、復号補償残差画像I8が生成される(ステップS50)。
【0104】
次に、復号補償残差画像I8と残差補償画像I4が、加算部66によって加算され、復号予測残差画像I9が生成される(ステップS51)。復号予測残差画像I9は、復号予測残差画像記憶部68によって参照復号予測残差画像I17として記憶され、残差補償部82による処理に提供される(ステップS52)。
【0105】
次に、復号画像生成部18によって復号予測残差画像I9と予測画像I1が加算されることによって、復号画像I10が生成される(ステップS53)。復号画像I10は、上述したように参照画像記憶部20によって参照画像I11として記憶され(ステップS54)、動き補償予測部2によって符号化対象画像の予測画像を生成する処理に用いられる。そして、動き情報I2と残差補償情報I5と、量子化変換係数I7とが符号化部84によって符号化されることによって、圧縮データI16が生成される(ステップS55)。
【0106】
次に、コンピュータを動画像符号化装置80として機能させる動画像符号化プログラム90について説明する。図16は、動画像符号化プログラム90の構成を示す図である。図16に示すように動画像符号化プログラム90は、処理を統括するメインモジュール31と、動き補償予測モジュール32と、動き残差生成モジュール34と、残差補償モジュール92と、減算モジュール38と、量子化変換モジュール40と、符号化モジュール94と、逆量子化変換モジュール44と、加算モジュール76と、復号予測残差画像記憶モジュール78と、復号画像生成モジュール48と、参照画像記憶モジュール50とを備える。残差補償モジュール92は、変換サブモジュール92aと、基底記憶サブモジュール92bと、量子化サブモジュール92cと、逆量子化サブモジュール92dと、逆変換サブモジュール92eとを備えている。
【0107】
動き補償予測モジュール32、動き残差生成モジュール34、残差補償モジュール92、減算モジュール38、量子化変換モジュール40、符号化モジュール94、逆量子化変換モジュール44、加算モジュール76、復号予測残差画像記憶モジュール78、復号画像生成モジュール48、参照画像記憶モジュール50、変換サブモジュール92a、基底記憶サブモジュール92b、量子化サブモジュール92c、逆量子化サブモジュール92d、逆変換サブモジュール92eがコンピュータに実現させる機能は、動き補償予測部2、動き残差生成部4、残差補償部82、減算部8、量子化変換部10、符号化部84、逆量子化変換部14、加算部66、復号予測残差画像記憶部68、復号画像生成部18、参照画像記憶部20、変換部82a、基底記憶部82b、量子化部82c、逆量子化部82d、逆変換部82eとそれぞれ同様である。
【0108】
以上のように、動画像符号化装置80によれば、残差補償における変換で用いられる基底として復号予測残差画像記憶部68に記憶された参照復号予測残差画像I17の部分画像と基底記憶部82bに記憶された基底セットとが併用される。したがって、動画像符号化装置80は、予測残差画像の類似性を利用して効果的に予測残差画像I3の残差補償を行うことができ、また、フレーム間に急激な変化が生じている場合には基底記憶部82bに記憶された基底セットを用いることができるので、効率のよい符号化を実現することができる。
【0109】
次に、本発明の第4実施形態にかかる動画像復号装置100について説明する。動画像復号装置100は、第1実施形態の動画像符号化装置1によって生成された圧縮データを復号して動画像を生成する装置である。動画像復号装置100は、物理的には、CPU(中央演算装置)、メモリといった記憶装置、ハードディスクといった記憶装置等を備えるコンピュータである。ここでの「コンピュータ」とは、パーソナルコンピュータ等の通常のコンピュータに加えて、移動通信端末といった情報携帯端末も含むものであり、本発明の思想は情報処理可能な機器に広く適用される。
【0110】
以下、動画像復号装置100の機能的な構成について説明する。図17は、動画像復号装置100の機能的な構成を示す図である。動画像復号装置100は、機能的には、復号部(復号手段)102と、逆量子化変換部(逆量子化変換手段)104と、残差復号部(残差復号手段)106と、加算部(加算手段)108と、動き補償予測部(動き補償予測手段)110と、復号画像生成部(復号画像生成手段)112と、参照画像記憶部(参照画像記憶手段)114と、を備える。
【0111】
復号部102は、動画像符号化装置1によって生成された圧縮データI16を復号する。復号部102は、圧縮データI16を復号することによって得られる量子化変換係数I7を逆量子化変換部104に出力する。また、復号部102は、圧縮データI16を復号することによって得られる残差補償情報I5を残差復号部106に出力する。また、復号部102は、圧縮データI16を復号することによって得られる動き情報I2を動き補償予測部110に出力する。
【0112】
逆量子化変換部104は、上記の量子化変換係数に逆量子化操作を施してなる逆量子化変換係数を生成する。逆量子化変換部104は、上述した所定の第2の逆変換規則を用い、逆量子化変換係数を逆変換することによって復号補償残差画像I8を生成する。この所定の第2の逆変換規則は、第1実施形態の動画像符号化装置1によって用いられる所定の第2の変換規則の逆変換操作である。
【0113】
残差復号部106は、復号部102によって出力される残差補償情報I5を用いて残差復号を行うことによって残差補償画像I4を生成する。残差復号部106による処理の詳細については後述する。
【0114】
加算部108は、逆量子化変換部104によって生成された復号補償残差画像I8と残差復号部106によって生成された残差補償画像I4を加算して復号予測残差画像I9を生成する。
【0115】
動き補償予測部110は、復号部102によって出力された動き情報I2を用いて、参照画像記憶部114に記憶された参照画像I11に対する動き補償予測を行い、復号画像I10の予測画像I1を生成する。
【0116】
復号画像生成部112は、加算部108によって生成された復号予測残差画像I9と動き補償予測部110によって生成された予測画像I1を加算して復号画像I10を生成する。復号画像生成部112は、復号画像I10を参照画像記憶部114へ出力し、復号画像I10を参照画像記憶部114に記憶させる。参照画像記憶部114は、記憶した復号画像I10を、動き補償予測のために動き補償予測部110に参照画像I11として提供する。
【0117】
次に、残差復号部106の詳細について説明する。残差復号部106は、残差補償情報I5に含まれる量子化補償係数I14を逆量子化してなる逆量子化補償係数I15と、残差補償情報I5に含まれる基底情報I12を用いて所定の第1の逆変換規則を用いて逆変換を行い残差補償画像I4を生成する。この所定の第1の逆変換規則は、第1実施形態の動画像符号化装置1によって用いられる所定の第1の変換規則の逆変換操作である。
【0118】
図18は、残差復号部106の構成を示す図である。残差復号部106は、逆量子化部(逆量子化手段)106aと、逆変換部(逆変換手段)106bと、基底記憶部(基底記憶手段)106cとを備えている。
【0119】
逆量子化部106aは、量子化補償係数I14を逆量子化し、逆量子化補償係数I15を生成する。逆変換部106bは、基底記憶部106cに記憶されている基底セットのうちから基底情報I12によって特定される基底を抽出する。逆変換部106bは、抽出した基底と逆量子化部106aによって生成された逆量子化補償係数I15を用いて、変換部6aによる変換処理の逆操作である逆変換処理を行い、残差補償画像I4を生成する。なお、基底記憶部106cには、基底記憶部6bに記憶されている基底と同様の基底を含む基底セットを記憶させておくことができる。
【0120】
以下、動画像復号装置100の動作について説明し、併せて第4実施形態にかかる動画像復号方法について説明する。図19は、第4実施形態の動画像復号方法のフローチャートである。また、図20は、第4実施形態の動画像復号方法の残差復号に関する処理を示すフローチャートである。
【0121】
図19に示すように、第4実施形態の動画像復号方法においては、まず、動画像符号化装置1によって生成された圧縮データI16から、復号部102によって量子化変換係数I7と残差補償情報I5と動き情報I2が復号される(ステップS61)。
【0122】
次に、逆量子化変換部104が、量子化変換係数I7に逆量子化操作を施すことによって逆量子化変換係数を生成する。逆量子化変換部104は、生成した逆量子化変換係数に、所定の第2の逆変換規則による逆変換を施すことによって、復号補償残差画像I8を復元する(ステップS62)。
【0123】
次に、残差復号部106が、復号部102によって復号された残差補償情報I5を用いて、残差復号を行い、残差補償画像I4を生成する(ステップS63)。図20に示すように残差復号部106では、逆量子化部106aが量子化補償係数I14を逆量子化することによって逆量子化補償係数I15を生成する(ステップS64)。
【0124】
次に、逆変換部106bが、逆量子化補償係数I15、残差補償情報I5に含まれる基底情報I12、及び基底記憶部106cに記憶され基底情報I12によって特定される基底を用いて、変換部6aによる変換処理の逆操作である逆変換処理を行い、残差補償画像I4を生成する(ステップS65)。
【0125】
図19を参照すると、次に、加算部108が復号補償残差画像I8と残差補償画像I4とを加算することによって復号予測残差画像I9を生成する(ステップS66)。
【0126】
次に、動き補償予測部110が、復号部102によって出力された動き情報I2を用いて、参照画像記憶部114に記憶される参照画像I11に対する動き補償予測を行うことによって復号画像I10の予測画像I1を生成する(ステップS67)。
【0127】
次に、復号画像生成部112が、予測画像I1と復号予測残差画像I9とを加算することによって、復号画像I10を生成する(ステップS68)。復号画像生成部112は、復号画像I10を参照画像記憶部114へ出力し、復号画像I10を参照画像記憶部114に記憶させる(ステップS69)。参照画像記憶部114は、記憶した復号画像I10を、動き補償予測のために動き補償予測部110に参照画像I11として提供する。
【0128】
以下、コンピュータを動画像復号装置100として動作させる動画像復号プログラム120について説明する。図21は、動画像復号プログラム120の構成を示す図である。動画像復号プログラム120は、処理を統括するメインモジュール121と、復号モジュール122と、逆量子化変換モジュール124と、残差復号モジュール126と、加算モジュール128と、動き補償予測モジュール130と、復号画像生成モジュール132と、参照画像記憶モジュール134とを備える。残差復号モジュール126は、逆量子化サブモジュール126aと、逆変換サブモジュール126bと、基底記憶サブモジュール126cとを有している。
【0129】
復号モジュール122、逆量子化変換モジュール124、残差復号モジュール126、加算モジュール128、動き補償予測モジュール130、復号画像生成モジュール132、参照画像記憶モジュール134、逆量子化サブモジュール126a、逆変換サブモジュール126b、基底記憶サブモジュール126cがコンピュータに実現させる機能は、復号部102、逆量子化変換部104、残差復号部106、加算部108、動き補償予測部110、復号画像生成部112、参照画像記憶部114、逆量子化部106a、逆変換部106b、基底記憶部106cとそれぞれ同様である。
【0130】
以下、第4実施形態にかかる動画像復号装置100の作用及び効果を説明する。動画像復号装置100は、圧縮データI16を復号することによって得られる情報に逆量子化変換処理、残差復号処理、及び動き補償予測処理を行う。すなわち、動画像復号装置100によれば、動画像符号化装置1によって動画像から圧縮データが生成される処理の逆処理が行われるので、上記の動画像が忠実に復元される。
【0131】
次に、本発明の第5実施形態にかかる動画像復号装置140について説明する。動画像復号装置140は、第2実施形態の動画像符号化装置60によって生成された圧縮データI16から動画像を復元する装置である。動画像復号装置140では、参照復号予測残差画像I17を記憶するための復号予測残差画像記憶部(復号予測残差画像記憶手段)148を備え、残差復号における逆変換で用いられる基底として復号予測残差画像記憶部148に記憶された参照復号予測残差画像I17の部分画像を用いることを特徴とする。
【0132】
以下、動画像復号装置140の機能的な構成について説明する。図22は、動画像復号装置140の機能的な構成を示す図である。動画像復号装置140は、機能的には、復号部(復号手段)142と、逆量子化変換部104と、残差復号部(残差復号部)144と、加算部(加算手段)146と、動き補償予測部(動き補償予測手段)110と、復号画像生成部112と、参照画像記憶部114と、復号予測残差画像記憶部(復号予測残差画像記憶手段)148とを備える。以下、第4実施形態の動画像復号装置100と異なる要素について説明する。
【0133】
復号部142は、動画像符号化装置60によって生成された圧縮データI16を復号し、量子化変換係数I7と、残差補償情報I5と、動き情報I2とを出力する。この残差補償情報I5には、復号予測残差画像記憶部148に記憶される参照復号予測残差画像I17の部分画像を用いて残差補償画像I4を復元するための基底情報I12と、量子化補償係数I14が含まれている。
【0134】
残差復号部144は、残差補償情報I5を用いて残差復号を行い残差補償画像I4を生成する。以下、残差復号部144について詳細に説明する。図23は、残差復号部144の構成を示す図である。図23に示すように、残差復号部144は、逆量子化部(逆量子化手段)144aと、逆変換部(逆変換手段)144bとを有する。
【0135】
逆量子化部144aは、残差補償情報I5に含まれている量子化補償係数I14に逆量子化操作を施すことによって、逆量子化補償係数I15を生成する。
【0136】
逆変換部144bは、復号予測残差画像記憶部148に記憶された参照復号予測残差画像I17のうち、残差補償情報I5に含まれている基底情報I12から部分画像(基底)を特定する。逆変換部144bは、特定した部分画像と、逆量子化部144aによって生成された逆量子化補償係数I15とを用いて変換部62aによる変換処理の逆操作である逆変換処理を行い、残差補償画像I4を生成する。
【0137】
図22を参照すると、加算部146は、復号部142によって復号された量子化変換係数I7が更に逆量子化変換部104によって逆量子化及び逆変換されてなる復号補償残差画像I8と残差復号部144によって生成された残差補償画像I4とを加算することによって、復号予測残差画像I9を生成する。加算部146は、復号予測残差画像I9を復号画像生成部112に出力すると共に、復号予測残差画像I9を復号予測残差画像記憶部148に参照復号予測残差画像I17として記憶させる。復号予測残差画像記憶部148は、記憶した参照復号予測残差画像I17を残差復号のために残差復号部144に提供する。
【0138】
次に、動画像復号装置140の動作について説明し、併せて第5実施形態にかかる動画像復号方法について説明する。図24は、第5実施形態の動画像復号方法のフローチャートである。また、図25は、第5実施形態の動画像復号方法の残差復号に関する処理を示すフローチャートである。
【0139】
図24に示すように、第5実施形態の動画像復号方法においては、まず、動画像符号化装置60によって生成された圧縮データI16から、復号部142によって量子化変換係数I7と残差補償情報I5と動き情報I2が復号される(ステップS71)。
【0140】
次に、逆量子化変換部104が、量子化変換係数I7に逆量子化操作を施すことによって逆量子化変換係数を生成する。逆量子化変換部104は、生成した逆量子化変換係数に、所定の第2の逆変換規則による逆変換を施すことによって、復号補償残差画像I8を復元する(ステップS72)。
【0141】
次に、残差復号部144が、復号部142によって復号された残差補償情報I5を用いて、残差復号を行い、残差補償画像I4を生成する(ステップS73)。図25に示すように残差復号部144では、逆量子化部144aが量子化補償係数I14を逆量子化することによって逆量子化補償係数I15を生成する(ステップS74)。
【0142】
次に、逆変換部144bが、逆量子化補償係数I15、残差補償情報I5に含まれる基底情報I12、及び復号予測残差画像記憶部148によって提供される参照復号予測残差画像I17を用いて、変換部62aによる変換処理の逆操作である逆変換処理を行い、残差補償画像I4を生成する(ステップS75)。
【0143】
図24を参照すると、次に、加算部146が復号補償残差画像I8と残差補償画像I4とを加算することによって復号予測残差画像I9を生成する(ステップS76)。
【0144】
次に、復号予測残差画像記憶部148が、加算部146によって生成された復号予測残差画像I9を参照復号予測残差画像I17として記憶する(ステップS77)。復号予測残差画像記憶部148は、記憶した参照復号予測残差画像I17を残差復号のために残差復号部144に提供する。
【0145】
次に、動き補償予測部110が、復号部102によって出力された動き情報I2を用いて、参照画像記憶部114に記憶された参照画像I11に対する動き補償予測を行うことによって復号画像I10の予測画像I1を生成する(ステップS78)。
【0146】
次に、復号画像生成部112が、予測画像I1と復号予測残差画像I9とを加算することによって、復号画像I10を生成する(ステップS79)。復号画像生成部112は、復号画像I10を参照画像記憶部114へ出力し、復号画像I10を参照画像記憶部114に記憶させる(ステップS80)。参照画像記憶部114は、記憶した復号画像I10を、動き補償予測のために動き補償予測部110に参照画像I11として提供する。
【0147】
以下、コンピュータを動画像復号装置140として動作させる動画像復号プログラム150について説明する。図26は、動画像復号プログラム150の構成を示す図である。動画像復号プログラム150は、処理を統括するメインモジュール151と、復号モジュール152と、逆量子化変換モジュール124と、残差復号モジュール154と、加算モジュール156と、復号予測残差画像記憶モジュール158と、動き補償予測モジュール130と、復号画像生成モジュール132と、参照画像記憶モジュール134とを備える。残差復号モジュール154は、逆量子化サブモジュール154aと、逆変換サブモジュール154bとを有している。
【0148】
復号モジュール152、逆量子化変換モジュール124、残差復号モジュール154、加算モジュール156、復号予測残差画像記憶モジュール158、動き補償予測モジュール130、復号画像生成モジュール132、参照画像記憶モジュール134、逆量子化サブモジュール154a、逆変換サブモジュール154bがコンピュータに実現させる機能は、復号部142、逆量子化変換部104、残差復号部144、加算部146、復号予測残差画像記憶部148、動き補償予測部110、復号画像生成部112、参照画像記憶部114、逆量子化部144a、逆変換部144bとそれぞれ同様である。
【0149】
以上のように、動画像復号装置140は、残差復号における逆変換で用いられる基底として復号予測残差画像記憶部148に記憶された参照復号予測残差画像I17の部分画像を用いるよう構成されているので、動画像符号化装置60が動画像から圧縮データを生成する処理の逆処理を忠実に行うことができる。したがって、動画像復号装置140は、動画像符号化装置60によって生成された圧縮データから上記の動画像を復元することができる。
【0150】
本発明の第6実施形態にかかる動画像復号装置170について説明する。動画像復号装置170は、第3実施形態の動画像符号化装置80によって生成される圧縮データI16から動画像を復元する装置である。動画像復号装置170では、基底セットを記憶するための基底記憶部(基底記憶手段)174cと、参照復号予測残差画像I17を記憶するための復号予測残差画像記憶部(復号予測残差画像記憶手段)148とを備え、残差補償における変換で用いられる基底として基底記憶部174cに記憶された基底セット、又は、復号予測残差画像記憶部148に記憶された参照復号予測残差画像I17の部分画像を用いることを特徴とする。
【0151】
以下、動画像復号装置170の機能的な構成について説明する。図27は、動画像復号装置170の機能的な構成を示す図である。動画像復号装置170は、機能的には、復号部(復号手段)172と、逆量子化変換部(逆量子化変換手段)104と、残差復号部(残差復号手段)174と、加算部(加算手段)146と、動き補償予測部(動き補償予測手段)110と、復号画像生成部(復号画像生成手段)112と、参照画像記憶部(参照画像記憶手段)114と、復号予測残差画像記憶部(復号予測残差画像記憶手段)148とを備える。以下、第4実施形態の動画像復号装置100又は第5実施形態の動画像復号装置140と異なる要素について説明する。
【0152】
復号部172は、動画像符号化装置80によって生成された圧縮データI16を復号し、量子化変換係数I7と、残差補償情報I5と、動き情報I2とを出力する。この残差補償情報I5には、基底記憶部174cに記憶された基底セットを用いて残差補償画像I4を復元するための基底情報I12、又は、復号予測残差画像記憶部148に記憶される参照復号予測残差画像I17の部分画像を用いて残差補償画像I4を復元するための基底情報I12と、量子化補償係数I14が含まれている。
【0153】
残差復号部174は、残差補償情報I5を用いて残差復号を行い残差補償画像I4を生成する。以下、残差復号部174について詳細に説明する。図28は、残差復号部174の構成を示す図である。図28に示すように、残差復号部174は、逆量子化部(逆量子化手段)174aと、逆変換部(逆変換手段)174bと、基底記憶部(基底記憶手段)174cとを有する。
【0154】
逆量子化部174aは、残差補償情報I5に含まれている量子化補償係数I14に逆量子化操作を施すことによって、逆量子化補償係数I15を生成する。
【0155】
逆変換部174bは、基底記憶部174cに記憶された基底セットのうち、残差補償情報I5に含まれている基底情報I12から基底を特定する。また、逆変換部174bは、復号予測残差画像記憶部148に記憶された参照復号予測残差画像I17のうち、残差補償情報I5に含まれている基底情報I12から部分画像を基底として特定する。逆変換部174bは、特定した基底と、逆量子化部144aによって生成された逆量子化補償係数I15とを用いて変換部82aによる変換処理の逆操作である逆変換処理を行い、残差補償画像I4を生成する。
【0156】
以下、動画像復号装置170の動作について説明し、併せて第6実施形態にかかる動画像復号方法について説明する。図29は、第6実施形態の動画像復号方法のフローチャートである。また、図30は、第6実施形態の動画像復号方法の残差復号に関する処理を示すフローチャートである。
【0157】
図29に示すように、第6実施形態の動画像復号方法においては、まず、動画像符号化装置80によって生成された圧縮データI16から、復号部172によって量子化変換係数I7と残差補償情報I5と動き情報I2が復号される(ステップS91)。
【0158】
次に、逆量子化変換部104が、量子化変換係数I7に逆量子化操作を施すことによって逆量子化変換係数を生成する。逆量子化変換部104は、生成した逆量子化変換係数に、所定の第2の逆変換規則による逆変換を施すことによって、復号補償残差画像I8を復元する(ステップS92)。
【0159】
次に、残差復号部174が、復号部172によって復号された残差補償情報I5を用いて、残差復号を行い、残差補償画像I4を生成する(ステップS73)。図30に示すように残差復号部174では、逆量子化部174aが量子化補償係数I14を逆量子化することによって逆量子化補償係数I15を生成する(ステップS94)。
【0160】
次に、逆変換部174bが、逆量子化補償係数I15、残差補償情報I5に含まれる基底情報I12、基底記憶部174cに記憶された基底セット、及び復号予測残差画像記憶部148によって提供される参照復号予測残差画像I17を用いて、変換部82aによる変換処理の逆操作である逆変換処理を行い、残差補償画像I4を生成する(ステップS95)。
【0161】
図29を参照すると、次に、加算部146が復号補償残差画像I8と残差補償画像I4とを加算することによって復号予測残差画像I9を生成する(ステップS96)。
【0162】
次に、復号予測残差画像記憶部148が、加算部146によって生成された復号予測残差画像I9を参照復号予測残差画像I17として記憶する(ステップS97)。復号予測残差画像記憶部148は、記憶した参照復号予測残差画像I17を残差復号のために残差復号部174に提供する。
【0163】
次に、動き補償予測部110が、復号部172によって出力された動き情報I2を用いて、参照画像記憶部114に記憶された参照画像I11に対する動き補償予測を行うことによって復号画像I10の予測画像I1を生成する(ステップS98)。
【0164】
次に、復号画像生成部112が、予測画像I1と復号予測残差画像I9とを加算することによって、復号画像I10を生成する(ステップS99)。復号画像生成部112は、復号画像I10を参照画像記憶部114へ出力し、復号画像I10を参照画像記憶部114に記憶させる(ステップS100)。参照画像記憶部114は、記憶した復号画像I10を、動き補償予測のために動き補償予測部110に参照画像I11として提供する。
【0165】
以下、コンピュータを動画像復号装置170として動作させる動画像復号プログラム180について説明する。図31は、動画像復号プログラム180の構成を示す図である。動画像復号プログラム180は、処理を統括するメインモジュール181と、復号モジュール182と、逆量子化変換モジュール124と、残差復号モジュール184と、加算モジュール156と、復号予測残差画像記憶モジュール158と、動き補償予測モジュール130と、復号画像生成モジュール132と、参照画像記憶モジュール134とを備える。残差復号モジュール184は、逆量子化サブモジュール154aと、逆変換サブモジュール154b、基底記憶サブモジュール184cとを有している。
【0166】
復号モジュール182、逆量子化変換モジュール124、残差復号モジュール184、加算モジュール156、復号予測残差画像記憶モジュール158、動き補償予測モジュール130、復号画像生成モジュール132、参照画像記憶モジュール134、逆量子化サブモジュール184a、逆変換サブモジュール184b、基底記憶サブモジュール184cがコンピュータに実現させる機能は、復号部172、逆量子化変換部104、残差復号部174、加算部146、復号予測残差画像記憶部148、動き補償予測部110、復号画像生成部112、参照画像記憶部114、逆量子化部174a、逆変換部174b、基底記憶部174cとそれぞれ同様である。
【0167】
以上のように、動画像復号装置170は、残差復号における逆変換で用いられる基底として、基底記憶部174cに記憶された基底セット、及び、復号予測残差画像記憶部148に記憶された参照復号予測残差画像I17の部分画像を用いるよう構成されているので、動画像符号化装置80が動画像から圧縮データを生成する処理の逆処理を忠実に行うことができる。したがって、動画像復号装置170は、動画像符号化装置80によって生成された圧縮データから上記の動画像を復元することができる。
【0168】
【発明の効果】
以上説明したように本発明によれば、予測残差画像と補償残差画像とをそれぞれ効率よく分解することができるので、効率の良い符号化が実現可能な動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムが提供される。また、かかる動画像符号化装置によって生成された圧縮データから動画像を忠実に復元可能な動画像復号装置、動画像復号方法、及び動画像復号プログラムが提供される。
【図面の簡単な説明】
【図1】図1は、本発明の第1実施形態にかかる動画像符号化装置の機能的な構成を示す図である。
【図2】図2は、第1実施形態の残差補償部の構成を示す図である。
【図3】図3は、本発明の第1実施形態にかかる動画像符号化方法のフローチャートである。
【図4】図4は、第1実施形態の動画像符号化方法における残差補償に関する処理のフローチャートである。
【図5】図5は、本発明の第1実施形態にかかる動画像符号化プログラムの構成を示す図である。
【図6】図6は、本発明の第2実施形態にかかる動画像符号化装置の機能的な構成を示す図である。
【図7】図7は、第2実施形態の残差補償部の構成を示す図である。
【図8】図8は、第2実施形態の変換部aによる変換処理を説明するための図である。
【図9】図9は、本発明の第2実施形態にかかる動画像符号化方法のフローチャートである。
【図10】図10は、第2実施形態の動画像符号化方法における残差補償に関する処理のフローチャートである。
【図11】図11は、本発明の第2実施形態にかかる動画像符号化プログラムの構成を示す図である。
【図12】図12は、本発明の第3実施形態にかかる動画像符号化装置の機能的な構成を示す図である。
【図13】図13は、第3実施形態の残差補償部の構成を示す図である。
【図14】図14は、本発明の第3実施形態にかかる動画像符号化方法のフローチャートである。
【図15】図15は、第3実施形態の動画像符号化方法における残差補償に関する処理のフローチャートである。
【図16】図16は、本発明の第3実施形態にかかる動画像符号化プログラムの構成を示す図である。
【図17】図17は、本発明の第4実施形態にかかる動画像復号装置の機能的な構成を示す図である。
【図18】図18は、第4実施形態にかかる残差復号部の構成を示す図である。
【図19】図19は、本発明の第4実施形態の動画像復号方法のフローチャートである。
【図20】図20は、第4実施形態の動画像復号方法の残差復号に関する処理を示すフローチャートである。
【図21】図21は、本発明の第4実施形態にかかる動画像復号プログラムの構成を示す図である。
【図22】図22は、本発明の第5実施形態にかかる動画像復号装置の機能的な構成を示す図である。
【図23】図23は、第5実施形態にかかる残差復号部の構成を示す図である。
【図24】図24は、本発明の第5実施形態の動画像復号方法のフローチャートである。
【図25】図25は、第5実施形態の動画像復号方法の残差復号に関する処理を示すフローチャートである。
【図26】図26は、本発明の第5実施形態にかかる動画像復号プログラムの構成を示す図である。
【図27】図27は、本発明の第6実施形態にかかる動画像復号装置の機能的な構成を示す図である。
【図28】図28は、第6実施形態にかかる残差復号部の構成を示す図である。
【図29】図29は、本発明の第6実施形態の動画像復号方法のフローチャートである。
【図30】図30は、第6実施形態の動画像復号方法の残差復号に関する処理を示すフローチャートである。
【図31】図31は、本発明の第6実施形態にかかる動画像復号プログラムの構成を示す図である。
【符号の説明】
1,60,80…動画像符号化装置、2…動き補償予測部、4…動き残差生成部、6,62,82…残差補償部、6a,62a,82a…変換部、6b,82b…基底記憶部、6c,62b,82c…量子化部、6d,62c,82d…逆量子化部、6e,62d,82e…逆変換部、8…減算部、10…量子化変換部、12,64,84…符号化部、14…逆量子化変換部、16,66…加算部、18…復号画像生成部、20…参照画像記憶部、68…復号予測残差画像記憶部、100,140,170…動画像復号装置、102,142,172…復号部、104…逆量子化変換部、106,144,174…残差復号部、106a,144a,174a…逆量子化部、106b,144b,174b…逆変換部、106c,174c…基底記憶部、108,146…加算部、110…動き補償予測部、112…復号画像生成部、114…参照画像記憶部、148…復号予測残差画像記憶部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video encoding device, a video encoding method, a video encoding program, a video decoding device, a video decoding method, and a video decoding program.
[0002]
[Prior art]
In a moving image encoding apparatus, generally, an encoding target image is divided into a plurality of blocks of a predetermined size, and a motion vector is detected by performing motion compensation prediction between each block and a reference image in a predetermined region of a reference frame. Thus, a predicted image of the encoding target image is generated. In such a moving image encoding apparatus, the redundancy existing in the time direction is reduced by expressing the encoding target image by the motion vector from the reference image. In addition, a prediction residual image that is a difference between an encoding target image and a prediction image is subjected to DCT (Discrete Cosine Transform) conversion and expressed as a DCT coefficient, thereby reducing the redundancy existing in the spatial direction.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 7-264592
[0004]
[Problems to be solved by the invention]
However, since the prediction residual image takes a difference after performing motion compensation prediction between a reference image that is an encoded image and an encoding target image that is an image before encoding, a biased distribution is generated. It is known that this is an image signal. The above-described conventional moving image encoding apparatus performs efficient encoding using DCT for an image signal having such a feature without using the feature. There was a problem that I could not.
[0005]
The present invention was made to solve the above problems, and provides a moving image encoding apparatus, a moving image encoding method, and a moving image encoding program capable of realizing efficient encoding of moving images. Another object of the present invention is to provide a moving picture decoding apparatus, a moving picture decoding method, and a moving picture decoding program for decoding a moving picture encoded by the moving picture encoding apparatus.
[0006]
[Means for Solving the Problems]
  In order to solve the above problems, a moving image encoding apparatus according to the present invention includes a motion compensation prediction unit that generates a prediction image and motion information by performing motion compensation prediction of an encoding target image based on a reference image, and the code A residual image generating means for generating a prediction residual image based on a difference calculation between the target image and the prediction image, and generating residual compensation information from the prediction residual image based on a predetermined first conversion rule And a residual compensation means for generating a residual compensation image based on the residual compensation information, and a subtraction means for generating a compensation residual image based on a difference calculation between the residual compensation image and the predicted residual image. Generating a transform coefficient obtained by transforming the compensation residual image based on a predetermined second transform rule, and quantizing the transform coefficient to generate a quantized transform coefficient; and Quantize transform coefficient inverse quantum By generating an inverse quantization transform coefficient and performing an inverse transform using the inverse quantization transform coefficient based on a predetermined second inverse transform rule that is an inverse transform of the predetermined second transform rule. An inverse quantization transform unit that generates a decoded compensation residual image; an adding unit that generates a decoded prediction residual image by adding the decoded compensation residual image and the residual compensation image; and the decoded prediction residual A decoded image generating means for generating a decoded image by adding an image and the predicted image; and the reference for providing the decoded image generated by the decoded image generating means for motion compensated prediction by the motion compensated predictor Reference image storage means for storing as an image, and an encoding method for generating compressed data including encoded data obtained by encoding the motion information, the residual compensation information, and the quantized transform coefficient The residual compensation means is based on the predetermined first conversion rule and uses a plurality of two-dimensional bases to specify the base information for specifying the two-dimensional base and the base information. The prediction residual image is converted into a compensation coefficient attached to a two-dimensional basis, a conversion means for including the base information in the residual compensation information, and a quantization compensation coefficient is generated by quantizing the compensation coefficient A quantization means for including the quantization compensation coefficient in the residual compensation information; an inverse quantization means for generating an inverse quantization compensation coefficient by inverse quantization of the quantization compensation coefficient; Inverse transform means for generating the residual compensation image by performing inverse transform using the inverse quantization compensation coefficient based on a predetermined first inverse transform rule that is an inverse transform of one transform rule. It is characterized by.Furthermore, the moving picture encoding apparatus of the present invention further includes a decoded prediction residual image storage unit that stores the decoded prediction residual image as a reference decoded prediction residual image, and the conversion unit includes the decoded prediction residual image. The prediction residual image is transformed using the partial image of the reference decoded prediction residual image stored in the storage means as the two-dimensional basis, and the inverse transformation means is the two-dimensional basis used by the transformation means. It is characterized by performing inverse transformation using.
[0007]
  In addition, in order to solve the above-described problem, the moving image encoding method of the present invention includes a motion compensation prediction unit that generates a predicted image and motion information by performing motion compensated prediction of an encoding target image based on a reference image. A compensation prediction step, a residual image generation means for generating a prediction residual image based on a difference calculation between the encoding target image and the prediction image, and a residual compensation means A residual compensation step for generating residual compensation information from the prediction residual image based on the conversion rule of 1 and generating a residual compensation image based on the residual compensation information; A subtraction step for generating a compensation residual image based on a difference calculation between the compensation image and the prediction residual image, and a quantization transform unit transforms the compensation residual image based on a predetermined second transformation rule. Generate a conversion factor A quantizing transform step for generating a quantized transform coefficient by quantizing the transform coefficient; and an inverse quantization transform means for generating an inverse quantized transform coefficient by dequantizing the quantized transform coefficient. Inverse quantization for generating a decoded compensated residual image by performing inverse transform using the inverse quantization transform coefficient based on a predetermined second inverse transform rule that is an inverse transform of the predetermined second transform rule A conversion step; an addition step in which the addition means generates a decoded prediction residual image by adding the decoded compensation residual image and the residual compensation image; and a decoded image generation means includes the decoded prediction residual image. And a decoded image generation step for generating a decoded image by adding the predicted image and the reference image storage means, and the reference image storage means converts the decoded image generated by the decoded image generation means into the motion compensated prediction. A reference image storage step for storing the reference image to be provided for motion compensation prediction by the means; and encoded data obtained by encoding the motion information, the residual compensation information, and the quantized transform coefficient. An encoding step for generating compressed data including the step, wherein the residual compensation step specifies the two-dimensional basis using a plurality of two-dimensional bases based on the predetermined first transformation rule. A transform step of transforming the prediction residual image into a base information for performing the processing and a compensation coefficient attached to a two-dimensional base specified by the base information, and including the base information in the residual compensation information; Means for quantizing the compensation coefficient to generate a quantization compensation coefficient, and including the quantization compensation coefficient in the residual compensation information; and an inverse quantization means comprising the quantization compensation coefficient An inverse quantization step for generating an inverse quantization compensation coefficient by inverse quantization, and an inverse transform means based on a predetermined first inverse transform rule that is an inverse transform of the predetermined first transform rule, And an inverse transform step of generating the residual compensation image by performing inverse transform using the inverse quantization compensation coefficient.Furthermore, in the moving picture encoding method of the present invention, the decoded prediction residual image storage unit further includes a step of storing the decoded prediction residual image as a reference decoded prediction residual image, and in the conversion step, the conversion unit Transforms the prediction residual image using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage means as the two-dimensional basis, and the inverse transformation step includes the inverse transformation. The means is characterized by performing inverse transformation using the two-dimensional basis used by the transformation means.
[0008]
  In order to solve the above-described problem, the moving image encoding program of the present invention is a motion compensated prediction that generates a predicted image and motion information by causing a computer to perform motion compensated prediction of an encoding target image based on a reference image. Means, a residual image generating means for generating a prediction residual image based on a difference calculation between the encoding target image and the prediction image, and a residual from the prediction residual image based on a predetermined first conversion rule. Generating compensation information and generating a residual compensation image based on the residual compensation information; and calculating a compensation residual image based on a difference calculation between the residual compensation image and the prediction residual image. Subtracting means for generating, and a quantization coefficient for generating a quantized transform coefficient by generating a transform coefficient obtained by transforming the compensation residual image based on a predetermined second transform rule and quantizing the transform coefficient Conversion means and An inverse quantized transform coefficient is generated by dequantizing the quantized transform coefficient, and the inverse quantized transform coefficient is based on a predetermined second inverse transform rule that is an inverse transform of the predetermined second transform rule. An inverse quantization transforming means for generating a decoding compensated residual image by performing inverse transform using, and a decoded prediction residual image is generated by adding the decoded compensation residual image and the residual compensated image Addition means, decoded image generation means for generating a decoded image by adding the decoded prediction residual image and the prediction image, and the decoded image generated by the decoded image generation means as the motion compensation prediction means Reference image storage means for storing as the reference image to be provided for motion compensated prediction, and encoded data obtained by encoding the motion information, the residual compensation information, and the quantized transform coefficient The residual compensation means for specifying the two-dimensional basis using a plurality of two-dimensional bases based on the predetermined first conversion rule. Converting the prediction residual image into base information and a compensation coefficient attached to a two-dimensional base specified by the base information, converting the prediction information into the residual compensation information, and converting the compensation coefficient into a quantum A quantization compensation coefficient by generating the quantization compensation coefficient, the quantization means including the quantization compensation coefficient in the residual compensation information, and an inverse quantization compensation coefficient by dequantizing the quantization compensation coefficient The residual compensation image is obtained by performing inverse transformation using the inverse quantization compensation coefficient based on inverse quantization means and a predetermined first inverse transformation rule that is an inverse transformation of the predetermined first transformation rule. Inverse conversion means to generate It is characterized by doing.Furthermore, the moving image encoding program of the present invention causes the computer to further function as a decoded prediction residual image storage unit that stores the decoded prediction residual image as a reference decoded prediction residual image. The prediction residual image is converted using the partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage unit as the two-dimensional basis, and the inverse conversion unit is used by the conversion unit. Further, it is characterized by performing inverse transformation using the above two-dimensional basis.
[0009]
  According to these inventions, the prediction residual image is decomposed into residual compensation information including a compensation coefficient and base information for specifying the two-dimensional base by a predetermined first transformation rule using a two-dimensional base. Therefore, it is possible to represent a prediction residual image by a smaller number of information compared to orthogonal transformation such as DCT. Further, the compensation residual image based on the difference between the prediction residual image and the residual compensation image restored from the residual compensation information is an image from which the above-described biased distribution in the image signal is removed. Therefore, it is efficiently decomposed by a predetermined second conversion rule such as DCT.In addition, since the prediction residual image is decomposed using the partial image of the decoded prediction residual image as the two-dimensional basis, more effective residual compensation using the similarity of the prediction residual image is realized.
[0010]
In the moving picture coding apparatus of the present invention, the residual compensation means further includes a base storage means for storing a two-dimensional base provided to the conversion means, and the conversion means is stored in the base storage means. The prediction residual image may be transformed using a stored two-dimensional basis, and the inverse transformation unit may perform the inverse transformation using a two-dimensional basis stored in the basis storage unit.
[0011]
According to this invention, since the partial image of the decoded prediction residual image and the two-dimensional basis stored in the basis storage means can be used as the two-dimensional basis, for example, a sudden change occurs between frames. Even in this case, the prediction residual image is efficiently decomposed.
[0013]
  In order to solve the above problem, the video decoding device of the present invention includes motion information for generating a predicted image for a decoded image, and a quantization compensation coefficient for restoring a residual compensation image for the predicted image. Including encoded data obtained by encoding residual compensation information including base information and quantized transform coefficients for restoring a compensated residual image based on a difference between the predicted image and the residual compensated image Decoding means for generating the motion information, the residual compensation information, and the quantized transform coefficient by decoding compressed data, and an inverse based on a predetermined first inverse transform rule using the residual compensation information Residual decoding means for generating the residual compensated image by performing transformation, and generating an inverse quantized transform coefficient by dequantizing the quantized transform coefficient, and using the inverse quantized transform coefficient Second reverse of Inverse quantization conversion means for generating a decoded compensation residual image by performing an inverse transformation based on a conversion rule, and generating a decoded prediction residual image based on the addition of the residual compensation image and the decoded compensation residual image An addition unit, a motion compensation prediction unit that generates the prediction image by performing motion compensation prediction using the reference image and the motion information, and a decoded image based on the addition of the decoded prediction residual image and the prediction image A decoded image generating means for generating, and a reference image storage means for storing the decoded image generated by the decoded image generating means as the reference image provided for the motion compensation prediction by the motion compensated prediction means, Residual decoding means includes inverse quantization means for generating an inverse quantization compensation coefficient by inversely quantizing the quantization compensation coefficient included in the residual compensation information; Using the two-dimensional basis specified by the basis information included in the residual compensation information and the inverse quantization compensation coefficient inverse transform generated by the inverse quantization means. Inverse conversion means for generating the residual compensation image by performing inverse conversion based on one inverse conversion rule.Furthermore, the moving picture decoding apparatus of the present invention further includes a decoded prediction residual image storage unit that stores the decoded prediction residual image as a reference decoded prediction residual image, and the inverse transform unit includes the decoded prediction residual image. The inverse transform is performed using a partial image of the reference decoded prediction residual image stored in the storage means as the two-dimensional basis.

[0014]
  In order to solve the above-described problem, the moving picture decoding method according to the present invention includes a decoding unit that includes motion information for generating a predicted image for a decoded image and a quantum for restoring a residual compensation image for the predicted image. A code obtained by encoding residual compensation information including a quantization compensation coefficient and base information, and a quantized transform coefficient for restoring a compensation residual image based on a difference between the predicted image and the residual compensation image A decoding step for generating the motion information, the residual compensation information, and the quantized transform coefficient by decoding the compressed data including the quantized data, and a residual decoding means using the residual compensation information A residual decoding step for generating the residual compensated image by performing an inverse transformation based on the first inverse transformation rule, and an inverse quantization transforming unit inversely quantizes the quantized transform coefficient to perform inverse quantization. Conversion An inverse quantization transform step of generating a decoded compensation residual image by generating a number and performing an inverse transform based on a predetermined second inverse transform rule using the inverse quantized transform coefficient; An addition step of generating a decoded prediction residual image based on the addition of the residual compensation image and the decoded compensation residual image, and motion compensation prediction means performing motion compensation prediction using the reference image and the motion information A motion compensation prediction step for generating the predicted image, a decoded image generating unit for generating a decoded image based on the addition of the decoded prediction residual image and the predicted image, and a reference image storage unit, A reference image storage step of storing the decoded image generated by the decoded image generation means as the reference image to be provided to the motion compensation prediction by the motion compensation prediction means; The residual decoding step includes: an inverse quantization step in which an inverse quantization unit generates an inverse quantization compensation coefficient by inversely quantizing the quantization compensation coefficient included in the residual compensation information; The inverse transform means includes a two-dimensional basis specified by the basis information included in the residual compensation information among a plurality of two-dimensional bases, and the inverse quantization compensation coefficient inverse transform generated by the inverse quantization means; And an inverse transformation step of generating the residual compensation image by performing an inverse transformation based on the predetermined first inverse transformation rule.Furthermore, the moving picture decoding method of the present invention further comprises a step in which the decoded prediction residual image storage means stores the decoded prediction residual image as a reference decoded prediction residual image, and in the reverse conversion step, the reverse conversion is performed. The means performs the inverse transform using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage means as the two-dimensional basis.
[0015]
  In order to solve the above problem, the moving picture decoding program according to the present invention is a computer that performs motion information for generating a predicted image for a decoded image and quantization for restoring a residual compensation image for the predicted image. Coding in which residual compensation information including a compensation coefficient and base information and a quantized transform coefficient for restoring a compensation residual image based on a difference between the predicted image and the residual compensation image are encoded Decoding means for generating the motion information, the residual compensation information and the quantized transform coefficient by decoding compressed data including data; and a predetermined first inverse transform rule using the residual compensation information A residual decoding means for generating the residual compensated image by performing an inverse transform based on the method, and generating an inverse quantized transform coefficient by dequantizing the quantized transform coefficient, wherein the inverse quantized transform coefficient An inverse quantization transforming means for generating a decoded compensation residual image by performing an inverse transformation based on a predetermined second inverse transformation rule, and based on the addition of the residual compensation image and the decoded compensation residual image Addition means for generating a decoded prediction residual image, motion compensated prediction means for generating the prediction image by performing motion compensation prediction using a reference image and the motion information, the decoded prediction residual image, and the prediction image A decoded image generating means for generating a decoded image based on the addition of the above and a reference for storing the decoded image generated by the decoded image generating means as the reference image provided to the motion compensated prediction by the motion compensated predictor And the residual decoding means performs inverse quantization compensation by inversely quantizing the quantization compensation coefficient included in the residual compensation information. An inverse quantization means for generating a number, a two-dimensional basis specified by basis information included in the residual compensation information among a plurality of two-dimensional bases, and the inverse quantization compensation generated by the inverse quantization means Inverse transform means for generating the residual compensation image by performing inverse transform based on the predetermined first inverse transform rule using coefficient inverse transform.Furthermore, the moving picture decoding program of the present invention causes the computer to further function as a decoded prediction residual image storage unit that stores the decoded prediction residual image as a reference decoded prediction residual image, The inverse transformation is performed using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage means as the two-dimensional basis.
[0016]
  According to these inventions, the residual compensation image is restored based on the residual compensation information decoded from the compressed data, the decoded compensation residual image is restored based on the quantized transform coefficient decoded from the compressed data, A decoded prediction residual image is generated by adding the residual compensation image and the decoded compensation residual image. Also, a predicted image is generated based on motion information decoded from the compressed data, and a decoded image is generated by adding the predicted image and the decoded prediction residual image. Therefore, the moving image is faithfully restored from the compressed data generated by the above-described moving image encoding device.In addition, since the partial image of the decoded prediction residual image is used as a two-dimensional basis, the moving image is faithfully restored from the compressed data generated by the above-described moving image encoding device.
[0017]
In the video decoding device of the present invention, the residual decoding unit further includes a base storage unit that stores the plurality of two-dimensional bases, and the inverse transform unit is stored in the base storage unit. The inverse transformation may be performed using the two-dimensional basis.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.
[0021]
First, the moving image encoding device 1 according to the first embodiment of the present invention will be described. The moving image encoding device 1 is physically a computer including a CPU (Central Processing Unit), a storage device such as a memory, a storage device such as a hard disk, and the like. Here, the “computer” includes an information portable terminal such as a mobile communication terminal in addition to a normal computer such as a personal computer, and the idea of the present invention is widely applied to devices capable of information processing.
[0022]
FIG. 1 is a diagram illustrating a functional configuration of the moving image encoding apparatus 1. Functionally, the moving image encoding device 1 functionally includes a motion compensation prediction unit (motion compensation prediction unit) 2, a motion residual generation unit (motion compensation residual generation unit) 4, and a residual compensation unit (residual compensation). Means) 6, a subtracting section (subtracting means) 8, a quantizing conversion section (quantizing converting means) 10, an encoding section (encoding means) 12, and an inverse quantization converting section (inverse quantization converting means). 14, an adding unit (adding unit) 16, a decoded image generating unit (decoded image generating unit) 18, and a reference image storage unit (reference image storage unit) 20.
[0023]
The motion compensation prediction unit 2 performs motion compensation prediction using the reference image stored in the reference image storage unit 20 and performs encoding target image I.0Predicted image I1And predictive image I1Are output to the motion residual generation unit 4 and the decoded image generation unit 18. The motion compensation prediction unit 2 also provides motion information I necessary for reproducing the motion compensation prediction.2Is output to the encoding unit 12.
[0024]
More specifically, the motion compensated prediction unit 2 performs the encoding target image I.0Is divided into blocks of a predetermined size. The predetermined size is, for example, a plurality of types of blocks having different sizes and shapes such as 16 pixels × 16 lines, 16 pixels × 8 lines, 8 pixels × 16 lines, 8 pixels × 8 lines, and the like.0Can be divided.
[0025]
The motion compensation prediction unit 2 performs block matching on a prediction reference region of a predetermined region among the reference images stored in the reference image storage unit 20 for each of a plurality of blocks obtained by dividing the encoding target image, and A motion vector for the reference image of each block is detected.
[0026]
The motion compensation prediction unit 2 uses the motion vector described above to generate an encoding target image I from a reference image.0Predicted image I1Is generated. The motion compensated prediction unit 2 generates the generated predicted image I1Are output to the motion residual generation unit 4 and the decoded image generation unit 18. Also, the motion compensation prediction unit 2 uses the motion information I and information for specifying the detected motion vector and block shape as motion information I.2To the encoding unit 12.
[0027]
Note that the image of the predicted reference area generated from the reference image is not limited to an image composed of only integer pixels, and is an image provided with interpolation pixels that interpolate ½ and ¼ positions between integer pixels. May be. By providing the interpolation pixels in this way, it is possible to detect the motion vector with high resolution. The motion compensation prediction unit 2 applies overlap motion compensation that obtains a pixel value by weighting a pixel value obtained from a motion vector of a block of interest and a pixel value obtained using a motion vector of an adjacent block. Prediction image I1You may get.
[0028]
The motion residual generation unit 4 is a prediction image I generated by the motion compensation prediction unit 2.1And the encoding target image I0The difference between the predicted image I1And the encoding target image I0Prediction residual image I consisting of residuals withThreeIs generated. The motion residual generation unit 4 generates a prediction residual image I.ThreeIs output to the residual compensation unit 6 and the subtraction unit 8.
[0029]
The residual compensation unit 6 is a prediction residual image I output by the motion residual generation unit 4.ThreeResidual compensation image IFourIs generated. The residual compensation unit 6 generates the generated residual compensation image IFourIs output to the subtraction unit 8 and the addition unit 16. Further, the residual compensation unit 6 obtains information necessary for reproducing the residual compensation as residual compensation information I.FiveTo the encoding unit 12. Details of the residual compensation unit 6 will be described later.
[0030]
The subtracting unit 8 outputs a residual compensation image I output from the residual compensating unit 6.FourAnd the prediction residual image I output by the motion residual generation unit 4ThreeAnd the residual compensation image IFourAnd prediction residual image IThreeCompensation residual image I consisting of residuals with6Is generated. The subtraction unit 8 generates the generated compensation residual image I6Is output to the quantization conversion unit 10.
[0031]
The quantization transformation unit 10 outputs the compensation residual image I output from the subtraction unit 8.6Is converted into a set of coefficients using a predetermined second conversion rule. As this predetermined conversion rule, for example, DCT (Discrete Cosine Transform) can be used. When DCT is used, the compensation residual image I6Is converted to a set of DCT coefficients. The quantization transform unit 10 performs a quantization operation on the above-described coefficients to quantize the transform coefficient I.7Is generated. The quantization conversion unit 10 generates the generated quantization conversion coefficient I7Is output to the encoding unit 12 and the inverse quantization transform unit 14.
[0032]
The encoding unit 12 outputs the motion information I output by the motion compensation prediction unit 2.2Coded data obtained by encoding is generated. The encoding unit 12 also outputs residual compensation information I output from the residual compensation unit 6.FiveCoded data obtained by encoding is generated. Further, the encoding unit 12 outputs the quantized transform coefficient I output by the quantizing transform unit 10.7Coded data obtained by encoding is generated. The encoding unit 12 includes compressed data I including these encoded data.16Is generated. For this encoding process, for example, an entropy encoding process such as Huffman encoding or arithmetic encoding can be used.
[0033]
The inverse quantization transform unit 14 is a quantized transform coefficient I generated by the quantization transform unit 10.7Is inversely quantized to generate inverse quantization transform coefficients. The inverse quantization transform unit 14 performs the inverse transform process of the transform process used by the quantization transform unit 10 on the generated inverse quantization transform coefficient, thereby decoding the decoded compensation residual image I.8Is generated. The inverse quantization transform unit 14 generates the generated decoded compensation residual image I8Is output to the adder 16.
[0034]
The adding unit 16 outputs a residual compensated image I output from the residual compensating unit 6.FourAnd the decoded compensation residual image I output by the adder 168Is added to the decoded prediction residual image I.9Is generated. The adding unit 16 generates the generated decoded prediction residual image I.9Is output to the decoded image generation unit 18.
[0035]
The decoded image generation unit 18 outputs the predicted image I output by the motion compensation prediction unit 2.1And the decoded prediction residual image I output by the adder 169Is added to the decoded image ITenIs generated. The decoded image generation unit 18 generates a decoded image ITenIs output to the reference image storage unit 20. The reference image storage unit 20 includes a decoded image I output by the decoded image generation unit 18.TenReference image I11And the reference image I for processing by the motion compensation prediction unit 2 for the next frame.11I will provide a. Note that the decoded image generation unit 18 generates a decoded image I.TenAlternatively, an image to which the deblocking filter is applied may be output to the reference image storage unit 20.
[0036]
Hereinafter, the residual compensation unit 6 will be described in detail. FIG. 2 is a diagram illustrating a configuration of the residual compensation unit 6. The residual compensation unit 6 includes a conversion unit (conversion unit) 6a, a base storage unit (base storage unit) 6b, a quantization unit (quantization unit) 6c, and an inverse quantization unit (inverse quantization unit) 6d. And an inverse conversion unit (inverse conversion means) 6e.
[0037]
The conversion unit 6a performs prediction residual image IThreeIs subjected to a conversion process using a predetermined first conversion rule. As the predetermined first conversion rule, a Matching Pursuit method (hereinafter referred to as “MP method”) can be used. The MP method uses the prediction residual image IThreeIs an initial residual component, and the process of decomposing the residual component using the basis set is repeated according to the following equation (1).
[Expression 1]
Figure 0004344184
Here, in Expression (1), f is a prediction residual image, Rnf is a residual component after the nth iteration, and gknIs Rna base that maximizes the inner product value with f, and Rmf is a residual component after the m-th iteration.
[0038]
According to the MP method, a base that maximizes an inner product value with a residual component is selected from the base set, and a residual component is selected between the selected base and the maximum inner product value that is a coefficient for multiplying the base. Is disassembled.
[0039]
Here, it is known that a prediction residual image that is a prediction residual of motion compensation prediction is an image signal having a biased distribution. In the MP method, a pattern that tends to appear in a prediction residual image as a base in advance is stored as a two-dimensional base, and a base that has a smaller residual component from the stored two-dimensional base is used. Images can be decomposed sequentially. Therefore, a prediction residual image can be effectively expressed using a small number of bases compared to orthogonal transformation such as DCT.
[0040]
In the present embodiment, the base storage unit 6b stores a base set. The conversion unit 6a uses the basis set provided by the basis storage unit 6b and uses the basis information I for specifying the basis that maximizes the inner product value with the residual component.12For the basis information I12Is output to the inverse transform unit 6e. In addition, the basis information I12Is the residual compensation information IFiveIs output to the encoding unit 12 as a part of. The conversion unit 6a converts the above inner product value into the compensation coefficient I.13As compensation coefficient I13Is output to the quantizing unit 6c.
[0041]
The quantization unit 6c outputs the compensation coefficient I output from the conversion unit 6a.13By applying a quantization operation to the quantization compensation coefficient I14Is generated. The quantization unit 6c is configured to output a quantization compensation coefficient I14Is output to the inverse quantization unit 6d and the quantization compensation coefficient I14Residual compensation information IFiveIs output to the encoding unit 12 as a part of.
[0042]
The inverse quantization unit 6d performs quantization compensation coefficient I14Is inversely quantized, and the inverse quantization compensation coefficient I15Is generated. The inverse quantization unit 6d includes an inverse quantization compensation coefficient I15Is output to the inverse transform unit 6e. The inverse transform unit 6e is configured to output an inverse quantization compensation coefficient I15, Basis information I12, And the basis stored in the basis storage unit 6b, and performing the inverse transformation process of the above-described transformation process performed by the transformation unit 6a, the residual compensation image IFourIs generated. The inverse transform unit 6e performs the residual compensation image IFourIs output to the subtraction unit 8 and the addition unit 16.
[0043]
As described above, the encoding unit 12 outputs the motion information I output by the motion compensation prediction unit 2.2Encoded data obtained by encoding the quantization transform coefficient I output by the quantization transform unit 107And the residual compensation information I output by the residual compensation unit 6.FiveCoded data obtained by encoding is generated. The encoding unit 12 uses the compressed data I including these encoded data.16Is generated. For this encoding process, for example, an entropy encoding process such as Huffman encoding or arithmetic encoding can be used. The encoding unit 12 performs motion information I2And quantized transform coefficient I7For example, encoding can be performed by a method similar to the entropy encoding employed in the conventional moving image encoding scheme such as the MPEG-4 encoding scheme.
[0044]
Residual compensation information IFiveThe entropy coding will be described. As described above, residual compensation information IFiveIs the basis information I12And quantization compensation coefficient I14Is included. Basic information I12Is information for specifying one base from the base set, for example, 2cWhen the number of bases is stored in the base storage unit 6b, the base information I is represented by a c-bit fixed length code.12Can be encoded. Also, the quantization compensation coefficient I14Is a quantized scalar value multiplied by the base, for example, the range is 1 to 2dQuantization compensation coefficient I by a d-bit fixed length code14Can be encoded.
[0045]
Next, the operation of the video encoding device 1 will be described. In addition, the moving picture coding method according to the first embodiment of the present invention will be described. FIG. 3 is a flowchart of the moving picture coding method according to the first embodiment. FIG. 4 is a flowchart of processing relating to residual compensation in the moving picture coding method according to the first embodiment.
[0046]
As shown in FIG. 3, in the moving picture coding method according to the first embodiment, first, motion compensation prediction is performed by the motion compensation prediction unit 2 (step S01). In motion compensated prediction, the encoding target image I0Are divided into blocks of a predetermined size. Then, the motion compensation prediction unit 2 obtains a motion vector for the reference image for each block, and the encoding target image I0Predicted image I1Is generated. As the reference image, an image stored in the reference image storage unit 20 is used. The motion compensation prediction unit 2 also includes the motion information described above including information such as motion vectors.I2Is output to the encoding unit 12.
[0047]
Next, the predicted image I output by the motion compensation prediction unit 21And the encoding target image I0Is calculated by the motion residual generation unit 4 so that the prediction residual image IThreeIs generated (step S02).
[0048]
Next, residual compensation is performed by the residual compensation unit 6 (step S03). In the residual compensation, as shown in FIG. 4, the prediction residual image I is used by using the base stored in the base storage unit 6b by the conversion unit 6a.ThreeIs disassembled. Then, the prediction residual image I is converted by the conversion unit 6a.ThreeInformation I for identifying the basis used for decomposition of12And compensation coefficient I multiplied by the base13Is output (step S04).
[0049]
Next, the compensation coefficient I is obtained by the quantizing unit 6c.13Is quantized and the quantization compensation coefficient I14(Step S05). Basic information I12And quantization compensation coefficient I14Is residual compensation information IFiveIs output to the encoding unit 12.
[0050]
Next, a quantization compensation coefficient I is obtained by the inverse quantization unit 6d.14Are inversely quantized and the inverse quantization compensation coefficient I15(Step S06). Then, by the inverse transform unit 6e, the inverse quantization compensation coefficient I15, Basis information I12, And the base stored in the base storage unit 6b is used, and an inverse transform process, which is an inverse operation of the transform process by the transform unit 6a, is performed, whereby the residual compensation image IFourIs generated. (Step S07).
[0051]
Referring to FIG. 3, next, the residual compensation image I output by the residual compensation unit 6.FourAnd the prediction residual image I output by the motion residual generation unit 4ThreeIs calculated by the subtracting unit 8 so that the compensation residual image I6Is generated (step S08).
[0052]
Next, the quantized transform unit 10 performs compensation residual image I.6Is decomposed into a set of coefficients as described above, and a quantization transform coefficient I is obtained by performing a quantization operation on the coefficients included in the set.7Is output (step S09).
[0053]
Next, the quantization transform coefficient I is obtained by the inverse quantization transform unit 14.7By applying an inverse quantization operation to, an inverse quantization transform coefficient is generated. Then, the inverse quantized transform coefficient is subjected to an inverse transform process of the transform process executed by the quantizing transform unit 10, and the decoded compensation residual image I8Is generated (step S10).
[0054]
Next, the decoded compensation residual image I8And residual compensation image IFourAre added by the adder 16 and the decoded prediction residual image I9Is generated (step S11). Further, the decoded image generation unit 18 decodes the decoded prediction residual image I.9And predicted image I1Is added to the decoded image ITenIs generated (step S12). Decoded image ITenIs referred to by the reference image storage unit 20 as described above.11(Step S13) and is used by the motion compensation prediction unit 2 to generate a prediction image of the encoding target image. And movement information I2And residual compensation information IFiveAnd the quantized transform coefficient I7Are encoded by the encoding unit 12 so that the compressed data I16Is generated (step S14).
[0055]
Next, a moving picture coding program 30 that causes a computer to function as the moving picture coding apparatus 1 will be described. FIG. 5 is a diagram showing a configuration of the moving image encoding program 30. As shown in FIG. 5, the moving image encoding program 30 includes a main module 31 that supervises processing, a motion compensation prediction module 32, a motion residual generation module 34, a residual compensation module 36, a subtraction module 38, A quantization conversion module 40, an encoding module 42, an inverse quantization conversion module 44, an addition module 46, a decoded image generation module 48, and a reference image storage module 50 are provided. The residual compensation module 36 includes a transform submodule 36a, a base storage submodule 36b, a quantization submodule 36c, an inverse quantization submodule 36d, and an inverse transform submodule 36e.
[0056]
Motion compensation prediction module 32, motion residual generation module 34, residual compensation module 36, subtraction module 38, quantization conversion module 40, encoding module 42, inverse quantization conversion module 44, addition module 46, and decoded image generation module 48 , The reference image storage module 50, the transform submodule 36a, the base storage submodule 36b, the quantization submodule 36c, the inverse quantization submodule 36d, and the inverse transform submodule 36e have the functions realized by the computer, Motion residual generation unit 4, residual compensation unit 6, subtraction unit 8, quantization conversion unit 10, encoding unit 12, inverse quantization conversion unit 14, addition unit 16, decoded image generation unit 18, reference image storage unit 20 , Transformation unit 6a, base storage unit 6b, quantization unit 6c, inverse quantization unit 6d, inverse transformation unit 6e and the like It is the same.
[0057]
Hereinafter, the operation and effect of the video encoding device 1 according to the first embodiment will be described. In the moving image encoding device 1, the MP method is applied to a prediction residual image that is a difference between a prediction image generated by performing motion compensation prediction on an encoding target image and the encoding target image. Thus, a signal pattern that easily appears in the prediction residual image can be efficiently expressed with a small number of bases. For example, since the coefficients appear in all frequency bands in orthogonal transform such as DCT or wavelet transform like the image of the edge portion, it cannot be efficiently encoded. However, by storing the edge shape in the two-dimensional basis in advance, it is possible to express the prediction residual image using a small number of bases, and thus more efficient encoding is realized.
[0058]
Also, the compensation residual image, which is the difference between the residual compensation image and the prediction residual image, is an image from which a pattern that tends to appear in the prediction residual image is removed, and therefore can be efficiently expressed using DCT. . As described above, in the video encoding device 1 according to the first embodiment of the present invention, the prediction residual image and the residual compensation image can be decomposed by methods suitable for each. As a result, the encoding target image can be encoded more efficiently.
[0059]
In addition, although the conversion part 6a in this embodiment was comprised so that it might follow MP method as a predetermined | prescribed 1st conversion rule, as long as it follows the conversion rule which can decompose | disassemble a specific pattern more effectively than MP method. The effect of the idea of the present invention can be obtained. For example, a vector quantization method (hereinafter referred to as VQ method) can be applied to the predetermined first conversion rule in addition to the MP method.
[0060]
The VQ method repeats the process of using a prediction residual image as an initial residual component and decomposing the residual component using a basis set using the following equation (2).
[Expression 2]
Figure 0004344184
Here, in Expression (2), f is a prediction residual image, and Rmf is a residual component after the m-th iteration. Rmminimize the energy of f (coefficient an, Basis vkn) Is selected, and the residual component is decomposed into the selected basis and a coefficient for multiplying the basis. In the VQ method, by using a base set based on a pattern that tends to appear in a predicted residual image, the image is sequentially decomposed using a base in which the residual component is small from the base set. The prediction residual image can be decomposed more efficiently by the number.
[0061]
Next, a video encoding device 60 according to the second embodiment of the present invention will be described. The video encoding device 60 performs reference decoding prediction residual image I.17A decoded prediction residual image storage unit (decoded prediction residual image storage unit) 68 for storing the reference decoded prediction stored in the decoded prediction residual image storage unit 68 as a base used for conversion in residual compensation. Residual image I17The partial image is used. Hereinafter, the moving image encoding device 60 will be described in detail.
[0062]
A functional configuration of the moving image encoding device 60 will be described. FIG. 6 is a diagram illustrating a functional configuration of the moving image encoding device 60. Functionally, the moving image encoding device 60 includes a motion compensation prediction unit 2, a motion residual generation unit 4, a residual compensation unit (residual compensation means) 62, a subtraction unit 8, and a quantization conversion unit. 10, an encoding unit (encoding unit) 64, an inverse quantization conversion unit 14, an adding unit (adding unit) 66, a decoded image generation unit 18, a reference image storage unit 20, and a decoded prediction residual image And a storage unit (decoded prediction residual image storage means) 68. Hereinafter, elements different from the moving picture encoding apparatus 1 of the first embodiment will be described.
[0063]
The decoded prediction residual image storage unit 68 includes a decoded prediction residual image I output from the addition unit 66.9Reference decoded prediction residual image I17And stored reference decoded prediction residual image I17Is provided to the residual compensation unit 62.
[0064]
The residual compensation unit 62 is a prediction residual image I output by the motion residual generation unit 4.ThreeResidual compensation image IFourIs generated. Also, the residual compensation unit 62 obtains information necessary for reproducing the residual compensation as residual compensation information I.FiveTo the encoding unit 64.
[0065]
Hereinafter, the residual compensation unit 62 will be described in detail. FIG. 7 is a diagram illustrating a configuration of the residual compensation unit 62. The residual compensation unit 62 includes a conversion unit (conversion unit) 62a, a quantization unit (quantization unit) 62b, an inverse quantization unit (inverse quantization unit) 62c, and an inverse conversion unit (inverse conversion unit) 62d. have.
[0066]
The conversion unit 62a is similar to the conversion unit 6a of the first embodiment, and the prediction residual image IThreeIs subjected to a conversion process using a predetermined first conversion rule. The conversion unit 62a can apply the MP method or the VQ method as the predetermined first conversion rule. The conversion unit 6a of the first embodiment uses the base stored in the base storage unit 6b as the base used in the MP method or the VQ method.17Are used as the basis.
[0067]
FIG. 8 is a diagram for explaining the conversion processing by the conversion unit 62a. As illustrated in FIG. 8, the conversion unit 62a performs the prediction residual image I.ThreeAttention area R1In the image conversion process, the reference decoded prediction residual image I17Corresponding region R2And a region R in the vicinity thereofThreeThe partial image at is used as the basis. Of these partial images, the conversion unit 62a selects the attention area R.1By selecting a partial image that minimizes the residual energy for the image of1Is decomposed into bases. The conversion unit 62a uses information for specifying the base (partial image) used for the decomposition as the base information I.12Is output to the inverse conversion unit 62d. In addition, the conversion unit 62a receives the base information I.12, Residual compensation information IFiveIs output to the encoding unit 64 as a part of. In addition, the conversion unit 62a uses a coefficient to be multiplied by the base as a compensation coefficient I.13Is output to the quantization unit 62b.
[0068]
The quantization unit 62b outputs the compensation coefficient I output from the conversion unit 62a.13By applying a quantization operation to the quantization compensation coefficient I14Is generated. The quantization unit 62b generates a quantization compensation coefficient I14Is output to the inverse quantization unit 62c and the quantization compensation coefficient I14Residual compensation information IFiveIs output to the encoding unit 64 as a part of.
[0069]
The inverse quantization unit 62c performs quantization compensation coefficient I14Is inversely quantized, and the inverse quantization compensation coefficient I15Is generated. The inverse quantization unit 62c generates an inverse quantization compensation coefficient I15Is output to the inverse conversion unit 62d. The inverse transform unit 62d is configured to generate an inverse quantization compensation coefficient I15, Basis information I12, And reference decoded prediction residual image I17And performing the inverse transformation process of the above-described transformation process performed by the transformation unit 62a to obtain the residual compensation image IFourIs generated. The inverse transform unit 62d performs the residual compensation image IFourIs output to the subtracting unit 8 and the adding unit 66.
[0070]
The encoding unit 64 outputs the motion information I output by the motion compensation prediction unit 2.2And the quantized transform coefficient I output by the quantized transform unit 107And residual compensation information I output by the residual compensation unit 62FiveAre generated, and compressed data including the encoded data is output. Note that the compression processing by the encoding unit 64 is the same processing as the encoding unit 12 of the first embodiment.
[0071]
Hereinafter, the operation of the moving image encoding device 60 will be described, and the moving image encoding method according to the second embodiment of the present invention will also be described. FIG. 9 is a flowchart of the moving picture coding method according to the second embodiment. FIG. 10 is a flowchart of processing relating to residual compensation in the moving picture coding method according to the second embodiment.
[0072]
As shown in FIG. 9, in the moving picture coding method according to the second embodiment, first, motion compensation prediction is performed by the motion compensation prediction unit 2 (step S21). The process in step S21 is the same as the process in step S01 of the first embodiment.
[0073]
Next, the predicted image I output by the motion compensation prediction unit 21And the encoding target image I0Is calculated by the motion residual generation unit 4 so that the prediction residual image IThreeIs generated (step S22).
[0074]
Next, residual compensation is performed by the residual compensation unit 62 (step S23). In the residual compensation, as shown in FIG. 10, the prediction residual image I is converted by the conversion unit 62a.ThreeIs disassembled. Here, as described above, the conversion unit 62a performs the reference decoded prediction residual image I provided by the decoded prediction residual image storage unit 68.17Prediction residual image I using a partial image ofThreeDecompose. Then, the prediction residual image I is converted by the conversion unit 62a.ThreeInformation I for specifying the base (partial image) used in the decomposition of12And compensation coefficient I multiplied by the base13Is output (step S24).
[0075]
Next, the compensation coefficient I is obtained by the quantizing unit 62b.13Is quantized and the quantization compensation coefficient I14(Step S25). Basic information I12And quantization compensation coefficient I14Is residual compensation information IFiveIs output to the encoding unit 64.
[0076]
Next, a quantization compensation coefficient I is obtained by the inverse quantization unit 62c.14Are inversely quantized and the inverse quantization compensation coefficient I15(Step S26). Then, by the inverse transforming unit 62d, the inverse quantization compensation coefficient I15, Basis information I12, And reference decoded prediction residual image I17Is used, and an inverse transformation process, which is an inverse operation of the transformation process by the transformation unit 62a, is performed, whereby the residual compensation image IFourIs generated. (Step S27).
[0077]
Referring to FIG. 9, next, a residual compensation image I output by the residual compensation unit 6 is obtained.FourAnd the prediction residual image I output by the motion residual generation unit 4ThreeIs calculated by the subtracting unit 8 so that the compensation residual image I6Is generated (step S28).
[0078]
Next, the quantized transform unit 10 performs compensation residual image I.6Is decomposed into a set of coefficients as described above, and a quantization transform coefficient I is obtained by performing a quantization operation on the coefficients included in the set.7Is output (step S29).
[0079]
Next, the quantization transform coefficient I is obtained by the inverse quantization transform unit 14.7By applying an inverse quantization operation to, an inverse quantization transform coefficient is generated. Then, the inverse quantized transform coefficient is subjected to an inverse transform process of the transform process executed by the quantizing transform unit 10, and the decoded compensation residual image I8Is generated (step S30).
[0080]
Next, the decoded compensation residual image I8And residual compensation image IFourAre added by the adding unit 66 to obtain a decoded prediction residual image I.9Is generated (step S31). The decoded prediction residual image I9 is stored in the reference decoded prediction residual image I by the decoded prediction residual image storage unit 68.17And provided to the processing by the residual compensation unit 62 (step S32).
[0081]
Next, the decoded predicted image I is decoded by the decoded image generator 18.9And predicted image I1Is added to the decoded image ITenIs generated (step S33). Decoded image ITenIs referred to by the reference image storage unit 20 as described above.11(Step S34) and used by the motion compensated prediction unit 2 for generating a predicted image of the encoding target image. And movement information I2And residual compensation information IFiveAnd the quantized transform coefficient I7Are encoded by the encoding unit 64, so that the compressed data I16Is generated (step S35).
[0082]
Next, a video encoding program 70 that causes a computer to function as the video encoding device 60 will be described. FIG. 11 is a diagram showing a configuration of the moving image encoding program 70. As shown in FIG. 11, the moving image encoding program 70 includes a main module 31 that supervises processing, a motion compensation prediction module 32, a motion residual generation module 34, a residual compensation module 72, a subtraction module 38, The quantization transform module 40, the encoding module 74, the inverse quantization transform module 44, the addition module 76, the decoded prediction residual image storage module 78, the decoded image generation module 48, and the reference image storage module 50 Prepare. The residual compensation module 72 includes a transform submodule 72a, a quantization submodule 72b, an inverse quantization submodule 72c, and an inverse transform submodule 72d.
[0083]
Motion compensation prediction module 32, motion residual generation module 34, residual compensation module 72, subtraction module 38, quantization transform module 40, encoding module 74, inverse quantization transform module 44, addition module 76, decoded prediction residual image The functions that the storage module 78, the decoded image generation module 48, the reference image storage module 50, the transform submodule 72a, the quantization submodule 72b, the inverse quantization submodule 72c, and the inverse transform submodule 72d realize in the computer are motion compensated prediction. 2, motion residual generation unit 4, residual compensation unit 62, subtraction unit 8, quantization conversion unit 10, encoding unit 64, inverse quantization conversion unit 14, addition unit 66, decoded prediction residual image storage unit 68 , Decoded image generation unit 18, reference image storage unit 20, conversion unit 62a, quantization unit 62b, inverse quantization unit 2c, respectively similar to the inverse transform unit 62d.
[0084]
As described above, prediction is performed by using a partial image of the reference decoded prediction residual image (decoded prediction residual image) stored in the decoded prediction residual image storage unit 68 as a base to be used for conversion processing in residual compensation. Since more effective residual compensation using the similarity of residual images can be performed, efficient coding can be realized.
[0085]
Next, a video encoding device 80 according to the third embodiment of the present invention will be described. The moving image encoding apparatus 80 includes a base storage unit (base storage means) 82b for storing a base set, and a reference decoded prediction residual image I.17A decoded prediction residual image storage unit (decoded prediction residual image storage unit) 68, and a base set stored in the base storage unit 82b as a base used for conversion in residual compensation, or decoding Reference decoded prediction residual image I stored in the prediction residual image storage unit 6817The partial image is used.
[0086]
A functional configuration of the moving image encoding device 80 will be described. FIG. 12 is a diagram illustrating a functional configuration of the moving image encoding device 80. Functionally, the moving image encoding device 80 is functionally composed of a motion compensation prediction unit 2, a motion residual generation unit 4, a residual compensation unit (residual compensation means) 82, a subtraction unit 8, and a quantization conversion unit. 10, an encoding unit (encoding means) 84, an inverse quantization conversion unit 14, an addition unit 66, a decoded image generation unit 18, a reference image storage unit 20, and a decoded prediction residual image storage unit 68. Is provided. Hereinafter, elements that are different from the moving image encoding device 1 of the first embodiment or the moving image encoding device 60 of the second embodiment will be described.
[0087]
Residual compensation unit 82 predicts residual image IThreeResidual compensation image IFourIs generated. The residual compensation unit 82 generates the generated residual compensation image IFourIs output to the subtracting unit 8 and the adding unit 66. The residual compensation unit 82 also obtains information necessary for reproducing the residual compensation as residual compensation information I.FiveTo the encoding unit 84.
[0088]
Hereinafter, the residual compensation unit 82 will be described in detail. FIG. 13 is a diagram illustrating a configuration of the residual compensation unit 82. As shown in FIG. 13, the residual compensation unit 82 includes a conversion unit (conversion unit) 82a, a base storage unit (base storage unit) 82b, a quantization unit (quantization unit) 82c, and an inverse quantization unit ( (Inverse quantization means) 82d and an inverse transform unit (inverse transform means) 82e.
[0089]
The conversion unit 82a performs prediction residual image IThreeIs subjected to a conversion process using a predetermined first conversion rule. As the predetermined first conversion rule, the MP method or the VQ method can be used as in the first embodiment.
[0090]
In the present embodiment, the base storage unit 82b stores a base set including a plurality of two-dimensional bases. Similarly to the first embodiment, the conversion unit 82a uses the basis set provided by the basis storage unit 82b to predict the residual image I.Three, And the reference decoded prediction residual image I provided from the decoded prediction residual image storage unit 68 as in the second embodiment.17Prediction residual image I using partial image inThreeCan also be disassembled.
[0091]
The converting unit 82a is configured to store a reference set stored in the base storage unit 82b or a reference decoded prediction residual image I provided from the decoded prediction residual image storage unit 68.17Among the partial images in the middle, the one having the largest energy reduction amount is selected as a basis, and the prediction residual image IThreeDecompose. The conversion unit 82a converts the information used to specify the base used for the decomposition into the base information I.12Is output to the inverse conversion unit 62d. In addition, the conversion unit 82a generates the base information I12, Residual compensation information IFiveIs output to the encoding unit 84 as a part thereof. In addition, the conversion unit 62a uses a coefficient to be multiplied by the base as a compensation coefficient I.13Is output to the quantizing unit 82c.
[0092]
The quantization unit 82c outputs the compensation coefficient I output from the conversion unit 82a.13By applying a quantization operation to the quantization compensation coefficient I14Is generated. The quantization unit 82c generates a quantization compensation coefficient I14Is output to the inverse quantization unit 82d and the quantization compensation coefficient I14Residual compensation information IFiveIs output to the encoding unit 84 as a part thereof.
[0093]
The inverse quantization unit 82d generates a quantization compensation coefficient I14Is inversely quantized, and the inverse quantization compensation coefficient I15Is generated. The inverse quantization unit 82d generates an inverse quantization compensation coefficient I15Is output to the inverse conversion unit 82e. The inverse transform unit 82e generates a dequantization compensation coefficient I15, Basis information I12, The base set stored in the base storage unit 82b, and the reference decoded prediction residual image I17Is used to execute the inverse transformation process of the above-described transformation process performed by the transformation unit 82a.FourIs generated. The inverse transform unit 82e generates a residual compensation image I.FourIs output to the subtracting unit 8 and the adding unit 66.
[0094]
The encoding unit 64 outputs the motion information I output by the motion compensation prediction unit 2.2And the quantized transform coefficient I output by the quantized transform unit 107And residual compensation information I output by the residual compensation unit 62FiveAre generated, and compressed data including the encoded data is output. Note that the compression processing by the encoding unit 84 is the same processing as the encoding unit 12 of the first embodiment.
[0095]
Hereinafter, the operation of the moving image encoding apparatus 80 will be described, and a moving image encoding method according to the third embodiment of the present invention will be described. FIG. 14 is a flowchart of the moving picture coding method according to the third embodiment. FIG. 15 is a flowchart of processing relating to residual compensation in the moving picture coding method according to the third embodiment.
[0096]
As shown in FIG. 14, in the moving picture coding method according to the third embodiment, first, motion compensation prediction is performed by the motion compensation prediction unit 2 (step S41). The process in step S41 is the same as the process in step S01 of the first embodiment.
[0097]
Next, the predicted image I output by the motion compensation prediction unit 21And the encoding target image I0Is calculated by the motion residual generation unit 4 so that the prediction residual image IThreeIs generated (step S42).
[0098]
Next, residual compensation is performed by the residual compensation unit 82 (step S43). In the residual compensation, as shown in FIG. 15, a prediction residual image I is converted by the conversion unit 82a.ThreeIs disassembled. Here, as described above, the conversion unit 82a stores the storage set stored in the base storage unit 82b and the reference decoded prediction residual image I provided by the decoded prediction residual image storage unit 68.17Prediction residual image I using a partial image ofThreeDecompose. Then, the prediction residual image I is converted by the conversion unit 82a.ThreeInformation I for identifying the basis used for decomposition of12And compensation coefficient I multiplied by the base13Is output (step S44).
[0099]
Next, the compensation coefficient I is quantized by the quantizing unit 82c.13Is quantized and the quantization compensation coefficient I14(Step S45). Basic information I12And quantization compensation coefficient I14Is residual compensation information IFiveIs output to the encoding unit 64.
[0100]
Next, the quantization compensation coefficient I is obtained by the inverse quantization unit 82d.14Are inversely quantized and the inverse quantization compensation coefficient I15(Step S46). Then, by the inverse transform unit 82e, the inverse quantization compensation coefficient I15, Basis information I12, The base set stored in the base storage unit 82b, and the reference decoded prediction residual image I17Is used, and an inverse transformation process, which is an inverse operation of the transformation process by the transformation unit 62a, is performed, whereby the residual compensation image IFourIs generated. (Step S47).
[0101]
Referring to FIG. 14, next, the residual compensation image I output by the residual compensation unit 82.FourAnd the prediction residual image I output by the motion residual generation unit 4ThreeIs calculated by the subtracting unit 8 so that the compensation residual image I6Is generated (step S48).
[0102]
Next, the quantized transform unit 10 performs compensation residual image I.6Is decomposed into a set of coefficients as described above, and a quantization transform coefficient I is obtained by performing a quantization operation on the coefficients included in the set.7Is output (step S49).
[0103]
Next, the quantization transform coefficient I is obtained by the inverse quantization transform unit 14.7By applying an inverse quantization operation to, an inverse quantization transform coefficient is generated. Then, the inverse quantized transform coefficient is subjected to an inverse transform process of the transform process executed by the quantizing transform unit 10, and the decoded compensation residual image I8Is generated (step S50).
[0104]
Next, the decoded compensation residual image I8And residual compensation image IFourAre added by the adding unit 66 to obtain a decoded prediction residual image I.9Is generated (step S51). Decoded prediction residual image I9The reference prediction prediction residual image I is decoded by the decoding prediction residual image storage unit 68.17And provided to the processing by the residual compensation unit 82 (step S52).
[0105]
Next, the decoded predicted image I is decoded by the decoded image generator 18.9And predicted image I1Is added to the decoded image ITenIs generated (step S53). Decoded image ITenIs referred to by the reference image storage unit 20 as described above.11(Step S54) and is used by the motion compensated prediction unit 2 for generating a predicted image of the encoding target image. And movement information I2And residual compensation information IFiveAnd the quantized transform coefficient I7Are encoded by the encoding unit 84, so that the compressed data I16Is generated (step S55).
[0106]
Next, a video encoding program 90 that causes a computer to function as the video encoding device 80 will be described. FIG. 16 is a diagram showing a configuration of the moving image encoding program 90. As shown in FIG. 16, the moving image encoding program 90 includes a main module 31 that supervises processing, a motion compensation prediction module 32, a motion residual generation module 34, a residual compensation module 92, a subtraction module 38, The quantization transform module 40, the encoding module 94, the inverse quantization transform module 44, the addition module 76, the decoded prediction residual image storage module 78, the decoded image generation module 48, and the reference image storage module 50 Prepare. The residual compensation module 92 includes a transform submodule 92a, a base storage submodule 92b, a quantization submodule 92c, an inverse quantization submodule 92d, and an inverse transform submodule 92e.
[0107]
Motion compensation prediction module 32, motion residual generation module 34, residual compensation module 92, subtraction module 38, quantization transform module 40, encoding module 94, inverse quantization transform module 44, addition module 76, decoded prediction residual image The storage module 78, the decoded image generation module 48, the reference image storage module 50, the transform submodule 92a, the base storage submodule 92b, the quantization submodule 92c, the inverse quantization submodule 92d, and the inverse transform submodule 92e are realized by a computer. Functions include motion compensation prediction unit 2, motion residual generation unit 4, residual compensation unit 82, subtraction unit 8, quantization conversion unit 10, encoding unit 84, inverse quantization conversion unit 14, addition unit 66, and decoding prediction. Residual image storage unit 68, decoded image generation unit 18, reference image storage unit 20, conversion unit 82 , Base storage unit 82b, a quantization unit 82c, the inverse quantization unit 82d, respectively similar to the inverse transform unit 82e.
[0108]
As described above, according to the video encoding device 80, the reference decoded prediction residual image I stored in the decoded prediction residual image storage unit 68 as a base used in conversion in residual compensation.17Are used together with the base set stored in the base storage unit 82b. Therefore, the moving picture coding apparatus 80 effectively uses the similarity of the prediction residual image to effectively predict the prediction residual image I.ThreeThe base set stored in the base storage unit 82b can be used when there is a sudden change between frames, thereby realizing efficient coding. be able to.
[0109]
Next, the video decoding device 100 according to the fourth embodiment of the present invention will be described. The moving image decoding device 100 is a device that generates a moving image by decoding the compressed data generated by the moving image encoding device 1 of the first embodiment. The video decoding device 100 is physically a computer including a CPU (Central Processing Unit), a storage device such as a memory, a storage device such as a hard disk, and the like. Here, the “computer” includes an information portable terminal such as a mobile communication terminal in addition to a normal computer such as a personal computer, and the idea of the present invention is widely applied to devices capable of information processing.
[0110]
Hereinafter, a functional configuration of the video decoding device 100 will be described. FIG. 17 is a diagram illustrating a functional configuration of the video decoding device 100. Functionally, the moving image decoding apparatus 100 includes a decoding unit (decoding unit) 102, an inverse quantization conversion unit (inverse quantization conversion unit) 104, a residual decoding unit (residual decoding unit) 106, an addition Unit (adding unit) 108, motion compensation prediction unit (motion compensation prediction unit) 110, decoded image generation unit (decoded image generation unit) 112, and reference image storage unit (reference image storage unit) 114.
[0111]
The decoding unit 102 uses the compressed data I generated by the video encoding device 1.16Is decrypted. The decoding unit 102 uses the compressed data I16Quantized transform coefficient I obtained by decoding7Is output to the inverse quantization transform unit 104. In addition, the decoding unit 102 uses the compressed data I16Residual compensation information I obtained by decodingFiveAre output to the residual decoding unit 106. In addition, the decoding unit 102 uses the compressed data I16Motion information I obtained by decoding2Is output to the motion compensation prediction unit 110.
[0112]
The inverse quantization transform unit 104 generates an inverse quantization transform coefficient obtained by performing an inverse quantization operation on the quantized transform coefficient. The inverse quantization transform unit 104 uses the predetermined second inverse transform rule described above to inversely transform the inverse quantization transform coefficient, thereby decoding the decoded compensation residual image I.8Is generated. This predetermined second inverse conversion rule is an inverse conversion operation of the predetermined second conversion rule used by the moving picture coding apparatus 1 of the first embodiment.
[0113]
Residual decoding unit 106 provides residual compensation information I output by decoding unit 102.FiveThe residual compensated image I is obtained by performing residual decoding usingFourIs generated. Details of the processing by the residual decoding unit 106 will be described later.
[0114]
The adding unit 108 is configured to generate a decoded compensation residual image I generated by the inverse quantization transform unit 104.8And the residual compensation image I generated by the residual decoding unit 106FourTo obtain a decoded prediction residual image I9Is generated.
[0115]
The motion compensation prediction unit 110 outputs the motion information I output by the decoding unit 102.2Is used to store the reference image I stored in the reference image storage unit 114.11Motion compensated prediction for the decoded image ITenPredicted image I1Is generated.
[0116]
The decoded image generation unit 112 generates a decoded prediction residual image I generated by the addition unit 108.9And the predicted image I generated by the motion compensated prediction unit 1101The decoded image ITenIs generated. The decoded image generation unit 112 generates a decoded image ITenIs output to the reference image storage unit 114, and the decoded image I is output.TenIs stored in the reference image storage unit 114. The reference image storage unit 114 stores the stored decoded image I.TenTo the motion compensation prediction unit 110 for motion compensation prediction.11As offered.
[0117]
Next, details of the residual decoding unit 106 will be described. Residual decoding unit 106 provides residual compensation information I.FiveQuantization compensation coefficient I included in14Inverse quantization compensation coefficient I obtained by inverse quantization15And residual compensation information IFiveBase information I contained in12Is used to perform the inverse transformation using a predetermined first inverse transformation rule, and the residual compensation image IFourIs generated. This predetermined first inverse conversion rule is an inverse conversion operation of the predetermined first conversion rule used by the moving picture coding apparatus 1 of the first embodiment.
[0118]
FIG. 18 is a diagram illustrating a configuration of the residual decoding unit 106. The residual decoding unit 106 includes an inverse quantization unit (inverse quantization unit) 106a, an inverse transform unit (inverse transform unit) 106b, and a base storage unit (base storage unit) 106c.
[0119]
The inverse quantization unit 106a performs quantization compensation coefficient I14Is inversely quantized, and the inverse quantization compensation coefficient I15Is generated. The inverse transform unit 106b receives the basis information I from the basis set stored in the basis storage unit 106c.12Extract the base specified by. The inverse transform unit 106b includes the extracted base and the inverse quantization compensation coefficient I generated by the inverse quantization unit 106a.15Is used to perform an inverse transformation process, which is an inverse operation of the transformation process by the transformation unit 6a, and the residual compensation image IFourIs generated. The base storage unit 106c can store a base set including a base similar to the base stored in the base storage unit 6b.
[0120]
Hereinafter, an operation of the video decoding device 100 will be described, and a video decoding method according to the fourth embodiment will be described together. FIG. 19 is a flowchart of the video decoding method according to the fourth embodiment. FIG. 20 is a flowchart illustrating processing relating to residual decoding of the moving picture decoding method according to the fourth embodiment.
[0121]
As shown in FIG. 19, in the moving image decoding method of the fourth embodiment, first, the compressed data I generated by the moving image encoding device 1 is used.16To the quantized transform coefficient I by the decoding unit 102.7And residual compensation information IFiveAnd movement information I2Is decoded (step S61).
[0122]
Next, the inverse quantization transform unit 104 performs quantization transform coefficient I7An inverse quantization transform coefficient is generated by performing an inverse quantization operation on. The inverse quantization transform unit 104 performs inverse transform on the generated inverse quantization transform coefficient according to a predetermined second inverse transform rule, thereby obtaining a decoded compensation residual image I8Is restored (step S62).
[0123]
Next, the residual decoding unit 106 performs residual compensation information I decoded by the decoding unit 102.FiveIs used to perform residual decoding, and a residual compensated image IFourIs generated (step S63). As shown in FIG. 20, in the residual decoding unit 106, the inverse quantization unit 106a performs the quantization compensation coefficient I.14By inverse quantization of the inverse quantization compensation coefficient I15Is generated (step S64).
[0124]
Next, the inverse transform unit 106b performs the inverse quantization compensation coefficient I15, Residual compensation information IFiveBase information I contained in12, And basis information I stored in the basis storage unit 106c12Is used to perform an inverse transform process, which is an inverse operation of the transform process by the transform unit 6a, and the residual compensation image IFourIs generated (step S65).
[0125]
Referring to FIG. 19, the adder 108 then decodes the decoded compensation residual image I.8And residual compensation image IFourAnd the decoded prediction residual image I9Is generated (step S66).
[0126]
Next, the motion compensation prediction unit 110 outputs the motion information I output by the decoding unit 102.2Is used to store the reference image I stored in the reference image storage unit 114.11By performing motion compensation prediction on the decoded image ITenPredicted image I1Is generated (step S67).
[0127]
Next, the decoded image generation unit 112 performs prediction image I1And decoded prediction residual image I9And the decoded image ITenIs generated (step S68). The decoded image generation unit 112 generates a decoded image ITenIs output to the reference image storage unit 114, and the decoded image I is output.TenIs stored in the reference image storage unit 114 (step S69). The reference image storage unit 114 stores the stored decoded image I.TenTo the motion compensation prediction unit 110 for motion compensation prediction.11As offered.
[0128]
Hereinafter, a moving picture decoding program 120 that causes a computer to operate as the moving picture decoding apparatus 100 will be described. FIG. 21 is a diagram showing a configuration of the moving picture decoding program 120. The moving image decoding program 120 includes a main module 121 that supervises processing, a decoding module 122, an inverse quantization transform module 124, a residual decoding module 126, an addition module 128, a motion compensation prediction module 130, and a decoded image. A generation module 132 and a reference image storage module 134 are provided. The residual decoding module 126 includes an inverse quantization submodule 126a, an inverse transform submodule 126b, and a base storage submodule 126c.
[0129]
Decoding module 122, inverse quantization transformation module 124, residual decoding module 126, addition module 128, motion compensation prediction module 130, decoded image generation module 132, reference image storage module 134, inverse quantization submodule 126a, inverse transformation submodule 126b and the function that the base storage submodule 126c makes the computer realize are the decoding unit 102, the inverse quantization conversion unit 104, the residual decoding unit 106, the addition unit 108, the motion compensation prediction unit 110, the decoded image generation unit 112, and the reference image The storage unit 114, the inverse quantization unit 106a, the inverse transformation unit 106b, and the base storage unit 106c are the same.
[0130]
Hereinafter, operations and effects of the video decoding device 100 according to the fourth embodiment will be described. The moving picture decoding apparatus 100 uses compressed data I16Are subjected to inverse quantization transformation processing, residual decoding processing, and motion compensation prediction processing. That is, according to the moving picture decoding apparatus 100, the moving picture encoding apparatus 1 performs a reverse process of the process of generating compressed data from a moving picture, so that the moving picture is faithfully restored.
[0131]
Next, a video decoding device 140 according to the fifth embodiment of the present invention will be described. The video decoding device 140 is a compressed data I generated by the video encoding device 60 of the second embodiment.16It is a device that restores a moving image from. In the video decoding device 140, the reference decoded prediction residual image I17Reference decoding stored in the decoded prediction residual image storage unit 148 as a base used in the inverse transform in the residual decoding is provided with a decoded prediction residual image storage unit (decoded prediction residual image storage unit) 148. Prediction residual image I17The partial image is used.
[0132]
Hereinafter, a functional configuration of the video decoding device 140 will be described. FIG. 22 is a diagram illustrating a functional configuration of the moving picture decoding apparatus 140. Functionally, the moving image decoding apparatus 140 includes a decoding unit (decoding unit) 142, an inverse quantization conversion unit 104, a residual decoding unit (residual decoding unit) 144, and an adding unit (adding unit) 146. A motion compensation prediction unit (motion compensation prediction unit) 110, a decoded image generation unit 112, a reference image storage unit 114, and a decoded prediction residual image storage unit (decoded prediction residual image storage unit) 148. Hereinafter, elements different from the moving picture decoding apparatus 100 according to the fourth embodiment will be described.
[0133]
The decoding unit 142 uses the compressed data I generated by the video encoding device 60.16And quantized transform coefficient I7And residual compensation information IFiveAnd motion information I2Is output. This residual compensation information IFiveIncludes a reference decoded prediction residual image I stored in the decoded prediction residual image storage unit 148.17Using the partial images of the residual compensation image IFourInformation I for restoring12And the quantization compensation coefficient I14It is included.
[0134]
Residual decoding unit 144 provides residual compensation information I.FiveIs used to perform residual decoding and to obtain a residual compensated image IFourIs generated. Hereinafter, the residual decoding unit 144 will be described in detail. FIG. 23 is a diagram illustrating a configuration of the residual decoding unit 144. As shown in FIG. 23, the residual decoding unit 144 includes an inverse quantization unit (inverse quantization unit) 144a and an inverse transform unit (inverse transform unit) 144b.
[0135]
The inverse quantization unit 144a performs residual compensation information IFiveQuantization compensation coefficient I included in14By applying an inverse quantization operation to the inverse quantization compensation coefficient I15Is generated.
[0136]
The inverse transform unit 144b is configured to generate a reference decoded prediction residual image I stored in the decoded prediction residual image storage unit 148.17Of these, residual compensation information IFiveInformation I contained in12A partial image (base) is specified from The inverse transform unit 144b includes the identified partial image and the inverse quantization compensation coefficient I generated by the inverse quantization unit 144a.15Are used to perform an inverse transformation process that is an inverse operation of the transformation process by the transformation unit 62a, and the residual compensation image IFourIs generated.
[0137]
Referring to FIG. 22, the adding unit 146 includes the quantized transform coefficient I decoded by the decoding unit 142.7Is further subjected to inverse quantization and inverse transform by the inverse quantization transform unit 104.8And the residual compensated image I generated by the residual decoding unit 144FourAnd the decoded prediction residual image I9Is generated. The adding unit 146 performs the decoded prediction residual image I9Is output to the decoded image generation unit 112 and the decoded prediction residual image I9The decoded prediction residual image I is stored in the decoded prediction residual image storage unit 148.17Remember as. The decoded prediction residual image storage unit 148 stores the stored reference decoded prediction residual image I.17Are provided to the residual decoding unit 144 for residual decoding.
[0138]
Next, an operation of the video decoding device 140 will be described, and a video decoding method according to the fifth embodiment will be described together. FIG. 24 is a flowchart of the video decoding method according to the fifth embodiment. FIG. 25 is a flowchart illustrating processing relating to residual decoding of the moving picture decoding method according to the fifth embodiment.
[0139]
As shown in FIG. 24, in the video decoding method of the fifth embodiment, first, the compressed data I generated by the video encoding device 60 is displayed.16To the quantized transform coefficient I by the decoding unit 142.7And residual compensation information IFiveAnd movement information I2Is decoded (step S71).
[0140]
Next, the inverse quantization transform unit 104 performs quantization transform coefficient I7An inverse quantization transform coefficient is generated by performing an inverse quantization operation on. The inverse quantization transform unit 104 performs inverse transform on the generated inverse quantization transform coefficient according to a predetermined second inverse transform rule, thereby obtaining a decoded compensation residual image I8Is restored (step S72).
[0141]
Next, the residual decoding unit 144 performs residual compensation information I decoded by the decoding unit 142.FiveIs used to perform residual decoding, and a residual compensated image IFourIs generated (step S73). As shown in FIG. 25, in the residual decoding unit 144, the inverse quantization unit 144a performs the quantization compensation coefficient I.14By inverse quantization of the inverse quantization compensation coefficient I15Is generated (step S74).
[0142]
Next, the inverse transform unit 144b performs an inverse quantization compensation coefficient I15, Residual compensation information IFiveBase information I contained in12, And a reference decoded prediction residual image I provided by the decoded prediction residual image storage unit 148.17Is used to perform an inverse transformation process, which is an inverse operation of the transformation process by the transformation unit 62a, and the residual compensation image IFourIs generated (step S75).
[0143]
Referring to FIG. 24, the adding unit 146 then decodes the decoded compensation residual image I.8And residual compensation image IFourAnd the decoded prediction residual image I9Is generated (step S76).
[0144]
Next, the decoded prediction residual image storage unit 148 has the decoded prediction residual image I generated by the adding unit 146.9Reference decoded prediction residual image I17(Step S77). The decoded prediction residual image storage unit 148 stores the stored reference decoded prediction residual image I.17Are provided to the residual decoding unit 144 for residual decoding.
[0145]
Next, the motion compensation prediction unit 110 outputs the motion information I output by the decoding unit 102.2Is used to store the reference image I stored in the reference image storage unit 114.11By performing motion compensation prediction on the decoded image ITenPredicted image I1Is generated (step S78).
[0146]
Next, the decoded image generation unit 112 performs prediction image I1And decoded prediction residual image I9And the decoded image ITenIs generated (step S79). The decoded image generation unit 112 generates a decoded image ITenIs output to the reference image storage unit 114, and the decoded image I is output.TenIs stored in the reference image storage unit 114 (step S80). The reference image storage unit 114 stores the stored decoded image I.TenTo the motion compensation prediction unit 110 for motion compensation prediction.11As offered.
[0147]
Hereinafter, a video decoding program 150 that causes a computer to operate as the video decoding device 140 will be described. FIG. 26 is a diagram showing a configuration of the moving picture decoding program 150. The video decoding program 150 includes a main module 151 that supervises processing, a decoding module 152, an inverse quantization transform module 124, a residual decoding module 154, an addition module 156, and a decoded prediction residual image storage module 158. , A motion compensation prediction module 130, a decoded image generation module 132, and a reference image storage module 134. The residual decoding module 154 has an inverse quantization submodule 154a and an inverse transform submodule 154b.
[0148]
Decoding module 152, inverse quantization transform module 124, residual decoding module 154, addition module 156, decoded prediction residual image storage module 158, motion compensation prediction module 130, decoded image generation module 132, reference image storage module 134, inverse quantum The functions that the computerization submodule 154a and the inverse transform submodule 154b realize in the computer are a decoding unit 142, an inverse quantization conversion unit 104, a residual decoding unit 144, an adding unit 146, a decoded prediction residual image storage unit 148, motion compensation The prediction unit 110, the decoded image generation unit 112, the reference image storage unit 114, the inverse quantization unit 144a, and the inverse transformation unit 144b are the same.
[0149]
As described above, the video decoding device 140 performs the reference decoded prediction residual image I stored in the decoded prediction residual image storage unit 148 as a base used in inverse transform in residual decoding.17Therefore, the moving image encoding device 60 can faithfully perform the reverse process of the process of generating the compressed data from the moving image. Therefore, the moving picture decoding apparatus 140 can restore the above moving picture from the compressed data generated by the moving picture encoding apparatus 60.
[0150]
A video decoding device 170 according to the sixth embodiment of the present invention will be described. The video decoding device 170 is a compressed data I generated by the video encoding device 80 of the third embodiment.16It is a device that restores a moving image from. In the video decoding device 170, a base storage unit (base storage means) 174c for storing a base set, and a reference decoded prediction residual image I17A decoded prediction residual image storage unit (decoded prediction residual image storage unit) 148, and a base set stored in the base storage unit 174c as a base used in conversion in residual compensation, or decoding Reference decoded prediction residual image I stored in the prediction residual image storage unit 14817The partial image is used.
[0151]
Hereinafter, a functional configuration of the video decoding device 170 will be described. FIG. 27 is a diagram illustrating a functional configuration of the video decoding device 170. Functionally, the moving picture decoding apparatus 170 includes a decoding unit (decoding unit) 172, an inverse quantization conversion unit (inverse quantization conversion unit) 104, a residual decoding unit (residual decoding unit) 174, and an addition Unit (adding unit) 146, motion compensation prediction unit (motion compensation prediction unit) 110, decoded image generation unit (decoded image generation unit) 112, reference image storage unit (reference image storage unit) 114, decoded prediction residual A difference image storage unit (decoded prediction residual image storage means) 148. Hereinafter, elements different from the video decoding device 100 of the fourth embodiment or the video decoding device 140 of the fifth embodiment will be described.
[0152]
The decoding unit 172 includes the compressed data I generated by the video encoding device 80.16And quantized transform coefficient I7And residual compensation information IFiveAnd motion information I2Is output. This residual compensation information IFiveIncludes a base set stored in the base storage unit 174c using the base set stored in the base storage unit 174c.FourInformation I for restoring12Or the reference decoded prediction residual image I stored in the decoded prediction residual image storage unit 148.17Using the partial images of the residual compensation image IFourInformation I for restoring12And the quantization compensation coefficient I14It is included.
[0153]
Residual decoding unit 174 provides residual compensation information I.FiveIs used to perform residual decoding and to obtain a residual compensated image IFourIs generated. Hereinafter, the residual decoding unit 174 will be described in detail. FIG. 28 is a diagram illustrating a configuration of the residual decoding unit 174. As shown in FIG. 28, the residual decoding unit 174 includes an inverse quantization unit (inverse quantization unit) 174a, an inverse transform unit (inverse transform unit) 174b, and a base storage unit (base storage unit) 174c. .
[0154]
The inverse quantization unit 174a performs residual compensation information IFiveQuantization compensation coefficient I included in14By applying an inverse quantization operation to the inverse quantization compensation coefficient I15Is generated.
[0155]
The inverse transform unit 174b includes the residual compensation information I of the basis set stored in the basis storage unit 174c.FiveInformation I contained in12The base is specified from Further, the inverse transform unit 174b generates a reference decoded prediction residual image I stored in the decoded prediction residual image storage unit 148.17Of these, residual compensation information IFiveInformation I contained in12To specify a partial image as a base. The inverse transform unit 174b includes the identified base and the inverse quantization compensation coefficient I generated by the inverse quantization unit 144a.15Are used to perform an inverse transformation process, which is an inverse operation of the transformation process by the transformation unit 82a, and the residual compensation image IFourIs generated.
[0156]
Hereinafter, an operation of the video decoding device 170 will be described, and a video decoding method according to the sixth embodiment will be described together. FIG. 29 is a flowchart of the video decoding method according to the sixth embodiment. FIG. 30 is a flowchart showing processing relating to residual decoding of the moving picture decoding method according to the sixth embodiment.
[0157]
As shown in FIG. 29, in the moving image decoding method of the sixth embodiment, first, the compressed data I generated by the moving image encoding device 80 is used.16From the quantized transform coefficient I by the decoding unit 1727And residual compensation information IFiveAnd movement information I2Is decoded (step S91).
[0158]
Next, the inverse quantization transform unit 104 performs quantization transform coefficient I7An inverse quantization transform coefficient is generated by performing an inverse quantization operation on. The inverse quantization transform unit 104 performs inverse transform on the generated inverse quantization transform coefficient according to a predetermined second inverse transform rule, thereby obtaining a decoded compensation residual image I8Is restored (step S92).
[0159]
Next, residual decoding section 174 performs residual compensation information I decoded by decoding section 172.FiveIs used to perform residual decoding, and a residual compensated image IFourIs generated (step S73). As shown in FIG. 30, in the residual decoding unit 174, the inverse quantization unit 174a performs quantization compensation coefficient I14By inverse quantization of the inverse quantization compensation coefficient I15Is generated (step S94).
[0160]
Next, the inverse transform unit 174b performs an inverse quantization compensation coefficient I15, Residual compensation information IFiveBase information I contained in12, The base set stored in the base storage unit 174c, and the reference decoded prediction residual image I provided by the decoded prediction residual image storage unit 148.17Is used to perform an inverse transformation process, which is an inverse operation of the transformation process by the transformation unit 82a, and the residual compensation image IFourIs generated (step S95).
[0161]
Referring to FIG. 29, the adding unit 146 then decodes the residual image for decoding compensation I.8And residual compensation image IFourAnd the decoded prediction residual image I9Is generated (step S96).
[0162]
Next, the decoded prediction residual image storage unit 148 has the decoded prediction residual image I generated by the adding unit 146.9Reference decoded prediction residual image I17(Step S97). The decoded prediction residual image storage unit 148 stores the stored reference decoded prediction residual image I.17To the residual decoding unit 174 for residual decoding.
[0163]
Next, the motion compensation prediction unit 110 outputs the motion information I output by the decoding unit 172.2Is used to store the reference image I stored in the reference image storage unit 114.11By performing motion compensation prediction on the decoded image ITenPredicted image I1Is generated (step S98).
[0164]
Next, the decoded image generation unit 112 performs prediction image I1And decoded prediction residual image I9And the decoded image ITenIs generated (step S99). The decoded image generation unit 112 generates a decoded image ITenIs output to the reference image storage unit 114, and the decoded image I is output.TenIs stored in the reference image storage unit 114 (step S100). The reference image storage unit 114 stores the stored decoded image I.TenTo the motion compensation prediction unit 110 for motion compensation prediction.11As offered.
[0165]
Hereinafter, a video decoding program 180 that causes a computer to operate as the video decoding device 170 will be described. FIG. 31 is a diagram showing a configuration of the moving picture decoding program 180. The moving picture decoding program 180 includes a main module 181 that supervises processing, a decoding module 182, an inverse quantization transform module 124, a residual decoding module 184, an addition module 156, and a decoded prediction residual image storage module 158. , A motion compensation prediction module 130, a decoded image generation module 132, and a reference image storage module 134. The residual decoding module 184 includes an inverse quantization submodule 154a, an inverse transform submodule 154b, and a base storage submodule 184c.
[0166]
Decoding module 182, inverse quantization transform module 124, residual decoding module 184, addition module 156, decoded prediction residual image storage module 158, motion compensated prediction module 130, decoded image generation module 132, reference image storage module 134, inverse quantum The sub-module 184a, the inverse transform sub-module 184b, and the base storage sub-module 184c make the computer realize the decoding unit 172, the inverse quantization transform unit 104, the residual decoding unit 174, the adding unit 146, and the decoded prediction residual image The storage unit 148, motion compensation prediction unit 110, decoded image generation unit 112, reference image storage unit 114, inverse quantization unit 174a, inverse transform unit 174b, and base storage unit 174c are the same.
[0167]
As described above, the video decoding device 170 uses the base set stored in the base storage unit 174c and the reference stored in the decoded prediction residual image storage unit 148 as the base used in the inverse transform in the residual decoding. Decoded prediction residual image I17Therefore, the moving image encoding device 80 can faithfully perform the reverse process of the process of generating the compressed data from the moving image. Therefore, the moving picture decoding apparatus 170 can restore the above moving picture from the compressed data generated by the moving picture encoding apparatus 80.
[0168]
【The invention's effect】
As described above, according to the present invention, the prediction residual image and the compensation residual image can be decomposed efficiently, so that the moving picture coding apparatus and the moving picture code capable of realizing efficient coding can be realized. And a moving picture encoding program are provided. Also provided are a moving picture decoding apparatus, a moving picture decoding method, and a moving picture decoding program capable of faithfully restoring a moving picture from compressed data generated by the moving picture encoding apparatus.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a functional configuration of a moving image encoding apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration of a residual compensation unit according to the first embodiment.
FIG. 3 is a flowchart of a video encoding method according to the first embodiment of the present invention.
FIG. 4 is a flowchart of processing relating to residual compensation in the moving picture coding method according to the first embodiment;
FIG. 5 is a diagram showing a configuration of a moving image encoding program according to the first embodiment of the present invention.
FIG. 6 is a diagram illustrating a functional configuration of a moving image encoding apparatus according to a second embodiment of the present invention.
FIG. 7 is a diagram illustrating a configuration of a residual compensation unit according to a second embodiment.
FIG. 8 is a diagram for explaining conversion processing by a conversion unit a according to the second embodiment;
FIG. 9 is a flowchart of a video encoding method according to the second embodiment of the present invention.
FIG. 10 is a flowchart of processing relating to residual compensation in the moving picture coding method according to the second embodiment;
FIG. 11 is a diagram showing a configuration of a moving image encoding program according to the second embodiment of the present invention.
FIG. 12 is a diagram illustrating a functional configuration of a moving image encoding device according to a third embodiment of the present invention.
FIG. 13 is a diagram illustrating a configuration of a residual compensation unit according to a third embodiment.
FIG. 14 is a flowchart of a video encoding method according to the third embodiment of the present invention.
FIG. 15 is a flowchart of processing relating to residual compensation in the moving picture coding method according to the third embodiment;
FIG. 16 is a diagram showing a configuration of a moving image encoding program according to a third embodiment of the present invention.
FIG. 17 is a diagram illustrating a functional configuration of a video decoding device according to a fourth embodiment of the present invention.
FIG. 18 is a diagram illustrating a configuration of a residual decoding unit according to the fourth embodiment.
FIG. 19 is a flowchart of a video decoding method according to the fourth embodiment of the present invention.
FIG. 20 is a flowchart illustrating processing related to residual decoding of the moving picture decoding method according to the fourth embodiment.
FIG. 21 is a diagram showing a configuration of a moving picture decoding program according to the fourth embodiment of the present invention.
FIG. 22 is a diagram illustrating a functional configuration of a video decoding device according to a fifth embodiment of the present invention.
FIG. 23 is a diagram illustrating a configuration of a residual decoding unit according to the fifth embodiment.
FIG. 24 is a flowchart of a video decoding method according to the fifth embodiment of the present invention.
FIG. 25 is a flowchart illustrating processing relating to residual decoding of the moving picture decoding method according to the fifth embodiment;
FIG. 26 is a diagram showing a configuration of a moving picture decoding program according to the fifth embodiment of the present invention.
FIG. 27 is a diagram illustrating a functional configuration of a video decoding device according to a sixth embodiment of the present invention.
FIG. 28 is a diagram illustrating a configuration of a residual decoding unit according to the sixth embodiment.
FIG. 29 is a flowchart of a video decoding method according to the sixth embodiment of the present invention.
FIG. 30 is a flowchart illustrating processing related to residual decoding in the moving picture decoding method according to the sixth embodiment;
FIG. 31 is a diagram showing a configuration of a moving picture decoding program according to the sixth embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1,60,80 ... Moving picture coding apparatus, 2 ... Motion compensation prediction part, 4 ... Motion residual generation part, 6, 62, 82 ... Residual compensation part, 6a, 62a, 82a ... Conversion part, 6b, 82b ... base storage unit, 6c, 62b, 82c ... quantization unit, 6d, 62c, 82d ... inverse quantization unit, 6e, 62d, 82e ... inverse transformation unit, 8 ... subtraction unit, 10 ... quantization transformation unit, 12, 64, 84 ... coding unit, 14 ... inverse quantization transform unit, 16, 66 ... addition unit, 18 ... decoded image generation unit, 20 ... reference image storage unit, 68 ... decoded prediction residual image storage unit, 100, 140 , 170 ... moving picture decoding apparatus, 102, 142, 172 ... decoding part, 104 ... inverse quantization conversion part, 106, 144, 174 ... residual decoding part, 106a, 144a, 174a ... inverse quantization part, 106b, 144b , 174b ... Inverse conversion unit, 106c, 174c ... Bottom storage unit, 108,146 ... adding unit, 110 ... motion compensation prediction unit, 112 ... decoded image generating unit, 114 ... reference image storage unit, 148 ... decoding prediction residual image storage unit.

Claims (8)

参照画像に基づいて符号化対象画像の動き補償予測を行うことによって予測画像及び動き情報を生成する動き補償予測手段と、
前記符号化対象画像と前記予測画像との差演算に基づき予測残差画像を生成する残差画像生成手段と、
所定の第1の変換規則に基づいて前記予測残差画像から残差補償情報を生成すると共に、該残差補償情報に基づいて残差補償画像を生成する残差補償手段と、
前記残差補償画像と前記予測残差画像との差演算に基づき補償残差画像を生成する減算手段と、
前記補償残差画像を所定の第2の変換規則に基づいて変換してなる変換係数を生成し、該変換係数を量子化することによって量子化変換係数を生成する量子化変換手段と、
前記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、前記所定の第2の変換規則の逆変換である所定の第2の逆変換規則に基づき該逆量子化変換係数を用いて逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、
前記復号補償残差画像と前記残差補償画像とを加算することによって復号予測残差画像を生成する加算手段と、
前記復号予測残差画像と前記予測画像とを加算することによって復号画像を生成する復号画像生成手段と、
前記復号画像生成手段によって生成された前記復号画像を、前記動き補償予測手段による動き補償予測に提供する前記参照画像として記憶する参照画像記憶手段と、
前記動き情報と前記残差補償情報と前記量子化変換係数とを符号化してなる符号化データを含む圧縮データを生成する符号化手段と
を備え、
前記残差補償手段は、
前記所定の第1の変換規則に基づき、複数の二次元基底を用いて、該二次元基底を特定するための基底情報と、該基底情報によって特定される二次元基底に付する補償係数とに前記予測残差画像を変換し、該基底情報を前記残差補償情報に含める変換手段と、
前記補償係数を量子化することによって量子化補償係数を生成し、該量子化補償係数を前記残差補償情報に含める量子化手段と、
前記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、
前記所定の第1の変換規則の逆変換である所定の第1の逆変換規則に基づき、前記逆量子化補償係数を用いて逆変換を行うことによって前記残差補償画像を生成する逆変換手段と
を有し、
前記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段を更に備え、
前記変換手段は、前記復号予測残差画像記憶手段に記憶された前記参照復号予測残差画像の部分画像を前記二次元基底として用いて前記予測残差画像を変換し、
前記逆変換手段は、前記変換手段によって用いられた前記二次元基底を用いて逆変換する、
ことを特徴とする動画像符号化装置。
Motion compensated prediction means for generating a predicted image and motion information by performing motion compensation prediction of an encoding target image based on a reference image;
Residual image generation means for generating a prediction residual image based on a difference calculation between the encoding target image and the prediction image;
Residual compensation means for generating residual compensation information from the prediction residual image based on a predetermined first conversion rule, and generating a residual compensation image based on the residual compensation information;
Subtracting means for generating a compensation residual image based on a difference calculation between the residual compensation image and the prediction residual image;
A quantization transform unit that generates a transform coefficient obtained by transforming the compensation residual image based on a predetermined second transform rule, and generates a quantized transform coefficient by quantizing the transform coefficient;
An inverse quantized transform coefficient is generated by inverse quantizing the quantized transform coefficient, and the inverse quantized transform coefficient is based on a predetermined second inverse transform rule that is an inverse transform of the predetermined second transform rule. An inverse quantization transform means for generating a decoded compensation residual image by performing an inverse transform using
Adding means for generating a decoded prediction residual image by adding the decoded compensation residual image and the residual compensation image;
Decoded image generating means for generating a decoded image by adding the decoded prediction residual image and the predicted image;
Reference image storage means for storing the decoded image generated by the decoded image generation means as the reference image provided for motion compensation prediction by the motion compensation prediction means;
Encoding means for generating compressed data including encoded data obtained by encoding the motion information, the residual compensation information, and the quantized transform coefficient ;
With
The residual compensation means includes
Based on the predetermined first conversion rule, using a plurality of two-dimensional bases, base information for specifying the two-dimensional base and a compensation coefficient attached to the two-dimensional base specified by the base information Conversion means for converting the prediction residual image and including the base information in the residual compensation information;
Quantization means for generating a quantization compensation coefficient by quantizing the compensation coefficient, and including the quantization compensation coefficient in the residual compensation information;
Inverse quantization means for generating an inverse quantization compensation coefficient by inverse quantization of the quantization compensation coefficient;
Inverse transform means for generating the residual compensation image by performing inverse transform using the inverse quantization compensation coefficient based on a predetermined first inverse transform rule that is an inverse transform of the predetermined first transform rule. It has a door,
A decoding prediction residual image storage unit for storing the decoding prediction residual image as a reference decoding prediction residual image;
The converting means converts the prediction residual image using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage means as the two-dimensional basis,
The inverse transform means performs inverse transform using the two-dimensional basis used by the transform means;
A moving picture coding apparatus characterized by the above.
前記残差補償手段は、
前記変換手段に提供する二次元基底を記憶する基底記憶手段を更に有し、
前記変換手段は、前記基底記憶手段に記憶された二次元基底を用いて前記予測残差画像を変換し、
前記逆変換手段は、前記基底記憶手段に記憶された二次元基底を用いて前記逆変換を行う
ことを特徴とする請求項1記載の動画像符号化装置。
The residual compensation means includes
Further comprising basis storage means for storing a two-dimensional basis to be provided to the conversion means;
The converting means converts the prediction residual image using a two-dimensional basis stored in the basis storage means,
2. The moving picture encoding apparatus according to claim 1, wherein the inverse transform unit performs the inverse transform using a two-dimensional basis stored in the basis storage unit.
動き補償予測手段が、参照画像に基づいて符号化対象画像の動き補償予測を行うことによって予測画像及び動き情報を生成する動き補償予測ステップと、
残差画像生成手段が、前記符号化対象画像と前記予測画像との差演算に基づき予測残差画像を生成する残差画像生成ステップと、
残差補償手段が、所定の第1の変換規則に基づいて前記予測残差画像から残差補償情報を生成すると共に、該残差補償情報に基づいて残差補償画像を生成する残差補償ステップと、
減算手段が、前記残差補償画像と前記予測残差画像との差演算に基づき補償残差画像を生成する減算ステップと、
量子化変換手段が、前記補償残差画像を所定の第2の変換規則に基づいて変換してなる変換係数を生成し、該変換係数を量子化することによって量子化変換係数を生成する量子化変換ステップと、
逆量子化変換手段が、前記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、前記所定の第2の変換規則の逆変換である所定の第2の逆変換規則に基づき該逆量子化変換係数を用いて逆変換を行うことによって復号補償残差画像を生成する逆量子化変換ステップと、
加算手段が、前記復号補償残差画像と前記残差補償画像とを加算することによって復号予測残差画像を生成する加算ステップと、
復号画像生成手段が、前記復号予測残差画像と前記予測画像とを加算することによって復号画像を生成する復号画像生成ステップと、
参照画像記憶手段が、前記復号画像生成手段によって生成された前記復号画像を、前記動き補償予測手段による動き補償予測に提供する前記参照画像として記憶する参照画像記憶ステップと、
符号化手段が、前記動き情報と前記残差補償情報と前記量子化変換係数とを符号化してなる符号化データを含む圧縮データを生成する符号化ステップと
を備え、
前記残差補償ステップは、
変換手段が、前記所定の第1の変換規則に基づき、複数の二次元基底を用いて、該二次元基底を特定するための基底情報と、該基底情報によって特定される二次元基底に付する補償係数とに前記予測残差画像を変換し、該基底情報を前記残差補償情報に含める変換ステップと、
量子化手段が、前記補償係数を量子化することによって量子化補償係数を生成し、該量子化補償係数を前記残差補償情報に含める量子化ステップと、
逆量子化手段が、前記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化ステップと、
逆変換手段が、前記所定の第1の変換規則の逆変換である所定の第1の逆変換規則に基づき、前記逆量子化補償係数を用いて逆変換を行うことによって前記残差補償画像を生成する逆変換ステップと
み、
復号予測残差画像記憶手段が、前記復号予測残差画像を参照復号予測残差画像として記憶するステップを更に備え、
前記変換ステップでは、前記変換手段が、前記復号予測残差画像記憶手段に記憶された前記参照復号予測残差画像の部分画像を前記二次元基底として用いて前記予測残差画像を変換し、
前記逆変換ステップでは、前記逆変換手段が、前記変換手段によって用いられた前記二次元基底を用いて逆変換する、
ことを特徴とする動画像符号化方法。
A motion compensation prediction step in which the motion compensation prediction means generates a prediction image and motion information by performing motion compensation prediction of the encoding target image based on the reference image;
A residual image generating means for generating a predicted residual image based on a difference calculation between the encoding target image and the predicted image;
Residual compensation means for generating residual compensation information from the prediction residual image based on a predetermined first conversion rule, and generating a residual compensation image based on the residual compensation information When,
A subtracting step for generating a compensation residual image based on a difference calculation between the residual compensation image and the prediction residual image;
Quantization in which a quantization transform unit generates a transform coefficient obtained by transforming the compensation residual image based on a predetermined second transform rule, and generates a quantized transform coefficient by quantizing the transform coefficient A conversion step;
Inverse quantization conversion means generates an inverse quantized transform coefficient by inversely quantizing the quantized transform coefficient, and converts the quantized transform coefficient to a predetermined second inverse transform rule that is an inverse transform of the predetermined second transform rule. An inverse quantization transform step of generating a decoded compensated residual image by performing an inverse transform using the inverse quantized transform coefficient based on:
An adding step in which an adding unit generates a decoded prediction residual image by adding the decoded compensation residual image and the residual compensation image;
A decoded image generation step, wherein the decoded image generation means generates a decoded image by adding the decoded prediction residual image and the prediction image;
A reference image storage step in which a reference image storage unit stores the decoded image generated by the decoded image generation unit as the reference image to be provided for motion compensation prediction by the motion compensation prediction unit;
An encoding step for generating compressed data including encoded data obtained by encoding the motion information, the residual compensation information, and the quantized transform coefficient ;
With
The residual compensation step includes:
Based on the predetermined first conversion rule, the conversion means uses a plurality of two-dimensional bases to attach base information for specifying the two-dimensional base and a two-dimensional base specified by the base information. Converting the prediction residual image into a compensation coefficient and including the base information in the residual compensation information;
A quantization step for generating a quantization compensation coefficient by quantizing the compensation coefficient, and including the quantization compensation coefficient in the residual compensation information;
An inverse quantization step in which an inverse quantization means generates an inverse quantization compensation coefficient by inversely quantizing the quantization compensation coefficient;
Inverse transform means performs the inverse transform using the inverse quantization compensation coefficient based on a predetermined first inverse transform rule that is an inverse transform of the predetermined first transform rule, thereby obtaining the residual compensation image. An inverse transformation step to generate ;
Seen including,
The decoded prediction residual image storage means further comprises a step of storing the decoded prediction residual image as a reference decoded prediction residual image,
In the conversion step, the conversion unit converts the prediction residual image using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage unit as the two-dimensional basis,
In the inverse transformation step, the inverse transformation means performs inverse transformation using the two-dimensional basis used by the transformation means.
A video encoding method characterized by the above.
コンピュータを、
参照画像に基づいて符号化対象画像の動き補償予測を行うことによって予測画像及び動き情報を生成する動き補償予測手段と、
前記符号化対象画像と前記予測画像との差演算に基づき予測残差画像を生成する残差画像生成手段と、
所定の第1の変換規則に基づいて前記予測残差画像から残差補償情報を生成すると共に、該残差補償情報に基づいて残差補償画像を生成する残差補償手段と、
前記残差補償画像と前記予測残差画像との差演算に基づき補償残差画像を生成する減算手段と、
前記補償残差画像を所定の第2の変換規則に基づいて変換してなる変換係数を生成し、該変換係数を量子化することによって量子化変換係数を生成する量子化変換手段と、
前記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、前記所定の第2の変換規則の逆変換である所定の第2の逆変換規則に基づき該逆量子化変換係数を用いて逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、
前記復号補償残差画像と前記残差補償画像とを加算することによって復号予測残差画像を生成する加算手段と、
前記復号予測残差画像と前記予測画像とを加算することによって復号画像を生成する復号画像生成手段と、
前記復号画像生成手段によって生成された前記復号画像を、前記動き補償予測手段による動き補償予測に提供する前記参照画像として記憶する参照画像記憶手段と、
前記動き情報と前記残差補償情報と前記量子化変換係数とを符号化してなる符号化データを含む圧縮データを生成する符号化手段と、
として機能させ、
前記残差補償手段は、
前記所定の第1の変換規則に基づき、複数の二次元基底を用いて、該二次元基底を特定するための基底情報と、該基底情報によって特定される二次元基底に付する補償係数とに前記予測残差画像を変換し、該基底情報を前記残差補償情報に含める変換手段と、
前記補償係数を量子化することによって量子化補償係数を生成し、該量子化補償係数を前記残差補償情報に含める量子化手段と、
前記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、
前記所定の第1の変換規則の逆変換である所定の第1の逆変換規則に基づき、前記逆量子化補償係数を用いて逆変換を行うことによって前記残差補償画像を生成する逆変換手段と
を有し、
前記コンピュータを、前記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段として更に機能させ、
前記変換手段は、前記復号予測残差画像記憶手段に記憶された前記参照復号予測残差画像の部分画像を前記二次元基底として用いて前記予測残差画像を変換し、
前記逆変換手段は、前記変換手段によって用いられた前記二次元基底を用いて逆変換する、
することを特徴とする動画像符号化プログラム。
Computer
Motion compensated prediction means for generating a predicted image and motion information by performing motion compensation prediction of an encoding target image based on a reference image;
Residual image generation means for generating a prediction residual image based on a difference calculation between the encoding target image and the prediction image;
Residual compensation means for generating residual compensation information from the prediction residual image based on a predetermined first conversion rule, and generating a residual compensation image based on the residual compensation information;
Subtracting means for generating a compensation residual image based on a difference calculation between the residual compensation image and the prediction residual image;
A quantization transform unit that generates a transform coefficient obtained by transforming the compensation residual image based on a predetermined second transform rule, and generates a quantized transform coefficient by quantizing the transform coefficient;
An inverse quantized transform coefficient is generated by inverse quantizing the quantized transform coefficient, and the inverse quantized transform coefficient is based on a predetermined second inverse transform rule that is an inverse transform of the predetermined second transform rule. An inverse quantization transform means for generating a decoded compensation residual image by performing an inverse transform using
Adding means for generating a decoded prediction residual image by adding the decoded compensation residual image and the residual compensation image;
Decoded image generating means for generating a decoded image by adding the decoded prediction residual image and the predicted image;
Reference image storage means for storing the decoded image generated by the decoded image generation means as the reference image provided for motion compensation prediction by the motion compensation prediction means;
Encoding means for generating compressed data including encoded data obtained by encoding the motion information, the residual compensation information, and the quantized transform coefficient;
Function as
The residual compensation means includes
Based on the predetermined first conversion rule, using a plurality of two-dimensional bases, base information for specifying the two-dimensional base and a compensation coefficient attached to the two-dimensional base specified by the base information Conversion means for converting the prediction residual image and including the base information in the residual compensation information;
Quantization means for generating a quantization compensation coefficient by quantizing the compensation coefficient, and including the quantization compensation coefficient in the residual compensation information;
Inverse quantization means for generating an inverse quantization compensation coefficient by inverse quantization of the quantization compensation coefficient;
Inverse transform means for generating the residual compensation image by performing inverse transform using the inverse quantization compensation coefficient based on a predetermined first inverse transform rule that is an inverse transform of the predetermined first transform rule. and,
I have a,
Further causing the computer to function as decoded prediction residual image storage means for storing the decoded prediction residual image as a reference decoded prediction residual image;
The converting means converts the prediction residual image using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage means as the two-dimensional basis,
The inverse transform means performs inverse transform using the two-dimensional basis used by the transform means;
A moving picture encoding program characterized by:
復号画像に対する予測画像を生成するための動き情報と、前記予測画像に対する残差補償画像を復元するための量子化補償係数と基底情報とを含む残差補償情報と、前記予測画像と前記残差補償画像との差に基づく補償残差画像を復元するための量子化変換係数とが符号化されてなる符号化データを含む圧縮データを復号することによって、前記動き情報と前記残差補償情報と前記量子化変換係数とを生成する復号手段と、
前記残差補償情報を用いて所定の第1の逆変換規則に基づき逆変換を行うことによって前記残差補償画像を生成する残差復号手段と、
前記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、該逆量子化変換係数を用いて所定の第2の逆変換規則に基づく逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、
前記残差補償画像と前記復号補償残差画像との加算に基づき復号予測残差画像を生成する加算手段と、
参照画像及び前記動き情報を用いて動き補償予測を行うことによって前記予測画像を生成する動き補償予測手段と、
前記復号予測残差画像と前記予測画像との加算に基づき復号画像を生成する復号画像生成手段と、
前記復号画像生成手段によって生成された前記復号画像を、前記動き補償予測手段による前記動き補償予測に提供する前記参照画像として記憶する参照画像記憶手段と
を備え、
前記残差復号手段は、
前記残差補償情報に含まれている前記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、
複数の二次元基底のうち前記残差補償情報に含まれる基底情報によって特定される二次元基底と、前記逆量子化手段によって生成された前記逆量子化補償係数逆変換とを用い、前記所定の第1の逆変換規則に基づき逆変換を行うことによって前記残差補償画像を生成する逆変換手段と
を有し、
前記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段を更に備え、
前記逆変換手段は、前記復号予測残差画像記憶手段に記憶された前記参照復号予測残差画像の部分画像を前記二次元基底として用い前記逆変換を行う、
ことを特徴とする動画像復号装置。
Residual information including motion information for generating a predicted image for a decoded image, quantization compensation coefficients for restoring a residual compensated image for the predicted image, and base information; the predicted image and the residual By decoding compressed data including encoded data obtained by encoding a quantized transform coefficient for restoring a compensation residual image based on a difference from the compensation image, the motion information and the residual compensation information Decoding means for generating the quantized transform coefficients;
Residual decoding means for generating the residual compensation image by performing inverse transformation based on a predetermined first inverse transformation rule using the residual compensation information;
A decoding compensation residual is generated by generating an inverse quantized transform coefficient by inversely quantizing the quantized transform coefficient and performing an inverse transform based on a predetermined second inverse transform rule using the inverse quantized transform coefficient. An inverse quantization transformation means for generating an image;
Adding means for generating a decoded prediction residual image based on the addition of the residual compensation image and the decoded compensation residual image;
Motion compensated prediction means for generating the predicted image by performing motion compensated prediction using a reference image and the motion information;
Decoded image generating means for generating a decoded image based on the addition of the decoded prediction residual image and the predicted image;
Reference image storage means for storing the decoded image generated by the decoded image generation means as the reference image provided to the motion compensated prediction by the motion compensated prediction means ;
With
The residual decoding means includes
Inverse quantization means for generating an inverse quantization compensation coefficient by inverse quantization of the quantization compensation coefficient included in the residual compensation information;
Using the two-dimensional basis specified by the basis information included in the residual compensation information among a plurality of two-dimensional basis, and the inverse quantization compensation coefficient inverse transform generated by the inverse quantization means, the predetermined quantization Inverse transformation means for generating the residual compensation image by performing inverse transformation based on a first inverse transformation rule ;
I have a,
A decoding prediction residual image storage unit for storing the decoding prediction residual image as a reference decoding prediction residual image;
The inverse transform unit performs the inverse transform using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage unit as the two-dimensional basis.
A moving picture decoding apparatus characterized by the above.
前記残差復号手段は、
前記複数の二次元基底を記憶する基底記憶手段を更に有し、
前記逆変換手段は、前記基底記憶部に記憶された前記二次元基底を用いて前記逆変換を行う
ことを特徴とする請求項に記載の動画像復号装置。
The residual decoding means includes
Further comprising basis storage means for storing the plurality of two-dimensional bases;
The moving image decoding apparatus according to claim 5 , wherein the inverse transforming unit performs the inverse transform using the two-dimensional basis stored in the basis storage unit.
復号手段が、復号画像に対する予測画像を生成するための動き情報と、前記予測画像に対する残差補償画像を復元するための量子化補償係数と基底情報とを含む残差補償情報と、前記予測画像と前記残差補償画像との差に基づく補償残差画像を復元するための量子化変換係数とが符号化されてなる符号化データを含む圧縮データを復号することによって、前記動き情報と前記残差補償情報と前記量子化変換係数とを生成する復号ステップと、
残差復号手段が、前記残差補償情報を用いて所定の第1の逆変換規則に基づき逆変換を行うことによって前記残差補償画像を生成する残差復号ステップと、
逆量子化変換手が、前記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、該逆量子化変換係数を用いて所定の第2の逆変換規則に基づく逆変換を行うことによって復号補償残差画像を生成する逆量子化変換ステップと、
加算手段が、前記残差補償画像と前記復号補償残差画像との加算に基づき復号予測残差画像を生成する加算ステップと、
動き補償予測手段が、参照画像及び前記動き情報を用いて動き補償予測を行うことによって前記予測画像を生成する動き補償予測ステップと、
復号画像生成手段が、前記復号予測残差画像と前記予測画像との加算に基づき復号画像を生成する復号画像生成ステップと、
参照画像記憶手段が、前記復号画像生成手段によって生成された前記復号画像を、前記動き補償予測手段による前記動き補償予測に提供する前記参照画像として記憶する参照画像記憶ステップと
を備え、
前記残差復号ステップは、
逆量子化手段が、前記残差補償情報に含まれている前記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化ステップと、
逆変換手段が、複数の二次元基底のうち前記残差補償情報に含まれる基底情報によって特定される二次元基底と、前記逆量子化手段によって生成された前記逆量子化補償係数逆変換とを用い、前記所定の第1の逆変換規則に基づき逆変換を行うことによって前記残差補償画像を生成する逆変換ステップと
を含み、
復号予測残差画像記憶手段が、前記復号予測残差画像を参照復号予測残差画像として記憶するステップを更に備え、
前記逆変換ステップにおいて、前記逆変換手段が、前記復号予測残差画像記憶手段に記憶された前記参照復号予測残差画像の部分画像を前記二次元基底として用い前記逆変換を行う、
ことを特徴とする動画像復号方法。
Decoding means, motion information for generating a predicted image for the decoded image, residual compensation information including quantization compensation coefficients and base information for restoring a residual compensated image for the predicted image, and the predicted image By decoding compressed data including encoded data obtained by encoding a quantized transform coefficient for restoring a compensated residual image based on a difference between the motion information and the residual compensated image. A decoding step of generating difference compensation information and the quantized transform coefficients;
A residual decoding step, wherein the residual decoding means generates the residual compensation image by performing an inverse transformation based on a predetermined first inverse transformation rule using the residual compensation information;
An inverse quantization transformer generates an inverse quantization transformation coefficient by inverse quantization of the quantization transformation coefficient, and performs an inverse transformation based on a predetermined second inverse transformation rule using the inverse quantization transformation coefficient. Performing an inverse quantization transform step to generate a decoded compensated residual image;
An adding means for generating a decoded prediction residual image based on the addition of the residual compensation image and the decoded compensation residual image;
A motion compensation prediction step, wherein the motion compensation prediction means generates the prediction image by performing motion compensation prediction using a reference image and the motion information;
A decoded image generating step for generating a decoded image based on the addition of the decoded prediction residual image and the predicted image;
A reference image storage step in which a reference image storage unit stores the decoded image generated by the decoded image generation unit as the reference image provided to the motion compensated prediction by the motion compensation prediction unit ;
With
The residual decoding step includes:
An inverse quantization step in which an inverse quantization means generates an inverse quantization compensation coefficient by inversely quantizing the quantization compensation coefficient included in the residual compensation information;
Inverse transform means includes a two-dimensional basis specified by basis information included in the residual compensation information among a plurality of two-dimensional bases, and the inverse quantization compensation coefficient inverse transform generated by the inverse quantization means. Using the inverse transformation step to generate the residual compensation image by performing an inverse transformation based on the predetermined first inverse transformation rule ;
Only including,
The decoded prediction residual image storage means further comprises a step of storing the decoded prediction residual image as a reference decoded prediction residual image,
In the inverse transformation step, the inverse transformation means performs the inverse transformation using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage means as the two-dimensional basis.
A moving picture decoding method characterized by the above.
コンピュータを、
復号画像に対する予測画像を生成するための動き情報と、前記予測画像に対する残差補償画像を復元するための量子化補償係数と基底情報とを含む残差補償情報と、前記予測画像と前記残差補償画像との差に基づく補償残差画像を復元するための量子化変換係数とが符号化されてなる符号化データを含む圧縮データを復号することによって、前記動き情報と前記残差補償情報と前記量子化変換係数とを生成する復号手段と、
前記残差補償情報を用いて所定の第1の逆変換規則に基づき逆変換を行うことによって前記残差補償画像を生成する残差復号手段と、
前記量子化変換係数を逆量子化することによって逆量子化変換係数を生成し、該逆量子化変換係数を用いて所定の第2の逆変換規則に基づく逆変換を行うことによって復号補償残差画像を生成する逆量子化変換手段と、
前記残差補償画像と前記復号補償残差画像との加算に基づき復号予測残差画像を生成する加算手段と、
参照画像及び前記動き情報を用いて動き補償予測を行うことによって前記予測画像を生成する動き補償予測手段と、
前記復号予測残差画像と前記予測画像との加算に基づき復号画像を生成する復号画像生成手段と、
前記復号画像生成手段によって生成された前記復号画像を、前記動き補償予測手段による前記動き補償予測に提供する前記参照画像として記憶する参照画像記憶手段と、
として機能させ、
前記残差復号手段は、
前記残差補償情報に含まれている前記量子化補償係数を逆量子化することによって逆量子化補償係数を生成する逆量子化手段と、
複数の二次元基底のうち前記残差補償情報に含まれる基底情報によって特定される二次元基底と、前記逆量子化手段によって生成された前記逆量子化補償係数逆変換とを用い、前記所定の第1の逆変換規則に基づき逆変換を行うことによって前記残差補償画像を生成する逆変換手段と
を有し、
前記コンピュータを、前記復号予測残差画像を参照復号予測残差画像として記憶する復号予測残差画像記憶手段として更に機能させ、
前記逆変換手段は、前記復号予測残差画像記憶手段に記憶された前記参照復号予測残差画像の部分画像を前記二次元基底として用い前記逆変換を行う、
ことを特徴とする動画像復号プログラム。
Computer
Residual information including motion information for generating a predicted image for a decoded image, quantization compensation coefficients for restoring a residual compensated image for the predicted image, and base information; the predicted image and the residual By decoding compressed data including encoded data obtained by encoding a quantized transform coefficient for restoring a compensation residual image based on a difference from the compensation image, the motion information and the residual compensation information Decoding means for generating the quantized transform coefficients;
Residual decoding means for generating the residual compensation image by performing inverse transformation based on a predetermined first inverse transformation rule using the residual compensation information;
A decoding compensation residual is generated by generating an inverse quantized transform coefficient by inversely quantizing the quantized transform coefficient and performing an inverse transform based on a predetermined second inverse transform rule using the inverse quantized transform coefficient. An inverse quantization transformation means for generating an image;
Adding means for generating a decoded prediction residual image based on the addition of the residual compensation image and the decoded compensation residual image;
Motion compensated prediction means for generating the predicted image by performing motion compensated prediction using a reference image and the motion information;
Decoded image generating means for generating a decoded image based on the addition of the decoded prediction residual image and the predicted image;
Reference image storage means for storing the decoded image generated by the decoded image generation means as the reference image provided to the motion compensated prediction by the motion compensated prediction means;
Function as
The residual decoding means includes
Inverse quantization means for generating an inverse quantization compensation coefficient by inverse quantization of the quantization compensation coefficient included in the residual compensation information;
Using the two-dimensional basis specified by the basis information included in the residual compensation information among a plurality of two-dimensional basis, and the inverse quantization compensation coefficient inverse transform generated by the inverse quantization means, the predetermined quantization Inverse transformation means for generating the residual compensation image by performing inverse transformation based on a first inverse transformation rule ;
I have a,
Further causing the computer to function as decoded prediction residual image storage means for storing the decoded prediction residual image as a reference decoded prediction residual image;
The inverse transform unit performs the inverse transform using a partial image of the reference decoded prediction residual image stored in the decoded prediction residual image storage unit as the two-dimensional basis.
A moving picture decoding program characterized by the above.
JP2003198606A 2003-07-17 2003-07-17 Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program Expired - Fee Related JP4344184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003198606A JP4344184B2 (en) 2003-07-17 2003-07-17 Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003198606A JP4344184B2 (en) 2003-07-17 2003-07-17 Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Publications (3)

Publication Number Publication Date
JP2005039428A JP2005039428A (en) 2005-02-10
JP2005039428A5 JP2005039428A5 (en) 2006-06-15
JP4344184B2 true JP4344184B2 (en) 2009-10-14

Family

ID=34208344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003198606A Expired - Fee Related JP4344184B2 (en) 2003-07-17 2003-07-17 Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Country Status (1)

Country Link
JP (1) JP4344184B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561401B2 (en) * 2005-02-25 2010-10-13 ソニー株式会社 Data conversion apparatus and method, data reverse conversion apparatus and method, information processing system, recording medium, and program
US9736500B2 (en) 2009-07-06 2017-08-15 Thomson Licensing Methods and apparatus for spatially varying residue coding

Also Published As

Publication number Publication date
JP2005039428A (en) 2005-02-10

Similar Documents

Publication Publication Date Title
JP7085044B2 (en) Image prediction decoding method
JP3997171B2 (en) Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP5686499B2 (en) Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method
CN105284111B (en) Dynamic image encoding device, moving image decoding apparatus, dynamic image encoding method, dynamic image decoding method and program
KR20100019537A (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP4966669B2 (en) Data compression using matching tracking
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
US7620108B2 (en) Integrated spatial-temporal prediction
JP4994767B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
CA2200731A1 (en) Method and apparatus for regenerating a dense motion vector field
JP4344184B2 (en) Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
EP1453004A2 (en) Image encoding apparatus and method
JP7265114B2 (en) Predicted image acquisition device, original signal acquisition device, predicted image acquisition method and program
JP6004852B2 (en) Method and apparatus for encoding and reconstructing pixel blocks
US20140140394A1 (en) Method and device for the transformation and method and device for the reverse transformation of images
KR100601935B1 (en) Digital video processing method and device
JP5415495B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP4116517B2 (en) Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program
JP2004080682A (en) Moving image data coding device, moving image data decoding device, and method thereof

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090710

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4344184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees