JP4696577B2 - Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method - Google Patents
Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method Download PDFInfo
- Publication number
- JP4696577B2 JP4696577B2 JP2005029544A JP2005029544A JP4696577B2 JP 4696577 B2 JP4696577 B2 JP 4696577B2 JP 2005029544 A JP2005029544 A JP 2005029544A JP 2005029544 A JP2005029544 A JP 2005029544A JP 4696577 B2 JP4696577 B2 JP 4696577B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- frame
- image data
- unit
- dynamic range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
本発明は、符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法に関し、特に、ブロック内のダイナミックレンジに最も近いダイナミックレンジを有するブロックを前フレームから探索して、動き推定を行うことにより、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを抑制することができるようにした符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法に関する。 The present invention relates to an encoding apparatus and method, a decoding apparatus and method, a recording medium, a program, an image processing system and a method, and in particular, searches for a block having a dynamic range closest to the dynamic range in the block from a previous frame. , Encoding apparatus and method, decoding apparatus and method capable of suppressing copying while maintaining good quality without degrading the output quality of the data before copying by performing motion estimation , Recording medium, program, image processing system and method.
図1は、従来の画像処理システム1の構成例を示している。この画像処理システム1は、アナログの画像データVanを出力する再生装置11と、この再生装置11から出力される画像データVanに対応する画像を表示するディスプレイ12により構成されている。
FIG. 1 shows a configuration example of a conventional
再生装置11は、復号部21とD/A(Digital-to-Analog)変換部22により構成される。復号部21は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データを、D/A変換部22に供給する。D/A変換部22は、復号部21からのデジタルの画像データを、アナログの画像データに変換し、アナログの画像データVanとして、ディスプレイ12に供給する。
The
ディスプレイ12は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される。
The
ところで、従来においては、このような画像処理システム1の再生装置11により出力されるアナログの画像データVanを利用して、不正コピーが行われる恐れがあった。
Conventionally, there has been a risk of unauthorized copying using analog image data Van output from the
すなわち、再生装置11から出力されるアナログの画像データVanは、A/D変換部31によりデジタルの画像データVdgに変換されて符号化部32に供給される。符号化部32は、デジタルの画像データVdgを符号化し、符号化された画像データVcdを、記録部33に供給する。記録部33は、符号化された画像データVcdを光ディスクなどの記録媒体に記録する。
That is, the analog image data Van output from the
以上のように行われてしまうアナログの画像データVanを用いた不正コピーを防止するためには、従来、著作権保護がなされている場合、アナログの画像データVanをスクランブル処理して出力したり(例えば、特許文献1)、あるいはアナログの画像データVdgの出力を抑制したりしていた。しかしながら、この場合、ディスプレイ12に正常な映像が移らないという問題が発生していた。
In order to prevent unauthorized copying using analog image data Van that is performed as described above, when copyright protection has been conventionally performed, analog image data Van is scrambled and output ( For example, Patent Document 1) or the output of analog image data Vdg has been suppressed. However, in this case, there has been a problem that normal video does not move to the
また、特許文献2に示されるADRC(Adaptive Dynamic Range Coding)を用いて符号化、復号を行う場合にも、符号化、復号によりダイナミックレンジが減少していくことにより、画像データが劣化するが、ADRCによるダイナミックレンジの減少の程度は、それほど大きな劣化ではない。また、ADRCの場合は、動画像に対しても適用可能ではあるが、動きの特性を利用したものではないので、動画像に対してあまり大きな劣化は得られない。
In addition, when encoding and decoding are performed using ADRC (Adaptive Dynamic Range Coding) shown in
そこで、画像が表示されなくなること等の不都合を発生することなく、アナログ画像信号を利用した不正コピーを防止する手法が、本出願人により提案されている(例えば、特許文献3参照)。 Therefore, a method for preventing unauthorized copying using an analog image signal without causing inconvenience such as no image being displayed has been proposed by the present applicant (see, for example, Patent Document 3).
特許文献3に記載の手法では、アナログ画像信号をA/D変換することにより得られるデジタル画像信号の位相ずれ等のアナログノイズに着目し、そのデジタル画像信号に対してアナログノイズに着目した符号化を行うことによってコピー前の画像の質を落とさずに、良好な質を維持したままでのコピーを不可能とし、これによりアナログ画像信号を利用した不正コピーを防止するが、デジタルコンテンツの流通が一般的になっている近年においては、上述のように不正コピーを防止するための別の手法の提案が要請されている。
In the method described in
本発明は、このような状況に鑑みてなされたものであり、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを簡単に抑制することができるようにするものである。 The present invention has been made in view of such a situation, so that copying can be easily suppressed while maintaining good quality without deteriorating the quality of output by data before copying. To do.
本発明の符号化装置は、入力される画像データ中の第1のフレームをブロック化するブロック化手段と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段とを備える。 The encoding apparatus according to the present invention includes a blocking unit configured to block a first frame in input image data, and a dynamic value of a pixel value of a first block of the first frame blocked by the blocking unit. a dynamic range detection section for detecting a range, from the second frame in the image data, detects a second block having the closest dynamic range to the dynamic range detected by the dynamic range detection section, the second block is When a plurality of DCT coefficients are detected , a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used. , Using the motion estimation means for estimating the motion vector of the first block, and the motion vector estimated by the motion estimation means, Coding means for coding one block.
画像データにノイズを付加し、ノイズが付加された画像データを出力するノイズ付加手段をさらに備え、ブロック化手段は、ノイズ付加手段によりノイズが付加された画像データの第1のフレームをブロック化するようにすることができる。 The image processing apparatus further includes noise adding means for adding noise to the image data and outputting the image data to which the noise is added, and the blocking means blocks the first frame of the image data to which the noise is added by the noise adding means. Can be.
動き推定手段により推定された動きベクトルを用いて、第1ブロックに対応する第2のフレームの画像データと、第1のブロックにおける画像データとの差分を算出する差分算出手段をさらに備え、符号化手段は、差分算出手段により算出された差分を符号化することにより、第1のブロックを符号化するようにすることができる。 And further comprising difference calculation means for calculating a difference between the image data of the second frame corresponding to the first block and the image data of the first block using the motion vector estimated by the motion estimation means. The means can encode the first block by encoding the difference calculated by the difference calculating means.
符号化手段は、JPEG(Joint Photographic Coding Experts Group)方式で符号化するようにすることができる。 The encoding means may be encoded by a JPEG (Joint Photographic Coding Experts Group) method.
動き推定手段により推定された動きベクトル、および符号化手段により符号化された第1のブロックを、符号化データとして後段に出力するデータ出力手段をさらに備えるようにすることができる。 Data output means for outputting the motion vector estimated by the motion estimation means and the first block encoded by the encoding means to the subsequent stage as encoded data can be further provided.
本発明の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップとを含む。 The encoding method of the present invention includes a blocking step of blocking a first frame in input image data, and a pixel value of a first block of the first frame blocked by the processing of the blocking step and dynamic range detection step for detecting a dynamic range, from the second frame in the image data, detects a second block having the closest dynamic range to the dynamic range detected by the processing of the dynamic range detection step, the When a plurality of blocks of 2 are detected , a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a DCT coefficient of the plurality of second blocks is calculated, and the second correlation coefficient having the maximum correlation coefficient is calculated . A motion estimation step for estimating a motion vector of the first block using the block; And a coding step for coding the first block using the motion vector estimated by the logic.
本発明の第1の記録媒体に記録されているプログラムは、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップとを含む処理をコンピュータに行わせる。 The program recorded on the first recording medium of the present invention includes a blocking step for blocking the first frame in the input image data, and the first frame blocked by the processing of the blocking step. A dynamic range detecting step for detecting a dynamic range of pixel values of the first block of the first block, and a first dynamic range closest to the dynamic range detected by the processing of the dynamic range detecting step from the second frame in the image data. 2 blocks are detected, and when a plurality of second blocks are detected , a correlation coefficient between the DCT coefficients of the first block and the DCT coefficients of the plurality of second blocks is calculated , A motion estimation step of estimating a motion vector of the first block using the second block; Tsu using the motion vector estimated by the processing of up to perform the processing of the first block and a coding step of coding the computer.
本発明の第1のプログラムは、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップとを含む処理をコンピュータに行わせる。 A first program of the present invention includes a blocking step for blocking a first frame in input image data, and pixels of the first block of the first frame blocked by the processing of the blocking step A dynamic range detecting step for detecting a dynamic range of the values, and detecting a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detecting step from the second frame in the image data; When a plurality of second blocks are detected , a correlation coefficient between the DCT coefficients of the first block and the DCT coefficients of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used. The motion estimation step for estimating the motion vector of the first block, and the motion estimation step By using the motion vector to perform the processing including an encoding step of encoding the first block to the computer.
本発明の復号装置は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段とを備える。 The decoding device of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and detects a plurality of second blocks. If the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated , the motion of the first block is calculated using the second block having the maximum correlation coefficient. And a data input means for inputting the motion vector estimated as follows, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector, and input by the data input means Difference value extraction means for extracting a difference value by decoding the encoded data, and image data of the second frame in accordance with the motion vector input by the data input means. A, by adding the difference value extracted by the difference value extracting means, and a data addition means for generating image data of the first frame.
データ加算手段により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加手段をさらに備えるようにすることができる。 Noise addition means for adding noise to the image data generated by the data addition means and outputting the image data with the noise added to the subsequent stage can be further provided.
データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段をさらに備え、データ加算手段は、動き補償手段により予測された予測ブロックの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するようにすることができる。 According to the motion vector input by the data input means, the apparatus further comprises motion compensation means for predicting the image data of the prediction block from the image data of the second frame, and the data addition means is the prediction predicted by the motion compensation means By adding the difference value extracted by the difference value extraction means to the image data of the block, the image data of the first frame can be generated.
本発明の復号方法は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップとを含む。 The decoding method of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and detects a plurality of second blocks. If the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated , the motion of the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as, and encoded data in which a difference value between the first frame and the second frame obtained by using the motion vector is encoded, and processing of the data input step According to the difference value extraction step for extracting the difference value by decoding the input encoded data and the motion vector input by the processing of the data input step , Including the image data of the second frame, by adding the difference value extracted by the processing of the difference value extracting step, and a data addition step of generating image data of the first frame.
本発明の第2の記録媒体に記録されているプログラムは、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップとを含む処理をコンピュータに行わせる。 The program recorded on the second recording medium of the present invention detects the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data. When a plurality of second blocks are detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is calculated. Data input for inputting a motion vector estimated as the motion of the first block and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector A differential value extraction step for extracting a differential value by decoding the encoded data input by the step, the data input step processing, and the data input step processing A data addition step for generating the image data of the first frame by adding the difference value extracted by the processing of the difference value extraction step to the image data of the second frame according to the input motion vector Causes the computer to perform processing including
本発明の第2のプログラムは、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップとを含む処理をコンピュータに行わせる。 The second program of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and the second block is When a plurality of detection coefficients are detected , a correlation coefficient between the DCT coefficients of the first block and the DCT coefficients of the plurality of second blocks is calculated , and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as the motion of the first frame and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector; A difference value extraction step for extracting the difference value by decoding the encoded data input by the processing, and a motion vector input by the processing of the data input step In response, the computer includes a process including a data addition step of generating image data of the first frame by adding the difference value extracted by the processing of the difference value extraction step to the image data of the second frame. To do.
本発明の第1の画像処理システムは、符号化装置は、入力される画像データ中の第1のフレームをブロック化するブロック化手段と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段とを備える。 In the first image processing system of the present invention, the encoding device includes a blocking unit that blocks the first frame in the input image data, and a first frame that is blocked by the blocking unit. A dynamic range detecting means for detecting a dynamic range of pixel values of one block, and a second block having a dynamic range closest to the dynamic range detected by the dynamic range detecting means from the second frame in the image data. If a plurality of second blocks are detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is calculated. Using the motion estimation means for estimating the motion vector of the first block, and the motion vector estimated by the motion estimation means , And a coding means for coding the first block.
本発明の第2の画像処理システムは、復号装置は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段とを備える。 In the second image processing system of the present invention, the decoding device detects a second block of the second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data. When a plurality of second blocks are detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used. A data input means for inputting a motion vector estimated as the motion of the first block and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector A difference value extracting unit that extracts a difference value by decoding the encoded data input by the data input unit, and a motion vector input by the data input unit The image data of the second frame, by adding the difference value extracted by the difference value extracting means, and a data addition means for generating image data of the first frame.
第1の本発明においては、入力される画像データ中の第1のフレームがブロック化され、ブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジが検出される。画像データ中の第2のフレームから、検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックが検出され、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数が算出され、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルが推定される。そして、推定された動きベクトルを用いて、第1のブロックを符号化する。 In the first aspect of the present invention, the first frame in the input image data is blocked, and the dynamic range of the pixel value of the first block of the blocked first frame is detected. When a second block having a dynamic range closest to the detected dynamic range is detected from a second frame in the image data, and a plurality of second blocks are detected, the DCT coefficient of the first block ; A correlation coefficient with the DCT coefficients of a plurality of second blocks is calculated, and a motion vector of the first block is estimated using the second block having the largest correlation coefficient. Then, the first block is encoded using the estimated motion vector .
第2の本発明においては、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとが入力される。そして、入力された符号化データを復号することにより差分値が抽出され、入力された動きベクトルに応じて、第2のフレームの画像データに、抽出された差分値を加算することで、第1のフレームの画像データが生成される。 In the second aspect of the present invention, the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of second blocks are detected. If detected , the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used to calculate the correlation coefficient of the first block. A motion vector estimated as motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector are input. Then, a difference value is extracted by decoding the input encoded data, and the first difference value is added to the image data of the second frame in accordance with the input motion vector. Frame image data is generated.
第3の本発明においては、入力される画像データ中の第1のフレームがブロック化され、ブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジが検出される。画像データ中の第2のフレームから、検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックが検出され、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数が算出され、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルが推定される。そして、推定された動きベクトルを用いて、第1のブロックが符号化される。 In the third aspect of the present invention, the first frame in the input image data is blocked, and the dynamic range of the pixel value of the first block of the blocked first frame is detected. When a second block having a dynamic range closest to the detected dynamic range is detected from a second frame in the image data, and a plurality of second blocks are detected, the DCT coefficient of the first block ; A correlation coefficient with the DCT coefficients of a plurality of second blocks is calculated, and a motion vector of the first block is estimated using the second block having the largest correlation coefficient. Then, the first block is encoded using the estimated motion vector.
第4の本発明においては、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数が算出され、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとが入力される。そして、入力された符号化データを復号することにより差分値が抽出され、入力された動きベクトルに応じて、第2のフレームの画像データに、抽出された差分値を加算することで、第1のフレームの画像データが生成される。 In the fourth aspect of the present invention, the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of second blocks are detected. If detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used to calculate the first block. A motion vector estimated as motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector are input. Then, a difference value is extracted by decoding the input encoded data, and the first difference value is added to the image data of the second frame in accordance with the input motion vector. Frame image data is generated.
本発明によれば、符号化、復号の繰り返しにより、画像データの劣化の程度を大きくすることができる。これにより、本発明によれば、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを簡単に抑制することができる。 According to the present invention, the degree of degradation of image data can be increased by repeating encoding and decoding. Thus, according to the present invention, it is possible to easily suppress copying while maintaining good quality without degrading the quality of output by data before copying.
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Accordingly, although there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
本発明の符号化装置(例えば、図2の符号化装置63)は、入力される画像データ中の第1のフレームをブロック化するブロック化手段(例えば、図5のブロック化部111)と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段(例えば、図6のDR算出部141)と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段(例えば、図6の動きベクトル算出部144)と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段(例えば、図5の残差符号化部116)とを備える。
The encoding device of the present invention (for example, the encoding device 63 of FIG. 2) includes blocking means (for example, the blocking
画像データにノイズを付加し、ノイズが付加された画像データを出力するノイズ付加手段(例えば、図2のA/D変換部81)をさらに備え、ブロック化手段は、ノイズ付加手段によりノイズが付加された画像データの第1のフレームをブロック化することができる。
The image processing apparatus further includes noise adding means (for example, the A /
動き推定手段により推定された動きベクトルを用いて、第1ブロックに対応する第2のフレームの画像データと、第1のブロックにおける画像データとの差分を算出する差分算出手段(例えば、図5の残差算出部115)をさらに備え、符号化手段は、差分算出手段により算出された差分を符号化することにより、第1のブロックを符号化することができる。 Using the motion vector estimated by the motion estimation means, difference calculation means (for example, FIG. 5) calculates a difference between the image data of the second frame corresponding to the first block and the image data in the first block. further comprising a residual calculation section 115), the encoding means, the difference calculated by the difference calculation means by encoding, can be encoded first block.
動き推定手段により推定された動きベクトル、および符号化手段により符号化された第1のブロックを、符号化データとして後段に出力するデータ出力手段(例えば、図5のデータ合成部117)をさらに備えることができる。
Data output means for outputting the motion vector estimated by the motion estimation means and the first block encoded by the encoding means to the subsequent stage as encoded data (for example, the
本発明の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップ(例えば、図9のステップS21)と、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップ(例えば、図11のステップS63)と、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップ(例えば、図11のステップS69)と、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップ(例えば、図9のステップS24)とを含む。 The encoding method of the present invention includes a blocking step (for example, step S21 in FIG. 9) for blocking the first frame in the input image data, and the first block blocked by the processing of the blocking step. The dynamic range detection step (for example, step S63 in FIG. 11) for detecting the dynamic range of the pixel value of the first block of the frame and the second frame in the image data are detected by the processing of the dynamic range detection step. second block detects with the closest dynamic range to the dynamic range, if the second block is more detected, the DCT coefficient of the first block, the phase relationship between the plurality of DCT coefficients of the second block calculating a number by using a second block of maximum correlation coefficient, estimated motion vector of the first block A motion estimation step (for example, step S69 in FIG. 11) and an encoding step for encoding the first block using the motion vector estimated by the process of the motion estimation step (for example, step S24 in FIG. 9). Including.
なお、本発明の第1の記録媒体および本発明の第1のプログラムも、上述した本発明の符号化方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。 Note that the first recording medium of the present invention and the first program of the present invention are also basically the same processing as the above-described encoding method of the present invention, and are therefore repeated, so that the description thereof is omitted.
本発明の復号装置(例えば、図2の符号化装置63)は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段(例えば、図15のデータ分解部211)と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段(例えば、図15の残差復号部212)と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段(例えば、図15の残差加算部215)とを備える。
The decoding device of the present invention (for example, the encoding device 63 in FIG. 2) is configured to use the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data. When a plurality of second blocks are detected , the correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second correlation coefficient is the maximum. Using the block, the motion vector estimated as the motion of the first block and the encoded data obtained by encoding the difference value between the first frame and the second frame obtained using the motion vector are input. A data input means (for example, the
データ加算手段により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加手段(例えば、図2のD/A変換部85)をさらに備えることができる。
Noise addition means (for example, the D /
データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段(例えば、図15の動き補償部214)をさらに備え、データ加算手段は、動き補償手段により予測された予測ブロックの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成することができる。
According to the motion vector input by the data input unit , the image processing unit further includes a motion compensation unit (for example, the
本発明の復号方法は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップ(例えば、図18のステップS211)と、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップ(例えば、図18のステップS212)と、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップ(例えば、図18のステップS214)とを含む。 The decoding method of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and detects a plurality of second blocks. If the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated , the motion of the first block is calculated using the second block having the maximum correlation coefficient. A data input step (for example, step S211 in FIG. 18) for inputting a motion vector estimated as, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector. ) And a difference value extraction step (for example, step of FIG. 18) for extracting the difference value by decoding the encoded data input by the data input step processing 212), and by adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the processing of the data input step, the first frame Data addition step (for example, step S214 in FIG. 18) for generating the image data.
なお、本発明の第2の記録媒体および本発明の第2のプログラムも、上述した本発明の復号方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。 Note that the second recording medium of the present invention and the second program of the present invention are also basically the same processing as the above-described decoding method of the present invention, and are therefore repeated, so that the description thereof is omitted.
本発明の第1の画像処理システム(例えば、図2の画像処理システム51)は、符号化装置(例えば、図2の符号化部82)は、入力される画像データ中の第1のフレームをブロック化するブロック化手段(例えば、図5のブロック化部111)と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段(例えば、図6のDR算出部141)と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段(例えば、図6の動きベクトル算出部144)と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段(例えば、図5の残差符号化部116)とを備える。
In the first image processing system of the present invention (for example, the
本発明の第2の画像処理システム(例えば、図2の画像処理システム51)は、復号装置(例えば、図2の復号部84)は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数と、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段(例えば、図15のデータ分解部211)と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段(例えば、図15の残差復号部212)と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段(例えば、図15の残差加算部215)とを備える。
In the second image processing system of the present invention (for example, the
以下、図を参照して本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図2は、本発明を適用した画像処理システム51の構成例を表している。この画像処理システム51は、アナログの画像データVan1を出力する再生装置61、再生装置61から出力される画像データVan1に対応する画像を表示するディスプレイ62、およびアナログの画像データVan1を用いて、再び符号化処理を行い、符号化された画像データVcd(以下、符号化データVcdとも称する)を、図示せぬ光ディスクなどの記録媒体に記録する符号化装置63により構成される。
FIG. 2 shows a configuration example of an
再生装置61は、復号部71およびD/A(Digital-to-Analog)変換部72により構成される。復号部71は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データVdg0を、D/A変換部72に供給する。D/A変換部72は、復号部71からのデジタルの画像データVdg0を、アナログの画像データVan1に変換し、変換されたアナログの画像データVan1をディスプレイ62に供給する。
The playback device 61 includes a
ディスプレイ62は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成され、D/A変換部72からのアナログの画像データVan1に対応する画像を表示する。
The
符号化装置63は、A/D(Analog-to-Digital)変換部81、符号化部82、記録部83、復号部84、D/A変換部85、およびディスプレイ86により構成される。
The encoding device 63 includes an A / D (Analog-to-Digital)
A/D変換部81は、再生装置61からのアナログの画像データVan1をデジタルの画像データVdg1に変換し、符号化部82に供給する。
The A /
符号化部82は、A/D変換部81からのデジタルの画像データVdg1を符号化し、符号化データVcdを記録部83または復号部84に供給する。符号化部82においては、再生装置61において記録媒体から再生されて得られる符号化された画像データと同様の符号化処理が実行される。すなわち、符号化部82は、デジタルの画像データVdg1の探索元のブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックを、1フレーム前の画像データから探索することにより、動きベクトルを推定するともに、動き推定後の残差をエントロピ符号化することにより、符号化データVcdを得る。符号化部82の構成の詳細は、後述する。
The
記録部83は、符号化部82からの符号化データVcdを、図示せぬ光ディスクなどの記録媒体に記録する。なお、記録部83により記録媒体に記録された符号化データVcdが記録部83により読み出され、復号部84に供給されるようにしてもよい。
The
復号部84は、符号化部82または記録部83からの符号化データVcdを復号し、復号したデジタルの画像データVdg2をD/A変換部85に供給する。復号部84においては、復号部71における復号と同様の復号処理が実行される。すなわち、復号部84は、符号化部82からの符号化データVcdを用いて、動き補償およびエントロピ符号の復号を行うことによりそれぞれ得られる予測ブロックおよび残差ブロックを足し合わせた出力ブロックで構成されるデジタルの画像データVdg2を取得する。復号部84の構成の詳細は、後述する。
The
D/A変換部85は、復号部84からのデジタルの画像データVdg2を、アナログの画像データVan2に変換し、変換されたアナログの画像データVan2を、ディスプレイ86に供給する。ディスプレイ86は、例えば、CRTやLCDなどで構成され、D/A変換部85からのアナログの画像データVan2に対応する画像を表示する。
The D /
以上のように、この画像処理システム51においては、符号化部82により動き探索する際、ダイナミックレンジを用いて対応するブロックを探索するので、符号化によりダイナミックレンジが変化し、正確な動き推定を行うことが困難になる。
As described above, in the
また、この画像処理システム51において、D/A変換部72やD/A変換部85においてアナログデータに変換される際、A/D変換部81においてデジタルデータに変換される際、並びにD/A変換部72とA/D変換部81の間の通信路などにおいてデータが通信される際、変換された画像データには、ランダムな砂嵐のようなノイズであるホワイトノイズが付加され、それによる高周波成分の歪み、および、画像データの位相がずれることによる歪み(以下、位相ずれと称する)が生じる。すなわち、ホワイトノイズ(による高周波成分の歪み)および位相ずれによる歪み(ノイズ)が、変換後の画像データに付加される。なお、これらのホワイトノイズおよび位相ずれ(による歪み)は、まとめてアナログノイズ(または、アナログ歪み)ともいう。
In the
ここで、ホワイトノイズに起因する高周波成分の歪みについて説明する。デジタルの画像データがアナログの画像データに変換される過程において、周波数成分がほぼ均一なホワイトノイズが画像データに付加される。ホワイトノイズのレベルは、時系列でランダムに変化し、その分布はほぼ正規分布に従う。すなわち、各画素に対応するアナログの画像データに付加されるホワイトノイズのレベルはランダムに変化する。 Here, the distortion of the high frequency component caused by white noise will be described. In the process of converting digital image data into analog image data, white noise with a substantially uniform frequency component is added to the image data. The level of white noise changes randomly in time series, and its distribution almost follows a normal distribution. That is, the level of white noise added to the analog image data corresponding to each pixel changes randomly.
したがって、例えば、変換前のデジタルの画像データVdg0において、水平方向1ラインの複数の画素の画素値が同一の値を有していたとしても、D/A変換部72によりD/A変換され、さらに、A/D変換部81によりA/D変換された後のデジタルの画像データ画像データVdg1における、その同一の値であった画素の画素値は、もとの値(同一の値)を中心値としたある程度の範囲内に分散された値となってしまい、その結果、画像データに高周波成分の歪みが生じる。また、水平方向だけでなく、垂直方向にも同様に高周波成分の歪みが生じる。なお、各画素に付加されるホワイトノイズのレベルの散らばり具合によっては、高周波成分以外の成分の歪みが生じる場合もある。
Therefore, for example, in the digital image data Vdg0 before conversion, even if the pixel values of a plurality of pixels in one horizontal line have the same value, they are D / A converted by the D /
このように、D/A変換部72やD/A変換部85においては、デジタルの画像データがアナログの画像データに変換される過程において、ホワイトノイズが付加されることで、水平方向と垂直方向の2次元に、データの歪みが生じる。なお、画像データに付加されるノイズは、ホワイトノイズに限らず、他の有色のノイズも含まれる。
As described above, in the D /
一方、位相ずれによる歪みとは、画像データVan1に位相ずれによる歪みが付加され、画像データVan1をA/D変換する際に、画像データが量子化される位置がずれることにより、画像データVdg1の画素の位置は、本来の画像データVdg0の画素の位置と比べて、例えば、水平方向にφhおよび垂直方向にφvだけずれてしまうことをいう。なお、水平方向の位相ずれ幅φhは、水平方向の画素間隔より小さくなったり大きくなったりする一方、垂直方向の位相ずれ幅φvは、垂直方向の画素間隔の整数倍となる。また、位相ずれは、水平方向または垂直方向の一方向のみ生じる場合がある。 On the other hand, the distortion due to the phase shift adds distortion due to the phase shift to the image data Van1, and when the A / D conversion is performed on the image data Van1, the position where the image data is quantized shifts, and thus the image data Vdg1 The pixel position is, for example, shifted by φh in the horizontal direction and φv in the vertical direction compared to the pixel position of the original image data Vdg0. The horizontal phase shift width φh is smaller or larger than the horizontal pixel interval, while the vertical phase shift width φv is an integral multiple of the vertical pixel interval. Further, the phase shift may occur only in one direction in the horizontal direction or the vertical direction.
なお、位相ずれが発生することにより、位相ずれの範囲だけ画像の表示位置がずれることになるが、表示位置のずれはわずかであり、ユーザが視認することができるレベルの画像の画質にはほとんど影響を及ぼさない。 When the phase shift occurs, the display position of the image is shifted by the range of the phase shift. However, the display position shift is slight, and the image quality of the image that can be visually recognized by the user is almost the same. Has no effect.
以上のように、D/A変換部72から出力されるアナログの画像データVan1や、A/D変換部81からのデジタルの画像データVdg1は、デジタルの画像データVdg0に較べて、ホワイトノイズおよび位相ずれを伴っており、D/A変換部85から出力されるアナログの画像データVan2は、デジタルの画像データVdg1に較べて、さらに、ホワイトノイズおよび位相ずれを伴っている。
As described above, the analog image data Van1 output from the D /
これらのホワイトノイズおよび位相ずれによる画質の劣化度合いとしては、それほど大きいものではないが、符号化部82において、ホワイトノイズおよび位相ずれを伴うデジタルの画像データVdg1を用いて、ダイナミックレンジに基づいて符号化処理が実行されることにより、動き探索に用いられるダイナミックレンジがさらに変化し、符号化部82における動き推定やエントロピ符号化が正確に行われることがさらに抑制される。
Although the degree of image quality degradation due to these white noise and phase shift is not so great, the
これにより、符号化部82から得られる符号化データVcdや復号部84から得られるアナログの画像データVan2の画質は、デジタルの画像データVdg0やVdg1の画質と較べて大きく劣化するので、ディスプレイ62に、画質の劣化度合いの少ない画像を表示させつつ、アナログコピー防止に寄与することが可能になる。
As a result, the image quality of the encoded data Vcd obtained from the
なお、図2の画像処理システム51において、D/A変換部72やD/A変換部85におけるアナログ変換の際、A/D変換部81におけるデジタル変換の際、ホワイトノイズの付加や位相ずれは、自然に発生するが、自然に発生する以上のホワイトノイズの付加や位相ずれの発生を強制的にかける(付加する)ようにしてもよい。
In the
これにより、さらに、アナログコピー防止の効果を向上させることができる。 As a result, the effect of preventing analog copy can be further improved.
図3は、本発明に係る画像処理システム51において処理される画像データのフレームの構成を示している。
FIG. 3 shows a frame configuration of image data processed in the
図3の例においては、画像データのフレームが時間軸に沿って示されている。画像データは、0フレーム目と5フレーム目の基準フレーム(図中ハッチングされている)と基準フレーム以外のフレームにより構成されている。基準フレームの間隔は、5フレーム間隔であり、ユーザにより設定可能である。 In the example of FIG. 3, a frame of image data is shown along the time axis. The image data is composed of reference frames (hatched in the figure) of the 0th frame and the 5th frame and frames other than the reference frame. The reference frame interval is 5 frame intervals, and can be set by the user.
画像処理システム51においては、これらのフレームのうち、基準フレームには、例えば、符号化、復号によりダイナミックレンジが減少していく、特許文献2に示されるADRC(Adaptive Dynamic Range Coding)が用いられて、フレーム内符号化が実行される。そして、基準フレーム以外のフレームには、以下に説明するフレーム間符号化が実行される。すなわち、以降における説明は、フレーム間符号化を対象とするものである。
In the
次に、図4のフローチャートを参照して、画像処理システム51における処理の例を説明する。
Next, an example of processing in the
ステップS1において、復号部71は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データVdg0を、D/A変換部72に供給し、ステップS2に進む。なお、ステップS1においては、後述するステップS6の復号処理と同様の処理が実行される。
In step S1, the
ステップS2において、D/A変換部72は、復号部71からのデジタルの画像データVdg0を、アナログの画像データVan1に変換し、変換されたアナログの画像データVan1をディスプレイ62およびA/D変換部81に供給し、ステップS3に進む。
In step S2, the D /
これにより、ステップS3において、ディスプレイ62には、アナログの画像データVan1に対応する画像が表示される。
Thus, in step S3, an image corresponding to the analog image data Van1 is displayed on the
ステップS4において、A/D変換部81は、D/A変換部72からのアナログの画像データVan1をデジタルの画像データVdg1に変換し、符号化部82に供給し、ステップS5に進む。すなわち、ステップS2におけるD/A変換部72の変換およびステップS4におけるA/D変換部81の変換により、デジタルの画像データVdg1には、デジタルの画像データVdg0と比して、ホワイトノイズおよび位相ずれが付加されている。
In step S4, the A /
ステップS5において、符号化部82は、A/D変換部81からのデジタルの画像データVdg1を符号化し、符号化データVcdを復号部84に供給し、ステップS6に進む。符号化部82の処理の詳細は、後述する。
In step S5, the
ステップS5の符号化処理により、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1の探索元のブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックを、1フレーム前の画像データから探索することにより、動きベクトルが推定され、動き推定後の残差がエントロピ符号化され、符号化データVcdが得られ、得られた符号化データVcdが復号部84に供給される。
Searching for the block having the dynamic range closest to the dynamic range of the search source block of the digital image data Vdg1 to which the white noise and the phase shift are added from the image data of the previous frame by the encoding process of step S5. Thus, the motion vector is estimated, the residual after the motion estimation is entropy-encoded to obtain encoded data Vcd, and the obtained encoded data Vcd is supplied to the
ステップS6において、復号部84は、符号化部82からの符号化データVcdを復号し、復号したデジタルの画像データVdg2をD/A変換部85に供給し、ステップS7に進む。復号部84の処理の詳細は、後述する。
In step S6, the
ステップS6の復号処理により、符号化部82により符号化された符号化データVcdを用いて、動き補償およびエントロピ符号の復号を行うことにより得られる予測ブロックおよび残差ブロックを足し合わせた出力ブロックが生成され、生成された出力ブロックで構成されるデジタルの画像データVdg2が取得される。
An output block obtained by adding the prediction block and the residual block obtained by performing motion compensation and decoding of the entropy code using the encoded data Vcd encoded by the
ステップS7において、D/A変換部85は、復号部84からのデジタルの画像データVdg2を、アナログの画像データVan2に変換し、変換されたアナログの画像データVan2を、ディスプレイ86に供給し、ステップS8に進む。
In step S7, the D /
これにより、ステップS8において、ディスプレイ86には、アナログの画像データVan2に対応する画像が表示され、画像処理システム51において、画像処理は、終了される。
As a result, in step S8, an image corresponding to the analog image data Van2 is displayed on the display 86, and the image processing is ended in the
以上のように、本発明に係る画像処理システム51においては、符号化部82により動き探索する際、ダイナミックレンジを用いて対応するブロックが探索されるので、符号化によりダイナミックレンジが変化し、動き推定が正確に行われない。
As described above, in the
すなわち、符号化部82から得られる符号化データVcdは、あまり確からしくない。したがって、デジタルコピーを抑制することができる。
That is, the encoded data Vcd obtained from the
また、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を用いて、上述した符号化処理が実行され、ホワイトノイズによりダイナミックレンジがさらに変化するため、動き推定やエントロピ符号化が正確に行われることがさらに抑制される。
In the
そして、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を符号化処理した符号化データVcdを用いて、復号処理が実行されるので、動き補償や残差補償が正確に行われることが抑制される。 Since the decoding process is performed using the encoded data Vcd obtained by encoding the digital image data Vdg1 to which white noise and phase shift are added, motion compensation and residual compensation may be accurately performed. It is suppressed.
これにより、ステップS4においてディスプレイ62に表示される画像よりも、符号化部82から得られる符号化データVcdと、それを復号した復号部84からのデジタルの画像データVdg2が、デジタルの画像データVdg0やアナログの画像データVan1よりも画質が大きく劣化するため、ステップS8においてディスプレイ86に表示される画像の画質が劣化し、アナログコピー防止を図ることができる。
As a result, the encoded data Vcd obtained from the
なお、画質が大きく劣化した符号化データVcdが、記録部83により記録された記録媒体から画像データを読み出して、復号した結果も、ステップS8においてディスプレイ86に表示される画像と同等のものとなる。
It should be noted that the encoded data Vcd whose image quality has greatly deteriorated is read out from the recording medium recorded by the
したがって、上述したステップS1において、記録部83により記録された記録媒体から符号化部32により符号化された画像データを読み出して、復号した画像データに対して、再度、ステップS5およびS6の符号化、および復号が行われた画像データは、デジタルの画像データVdg2よりもさらに画質が劣化する。すなわち、本発明に係る符号化、復号が繰り返される毎に、その結果得られる画像データの画質は、ますます劣化する。
Therefore, in step S1 described above, the image data encoded by the
以上により、アナログコピー防止に寄与することが可能になる。 As described above, it is possible to contribute to the prevention of analog copy.
次に、図2の符号化部82の構成の詳細について説明する。
Next, details of the configuration of the
図5は、符号化部82の構成を示すブロック図である。符号化部82には、A/D変換部81からのホワイトノイズや位相ずれを伴うデジタルの画像データVdg1が入力され、入力されたデジタルの画像データVdg1が符号化され、符号化データVcdが後段の記録部83または復号部84に供給される。
FIG. 5 is a block diagram showing a configuration of the
符号化部82は、ブロック化部111、フレームメモリ112、動き推定部114、残差算出部115、残差符号化部116、およびデータ合成部117により構成される。
The
A/D変換部81からのデジタルの画像データVdg1は、ブロック化部111およびフレームメモリ112に入力される。ブロック化部111は、入力画像を読み込み、指定ブロックサイズ(例えば、4×4画素または8×8画素など)に分割し、指定ブロックサイズの画像データを、入力ブロックとして、ブロック毎に、動き推定部114および残差算出部115に供給する。
The digital image data Vdg1 from the A /
フレームメモリ112は、1フレーム前(以下、前フレームとも称する)の画像データを蓄積し、動き推定部114および残差算出部115に供給する。
The
動き推定部114は、ブロック化部111から供給される入力ブロックと、フレームメモリ112からの前フレームを読み込み、入力ブロックのダイナミックレンジDRinを算出し、算出したダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを前フレームから探索することにより、動きベクトルを算出(推定)し、算出した動きベクトルを、残差算出部115およびデータ合成部117に供給する。
The
なお、探索の結果、前フレームから、ダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックが複数探索された場合、動き推定部114は、入力ブロックおよび探索された複数のブロックのDCT(Discrete Cosine Transform)係数を求め、入力ブロックのDCT係数と複数のブロックのDCT係数の相関係数を算出し、複数のブロックのうち、相関係数最大のブロックを用いて、動きベクトルを算出する。
As a result of the search, when a plurality of blocks having the dynamic range DR closest to the dynamic range DRin are searched from the previous frame, the
すなわち、動き推定部114においてDCT係数の相関係数により動きベクトルが推定された場合、入力される画像データにホワイトノイズや位相ずれが付加されていても、あまり動きベクトルの推定が失敗してしまうことがない。したがって、前フレームから、DCT係数の相関係数最大のブロックを求める前に、ダイナミックレンジが最も近いブロックを求めることにより、間違った動きベクトル(ブロック)が検出され、動きベクトルの推定が失敗されるようになる。
That is, when a motion vector is estimated by the correlation coefficient of the DCT coefficient in the
さらに、DCT係数の相関係数の演算は処理が重いため、DCT係数の相関係数最大のブロックを求める前に、ダイナミックレンジが最も近いブロックを求めて、DCT係数の相関係数の演算の候補を絞ることで、DCT係数の相関係数の演算にかかる処理が軽くなる。 Further, since the calculation of the correlation coefficient of the DCT coefficient is heavy, before obtaining the block having the maximum correlation coefficient of the DCT coefficient, the block having the closest dynamic range is obtained and the correlation coefficient calculation candidate of the DCT coefficient is calculated. By narrowing down, the processing for calculating the correlation coefficient of the DCT coefficient becomes light.
残差算出部115は、動き推定後の残差を求める。すなわち、残差算出部115は、ブロック化部111からの入力ブロック、動き推定部114からの動きベクトル、およびフレームメモリ112からの前フレームを読み込む。残差算出部115は、動きベクトルと前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求める。残差算出部115は、求めた予測ブロックと、入力ブロックの残差を、残差ブロックとして、残差符号化部116に供給する。
The
残差符号化部116は、残差算出部115からの残差ブロックを読み込み、読み込んだ残差ブロックをJPEG(Joint Photographic Coding Experts Group)符号化する。すなわち、残差符号化部116は、残差ブロックを、DCT変換(離散コサイン変換)し、DCT変換された残差ブロックを、符号化部82に内蔵される一般的な量子化テーブル121を用いて、エントロピ符号化し、エントロピ符号化により得られたエントロピ符号データをデータ合成部117に供給する。
The
データ合成部117は、動き推定部114からの動きベクトル、および残差符号化部116からのエントロピ符号データを読み込み、動きベクトル、およびエントロピ符号データを、符号化データVcdとして、後段の記録部83または復号部84に出力する。
The
以上のように、動き推定部114においては、デジタルの画像データVdg1の入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが探索されることにより、動きベクトルが推定(算出)されるため、符号化によりダイナミックレンジが変化してしまい、正確な動き推定が困難となる。
As described above, the
さらに、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが複数探索された場合に、DCT係数(すなわち、周波数成分)の相関係数による比較を行うことにより、動きベクトルを算出するようにしたので、ダイナミックレンジによる探索だけの場合に、あまりにも異なる画素が含まれるブロックが多く探索されてしまうことを抑制することができる。例えば、仮に画素レベルで比較を行う場合よりも相対的に同じようなブロックを探索することができる。 Furthermore, when a plurality of blocks having a dynamic range closest to the dynamic range of the input block are searched, a motion vector is calculated by performing a comparison using a correlation coefficient of DCT coefficients (that is, frequency components). Therefore, it is possible to suppress the search for a large number of blocks including too different pixels in the case of only the search based on the dynamic range. For example, it is possible to search for a relatively similar block compared to a case where comparison is performed at the pixel level.
また、A/D変換部81から入力されるデジタルの画像データVdg1には、ホワイトノイズや位相ずれが付加されているため、動き推定部114により用いられるダイナミックレンジは、ますます変化してしまい、正確に動き推定を行うことがさらに困難である。
In addition, since the digital image data Vdg1 input from the A /
以上のように、動き推定部114により求められた動きベクトルは、必ずしも正確ではなく、その動きベクトルを用いて得られる動き推定後の残差が符号化されたエントロピ符号データも、必ずしも正確ではない。したがって、復号部84により符号化データVcdが用いられて復号されて得られるデジタルの画像データVdg2の画質は、劣化してしまう。これによりアナログコピーが抑制される。
As described above, the motion vector obtained by the
なお、図5の例において、残差算出部115により求められる残差ブロックは、動き推定部114においてDCT係数の相関係数により動きベクトルが推定されて求められているため、波形が低周波であることが多い。したがって、残差符号化部116において、DCT変換を用いるJPEG方式で残差ブロックが符号化されることにより、残差ブロックの低周波が大幅に削減され、符号化による圧縮率が向上される。ただし、残差符号化部116における符号化の方式は、JPEG方式に限定されず、他のエントロピ符号化であっても、デジタルの画像データVdg2の画質劣化においては、同様の効果が得られる。
In the example of FIG. 5, the residual block obtained by the
図6は、図5の動き推定部114の構成例を示している。
FIG. 6 shows a configuration example of the
図6の例において、動き推定部114は、DR(Dynamic Range)算出部141、DRブロック探索部142、DCTブロック探索部143、および動きベクトル算出部144により構成されている。
In the example of FIG. 6, the
DR算出部141は、ブロック化部111から供給される入力ブロックと、フレームメモリ112からの前フレームを読み込む。DR算出部141は、入力ブロックの画素の最大値と最小値からダイナミックレンジDRinを算出する。また、DR算出部141は、前フレームを指定ブロックサイズに分け、前フレームの全ブロックのダイナミックレンジDRを算出する。DR算出部141は、算出したダイナミックレンジと対応するブロックを、DRブロック探索部142に供給する。
The
DRブロック探索部142は、DR算出部141により算出された入力ブロックのダイナミックレンジDRinと、前フレームのブロックのダイナミックレンジDRを比較し、ダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを探索する。DRブロック探索部142は、探索したブロックが1つの場合、探索したブロックが入力ブロックに対応する前フレームのブロックであると決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給し、探索したブロックが複数ある場合、探索したブロックと入力ブロックをDCTブロック探索部143に供給する。
The DR
DCTブロック探索部143は、DRブロック探索部142により探索された複数のブロックと入力ブロックのDCT係数を求め、入力ブロックのDCT係数と複数のブロックのDCT係数の相関係数を算出し、複数のブロックのうち、相関係数最大のブロックを、入力ブロックに対応する前フレームのブロックであると決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給する。
The DCT
なお、図6のDCTブロック探索部143は、DCT係数の相関に基づいて、入力ブロックに対応する前フレームのブロックを決定したが、周波数成分などの波形であれば、FFTを用いるようにしてもよく、DCT係数に限定されない。
Note that the DCT
動きベクトル算出部144は、DRブロック探索部142またはDCTブロック探索部143により決定されたブロックに基づいて、動きベクトルを算出し、算出した動きベクトルを残差算出部115およびデータ合成部117に供給する。
The motion
図7は、図5の残差算出部115の構成例を示している。
FIG. 7 shows a configuration example of the
図7の例において、残差算出部115は、予測ブロック演算部151および残差演算部152により構成されている。
In the example of FIG. 7, the
予測ブロック演算部151は、動き推定部114からの動きベクトル、およびフレームメモリ112からの前フレームを読み込み、動きベクトルと前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求め、求めた予測ブロックを残差演算部152に供給する。
The prediction
残差演算部152は、ブロック化部111からの入力ブロック、および予測ブロック演算部151からの予測ブロックを読み込み、入力ブロックと予測ブロックの残差を算出し、算出した残差を、残差ブロックとして、残差符号化部116に供給する。
The
図8は、図5の残差符号化部116の構成例を示している。
FIG. 8 shows a configuration example of the
図8の例において、残差符号化部116は、DCT係数変換部161、量子化部162、およびランレングス符号化部163により構成されている。
In the example of FIG. 8, the
DCT係数変換部161は、残差演算部152からの残差ブロックを読み込み、読み込んだ残差ブロックをDCT係数に変換し、変換したDCT係数を量子化部162に供給する。
The DCT
量子化部162は、DCT係数変換部161により変換されたDCT係数、および量子化テーブル121を読み込み、量子化テーブル121を用いて、DCT係数を量子化(スカラー量子化)し、量子化データとして、ランレングス符号化部163に供給する。
The
ランレングス符号化部163は、量子化部162からの量子化データをジグザグスキャンし、その後、ランレングス符号化し、ランレングス符号化されたデータを、エントロピ符号データとして、データ合成部117に供給する。
The run-
次に、図9のフローチャートを参照して、図5の符号化部82の符号化処理を説明する。なお、この符号化処理は、図4を参照して上述した符号化装置63の処理におけるステップS5の符号化処理である。
Next, the encoding process of the
符号化部82のブロック化部111およびフレームメモリ112には、A/D変換部81からのデジタルの画像データVdg1が入力される。フレームメモリ112に入力され、蓄積された前フレームの画像データは、動き推定部114および残差算出部115に供給される。
Digital image data Vdg1 from the A /
A/D変換部81からのデジタルの画像データVdg1が入力されると、ブロック化部111は、ステップS21において、ブロック化処理を実行する。このブロック化処理は、図10を参照して詳しく後述する。
When the digital image data Vdg1 from the A /
ステップS21のブロック化処理により、読み込まれた入力画像が指定ブロックサイズに分割され、分割された画像データが入力ブロックとして、ブロック毎に動き推定部114および残差算出部115に供給され、処理は、ステップS22に進む。
By the blocking process of step S21, the read input image is divided into designated block sizes, and the divided image data is supplied as input blocks to the
動き推定部114は、ブロック化部111から入力ブロックが入力されると、ステップS22において、入力ブロックと前フレームを用いて、動き推定処理を実行する。この動き推定処理は、図11を参照して詳しく後述する。
When the input block is input from the blocking
ステップS23の動き推定処理により、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが前フレームから探索されることにより、動きベクトルが算出される。そして、算出された動きベクトルが、残差算出部115およびデータ合成部117に供給され、処理は、ステップS24に進む。
A motion vector is calculated by searching for a block having a dynamic range closest to the dynamic range of the input block from the previous frame by the motion estimation process in step S23. Then, the calculated motion vector is supplied to the
残差算出部115は、動き推定部114から動きベクトルが供給されると、ステップS23において、残差算出処理を実行する。この残差算出処理は、図12を参照して詳しく後述する。
When the motion vector is supplied from the
ステップS23の残差算出処理により、動き推定部114からの動きベクトルと、フレームメモリ112からの前フレームを用いて、予測ブロックの画素値が生成され、予測ブロックが求められる。そして、求められた予測ブロックと、ブロック化部111からの入力ブロックの残差が、残差ブロックとして、残差符号化部116に供給され、処理は、ステップS24に進む。
By the residual calculation process in step S23, the pixel value of the prediction block is generated using the motion vector from the
残差符号化部116は、残差算出部115から残差ブロックが供給されると、ステップS24において、残差符号化処理を実行する。この残差符号化処理は、図13を参照して詳しく後述する。
When the residual block is supplied from the
ステップS24の残差符号化処理により、残差算出部115からの残差ブロックが、DCT係数に変換され、量子化テーブル121を用いて量子化され、ランレングス符号化され、エントロピ符号データとして、データ合成部117に供給され、処理は、ステップS25に進む。
By the residual encoding process in step S24, the residual block from the
データ合成部117は、残差符号化部116からエントロピ符号データが入力されると、ステップS25においてデータ合成処理を実行する。このデータ合成処理は、図14を参照して詳しく後述する。
When the entropy code data is input from the
ステップS25のデータ合成処理により、動き推定部114からの動きベクトル、および残差符号化部116からのエントロピ符号データが、符号化データVcdとして合成され、後段の記録部83または復号部84に出力される。
Through the data synthesis process in step S25, the motion vector from the
以上により、符号化部82の符号化処理は、終了され、処理は、図4のステップS5に戻り、ステップS6に進み、復号処理が実行される。
As described above, the encoding process of the
次に、図10のフローチャートを参照して、図9のステップS21における、図5のブロック化部111のブロック化処理を説明する。
Next, the blocking process of the
ブロック化部111は、ステップS41において、A/D変換部81から入力されたデジタルの画像データVdg1を入力画像として読み込み、ステップS42に進み、入力画像を指定ブロック(例えば、4×4画素または8×8画素など)に分割し、ステップS43に進む。
In step S41, the
ブロック化部111は、ステップS43において、分割した指定ブロックサイズの画像データを、入力ブロックとして、ブロック毎に、動き推定部114および残差算出部115に供給し、ブロック化処理を終了し、図9のステップS21に戻り、ステップS22に進む。
In step S43, the blocking
次に、図11のフローチャートを参照して、図9のステップS22における、図5の動き推定部114の動き推定処理を説明する。
Next, the motion estimation process of the
DR算出部141は、ステップS61において、ブロック化部111から供給される入力ブロックを読み込み、ステップS62に進み、フレームメモリ112から前フレームを読み込み、ステップS63に進む。
In step S61, the
DR算出部141は、ステップS63において、入力ブロックの画素の最大値と最小値からダイナミックレンジDRinを算出し、算出したダイナミックレンジDRinと入力ブロックをDRブロック探索部142に供給し、ステップS64に進む。なお、このとき、DR算出部141は、前フレームにおいて指定ブロックサイズに分けられた各ブロックのダイナミックレンジDRも算出し、算出したダイナミックレンジDRと前フレームを、DRブロック探索部142に供給する。
In step S63, the
DRブロック探索部142は、ステップS64において、DR算出部141により算出された入力ブロックのダイナミックレンジDRinと、前フレームのブロックのダイナミックレンジDRを比較し、前フレームから、ダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを探索し、ステップS65に進む。
In step S64, the DR
DRブロック探索部142は、ステップS65において、探索したブロック、すなわち、入力ブロックのダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを複数探索したか否かを判定し、複数探索したと判定した探索した場合、探索したブロックと入力ブロックをDCTブロック探索部143に供給し、ステップS66に進む。
In step S65, the DR
DCTブロック探索部143は、ステップS66において、DRブロック探索部142により探索された複数のブロックと入力ブロックのDCT係数を求め、入力ブロックのDCT係数と複数のブロックのDCT係数の相関係数を算出し、算出したDCT係数の相関係数を比較し、ステップS67に進む。
In step S66, the DCT
DCTブロック探索部143は、DCT係数の相関係数を比較した結果、ステップS67において、複数のブロックのうち、相関係数最大のブロックを、入力ブロックに対応する前フレームのブロックとして決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給し、ステップS69に進む。
As a result of comparing the correlation coefficients of the DCT coefficients, the DCT
一方、DRブロック探索部142は、ステップS65において、入力ブロックのダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを1つだけ探索したと判定した場合、ステップS68に進み、探索したブロックを入力ブロックに対応する前フレームのブロックとして決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給し、ステップS69に進む。
On the other hand, if the DR
動きベクトル算出部144は、ステップS69において、DRブロック探索部142またはDCTブロック探索部143により決定されたブロックに基づいて、動きベクトルを算出し、算出した動きベクトルを残差算出部115およびデータ合成部117に供給し、動き推定処理を終了し、図9のステップS22に戻り、ステップS23に進む。
In step S69, the motion
次に、図12のフローチャートを参照して、図9のステップS23における、図5の残差算出部115の残差算出処理を説明する。
Next, the residual calculation processing of the
残差演算部152は、ステップS101において、ブロック化部111から供給される入力ブロックを読み込み、ステップS102に進む。
In step S101, the
予測ブロック演算部151は、ステップS102において、動き推定部114から供給される動きベクトルを読み込み、ステップS103に進み、フレームメモリ112から供給される前フレームを読み込み、ステップS104に進む。
In step S102, the prediction
予測ブロック演算部151は、ステップS104において、動き推定部114からの動きベクトルと、フレームメモリ112からの前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求め、求めた予測ブロックを残差演算部152に供給し、ステップS105に進む。
In step S104, the prediction
残差演算部152は、ステップS105において、ブロック化部111からの入力ブロック、および予測ブロック演算部151からの予測ブロックの残差を算出し、算出した残差を、残差ブロックとして、残差符号化部116に供給し、残差算出処理を終了し、図9のステップS23に戻り、ステップS24に進む。
In step S105, the
次に、図13のフローチャートを参照して、図9のステップS24における、図5の残差符号化部116の残差符号化処理を説明する。
Next, the residual encoding process of the
DCT係数変換部161は、ステップS121において、残差演算部152からの残差ブロックを読み込み、ステップS122に進み、読み込んだ残差ブロックをDCT変換し、DCT係数を取得し、取得したDCT係数を量子化部162に供給し、ステップS123に進む。
In step S121, the DCT
量子化部162は、DCT係数変換部161からDCT係数が供給されると、ステップS123において、量子化テーブル121を読み込み、ステップS124に進み、読み込んだ量子化テーブル121を用いて、DCT係数を量子化し、量子化した量子化データを、ランレングス符号化部163に供給し、ステップS125に進む。
When the DCT coefficient is supplied from the DCT
ランレングス符号化部163は、量子化部162から量子化データが供給されると、ステップS125において、量子化データ(すなわち、量子化されたDCT係数)をジグザグスキャンし、ステップS126に進み、ジグザグスキャンした量子化データをランレングス符号化し、ランレングス符号化されたデータを、エントロピ符号データとして、データ合成部117に供給し、残差符号化処理を終了し、図9のステップS24に戻り、ステップS25に進む。
When the quantized data is supplied from the
次に、図14のフローチャートを参照して、図10のステップS25における、図5のデータ合成部117のデータ合成処理を説明する。
Next, the data composition processing of the
データ合成部117は、ステップS141において、残差符号化部116から供給されるエントロピ符号データを読み込み、ステップS142に進み、動き推定部114から供給される動きベクトルを読み込み、ステップS143に進む。
In step S141, the
データ合成部117は、ステップS143において、エントロピ符号データ、および動きベクトルを合成し、符号化データVcdとして、後段の記録部83または復号部84に供給する。
In step S143, the
そして、データ合成部117は、データ合成処理を終了し、図9のステップS25に戻り、図9の符号化処理を終了し、図4のステップS5に戻り、ステップS6に進む。
Then, the
以上のように、符号化部82においては、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが前フレームから探索され、探索されたブロックに基づいて、動きベクトルが算出されるので、符号化によりダイナミックレンジが変化してしまい、動きベクトルの推定が失敗することが多く、正確な動き推定が困難となる。
As described above, in the
したがって、デジタルコピーおよびアナログコピーが抑制される。 Therefore, digital copy and analog copy are suppressed.
また、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが複数探索された場合に、DCT係数(すなわち、周波数成分)の相関係数による比較を行うことにより、動きベクトルを算出するようにしたので、あまりにも異なる画素が含まれるブロックが探索されることを少し抑制することができる。 In addition, when a plurality of blocks having a dynamic range closest to the dynamic range of the input block are searched, a motion vector is calculated by performing a comparison using a correlation coefficient of DCT coefficients (that is, frequency components). Therefore, searching for a block including too different pixels can be suppressed a little.
さらに、この動きベクトルは、動き推定部114によりダイナミックレンジに最も近いダイナミックレンジを有するブロックが前フレームから探索され、探索されたブロックに基づいて、求められたものであり、A/D変換部81から入力されるデジタルの画像データVdg1には、ホワイトノイズや位相ずれが付加されているため、ダイナミックレンジがさらに変化し、間違って推定されたものが多く、確からしくない。
Further, the motion vector is obtained from the previous frame by searching for a block having a dynamic range closest to the dynamic range by the
したがって、この動きベクトルを用いて得られる動き推定後の残差が符号化されたエントロピ符号化データもあまり確からしくない。これにより、復号部84により符号化データVcdが用いられて復号されて得られるデジタルの画像データVdg2の画質は、劣化してしまう。
Therefore, the entropy-encoded data obtained by encoding the residual after motion estimation obtained using this motion vector is not very accurate. As a result, the image quality of the digital image data Vdg2 obtained by decoding using the encoded data Vcd by the
以上より、符号化部82による符号化により、アナログコピーがさらに抑制される。
As described above, the analog copy is further suppressed by the encoding by the
次に、図2の復号部84の構成の詳細について説明する。
Next, details of the configuration of the
図15は、復号部84の構成を示すブロック図である。復号部84には、符号化部82または記録部83から符号化データVcdが入力され、符号化データVcdが復号され、デジタルの画像データVdg2として、後段のD/A変換部85に供給される。
FIG. 15 is a block diagram illustrating a configuration of the
復号部84は、データ分解部211、残差復号部212、フレームメモリ213、動き補償部214、残差加算部215、およびデータ結合部216により構成される。
The
データ分解部211は、符号化部82(あるいは記録部83)からの符号化データVcdを入力し、符号化データVcdから、動きベクトル、およびエントロピ符号データを分解し、動きベクトルを動き補償部214に供給し、エントロピ符号データを残差復号部212に供給する。
The
残差復号部212は、データ分解部211からのエントロピ符号データを読み込み、残差補償を行う。すなわち、残差復号部212は、エントロピ符号データを復号し、復号部84に内蔵される一般的な量子化テーブル121を用いて、逆量子化を行い、逆量子化により得られた値を、逆DCT変換することで残差ブロックを求め、求めた残差ブロックを残差加算部215に供給する。
The
フレームメモリ213には、データ結合部216からのデジタルの画像データVdg2が蓄積され、フレームメモリ213は、前フレームの画像データを動き補償部214に供給する。
The frame memory 213 stores the digital image data Vdg2 from the
動き補償部214は、データ分解部211からの動きベクトルに基づいて、フレームメモリ213から読み込んだ前フレームから、動き推定先のブロックを求め、求めたブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給する。
The
残差加算部215は、動き補償部214により求められた予測ブロックに、残差復号部212により求められた残差ブロックを加算し、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給する。
The
データ結合部216は、内蔵する図示せぬメモリに出力画像領域を有し、残差加算部215からの出力ブロックの画像データを、出力画像領域に書き込み、すべての出力ブロックの分が書き込まれたとき、出力画像領域に書き込まれた画像データを、デジタルの画像データVdg2として、後段のD/A変換部85に供給するとともに、フレームメモリ213に書き込む。
The
以上のように、図15の復号部84において、動き補償部214により求められた予測ブロックは、符号化部82により求められたあまり確かではない動きベクトルに基づいて取得されている。また、残差復号部212により求められた残差ブロックも、符号化部82において動きベクトルに基づいて求められている。
As described above, in the
すなわち、動き補償部214が実行する動き補償も、残差復号部212が実行する残差補償も、必ずしも正確ではない。したがって、予測ブロックと残差ブロックが加算されて生成される出力ブロックからなるデジタルの画像データVdg2の画質は劣化してしまう。これにより、アナログコピーが抑制される。
That is, neither the motion compensation performed by the
図16は、図15の残差復号部212の構成例を示している。
FIG. 16 shows a configuration example of the
図18の例において、残差復号部212は、ランレングス復号部221、逆量子化部222、および逆DCT変換部223により構成されている。
In the example of FIG. 18, the
ランレングス復号部221は、データ分解部211からのエントロピ符号データを読み込み、読み込んだエントロピ符号データをランレングス復号し、ランレングス復号されたデータ、すなわち、量子化データを、逆量子化部222に供給する。
The run-
逆量子化部222は、一般的な量子化テーブル121を読み込み、読み込んだ量子化テーブル121を用いて、ランレングス復号部221によりランレングス復号された量子化データを逆量子化し、逆量子化により得られた値(すなわち、DCT係数)を、逆DCT変換部223に供給する。
The
逆DCT変換部223は、逆量子化部222により逆量子化されたDCT係数を、逆DCT変換することで、残差ブロックを取得し、取得した残差ブロックを、残差加算部215に供給する。
The inverse
図17は、図15の動き補償部214の構成例を示している。
FIG. 17 shows a configuration example of the
図17の例において、動き補償部214は、動き補償処理部231および予測ブロック取得部232により構成されている。
In the example of FIG. 17, the
動き補償処理部231は、データ分解部211から供給される動きベクトルを読み込み、フレームメモリ213から前フレームを読み込む。そして、動き補償処理部231は、データ分解部211からの動きベクトルに基づいて、フレームメモリ213からの前フレームから、動き推定先のブロックを求める。
The motion
予測ブロック取得部232は、動き補償処理部231により求められた動き推定先のブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給する。
The prediction
次に、図18のフローチャートを参照して、図15の復号部84の復号処理を説明する。なお、この符号化処理は、図4を参照して上述した符号化装置63の処理におけるステップS6の復号処理である。
Next, the decoding process of the
復号部84のデータ分解部211には、符号化部82(あるいは記録部83)から符号化データVcdが供給される。データ分解部211は、符号化データVcdが供給されると、ステップS211において、データ分解処理を実行する。このデータ分解処理は、図19を参照して詳しく後述する。
The encoded data Vcd is supplied from the encoding unit 82 (or recording unit 83) to the
ステップS211のデータ分解処理により、符号化部82からの符号化データVcdが分解され、分解された動きベクトルが動き補償部214に供給され、エントロピ符号データが、残差復号部212に供給され、処理は、ステップS212に進む。
The encoded data Vcd from the
残差復号部212は、データ分解部211からエントロピ符号データが供給されると、ステップS212において、残差復号処理を実行する。この残差復号処理は、図20を参照して詳しく後述する。
When entropy code data is supplied from the
ステップS212の残差復号処理により、エントロピ符号データがランレングス復号され、ランレングス復号された量子化データと量子化テーブル121を用いて、逆量子化が行われ、逆量子化により得られた値が逆DCT変換されて、残差ブロックが求められ、残差加算部215に供給され、処理は、ステップS213に進む。
The entropy code data is run-length decoded by the residual decoding process in step S212, and the inverse quantization is performed using the run-length decoded quantization data and the quantization table 121, and the value obtained by the inverse quantization. Are subjected to inverse DCT transform to obtain a residual block, which is supplied to the residual adding
動き補償部214は、データ分解部211から動きベクトルが供給されると、ステップS213において、動き補償処理を実行する。この動き補償処理は、図21を参照して詳しく後述する。
When the motion vector is supplied from the
ステップS213の動き補償処理により、データ分解部211からの動きベクトルに基づいて、フレームメモリ213から読み込んだ前フレームから、動き推定先のブロックが求められ、求められたブロックから、予測ブロックが取得され、取得された予測ブロックが残差加算部215に供給され、処理は、ステップS214に進む。
Based on the motion vector from the
残差加算部215は、動き補償部214から予測ブロックが供給されると、ステップS214において、残差加算処理を実行する。この残差加算処理は、図22を参照して詳しく後述する。
When the prediction block is supplied from the
ステップS214の残差加算処理により、動き補償部214からの予測ブロックに、残差復号部212からの残差ブロックが加算され、出力ブロックとしてデータ結合部216に供給され、処理は、ステップS215に進む。
By the residual addition process in step S214, the residual block from the
残差加算部215から出力ブロックが供給されると、データ結合部216は、ステップS215において、データ結合処理を実行する。このデータ結合処理は、図23を参照して詳しく後述する。
When the output block is supplied from the residual adding
ステップS215のデータ結合処理により、残差加算部215からの出力ブロックの画像データが、出力画像領域に書き込まれ、すべての出力ブロックの分が書き込まれたとき、出力画像領域に書き込まれた画像データが、デジタルの画像データVdg2として、後段のD/A変換部85に供給され、復号処理は終了し、図4のステップS6に戻り、ステップS7に進む。
The image data of the output block from the residual adding
次に、図19のフローチャートを参照して、図18のステップS211における、図15のデータ分解部211のデータ分解処理を説明する。
Next, the data decomposition process of the
データ分解部211は、ステップS231において、符号化部82から供給される符号化データVcdを入力し、ステップS232に進み、入力した符号化データVcdを分解する。
In step S231, the
すなわち、データ分解部211は、ステップS232において、符号化データVcdから、動きベクトルおよびエントロピ符号データを分解し、ステップS233に進む。
That is, in step S232, the
データ分解部211は、ステップS233において、分解した動きベクトルを動き補償部214に供給し、分解したエントロピ符号データを、残差復号部212に供給し、データ分解処理を終了し、図18のステップS211に戻り、ステップS212に進む。
In step S233, the
次に、図20のフローチャートを参照して、図18のステップS212における、図15の残差復号部212の残差復号処理を説明する。
Next, the residual decoding process of the
ランレングス復号部221は、ステップS251において、データ分解部211から供給されるエントロピ符号データを読み込み、ステップS252に進み、読み込んだエントロピ符号データをランレングス復号し、ランレングス復号されたデータ、すなわち、量子化データを得て、量子化データを逆量子化部222に供給し、ステップS253に進む。
In step S251, the run-
逆ベクトル量子化部221は、ステップS253において、量子化テーブル121を読み込み、ステップS254に進み、ランレングス復号部221からの量子化データと量子化テーブル121を用いて逆量子化を行い、逆量子化により得られた値(すなわち、DCT係数)を、逆DCT変換部223に供給し、ステップS255に進む。
In step S253, the inverse
この量子化テーブル121は、一般的な量子化テーブルであり、復号部84に予め記憶されている。
The quantization table 121 is a general quantization table and is stored in advance in the
逆DCT変換部223は、ステップS255において、逆ベクトル量子化部221からのDCT係数を、逆DCT変換することで、残差ブロックを取得し、取得した残差ブロックを残差加算部215に供給し、残差復号処理を終了し、図18のステップS212に戻り、ステップS213に進む。
In step S <b> 255, the inverse
次に、図21のフローチャートを参照して、図18のステップS213における、図15の動き補償部214の動き補償処理を説明する。
Next, the motion compensation processing of the
動き補償処理部231は、ステップS271において、データ分解部211から供給される動きベクトルを読み込み、ステップS272に進み、フレームメモリ213から前フレームを読み込み、ステップS273に進む。
In step S271, the motion
動き補償処理部231は、ステップS273において、データ分解部211からの動きベクトルに基づいて、フレームメモリ213からの前フレームから、動き推定先のブロックを求め、ステップS274に進む。
In step S273, the motion
予測ブロック取得部232は、ステップS274において、動き補償処理部231により求められた動き推定先のブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給し、動き補償処理を終了し、図18のステップS213に戻り、ステップS214に進む。
In step S274, the prediction
次に、図22のフローチャートを参照して、図18のステップS214における、図15の残差加算部215の残差加算処理を説明する。
Next, the residual addition process of the
残差加算部215は、ステップS291において、残差復号部212から供給される残差ブロックを読み込み、ステップS292に進み、動き補償部214から供給される予測ブロックを読み込み、ステップS293に進む。
In step S291, the
残差加算部215は、ステップS293において、動き補償部214からの予測ブロックに、残差復号部212からの残差ブロックを加算することにより、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給し、残差加算処理を終了し、図18のステップS214に戻り、ステップS215に進む。
In step S293, the
次に、図23のフローチャートを参照して、図18のステップS215における、図15のデータ結合部216のデータ結合処理を説明する。
Next, the data combining process of the
データ結合部216は、ステップS311において、残差加算部215から供給されるすべての出力ブロック(すなわち、符号化部82のブロック化部111が入力した入力画像に対応するすべてのブロック)を入力し、ステップS312に進む。
In step S311, the
データ結合部216は、ステップS312において、出力ブロックの画像データを出力画像領域に書き込み、ステップS313に進み、すべての出力ブロックの書き込みが終了したか否かを判定し、すべての出力ブロックの書き込みが終了していないと判定した場合、ステップS312に戻り、それ以降の処理を繰り返す。
In step S312, the
データ結合部216は、ステップS313において、すべての出力ブロックの書き込みが終了したと判定した場合、ステップS314に進み、出力画像領域に書き込まれた画像データを、デジタルの画像データVdg2として、後段のD/A変換部85に供給するとともにフレームメモリ213に書き込み、図18のステップS215に進み、図18の復号処理を終了し、図4のステップS6に戻り、ステップS7に進む。
If the
以上のように、復号部84においては、符号化部82によりダイナミックレンジが最も近いブロックに基づいて推定された動きベクトルを用いて、動き補償されるので、動き補償により得られる予測ブロックが用いられて生成される画像データの画質は、劣化してしまう。
As described above, in the
また、復号部84においては、符号化部82により動きベクトルを用いて得られる動き推定後の残差がJPEG符号化されたエントロピ符号データを用いて、残差補償が実行されるので、残差補償により得られる残差ブロックが用いられて生成される画像データの画質は、劣化してしまう。
Further, in the
したがって、アナログコピーを抑制することができる。 Therefore, analog copying can be suppressed.
以上のように、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を用いて符号化処理が実行されるため、符号化部82における動き推定やエントロピ符号化が正確に行われることが抑制される。
As described above, in the
また、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を符号化処理した符号化データVcdを用いて、復号処理が実行されるので、動き補償や残差補償が正確に行われることが抑制される。
In the
以上により、符号化部82から得られる符号化データVcdと、それを復号した復号部84からのデジタルの画像データVdg2は、デジタルの画像データVdg0やアナログの画像データVan1よりも画質が大きく劣化してしまう。これにより、アナログコピーの防止に寄与することができる。
As described above, the encoded data Vcd obtained from the
なお、上記説明においては、符号化装置63の復号部84を用いて説明したが、再生装置61の復号部71も同様の構成であり、同様の処理が実行される。したがって、本発明に係る符号化および復号は、繰り返し実行されることもあり、その場合には、繰り返される毎に、その結果得られる画像データの画質は、ますます劣化するので、さらにアナログコピーの防止の寄与に効果がある。
In the above description, the
また、本実施の形態においては、各処理を行うブロックを、例えば、8画素×8画素や4画素×4画素などにより構成するようにして説明したが、これらは、一例であり、各処理を行うブロックを構成する画素は、上記画素数に限定されない。 Further, in the present embodiment, the block for performing each process has been described as being configured by, for example, 8 pixels × 8 pixels, 4 pixels × 4 pixels, and the like. However, these are examples, and each process is performed. The number of pixels constituting the block to be performed is not limited to the number of pixels.
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、図2の再生装置61や符号化装置63は、例えば、図24に示されるようなパーソナルコンピュータ301により構成される。
The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the playback device 61 and the encoding device 63 in FIG. 2 are configured by, for example, a
図24に示されるように、CPU311は、ROM(Read Only Memory)312に記録されているプログラム、または記憶部318からRAM(Random Access Memory)313にロードされたプログラムに従って各種の処理を実行する。RAM313にはまた、CPU311が各種の処理を実行する上において必要なデータなども適宜記憶される。
As illustrated in FIG. 24, the
CPU311、ROM312、およびRAM313は、バス314を介して相互に接続されている。このバス314にはまた、入出力インタフェース315も接続されている。
The
入出力インタフェース315には、キーボード、マウスなどよりなる入力部316、CRT、LCDなどよりなるディスプレイ(例えば、図2のディスプレイ62やディスプレイ86)、並びにスピーカなどよりなる出力部317、ハードディスクなどより構成される記憶部318、モデム、ターミナルアダプタなどより構成される通信部319が接続されている。通信部319は、インターネットを含む図示せぬネットワークを介して他の情報処理装置との通信処理を行う。
The input /
入出力インタフェース315にはまた、必要に応じて、ドライブ320が接続され、磁気ディスク321、光ディスク322、光磁気ディスク323、或いは半導体メモリ324などよりなるリムーバブル記録媒体が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部318などにインストールされる。
A
すなわち、ドライブ320が、図2の記録部83に相当することになる。
That is, the
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
例えば、上述した図2の復号部71およびD/A変換部72、並びに、A/D変換部81、符号化部82、復号部84、およびD/A変換部85などの機能を有するソフトウェアを構成するプログラムがインストールされる。なお、このプログラムは、全体として上述した一連の処理を実行できれば、その形態は特に限定されない。例えば、上述した各ブロックのそれぞれに対応するモジュールのそれぞれからなるモジュール構成とされてもよいし、幾つかのブロックの機能の一部または全部が組み合わされたモジュール、若しくは、ブロックの機能が分割されたモジュールからなるモジュール構成とされてもよい。或いは、単に1つのアルゴリズムを有するプログラムでもよい。
For example, software having functions such as the
このようなプログラムを含む記録媒体は、図24に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク321(フロッピディスクを含む)、光ディスク322(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク323(MD(Mini-Disk)を含む)、もしくは半導体メモリ324などよりなるリムーバブル記録媒体(パッケージメディア)により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM312や、記憶部318などで構成される。
As shown in FIG. 24, the recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk 321 (including a floppy disk) on which the program is recorded. ), Optical disk 322 (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disk 323 (including MD (mini-disk)), or
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。 Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。 Further, the program may be processed by a single computer, or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.
51 画像処理システム,61 再生装置,62 ディスプレイ,63 符号化装置,81 A/D変換部,82 符号化部,83 記録部,84 復号部,85 D/A変換部,86 ディスプレイ,111 ブロック化部,112 フレームメモリ,114 動き推定部,115 残差算出部,116 残差符号化部,117 データ合成部,121 量子化テーブル,211 データ分解部,212 残差復号部,213 フレームメモリ,214 動き補償部,215 残差加算部,216 データ結合部 51 image processing system, 61 playback device, 62 display, 63 encoding device, 81 A / D conversion unit, 82 encoding unit, 83 recording unit, 84 decoding unit, 85 D / A conversion unit, 86 display, 111 block Unit, 112 frame memory, 114 motion estimation unit, 115 residual calculation unit, 116 residual encoding unit, 117 data synthesis unit, 121 quantization table, 211 data decomposition unit, 212 residual decoding unit, 213 frame memory, 214 Motion compensation unit, 215 Residual addition unit, 216 Data combination unit
Claims (16)
入力される画像データ中の第1のフレームをブロック化するブロック化手段と、
前記ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定手段と、
前記動き推定手段により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化手段と
を備える符号化装置。 In an encoding device for encoding image data,
Blocking means for blocking the first frame in the input image data;
Dynamic range detecting means for detecting a dynamic range of a pixel value of a first block of a first frame blocked by the blocking means;
When a second block having a dynamic range closest to the dynamic range detected by the dynamic range detection unit is detected from the second frame in the image data, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of a first block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Motion estimation means for estimating the motion vector of the block of
An encoding device comprising: encoding means for encoding the first block using the motion vector estimated by the motion estimation means.
前記ブロック化手段は、前記ノイズ付加手段により前記ノイズが付加された前記画像データの第1のフレームをブロック化する
請求項1に記載の符号化装置。 Noise addition means for adding noise to the image data and outputting the image data to which the noise has been added;
The encoding apparatus according to claim 1, wherein the blocking unit blocks the first frame of the image data to which the noise is added by the noise adding unit.
前記符号化手段は、前記差分算出手段により算出された前記差分を符号化することにより、前記第1のブロックを符号化する
ことを特徴とする請求項1に記載の符号化装置。 Difference calculation means for calculating a difference between the image data of the second frame corresponding to the first block and the image data of the first block using the motion vector estimated by the motion estimation means. In addition,
The encoding apparatus according to claim 1, wherein the encoding unit encodes the first block by encoding the difference calculated by the difference calculation unit.
請求項3に記載の符号化装置。 The encoding device according to claim 3 , wherein the encoding means performs encoding by a JPEG (Joint Photographic Coding Experts Group) method.
さらに備える請求項1に記載の符号化装置。 The code according to claim 1, further comprising data output means for outputting the motion vector estimated by the motion estimation means and the first block encoded by the encoding means to the subsequent stage as encoded data. Device.
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化ステップと
を含む符号化方法。 In an encoding method of an encoding device for encoding image data,
A blocking step of blocking the first frame in the input image data;
A dynamic range detecting step of detecting a dynamic range of a pixel value of a first block of a first frame blocked by the processing of the blocking step;
When a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detection step is detected from the second frame in the image data, and a plurality of the second blocks are detected , Calculating a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a plurality of DCT coefficients of the second block, and using the second block having the maximum correlation coefficient, A motion estimation step for estimating a motion vector of the first block;
And a coding step of coding the first block using the motion vector estimated by the processing of the motion estimation step.
前記ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化ステップと
を含む処理をコンピュータに行わせるためのプログラムが記録されている記録媒体。 A blocking step of blocking the first frame in the input image data;
A dynamic range detecting step of detecting a dynamic range of a pixel value of a first block of a first frame blocked by the processing of the blocking step;
When a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detection step is detected from the second frame in the image data, and a plurality of the second blocks are detected , Calculating a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a plurality of DCT coefficients of the second block, and using the second block having the maximum correlation coefficient, A motion estimation step for estimating a motion vector of the first block;
A recording medium on which a program for causing a computer to perform a process including an encoding step of encoding the first block using the motion vector estimated by the process of the motion estimation step is recorded.
前記ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化ステップと
を含む処理をコンピュータに行わせるためのプログラム。 A blocking step of blocking the first frame in the input image data;
A dynamic range detecting step of detecting a dynamic range of a pixel value of a first block of a first frame blocked by the processing of the blocking step;
When a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detection step is detected from the second frame in the image data, and a plurality of the second blocks are detected , Calculating a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a plurality of DCT coefficients of the second block, and using the second block having the maximum correlation coefficient, A motion estimation step for estimating a motion vector of the first block;
A program for causing a computer to perform a process including: an encoding step of encoding the first block using the motion vector estimated by the process of the motion estimation step.
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、
前記データ入力手段により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出手段と、
前記データ入力手段により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算手段と
を備える復号装置。 In a decoding device for decoding image data,
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Data input means for inputting a motion vector estimated as a block motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained by using the motion vector;
Difference value extraction means for extracting the difference value by decoding the encoded data input by the data input means;
The image of the first frame is added by adding the difference value extracted by the difference value extracting means to the image data of the second frame in accordance with the motion vector input by the data input means. And a data adding means for generating data.
さらに備える請求項9に記載の復号装置。 The decoding apparatus according to claim 9 , further comprising noise adding means for adding noise to the image data generated by the data adding means and outputting the image data to which the noise is added to a subsequent stage.
前記データ加算手段は、前記動き補償手段により予測された予測ブロックの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成する
請求項9に記載の復号装置。 Further comprising motion compensation means for predicting image data of a prediction block from the image data of the second frame in accordance with the motion vector input by the data input means;
The data adding unit generates the image data of the first frame by adding the difference value extracted by the difference value extracting unit to the image data of the prediction block predicted by the motion compensation unit. The decoding device according to claim 9 .
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算ステップと
を含む復号方法。 In a decoding method of a decoding device for decoding image data,
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as a motion of a block, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector;
A difference value extracting step of extracting the difference value by decoding the encoded data input by the data input step;
By adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the data input step, the first frame And a data adding step for generating image data of the frame.
前記データ入力ステップの処理により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算ステップと
を含む処理をコンピュータに行わせるためのプログラムが記録されている記録媒体。 When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as a motion of a block, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector;
A difference value extracting step of extracting the difference value by decoding the encoded data input by the data input step;
By adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the data input step, the first frame A recording medium on which is recorded a program for causing a computer to perform a process including a data addition step of generating image data of the frame.
前記データ入力ステップの処理により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算ステップと
を含む処理をコンピュータに行わせるためのプログラム。 When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as a motion of a block, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector;
A difference value extracting step of extracting the difference value by decoding the encoded data input by the data input step;
By adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the data input step, the first frame A program for causing a computer to perform a process including a data adding step for generating image data of a frame.
前記符号化装置は、
入力される画像データ中の第1のフレームをブロック化するブロック化手段と、
前記ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定手段と、
前記動き推定手段により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化手段と
を備える画像処理システム。 In an image processing system comprising an encoding device and a decoding device for encoding and decoding image data,
The encoding device includes:
Blocking means for blocking the first frame in the input image data;
Dynamic range detecting means for detecting a dynamic range of a pixel value of a first block of a first frame blocked by the blocking means;
When a second block having a dynamic range closest to the dynamic range detected by the dynamic range detection unit is detected from the second frame in the image data, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of a first block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Motion estimation means for estimating the motion vector of the block of
An image processing system comprising: encoding means for encoding the first block using the motion vector estimated by the motion estimation means.
前記復号装置は、
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数と、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、
前記データ入力手段により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出手段と、
前記データ入力手段により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算手段と
を備える画像処理システム。 In an image processing system comprising an encoding device and a decoding device for encoding and decoding image data,
The decoding device
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Data input means for inputting a motion vector estimated as a block motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained by using the motion vector;
Difference value extraction means for extracting the difference value by decoding the encoded data input by the data input means;
The image of the first frame is added by adding the difference value extracted by the difference value extracting means to the image data of the second frame in accordance with the motion vector input by the data input means. An image processing system comprising: data addition means for generating data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005029544A JP4696577B2 (en) | 2005-02-04 | 2005-02-04 | Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005029544A JP4696577B2 (en) | 2005-02-04 | 2005-02-04 | Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006217404A JP2006217404A (en) | 2006-08-17 |
JP2006217404A5 JP2006217404A5 (en) | 2007-09-27 |
JP4696577B2 true JP4696577B2 (en) | 2011-06-08 |
Family
ID=36980221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005029544A Expired - Fee Related JP4696577B2 (en) | 2005-02-04 | 2005-02-04 | Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4696577B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0787499A (en) * | 1993-09-09 | 1995-03-31 | Sony Corp | Method and device for detecting motion vector |
JPH11242747A (en) * | 1998-02-25 | 1999-09-07 | Sony Corp | Motion detecting device and image signal processor |
JP2004289685A (en) * | 2003-03-24 | 2004-10-14 | Sony Corp | Data coding apparatus and data coding method, data output apparatus, and data output method |
-
2005
- 2005-02-04 JP JP2005029544A patent/JP4696577B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0787499A (en) * | 1993-09-09 | 1995-03-31 | Sony Corp | Method and device for detecting motion vector |
JPH11242747A (en) * | 1998-02-25 | 1999-09-07 | Sony Corp | Motion detecting device and image signal processor |
JP2004289685A (en) * | 2003-03-24 | 2004-10-14 | Sony Corp | Data coding apparatus and data coding method, data output apparatus, and data output method |
Also Published As
Publication number | Publication date |
---|---|
JP2006217404A (en) | 2006-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5048383B2 (en) | Image data spatial prediction apparatus and method, encoding apparatus and method using the same, image data spatial prediction compensation apparatus and method, and decoding apparatus and method using the same | |
US7957471B2 (en) | Encoding apparatus and method, decoding apparatus and method, image processing system and method, and recording medium | |
JP2009529845A (en) | Method and apparatus for encoding moving picture by adaptively applying optimal prediction mode, and method and apparatus for decoding moving picture | |
JP4696577B2 (en) | Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method | |
JP2016158282A (en) | Moving image prediction decoding method and moving image prediction decoding apparatus | |
US20100027621A1 (en) | Apparatus, method and computer program product for moving image generation | |
JP5972687B2 (en) | Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program | |
US7952769B2 (en) | Systems and methods for image processing coding/decoding | |
JP4581733B2 (en) | Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system | |
WO2010001832A1 (en) | Dynamic image prediction/encoding device and dynamic image prediction/decoding device | |
JP4716086B2 (en) | Encoding apparatus and method, recording medium, program, and image processing system | |
JP4552677B2 (en) | Encoding apparatus and method, decoding apparatus and method, information processing system, recording medium, and program | |
JP4556125B2 (en) | Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program | |
JP2020058075A (en) | Moving image prediction encoding device, moving image prediction decoding device, moving image prediction encoding method, moving image prediction decoding method, and recording medium | |
JP4577043B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4697519B2 (en) | Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program | |
JP4556694B2 (en) | Encoding apparatus and method, recording medium, program, and image processing system | |
JP4573110B2 (en) | Encoding apparatus and method, recording medium, program, and image processing system | |
JP2006238373A (en) | Coder and coding method, decoder and decoding method, image processing system and image processing method, recording medium, and program | |
JP4715222B2 (en) | Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program | |
JP2008259059A (en) | Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program | |
JP4730585B2 (en) | Encoding apparatus and method, decoding apparatus and method, information processing system, recording medium, and program | |
JP2006217403A (en) | Coding apparatus and method, decoding apparatus and method, recording medium, program, image processing system, and image processing method | |
JP4099600B2 (en) | Signal processing system, signal processing apparatus and signal processing method, encoding apparatus and encoding method, and decoding apparatus and decoding method | |
JP5175813B2 (en) | Encoding device, decoding device, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091022 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100615 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100809 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110214 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |