[go: up one dir, main page]

JP4696577B2 - Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method - Google Patents

Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method Download PDF

Info

Publication number
JP4696577B2
JP4696577B2 JP2005029544A JP2005029544A JP4696577B2 JP 4696577 B2 JP4696577 B2 JP 4696577B2 JP 2005029544 A JP2005029544 A JP 2005029544A JP 2005029544 A JP2005029544 A JP 2005029544A JP 4696577 B2 JP4696577 B2 JP 4696577B2
Authority
JP
Japan
Prior art keywords
block
frame
image data
unit
dynamic range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005029544A
Other languages
Japanese (ja)
Other versions
JP2006217404A (en
JP2006217404A5 (en
Inventor
哲也 村上
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005029544A priority Critical patent/JP4696577B2/en
Publication of JP2006217404A publication Critical patent/JP2006217404A/en
Publication of JP2006217404A5 publication Critical patent/JP2006217404A5/ja
Application granted granted Critical
Publication of JP4696577B2 publication Critical patent/JP4696577B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法に関し、特に、ブロック内のダイナミックレンジに最も近いダイナミックレンジを有するブロックを前フレームから探索して、動き推定を行うことにより、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを抑制することができるようにした符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法に関する。   The present invention relates to an encoding apparatus and method, a decoding apparatus and method, a recording medium, a program, an image processing system and a method, and in particular, searches for a block having a dynamic range closest to the dynamic range in the block from a previous frame. , Encoding apparatus and method, decoding apparatus and method capable of suppressing copying while maintaining good quality without degrading the output quality of the data before copying by performing motion estimation , Recording medium, program, image processing system and method.

図1は、従来の画像処理システム1の構成例を示している。この画像処理システム1は、アナログの画像データVanを出力する再生装置11と、この再生装置11から出力される画像データVanに対応する画像を表示するディスプレイ12により構成されている。   FIG. 1 shows a configuration example of a conventional image processing system 1. The image processing system 1 includes a playback device 11 that outputs analog image data Van, and a display 12 that displays an image corresponding to the image data Van output from the playback device 11.

再生装置11は、復号部21とD/A(Digital-to-Analog)変換部22により構成される。復号部21は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データを、D/A変換部22に供給する。D/A変換部22は、復号部21からのデジタルの画像データを、アナログの画像データに変換し、アナログの画像データVanとして、ディスプレイ12に供給する。   The playback device 11 includes a decoding unit 21 and a D / A (Digital-to-Analog) conversion unit 22. The decoding unit 21 decodes encoded image data reproduced from a recording medium such as an optical disk (not shown), and supplies the decoded digital image data to the D / A conversion unit 22. The D / A conversion unit 22 converts the digital image data from the decoding unit 21 into analog image data, and supplies the analog image data Van to the display 12.

ディスプレイ12は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される。   The display 12 is composed of, for example, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display).

ところで、従来においては、このような画像処理システム1の再生装置11により出力されるアナログの画像データVanを利用して、不正コピーが行われる恐れがあった。   Conventionally, there has been a risk of unauthorized copying using analog image data Van output from the playback device 11 of such an image processing system 1.

すなわち、再生装置11から出力されるアナログの画像データVanは、A/D変換部31によりデジタルの画像データVdgに変換されて符号化部32に供給される。符号化部32は、デジタルの画像データVdgを符号化し、符号化された画像データVcdを、記録部33に供給する。記録部33は、符号化された画像データVcdを光ディスクなどの記録媒体に記録する。   That is, the analog image data Van output from the reproduction apparatus 11 is converted into digital image data Vdg by the A / D conversion unit 31 and supplied to the encoding unit 32. The encoding unit 32 encodes the digital image data Vdg and supplies the encoded image data Vcd to the recording unit 33. The recording unit 33 records the encoded image data Vcd on a recording medium such as an optical disk.

以上のように行われてしまうアナログの画像データVanを用いた不正コピーを防止するためには、従来、著作権保護がなされている場合、アナログの画像データVanをスクランブル処理して出力したり(例えば、特許文献1)、あるいはアナログの画像データVdgの出力を抑制したりしていた。しかしながら、この場合、ディスプレイ12に正常な映像が移らないという問題が発生していた。   In order to prevent unauthorized copying using analog image data Van that is performed as described above, when copyright protection has been conventionally performed, analog image data Van is scrambled and output ( For example, Patent Document 1) or the output of analog image data Vdg has been suppressed. However, in this case, there has been a problem that normal video does not move to the display 12.

また、特許文献2に示されるADRC(Adaptive Dynamic Range Coding)を用いて符号化、復号を行う場合にも、符号化、復号によりダイナミックレンジが減少していくことにより、画像データが劣化するが、ADRCによるダイナミックレンジの減少の程度は、それほど大きな劣化ではない。また、ADRCの場合は、動画像に対しても適用可能ではあるが、動きの特性を利用したものではないので、動画像に対してあまり大きな劣化は得られない。   In addition, when encoding and decoding are performed using ADRC (Adaptive Dynamic Range Coding) shown in Patent Document 2, image data deteriorates due to a decrease in dynamic range due to encoding and decoding. The degree of reduction of the dynamic range by ADRC is not so much deterioration. In addition, in the case of ADRC, although it can be applied to a moving image, it does not utilize the characteristics of motion, so that a great deterioration cannot be obtained for the moving image.

そこで、画像が表示されなくなること等の不都合を発生することなく、アナログ画像信号を利用した不正コピーを防止する手法が、本出願人により提案されている(例えば、特許文献3参照)。   Therefore, a method for preventing unauthorized copying using an analog image signal without causing inconvenience such as no image being displayed has been proposed by the present applicant (see, for example, Patent Document 3).

特開2001−245270公報JP 2001-245270 A 特開昭61−144989公報Japanese Patent Laid-Open No. 61-144989 特開2004−289685公報JP 2004-289585 A

特許文献3に記載の手法では、アナログ画像信号をA/D変換することにより得られるデジタル画像信号の位相ずれ等のアナログノイズに着目し、そのデジタル画像信号に対してアナログノイズに着目した符号化を行うことによってコピー前の画像の質を落とさずに、良好な質を維持したままでのコピーを不可能とし、これによりアナログ画像信号を利用した不正コピーを防止するが、デジタルコンテンツの流通が一般的になっている近年においては、上述のように不正コピーを防止するための別の手法の提案が要請されている。   In the method described in Patent Document 3, attention is paid to analog noise such as a phase shift of a digital image signal obtained by A / D conversion of the analog image signal, and encoding is focused on the digital image signal. By doing this, it is impossible to copy while maintaining good quality without degrading the quality of the image before copying, thereby preventing unauthorized copying using analog image signals, but the distribution of digital content In recent years, the proposal of another method for preventing unauthorized copying as described above has been demanded.

本発明は、このような状況に鑑みてなされたものであり、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを簡単に抑制することができるようにするものである。   The present invention has been made in view of such a situation, so that copying can be easily suppressed while maintaining good quality without deteriorating the quality of output by data before copying. To do.

本発明の符号化装置は、入力される画像データ中の第1のフレームをブロック化するブロック化手段と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT(Discrete Cosine Transform)係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段とを備える。 The encoding apparatus according to the present invention includes a blocking unit configured to block a first frame in input image data, and a dynamic value of a pixel value of a first block of the first frame blocked by the blocking unit. a dynamic range detection section for detecting a range, from the second frame in the image data, detects a second block having the closest dynamic range to the dynamic range detected by the dynamic range detection section, the second block is When a plurality of DCT coefficients are detected , a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used. , Using the motion estimation means for estimating the motion vector of the first block, and the motion vector estimated by the motion estimation means, Coding means for coding one block.

画像データにノイズを付加し、ノイズが付加された画像データを出力するノイズ付加手段をさらに備え、ブロック化手段は、ノイズ付加手段によりノイズが付加された画像データの第1のフレームをブロック化するようにすることができる。   The image processing apparatus further includes noise adding means for adding noise to the image data and outputting the image data to which the noise is added, and the blocking means blocks the first frame of the image data to which the noise is added by the noise adding means. Can be.

動き推定手段により推定された動きベクトルを用いて、第1ブロックに対応する第2のフレームの画像データと、第1のブロックにおける画像データとの差分を算出する差分算出手段をさらに備え、符号化手段は、差分算出手段により算出された差分を符号化することにより、第1のブロックを符号化するようにすることができる。   And further comprising difference calculation means for calculating a difference between the image data of the second frame corresponding to the first block and the image data of the first block using the motion vector estimated by the motion estimation means. The means can encode the first block by encoding the difference calculated by the difference calculating means.

符号化手段は、JPEG(Joint Photographic Coding Experts Group)方式で符号化するようにすることができる。   The encoding means may be encoded by a JPEG (Joint Photographic Coding Experts Group) method.

動き推定手段により推定された動きベクトル、および符号化手段により符号化された第1のブロックを、符号化データとして後段に出力するデータ出力手段をさらに備えるようにすることができる。   Data output means for outputting the motion vector estimated by the motion estimation means and the first block encoded by the encoding means to the subsequent stage as encoded data can be further provided.

本発明の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT(Discrete Cosine Transform)係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップとを含む。 The encoding method of the present invention includes a blocking step of blocking a first frame in input image data, and a pixel value of a first block of the first frame blocked by the processing of the blocking step and dynamic range detection step for detecting a dynamic range, from the second frame in the image data, detects a second block having the closest dynamic range to the dynamic range detected by the processing of the dynamic range detection step, the When a plurality of blocks of 2 are detected , a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a DCT coefficient of the plurality of second blocks is calculated, and the second correlation coefficient having the maximum correlation coefficient is calculated . A motion estimation step for estimating a motion vector of the first block using the block; And a coding step for coding the first block using the motion vector estimated by the logic.

本発明の第1の記録媒体に記録されているプログラムは、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップとを含む処理をコンピュータに行わせる。 The program recorded on the first recording medium of the present invention includes a blocking step for blocking the first frame in the input image data, and the first frame blocked by the processing of the blocking step. A dynamic range detecting step for detecting a dynamic range of pixel values of the first block of the first block, and a first dynamic range closest to the dynamic range detected by the processing of the dynamic range detecting step from the second frame in the image data. 2 blocks are detected, and when a plurality of second blocks are detected , a correlation coefficient between the DCT coefficients of the first block and the DCT coefficients of the plurality of second blocks is calculated , A motion estimation step of estimating a motion vector of the first block using the second block; Tsu using the motion vector estimated by the processing of up to perform the processing of the first block and a coding step of coding the computer.

本発明の第1のプログラムは、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップとを含む処理をコンピュータに行わせる。 A first program of the present invention includes a blocking step for blocking a first frame in input image data, and pixels of the first block of the first frame blocked by the processing of the blocking step A dynamic range detecting step for detecting a dynamic range of the values, and detecting a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detecting step from the second frame in the image data; When a plurality of second blocks are detected , a correlation coefficient between the DCT coefficients of the first block and the DCT coefficients of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used. The motion estimation step for estimating the motion vector of the first block, and the motion estimation step By using the motion vector to perform the processing including an encoding step of encoding the first block to the computer.

本発明の復号装置は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段とを備える。 The decoding device of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and detects a plurality of second blocks. If the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated , the motion of the first block is calculated using the second block having the maximum correlation coefficient. And a data input means for inputting the motion vector estimated as follows, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector, and input by the data input means Difference value extraction means for extracting a difference value by decoding the encoded data, and image data of the second frame in accordance with the motion vector input by the data input means. A, by adding the difference value extracted by the difference value extracting means, and a data addition means for generating image data of the first frame.

データ加算手段により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加手段をさらに備えるようにすることができる。   Noise addition means for adding noise to the image data generated by the data addition means and outputting the image data with the noise added to the subsequent stage can be further provided.

データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段をさらに備え、データ加算手段は、動き補償手段により予測された予測ブロックの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するようにすることができる。   According to the motion vector input by the data input means, the apparatus further comprises motion compensation means for predicting the image data of the prediction block from the image data of the second frame, and the data addition means is the prediction predicted by the motion compensation means By adding the difference value extracted by the difference value extraction means to the image data of the block, the image data of the first frame can be generated.

本発明の復号方法は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップとを含む。 The decoding method of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and detects a plurality of second blocks. If the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated , the motion of the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as, and encoded data in which a difference value between the first frame and the second frame obtained by using the motion vector is encoded, and processing of the data input step According to the difference value extraction step for extracting the difference value by decoding the input encoded data and the motion vector input by the processing of the data input step , Including the image data of the second frame, by adding the difference value extracted by the processing of the difference value extracting step, and a data addition step of generating image data of the first frame.

本発明の第2の記録媒体に記録されているプログラムは、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップとを含む処理をコンピュータに行わせる。 The program recorded on the second recording medium of the present invention detects the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data. When a plurality of second blocks are detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is calculated. Data input for inputting a motion vector estimated as the motion of the first block and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector A differential value extraction step for extracting a differential value by decoding the encoded data input by the step, the data input step processing, and the data input step processing A data addition step for generating the image data of the first frame by adding the difference value extracted by the processing of the difference value extraction step to the image data of the second frame according to the input motion vector Causes the computer to perform processing including

本発明の第2のプログラムは、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップとを含む処理をコンピュータに行わせる。 The second program of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and the second block is When a plurality of detection coefficients are detected , a correlation coefficient between the DCT coefficients of the first block and the DCT coefficients of the plurality of second blocks is calculated , and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as the motion of the first frame and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector; A difference value extraction step for extracting the difference value by decoding the encoded data input by the processing, and a motion vector input by the processing of the data input step In response, the computer includes a process including a data addition step of generating image data of the first frame by adding the difference value extracted by the processing of the difference value extraction step to the image data of the second frame. To do.

本発明の第1の画像処理システムは、符号化装置は、入力される画像データ中の第1のフレームをブロック化するブロック化手段と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段とを備える。 In the first image processing system of the present invention, the encoding device includes a blocking unit that blocks the first frame in the input image data, and a first frame that is blocked by the blocking unit. A dynamic range detecting means for detecting a dynamic range of pixel values of one block, and a second block having a dynamic range closest to the dynamic range detected by the dynamic range detecting means from the second frame in the image data. If a plurality of second blocks are detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is calculated. Using the motion estimation means for estimating the motion vector of the first block, and the motion vector estimated by the motion estimation means , And a coding means for coding the first block.

本発明の第2の画像処理システムは、復号装置は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段とを備える。 In the second image processing system of the present invention, the decoding device detects a second block of the second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data. When a plurality of second blocks are detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used. A data input means for inputting a motion vector estimated as the motion of the first block and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector A difference value extracting unit that extracts a difference value by decoding the encoded data input by the data input unit, and a motion vector input by the data input unit The image data of the second frame, by adding the difference value extracted by the difference value extracting means, and a data addition means for generating image data of the first frame.

第1の本発明においては、入力される画像データ中の第1のフレームがブロック化され、ブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジが検出される。画像データ中の第2のフレームから、検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックが検出され、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数が算出され、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルが推定される。そして、推定された動きベクトルを用いて、第1のブロックを符号化する In the first aspect of the present invention, the first frame in the input image data is blocked, and the dynamic range of the pixel value of the first block of the blocked first frame is detected. When a second block having a dynamic range closest to the detected dynamic range is detected from a second frame in the image data, and a plurality of second blocks are detected, the DCT coefficient of the first block ; A correlation coefficient with the DCT coefficients of a plurality of second blocks is calculated, and a motion vector of the first block is estimated using the second block having the largest correlation coefficient. Then, the first block is encoded using the estimated motion vector .

第2の本発明においては、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとが入力される。そして、入力された符号化データを復号することにより差分値が抽出され、入力された動きベクトルに応じて、第2のフレームの画像データに、抽出された差分値を加算することで、第1のフレームの画像データが生成される。 In the second aspect of the present invention, the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of second blocks are detected. If detected , the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used to calculate the correlation coefficient of the first block. A motion vector estimated as motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector are input. Then, a difference value is extracted by decoding the input encoded data, and the first difference value is added to the image data of the second frame in accordance with the input motion vector. Frame image data is generated.

第3の本発明においては、入力される画像データ中の第1のフレームがブロック化され、ブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジが検出される。画像データ中の第2のフレームから、検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックが検出され、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数が算出され、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルが推定される。そして、推定された動きベクトルを用いて、第1のブロックが符号化される。 In the third aspect of the present invention, the first frame in the input image data is blocked, and the dynamic range of the pixel value of the first block of the blocked first frame is detected. When a second block having a dynamic range closest to the detected dynamic range is detected from a second frame in the image data, and a plurality of second blocks are detected, the DCT coefficient of the first block ; A correlation coefficient with the DCT coefficients of a plurality of second blocks is calculated, and a motion vector of the first block is estimated using the second block having the largest correlation coefficient. Then, the first block is encoded using the estimated motion vector.

第4の本発明においては、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数が算出され、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとが入力される。そして、入力された符号化データを復号することにより差分値が抽出され、入力された動きベクトルに応じて、第2のフレームの画像データに、抽出された差分値を加算することで、第1のフレームの画像データが生成される。 In the fourth aspect of the present invention, the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of second blocks are detected. If detected , a correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated, and the second block having the maximum correlation coefficient is used to calculate the first block. A motion vector estimated as motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector are input. Then, a difference value is extracted by decoding the input encoded data, and the first difference value is added to the image data of the second frame in accordance with the input motion vector. Frame image data is generated.

本発明によれば、符号化、復号の繰り返しにより、画像データの劣化の程度を大きくすることができる。これにより、本発明によれば、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを簡単に抑制することができる。   According to the present invention, the degree of degradation of image data can be increased by repeating encoding and decoding. Thus, according to the present invention, it is possible to easily suppress copying while maintaining good quality without degrading the quality of output by data before copying.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Accordingly, although there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

本発明の符号化装置(例えば、図2の符号化装置63)は、入力される画像データ中の第1のフレームをブロック化するブロック化手段(例えば、図5のブロック化部111)と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段(例えば、図6のDR算出部141)と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段(例えば、図6の動きベクトル算出部144)と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段(例えば、図5の残差符号化部116)とを備える。 The encoding device of the present invention (for example, the encoding device 63 of FIG. 2) includes blocking means (for example, the blocking unit 111 of FIG. 5) that blocks the first frame in the input image data. Dynamic range detection means (for example, the DR calculation unit 141 in FIG. 6) for detecting the dynamic range of the pixel value of the first block of the first frame blocked by the blocking means, and a second in the image data When a second block having a dynamic range closest to the dynamic range detected by the dynamic range detection unit is detected from the frame, and a plurality of second blocks are detected, a DCT coefficient of the first block and a plurality of second blocks are detected . calculating a correlation coefficient between DCT coefficients of the second block, with the second block of the maximum correlation coefficient, the motion vector of the first block Using a motion estimation unit (for example, the motion vector calculation unit 144 in FIG. 6) and a motion vector estimated by the motion estimation unit (for example, FIG. 5). Residual encoding unit 116).

画像データにノイズを付加し、ノイズが付加された画像データを出力するノイズ付加手段(例えば、図2のA/D変換部81)をさらに備え、ブロック化手段は、ノイズ付加手段によりノイズが付加された画像データの第1のフレームをブロック化することができる The image processing apparatus further includes noise adding means (for example, the A / D conversion unit 81 in FIG. 2) for adding noise to the image data and outputting the image data with the noise added. The blocking means adds noise by the noise adding means. The first frame of the processed image data can be blocked.

動き推定手段により推定された動きベクトルを用いて、第1ブロックに対応する第2のフレームの画像データと、第1のブロックにおける画像データとの差分を算出する差分算出手段(例えば、図5の残差算出部115)をさらに備え、符号化手段は、差分算出手段により算出された差分を符号化することにより、第1のブロックを符号化することができるUsing the motion vector estimated by the motion estimation means, difference calculation means (for example, FIG. 5) calculates a difference between the image data of the second frame corresponding to the first block and the image data in the first block. further comprising a residual calculation section 115), the encoding means, the difference calculated by the difference calculation means by encoding, can be encoded first block.

動き推定手段により推定された動きベクトル、および符号化手段により符号化された第1のブロックを、符号化データとして後段に出力するデータ出力手段(例えば、図5のデータ合成部117)をさらに備えることができるData output means for outputting the motion vector estimated by the motion estimation means and the first block encoded by the encoding means to the subsequent stage as encoded data (for example, the data synthesis unit 117 in FIG. 5) is further provided. Can

本発明の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップ(例えば、図9のステップS21)と、ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップ(例えば、図11のステップS63)と、画像データ中の第2のフレームから、ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定ステップ(例えば、図11のステップS69)と、動き推定ステップの処理により推定された動きベクトルを用いて、第1のブロックを符号化する符号化ステップ(例えば、図9のステップS24)とを含む。 The encoding method of the present invention includes a blocking step (for example, step S21 in FIG. 9) for blocking the first frame in the input image data, and the first block blocked by the processing of the blocking step. The dynamic range detection step (for example, step S63 in FIG. 11) for detecting the dynamic range of the pixel value of the first block of the frame and the second frame in the image data are detected by the processing of the dynamic range detection step. second block detects with the closest dynamic range to the dynamic range, if the second block is more detected, the DCT coefficient of the first block, the phase relationship between the plurality of DCT coefficients of the second block calculating a number by using a second block of maximum correlation coefficient, estimated motion vector of the first block A motion estimation step (for example, step S69 in FIG. 11) and an encoding step for encoding the first block using the motion vector estimated by the process of the motion estimation step (for example, step S24 in FIG. 9). Including.

なお、本発明の第1の記録媒体および本発明の第1のプログラムも、上述した本発明の符号化方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。 Note that the first recording medium of the present invention and the first program of the present invention are also basically the same processing as the above-described encoding method of the present invention, and are therefore repeated, so that the description thereof is omitted.

本発明の復号装置(例えば、図2の符号化装置63)は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段(例えば、図15のデータ分解部211)と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段(例えば、図15の残差復号部212)と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段(例えば、図15の残差加算部215)とを備える。 The decoding device of the present invention (for example, the encoding device 63 in FIG. 2) is configured to use the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data. When a plurality of second blocks are detected , the correlation coefficient between the DCT coefficient of the first block and the DCT coefficient of the plurality of second blocks is calculated, and the second correlation coefficient is the maximum. Using the block, the motion vector estimated as the motion of the first block and the encoded data obtained by encoding the difference value between the first frame and the second frame obtained using the motion vector are input. A data input means (for example, the data decomposing unit 211 in FIG. 15) and a difference value extracting means (for example, a differential value extracting means for extracting the difference value by decoding the encoded data input by the data input means) The difference value extracted by the difference value extraction unit is added to the image data of the second frame in accordance with the motion vector input by the 15 residual decoding units 212) and the data input unit, so that the first Data addition means (for example, the residual addition unit 215 in FIG. 15) for generating image data of the frame.

データ加算手段により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加手段(例えば、図2のD/A変換部85)をさらに備えることができるNoise addition means (for example, the D / A conversion unit 85 in FIG. 2) for adding noise to the image data generated by the data addition means and outputting the image data with the noise added to the subsequent stage can be further provided.

データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段(例えば、図15の動き補償部214)をさらに備え、データ加算手段は、動き補償手段により予測された予測ブロックの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成することができる。 According to the motion vector input by the data input unit , the image processing unit further includes a motion compensation unit (for example, the motion compensation unit 214 in FIG. 15) that predicts the image data of the prediction block from the image data of the second frame. The means can generate the image data of the first frame by adding the difference value extracted by the difference value extraction means to the image data of the prediction block predicted by the motion compensation means .

本発明の復号方法は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップ(例えば、図18のステップS211)と、データ入力ステップの処理により入力された符号化データを復号することにより差分値を抽出する差分値抽出ステップ(例えば、図18のステップS212)と、データ入力ステップの処理により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算ステップ(例えば、図18のステップS214)とを含む。 The decoding method of the present invention detects a second block of a second frame having a dynamic range closest to the dynamic range of the first block of the first frame in the image data, and detects a plurality of second blocks. If the correlation coefficient between the DCT coefficient of the first block and the DCT coefficients of the plurality of second blocks is calculated , the motion of the first block is calculated using the second block having the maximum correlation coefficient. A data input step (for example, step S211 in FIG. 18) for inputting a motion vector estimated as, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector. ) And a difference value extraction step (for example, step of FIG. 18) for extracting the difference value by decoding the encoded data input by the data input step processing 212), and by adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the processing of the data input step, the first frame Data addition step (for example, step S214 in FIG. 18) for generating the image data.

なお、本発明の第2の記録媒体および本発明の第2のプログラムも、上述した本発明の復号方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。 Note that the second recording medium of the present invention and the second program of the present invention are also basically the same processing as the above-described decoding method of the present invention, and are therefore repeated, so that the description thereof is omitted.

本発明の第1の画像処理システム(例えば、図2の画像処理システム51)は、符号化装置(例えば、図2の符号化部82)は、入力される画像データ中の第1のフレームをブロック化するブロック化手段(例えば、図5のブロック化部111)と、ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段(例えば、図6のDR算出部141)と、画像データ中の第2のフレームから、ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きベクトルを推定する動き推定手段(例えば、図6の動きベクトル算出部144)と、動き推定手段により推定された動きベクトルを用いて、第1のブロックを符号化する符号化手段(例えば、図5の残差符号化部116)とを備える。 In the first image processing system of the present invention (for example, the image processing system 51 in FIG. 2), the encoding device (for example, the encoding unit 82 in FIG. 2) uses the first frame in the input image data. Blocking means for blocking (for example, the blocking unit 111 in FIG. 5) and dynamic range detecting means for detecting the dynamic range of the pixel value of the first block of the first frame blocked by the blocking means ( for example, a DR calculation unit 141 of FIG. 6), the second frame in the image data, detects a second block having the closest dynamic range to the dynamic range detected by the dynamic range detection section, the second If a block is more detected, calculates a DCT coefficient of the first block, the correlation coefficient between the plurality of DCT coefficients of the second block, Using the second block having the maximum number of relations, a motion estimation unit that estimates the motion vector of the first block (for example, the motion vector calculation unit 144 in FIG. 6) and the motion vector estimated by the motion estimation unit are used. Encoding means (for example, the residual encoding unit 116 in FIG. 5) for encoding the first block.

本発明の第2の画像処理システム(例えば、図2の画像処理システム51)は、復号装置(例えば、図2の復号部84)は、画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、第2のブロックが複数検出された場合、第1のブロックのDCT係数、複数の第2のブロックのDCT係数との相関係数を算出し、相関係数最大の第2のブロックを用いて、第1のブロックの動きとして推定された動きベクトルと、動きベクトルを用いて得られた第1フレームおよび第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段(例えば、図15のデータ分解部211)と、データ入力手段により入力された符号化データを復号することにより差分値を抽出する差分値抽出手段(例えば、図15の残差復号部212)と、データ入力手段により入力された動きベクトルに応じて、第2のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第1のフレームの画像データを生成するデータ加算手段(例えば、図15の残差加算部215)とを備える。 In the second image processing system of the present invention (for example, the image processing system 51 in FIG. 2), the decoding device (for example, the decoding unit 84 in FIG. 2) is configured to store the first block of the first frame in the image data. detecting a second block of a second frame having the closest dynamic range to the dynamic range, if the second block is more detected, the DCT coefficient of the first block, DCT of the plurality of second blocks A correlation coefficient with the coefficient is calculated , the second block having the maximum correlation coefficient is used, the motion vector estimated as the motion of the first block, the first frame obtained using the motion vector, and the first frame Data input means (for example, the data decomposing unit 211 in FIG. 15) for inputting encoded data in which a difference value between two frames is encoded, and encoded data input by the data input means A difference value extracting unit (for example, the residual decoding unit 212 in FIG. 15) that extracts a difference value by decoding and a difference between the second frame image data according to the motion vector input by the data input unit. A data addition unit (for example, the residual addition unit 215 in FIG. 15) that generates the image data of the first frame by adding the difference values extracted by the value extraction unit is provided.

以下、図を参照して本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本発明を適用した画像処理システム51の構成例を表している。この画像処理システム51は、アナログの画像データVan1を出力する再生装置61、再生装置61から出力される画像データVan1に対応する画像を表示するディスプレイ62、およびアナログの画像データVan1を用いて、再び符号化処理を行い、符号化された画像データVcd(以下、符号化データVcdとも称する)を、図示せぬ光ディスクなどの記録媒体に記録する符号化装置63により構成される。   FIG. 2 shows a configuration example of an image processing system 51 to which the present invention is applied. The image processing system 51 again uses a playback device 61 that outputs analog image data Van1, a display 62 that displays an image corresponding to the image data Van1 output from the playback device 61, and analog image data Van1. The encoding unit 63 is configured to perform encoding processing and record encoded image data Vcd (hereinafter also referred to as encoded data Vcd) on a recording medium such as an optical disk (not shown).

再生装置61は、復号部71およびD/A(Digital-to-Analog)変換部72により構成される。復号部71は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データVdg0を、D/A変換部72に供給する。D/A変換部72は、復号部71からのデジタルの画像データVdg0を、アナログの画像データVan1に変換し、変換されたアナログの画像データVan1をディスプレイ62に供給する。   The playback device 61 includes a decoding unit 71 and a D / A (Digital-to-Analog) conversion unit 72. The decoding unit 71 decodes encoded image data reproduced from a recording medium such as an optical disc (not shown), and supplies the decoded digital image data Vdg0 to the D / A conversion unit 72. The D / A conversion unit 72 converts the digital image data Vdg0 from the decoding unit 71 into analog image data Van1, and supplies the converted analog image data Van1 to the display 62.

ディスプレイ62は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成され、D/A変換部72からのアナログの画像データVan1に対応する画像を表示する。   The display 62 is composed of, for example, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays an image corresponding to the analog image data Van1 from the D / A converter 72.

符号化装置63は、A/D(Analog-to-Digital)変換部81、符号化部82、記録部83、復号部84、D/A変換部85、およびディスプレイ86により構成される。   The encoding device 63 includes an A / D (Analog-to-Digital) conversion unit 81, an encoding unit 82, a recording unit 83, a decoding unit 84, a D / A conversion unit 85, and a display 86.

A/D変換部81は、再生装置61からのアナログの画像データVan1をデジタルの画像データVdg1に変換し、符号化部82に供給する。   The A / D converter 81 converts the analog image data Van1 from the playback device 61 into digital image data Vdg1, and supplies the digital image data Vdg1 to the encoder 82.

符号化部82は、A/D変換部81からのデジタルの画像データVdg1を符号化し、符号化データVcdを記録部83または復号部84に供給する。符号化部82においては、再生装置61において記録媒体から再生されて得られる符号化された画像データと同様の符号化処理が実行される。すなわち、符号化部82は、デジタルの画像データVdg1の探索元のブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックを、1フレーム前の画像データから探索することにより、動きベクトルを推定するともに、動き推定後の残差をエントロピ符号化することにより、符号化データVcdを得る。符号化部82の構成の詳細は、後述する。   The encoding unit 82 encodes the digital image data Vdg1 from the A / D conversion unit 81 and supplies the encoded data Vcd to the recording unit 83 or the decoding unit 84. In the encoding unit 82, the same encoding process as that of the encoded image data obtained by reproducing from the recording medium in the reproducing apparatus 61 is executed. That is, the encoding unit 82 estimates a motion vector by searching a block having a dynamic range closest to the dynamic range of the search source block of the digital image data Vdg1 from the image data one frame before, Encoded data Vcd is obtained by entropy encoding the residual after motion estimation. Details of the configuration of the encoding unit 82 will be described later.

記録部83は、符号化部82からの符号化データVcdを、図示せぬ光ディスクなどの記録媒体に記録する。なお、記録部83により記録媒体に記録された符号化データVcdが記録部83により読み出され、復号部84に供給されるようにしてもよい。   The recording unit 83 records the encoded data Vcd from the encoding unit 82 on a recording medium such as an optical disc (not shown). The encoded data Vcd recorded on the recording medium by the recording unit 83 may be read by the recording unit 83 and supplied to the decoding unit 84.

復号部84は、符号化部82または記録部83からの符号化データVcdを復号し、復号したデジタルの画像データVdg2をD/A変換部85に供給する。復号部84においては、復号部71における復号と同様の復号処理が実行される。すなわち、復号部84は、符号化部82からの符号化データVcdを用いて、動き補償およびエントロピ符号の復号を行うことによりそれぞれ得られる予測ブロックおよび残差ブロックを足し合わせた出力ブロックで構成されるデジタルの画像データVdg2を取得する。復号部84の構成の詳細は、後述する。   The decoding unit 84 decodes the encoded data Vcd from the encoding unit 82 or the recording unit 83, and supplies the decoded digital image data Vdg 2 to the D / A conversion unit 85. In the decoding unit 84, a decoding process similar to the decoding in the decoding unit 71 is executed. That is, the decoding unit 84 is configured by an output block obtained by adding a prediction block and a residual block obtained by performing motion compensation and entropy code decoding using the encoded data Vcd from the encoding unit 82, respectively. Get digital image data Vdg2. Details of the configuration of the decoding unit 84 will be described later.

D/A変換部85は、復号部84からのデジタルの画像データVdg2を、アナログの画像データVan2に変換し、変換されたアナログの画像データVan2を、ディスプレイ86に供給する。ディスプレイ86は、例えば、CRTやLCDなどで構成され、D/A変換部85からのアナログの画像データVan2に対応する画像を表示する。   The D / A conversion unit 85 converts the digital image data Vdg2 from the decoding unit 84 into analog image data Van2, and supplies the converted analog image data Van2 to the display 86. The display 86 is composed of, for example, a CRT or LCD, and displays an image corresponding to the analog image data Van2 from the D / A converter 85.

以上のように、この画像処理システム51においては、符号化部82により動き探索する際、ダイナミックレンジを用いて対応するブロックを探索するので、符号化によりダイナミックレンジが変化し、正確な動き推定を行うことが困難になる。   As described above, in the image processing system 51, when the motion search is performed by the encoding unit 82, the corresponding block is searched using the dynamic range. Therefore, the dynamic range is changed by the encoding, and accurate motion estimation is performed. It becomes difficult to do.

また、この画像処理システム51において、D/A変換部72やD/A変換部85においてアナログデータに変換される際、A/D変換部81においてデジタルデータに変換される際、並びにD/A変換部72とA/D変換部81の間の通信路などにおいてデータが通信される際、変換された画像データには、ランダムな砂嵐のようなノイズであるホワイトノイズが付加され、それによる高周波成分の歪み、および、画像データの位相がずれることによる歪み(以下、位相ずれと称する)が生じる。すなわち、ホワイトノイズ(による高周波成分の歪み)および位相ずれによる歪み(ノイズ)が、変換後の画像データに付加される。なお、これらのホワイトノイズおよび位相ずれ(による歪み)は、まとめてアナログノイズ(または、アナログ歪み)ともいう。   In the image processing system 51, when the D / A converter 72 or the D / A converter 85 converts the data into analog data, the A / D converter 81 converts the data into digital data, and the D / A When data is communicated on a communication path between the conversion unit 72 and the A / D conversion unit 81, white noise that is random sandstorm-like noise is added to the converted image data, resulting in high frequency. Component distortion and distortion due to the phase shift of the image data (hereinafter referred to as phase shift) occur. That is, white noise (high-frequency component distortion) and phase-shift distortion (noise) are added to the converted image data. Note that these white noise and phase shift (distortion due to phase shift) are collectively referred to as analog noise (or analog distortion).

ここで、ホワイトノイズに起因する高周波成分の歪みについて説明する。デジタルの画像データがアナログの画像データに変換される過程において、周波数成分がほぼ均一なホワイトノイズが画像データに付加される。ホワイトノイズのレベルは、時系列でランダムに変化し、その分布はほぼ正規分布に従う。すなわち、各画素に対応するアナログの画像データに付加されるホワイトノイズのレベルはランダムに変化する。   Here, the distortion of the high frequency component caused by white noise will be described. In the process of converting digital image data into analog image data, white noise with a substantially uniform frequency component is added to the image data. The level of white noise changes randomly in time series, and its distribution almost follows a normal distribution. That is, the level of white noise added to the analog image data corresponding to each pixel changes randomly.

したがって、例えば、変換前のデジタルの画像データVdg0において、水平方向1ラインの複数の画素の画素値が同一の値を有していたとしても、D/A変換部72によりD/A変換され、さらに、A/D変換部81によりA/D変換された後のデジタルの画像データ画像データVdg1における、その同一の値であった画素の画素値は、もとの値(同一の値)を中心値としたある程度の範囲内に分散された値となってしまい、その結果、画像データに高周波成分の歪みが生じる。また、水平方向だけでなく、垂直方向にも同様に高周波成分の歪みが生じる。なお、各画素に付加されるホワイトノイズのレベルの散らばり具合によっては、高周波成分以外の成分の歪みが生じる場合もある。   Therefore, for example, in the digital image data Vdg0 before conversion, even if the pixel values of a plurality of pixels in one horizontal line have the same value, they are D / A converted by the D / A converter 72, Further, the pixel value of the pixel having the same value in the digital image data image data Vdg1 after A / D conversion by the A / D conversion unit 81 is centered on the original value (the same value). As a result, the image data is distorted with high frequency components. Similarly, not only the horizontal direction but also the vertical direction is distorted by high frequency components. In addition, depending on the degree of dispersion of the level of white noise added to each pixel, distortion of components other than high-frequency components may occur.

このように、D/A変換部72やD/A変換部85においては、デジタルの画像データがアナログの画像データに変換される過程において、ホワイトノイズが付加されることで、水平方向と垂直方向の2次元に、データの歪みが生じる。なお、画像データに付加されるノイズは、ホワイトノイズに限らず、他の有色のノイズも含まれる。   As described above, in the D / A conversion unit 72 and the D / A conversion unit 85, white noise is added in the process of converting digital image data into analog image data. In the two dimensions, data distortion occurs. Note that the noise added to the image data is not limited to white noise but also includes other colored noise.

一方、位相ずれによる歪みとは、画像データVan1に位相ずれによる歪みが付加され、画像データVan1をA/D変換する際に、画像データが量子化される位置がずれることにより、画像データVdg1の画素の位置は、本来の画像データVdg0の画素の位置と比べて、例えば、水平方向にφhおよび垂直方向にφvだけずれてしまうことをいう。なお、水平方向の位相ずれ幅φhは、水平方向の画素間隔より小さくなったり大きくなったりする一方、垂直方向の位相ずれ幅φvは、垂直方向の画素間隔の整数倍となる。また、位相ずれは、水平方向または垂直方向の一方向のみ生じる場合がある。   On the other hand, the distortion due to the phase shift adds distortion due to the phase shift to the image data Van1, and when the A / D conversion is performed on the image data Van1, the position where the image data is quantized shifts, and thus the image data Vdg1 The pixel position is, for example, shifted by φh in the horizontal direction and φv in the vertical direction compared to the pixel position of the original image data Vdg0. The horizontal phase shift width φh is smaller or larger than the horizontal pixel interval, while the vertical phase shift width φv is an integral multiple of the vertical pixel interval. Further, the phase shift may occur only in one direction in the horizontal direction or the vertical direction.

なお、位相ずれが発生することにより、位相ずれの範囲だけ画像の表示位置がずれることになるが、表示位置のずれはわずかであり、ユーザが視認することができるレベルの画像の画質にはほとんど影響を及ぼさない。   When the phase shift occurs, the display position of the image is shifted by the range of the phase shift. However, the display position shift is slight, and the image quality of the image that can be visually recognized by the user is almost the same. Has no effect.

以上のように、D/A変換部72から出力されるアナログの画像データVan1や、A/D変換部81からのデジタルの画像データVdg1は、デジタルの画像データVdg0に較べて、ホワイトノイズおよび位相ずれを伴っており、D/A変換部85から出力されるアナログの画像データVan2は、デジタルの画像データVdg1に較べて、さらに、ホワイトノイズおよび位相ずれを伴っている。   As described above, the analog image data Van1 output from the D / A converter 72 and the digital image data Vdg1 from the A / D converter 81 have white noise and phase as compared with the digital image data Vdg0. The analog image data Van2 output from the D / A converter 85 is further accompanied by white noise and a phase shift as compared with the digital image data Vdg1.

これらのホワイトノイズおよび位相ずれによる画質の劣化度合いとしては、それほど大きいものではないが、符号化部82において、ホワイトノイズおよび位相ずれを伴うデジタルの画像データVdg1を用いて、ダイナミックレンジに基づいて符号化処理が実行されることにより、動き探索に用いられるダイナミックレンジがさらに変化し、符号化部82における動き推定やエントロピ符号化が正確に行われることがさらに抑制される。   Although the degree of image quality degradation due to these white noise and phase shift is not so great, the encoding unit 82 uses digital image data Vdg1 with white noise and phase shift based on the dynamic range. By executing the encoding process, the dynamic range used for the motion search further changes, and it is further suppressed that the motion estimation and entropy encoding in the encoding unit 82 are accurately performed.

これにより、符号化部82から得られる符号化データVcdや復号部84から得られるアナログの画像データVan2の画質は、デジタルの画像データVdg0やVdg1の画質と較べて大きく劣化するので、ディスプレイ62に、画質の劣化度合いの少ない画像を表示させつつ、アナログコピー防止に寄与することが可能になる。   As a result, the image quality of the encoded data Vcd obtained from the encoding unit 82 and the analog image data Van2 obtained from the decoding unit 84 are greatly deteriorated compared to the image quality of the digital image data Vdg0 and Vdg1. Thus, it is possible to contribute to the prevention of analog copy while displaying an image with little deterioration in image quality.

なお、図2の画像処理システム51において、D/A変換部72やD/A変換部85におけるアナログ変換の際、A/D変換部81におけるデジタル変換の際、ホワイトノイズの付加や位相ずれは、自然に発生するが、自然に発生する以上のホワイトノイズの付加や位相ずれの発生を強制的にかける(付加する)ようにしてもよい。   In the image processing system 51 of FIG. 2, white noise addition and phase shift are not caused during analog conversion in the D / A conversion unit 72 or D / A conversion unit 85 or in digital conversion in the A / D conversion unit 81. Although it occurs naturally, it is possible to forcibly apply (add) the occurrence of white noise or phase shift more than naturally occurring.

これにより、さらに、アナログコピー防止の効果を向上させることができる。   As a result, the effect of preventing analog copy can be further improved.

図3は、本発明に係る画像処理システム51において処理される画像データのフレームの構成を示している。   FIG. 3 shows a frame configuration of image data processed in the image processing system 51 according to the present invention.

図3の例においては、画像データのフレームが時間軸に沿って示されている。画像データは、0フレーム目と5フレーム目の基準フレーム(図中ハッチングされている)と基準フレーム以外のフレームにより構成されている。基準フレームの間隔は、5フレーム間隔であり、ユーザにより設定可能である。   In the example of FIG. 3, a frame of image data is shown along the time axis. The image data is composed of reference frames (hatched in the figure) of the 0th frame and the 5th frame and frames other than the reference frame. The reference frame interval is 5 frame intervals, and can be set by the user.

画像処理システム51においては、これらのフレームのうち、基準フレームには、例えば、符号化、復号によりダイナミックレンジが減少していく、特許文献2に示されるADRC(Adaptive Dynamic Range Coding)が用いられて、フレーム内符号化が実行される。そして、基準フレーム以外のフレームには、以下に説明するフレーム間符号化が実行される。すなわち、以降における説明は、フレーム間符号化を対象とするものである。   In the image processing system 51, among these frames, the reference frame uses ADRC (Adaptive Dynamic Range Coding) shown in Patent Document 2 in which the dynamic range is reduced by encoding and decoding, for example. Intra-frame encoding is performed. Then, inter-frame encoding described below is executed for frames other than the reference frame. That is, the following description is directed to interframe coding.

次に、図4のフローチャートを参照して、画像処理システム51における処理の例を説明する。   Next, an example of processing in the image processing system 51 will be described with reference to the flowchart of FIG.

ステップS1において、復号部71は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データVdg0を、D/A変換部72に供給し、ステップS2に進む。なお、ステップS1においては、後述するステップS6の復号処理と同様の処理が実行される。   In step S1, the decoding unit 71 decodes encoded image data reproduced from a recording medium such as an optical disc (not shown), and supplies the decoded digital image data Vdg0 to the D / A conversion unit 72. The process proceeds to step S2. In step S1, processing similar to the decoding processing in step S6 described later is executed.

ステップS2において、D/A変換部72は、復号部71からのデジタルの画像データVdg0を、アナログの画像データVan1に変換し、変換されたアナログの画像データVan1をディスプレイ62およびA/D変換部81に供給し、ステップS3に進む。   In step S2, the D / A conversion unit 72 converts the digital image data Vdg0 from the decoding unit 71 into analog image data Van1, and the converted analog image data Van1 is displayed on the display 62 and the A / D conversion unit. The process proceeds to step S3.

これにより、ステップS3において、ディスプレイ62には、アナログの画像データVan1に対応する画像が表示される。   Thus, in step S3, an image corresponding to the analog image data Van1 is displayed on the display 62.

ステップS4において、A/D変換部81は、D/A変換部72からのアナログの画像データVan1をデジタルの画像データVdg1に変換し、符号化部82に供給し、ステップS5に進む。すなわち、ステップS2におけるD/A変換部72の変換およびステップS4におけるA/D変換部81の変換により、デジタルの画像データVdg1には、デジタルの画像データVdg0と比して、ホワイトノイズおよび位相ずれが付加されている。   In step S4, the A / D conversion unit 81 converts the analog image data Van1 from the D / A conversion unit 72 into digital image data Vdg1, supplies the digital image data Vdg1, and proceeds to step S5. That is, by the conversion of the D / A conversion unit 72 in step S2 and the conversion of the A / D conversion unit 81 in step S4, the digital image data Vdg1 has white noise and phase shift compared to the digital image data Vdg0. Is added.

ステップS5において、符号化部82は、A/D変換部81からのデジタルの画像データVdg1を符号化し、符号化データVcdを復号部84に供給し、ステップS6に進む。符号化部82の処理の詳細は、後述する。   In step S5, the encoding unit 82 encodes the digital image data Vdg1 from the A / D conversion unit 81, supplies the encoded data Vcd to the decoding unit 84, and proceeds to step S6. Details of the processing of the encoding unit 82 will be described later.

ステップS5の符号化処理により、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1の探索元のブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックを、1フレーム前の画像データから探索することにより、動きベクトルが推定され、動き推定後の残差がエントロピ符号化され、符号化データVcdが得られ、得られた符号化データVcdが復号部84に供給される。   Searching for the block having the dynamic range closest to the dynamic range of the search source block of the digital image data Vdg1 to which the white noise and the phase shift are added from the image data of the previous frame by the encoding process of step S5. Thus, the motion vector is estimated, the residual after the motion estimation is entropy-encoded to obtain encoded data Vcd, and the obtained encoded data Vcd is supplied to the decoding unit 84.

ステップS6において、復号部84は、符号化部82からの符号化データVcdを復号し、復号したデジタルの画像データVdg2をD/A変換部85に供給し、ステップS7に進む。復号部84の処理の詳細は、後述する。   In step S6, the decoding unit 84 decodes the encoded data Vcd from the encoding unit 82, supplies the decoded digital image data Vdg2 to the D / A conversion unit 85, and proceeds to step S7. Details of the processing of the decoding unit 84 will be described later.

ステップS6の復号処理により、符号化部82により符号化された符号化データVcdを用いて、動き補償およびエントロピ符号の復号を行うことにより得られる予測ブロックおよび残差ブロックを足し合わせた出力ブロックが生成され、生成された出力ブロックで構成されるデジタルの画像データVdg2が取得される。   An output block obtained by adding the prediction block and the residual block obtained by performing motion compensation and decoding of the entropy code using the encoded data Vcd encoded by the encoding unit 82 by the decoding process in step S6 is obtained. Digital image data Vdg2 that is generated and configured by the generated output block is acquired.

ステップS7において、D/A変換部85は、復号部84からのデジタルの画像データVdg2を、アナログの画像データVan2に変換し、変換されたアナログの画像データVan2を、ディスプレイ86に供給し、ステップS8に進む。   In step S7, the D / A conversion unit 85 converts the digital image data Vdg2 from the decoding unit 84 into analog image data Van2, and supplies the converted analog image data Van2 to the display 86. Proceed to S8.

これにより、ステップS8において、ディスプレイ86には、アナログの画像データVan2に対応する画像が表示され、画像処理システム51において、画像処理は、終了される。   As a result, in step S8, an image corresponding to the analog image data Van2 is displayed on the display 86, and the image processing is ended in the image processing system 51.

以上のように、本発明に係る画像処理システム51においては、符号化部82により動き探索する際、ダイナミックレンジを用いて対応するブロックが探索されるので、符号化によりダイナミックレンジが変化し、動き推定が正確に行われない。   As described above, in the image processing system 51 according to the present invention, when the motion search is performed by the encoding unit 82, the corresponding block is searched using the dynamic range. The estimation is not accurate.

すなわち、符号化部82から得られる符号化データVcdは、あまり確からしくない。したがって、デジタルコピーを抑制することができる。   That is, the encoded data Vcd obtained from the encoding unit 82 is not very accurate. Therefore, digital copying can be suppressed.

また、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を用いて、上述した符号化処理が実行され、ホワイトノイズによりダイナミックレンジがさらに変化するため、動き推定やエントロピ符号化が正確に行われることがさらに抑制される。   In the image processing system 51 according to the present invention, the above-described encoding process is executed using the digital image data Vdg1 to which white noise and phase shift are added, and the dynamic range further changes due to the white noise. Further, accurate motion estimation and entropy encoding are further suppressed.

そして、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を符号化処理した符号化データVcdを用いて、復号処理が実行されるので、動き補償や残差補償が正確に行われることが抑制される。   Since the decoding process is performed using the encoded data Vcd obtained by encoding the digital image data Vdg1 to which white noise and phase shift are added, motion compensation and residual compensation may be accurately performed. It is suppressed.

これにより、ステップS4においてディスプレイ62に表示される画像よりも、符号化部82から得られる符号化データVcdと、それを復号した復号部84からのデジタルの画像データVdg2が、デジタルの画像データVdg0やアナログの画像データVan1よりも画質が大きく劣化するため、ステップS8においてディスプレイ86に表示される画像の画質が劣化し、アナログコピー防止を図ることができる。   As a result, the encoded data Vcd obtained from the encoding unit 82 and the digital image data Vdg2 from the decoding unit 84 obtained by decoding the encoded data Vcd rather than the image displayed on the display 62 in step S4 are digital image data Vdg0. Since the image quality is greatly deteriorated as compared with the analog image data Van1, the image quality of the image displayed on the display 86 in step S8 is deteriorated, and the analog copy can be prevented.

なお、画質が大きく劣化した符号化データVcdが、記録部83により記録された記録媒体から画像データを読み出して、復号した結果も、ステップS8においてディスプレイ86に表示される画像と同等のものとなる。   It should be noted that the encoded data Vcd whose image quality has greatly deteriorated is read out from the recording medium recorded by the recording unit 83, and the decoded result is also equivalent to the image displayed on the display 86 in step S8. .

したがって、上述したステップS1において、記録部83により記録された記録媒体から符号化部32により符号化された画像データを読み出して、復号した画像データに対して、再度、ステップS5およびS6の符号化、および復号が行われた画像データは、デジタルの画像データVdg2よりもさらに画質が劣化する。すなわち、本発明に係る符号化、復号が繰り返される毎に、その結果得られる画像データの画質は、ますます劣化する。   Therefore, in step S1 described above, the image data encoded by the encoding unit 32 is read from the recording medium recorded by the recording unit 83, and the encoding of steps S5 and S6 is performed again on the decoded image data. The image quality of the decoded image data is further deteriorated than that of the digital image data Vdg2. That is, every time encoding and decoding according to the present invention are repeated, the image quality of the image data obtained as a result deteriorates more and more.

以上により、アナログコピー防止に寄与することが可能になる。   As described above, it is possible to contribute to the prevention of analog copy.

次に、図2の符号化部82の構成の詳細について説明する。   Next, details of the configuration of the encoding unit 82 in FIG. 2 will be described.

図5は、符号化部82の構成を示すブロック図である。符号化部82には、A/D変換部81からのホワイトノイズや位相ずれを伴うデジタルの画像データVdg1が入力され、入力されたデジタルの画像データVdg1が符号化され、符号化データVcdが後段の記録部83または復号部84に供給される。   FIG. 5 is a block diagram showing a configuration of the encoding unit 82. The encoding unit 82 receives the digital image data Vdg1 accompanied by white noise or phase shift from the A / D conversion unit 81, encodes the input digital image data Vdg1, and the encoded data Vcd becomes the subsequent stage. To the recording unit 83 or the decoding unit 84.

符号化部82は、ブロック化部111、フレームメモリ112、動き推定部114、残差算出部115、残差符号化部116、およびデータ合成部117により構成される。   The encoding unit 82 includes a blocking unit 111, a frame memory 112, a motion estimation unit 114, a residual calculation unit 115, a residual encoding unit 116, and a data synthesis unit 117.

A/D変換部81からのデジタルの画像データVdg1は、ブロック化部111およびフレームメモリ112に入力される。ブロック化部111は、入力画像を読み込み、指定ブロックサイズ(例えば、4×4画素または8×8画素など)に分割し、指定ブロックサイズの画像データを、入力ブロックとして、ブロック毎に、動き推定部114および残差算出部115に供給する。   The digital image data Vdg1 from the A / D conversion unit 81 is input to the blocking unit 111 and the frame memory 112. The blocking unit 111 reads an input image, divides it into designated block sizes (for example, 4 × 4 pixels or 8 × 8 pixels), and performs motion estimation for each block using image data of the designated block size as an input block To the unit 114 and the residual calculation unit 115.

フレームメモリ112は、1フレーム前(以下、前フレームとも称する)の画像データを蓄積し、動き推定部114および残差算出部115に供給する。   The frame memory 112 accumulates image data of the previous frame (hereinafter also referred to as the previous frame) and supplies the image data to the motion estimation unit 114 and the residual calculation unit 115.

動き推定部114は、ブロック化部111から供給される入力ブロックと、フレームメモリ112からの前フレームを読み込み、入力ブロックのダイナミックレンジDRinを算出し、算出したダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを前フレームから探索することにより、動きベクトルを算出(推定)し、算出した動きベクトルを、残差算出部115およびデータ合成部117に供給する。   The motion estimation unit 114 reads the input block supplied from the blocking unit 111 and the previous frame from the frame memory 112, calculates the dynamic range DRin of the input block, and calculates the dynamic range DR closest to the calculated dynamic range DRin. A motion vector is calculated (estimated) by searching for a block having the previous frame, and the calculated motion vector is supplied to the residual calculation unit 115 and the data synthesis unit 117.

なお、探索の結果、前フレームから、ダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックが複数探索された場合、動き推定部114は、入力ブロックおよび探索された複数のブロックのDCT(Discrete Cosine Transform)係数を求め、入力ブロックのDCT係数と複数のブロックのDCT係数の相関係数を算出し、複数のブロックのうち、相関係数最大のブロックを用いて、動きベクトルを算出する。   As a result of the search, when a plurality of blocks having the dynamic range DR closest to the dynamic range DRin are searched from the previous frame, the motion estimation unit 114 performs DCT (Discrete Cosine Transform) of the input block and the searched blocks. ) Coefficient is obtained, the correlation coefficient between the DCT coefficient of the input block and the DCT coefficient of the plurality of blocks is calculated, and the motion vector is calculated using the block having the maximum correlation coefficient among the plurality of blocks.

すなわち、動き推定部114においてDCT係数の相関係数により動きベクトルが推定された場合、入力される画像データにホワイトノイズや位相ずれが付加されていても、あまり動きベクトルの推定が失敗してしまうことがない。したがって、前フレームから、DCT係数の相関係数最大のブロックを求める前に、ダイナミックレンジが最も近いブロックを求めることにより、間違った動きベクトル(ブロック)が検出され、動きベクトルの推定が失敗されるようになる。   That is, when a motion vector is estimated by the correlation coefficient of the DCT coefficient in the motion estimator 114, even if white noise or a phase shift is added to the input image data, the motion vector estimation fails too much. There is nothing. Therefore, by obtaining a block having the closest dynamic range before obtaining a block having the maximum correlation coefficient of DCT coefficients from the previous frame, an incorrect motion vector (block) is detected, and motion vector estimation fails. It becomes like this.

さらに、DCT係数の相関係数の演算は処理が重いため、DCT係数の相関係数最大のブロックを求める前に、ダイナミックレンジが最も近いブロックを求めて、DCT係数の相関係数の演算の候補を絞ることで、DCT係数の相関係数の演算にかかる処理が軽くなる。   Further, since the calculation of the correlation coefficient of the DCT coefficient is heavy, before obtaining the block having the maximum correlation coefficient of the DCT coefficient, the block having the closest dynamic range is obtained and the correlation coefficient calculation candidate of the DCT coefficient is calculated. By narrowing down, the processing for calculating the correlation coefficient of the DCT coefficient becomes light.

残差算出部115は、動き推定後の残差を求める。すなわち、残差算出部115は、ブロック化部111からの入力ブロック、動き推定部114からの動きベクトル、およびフレームメモリ112からの前フレームを読み込む。残差算出部115は、動きベクトルと前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求める。残差算出部115は、求めた予測ブロックと、入力ブロックの残差を、残差ブロックとして、残差符号化部116に供給する。   The residual calculation unit 115 calculates a residual after motion estimation. That is, the residual calculation unit 115 reads the input block from the blocking unit 111, the motion vector from the motion estimation unit 114, and the previous frame from the frame memory 112. The residual calculation unit 115 generates a pixel value of the prediction block using the motion vector and the previous frame, and obtains the prediction block. The residual calculation unit 115 supplies the obtained prediction block and the residual of the input block to the residual encoding unit 116 as a residual block.

残差符号化部116は、残差算出部115からの残差ブロックを読み込み、読み込んだ残差ブロックをJPEG(Joint Photographic Coding Experts Group)符号化する。すなわち、残差符号化部116は、残差ブロックを、DCT変換(離散コサイン変換)し、DCT変換された残差ブロックを、符号化部82に内蔵される一般的な量子化テーブル121を用いて、エントロピ符号化し、エントロピ符号化により得られたエントロピ符号データをデータ合成部117に供給する。   The residual encoding unit 116 reads the residual block from the residual calculation unit 115 and encodes the read residual block using JPEG (Joint Photographic Coding Experts Group). That is, the residual encoding unit 116 performs DCT transform (discrete cosine transform) on the residual block, and uses the general quantization table 121 built in the encoding unit 82 for the DCT-transformed residual block. Then, entropy encoding is performed, and entropy code data obtained by entropy encoding is supplied to the data synthesis unit 117.

データ合成部117は、動き推定部114からの動きベクトル、および残差符号化部116からのエントロピ符号データを読み込み、動きベクトル、およびエントロピ符号データを、符号化データVcdとして、後段の記録部83または復号部84に出力する。   The data synthesis unit 117 reads the motion vector from the motion estimation unit 114 and the entropy code data from the residual encoding unit 116, and uses the motion vector and the entropy code data as the encoded data Vcd as a subsequent recording unit 83. Alternatively, the data is output to the decoding unit 84.

以上のように、動き推定部114においては、デジタルの画像データVdg1の入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが探索されることにより、動きベクトルが推定(算出)されるため、符号化によりダイナミックレンジが変化してしまい、正確な動き推定が困難となる。   As described above, the motion estimation unit 114 estimates (calculates) a motion vector by searching for a block having a dynamic range closest to the dynamic range of the input block of the digital image data Vdg1. As a result, the dynamic range changes, and accurate motion estimation becomes difficult.

さらに、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが複数探索された場合に、DCT係数(すなわち、周波数成分)の相関係数による比較を行うことにより、動きベクトルを算出するようにしたので、ダイナミックレンジによる探索だけの場合に、あまりにも異なる画素が含まれるブロックが多く探索されてしまうことを抑制することができる。例えば、仮に画素レベルで比較を行う場合よりも相対的に同じようなブロックを探索することができる。   Furthermore, when a plurality of blocks having a dynamic range closest to the dynamic range of the input block are searched, a motion vector is calculated by performing a comparison using a correlation coefficient of DCT coefficients (that is, frequency components). Therefore, it is possible to suppress the search for a large number of blocks including too different pixels in the case of only the search based on the dynamic range. For example, it is possible to search for a relatively similar block compared to a case where comparison is performed at the pixel level.

また、A/D変換部81から入力されるデジタルの画像データVdg1には、ホワイトノイズや位相ずれが付加されているため、動き推定部114により用いられるダイナミックレンジは、ますます変化してしまい、正確に動き推定を行うことがさらに困難である。   In addition, since the digital image data Vdg1 input from the A / D conversion unit 81 is added with white noise and phase shift, the dynamic range used by the motion estimation unit 114 changes more and more. It is even more difficult to perform motion estimation accurately.

以上のように、動き推定部114により求められた動きベクトルは、必ずしも正確ではなく、その動きベクトルを用いて得られる動き推定後の残差が符号化されたエントロピ符号データも、必ずしも正確ではない。したがって、復号部84により符号化データVcdが用いられて復号されて得られるデジタルの画像データVdg2の画質は、劣化してしまう。これによりアナログコピーが抑制される。   As described above, the motion vector obtained by the motion estimation unit 114 is not necessarily accurate, and the entropy code data obtained by encoding the residual after motion estimation obtained using the motion vector is not necessarily accurate. . Therefore, the image quality of the digital image data Vdg2 obtained by decoding using the encoded data Vcd by the decoding unit 84 deteriorates. Thereby, analog copy is suppressed.

なお、図5の例において、残差算出部115により求められる残差ブロックは、動き推定部114においてDCT係数の相関係数により動きベクトルが推定されて求められているため、波形が低周波であることが多い。したがって、残差符号化部116において、DCT変換を用いるJPEG方式で残差ブロックが符号化されることにより、残差ブロックの低周波が大幅に削減され、符号化による圧縮率が向上される。ただし、残差符号化部116における符号化の方式は、JPEG方式に限定されず、他のエントロピ符号化であっても、デジタルの画像データVdg2の画質劣化においては、同様の効果が得られる。   In the example of FIG. 5, the residual block obtained by the residual calculation unit 115 is obtained by estimating the motion vector using the correlation coefficient of the DCT coefficient in the motion estimation unit 114, so that the waveform has a low frequency. There are often. Therefore, the residual encoding unit 116 encodes the residual block by the JPEG method using the DCT transform, thereby greatly reducing the low frequency of the residual block and improving the compression rate by encoding. However, the encoding method in the residual encoding unit 116 is not limited to the JPEG method, and the same effect can be obtained in image quality deterioration of the digital image data Vdg2 even if other entropy encoding is used.

図6は、図5の動き推定部114の構成例を示している。   FIG. 6 shows a configuration example of the motion estimation unit 114 of FIG.

図6の例において、動き推定部114は、DR(Dynamic Range)算出部141、DRブロック探索部142、DCTブロック探索部143、および動きベクトル算出部144により構成されている。   In the example of FIG. 6, the motion estimation unit 114 includes a DR (Dynamic Range) calculation unit 141, a DR block search unit 142, a DCT block search unit 143, and a motion vector calculation unit 144.

DR算出部141は、ブロック化部111から供給される入力ブロックと、フレームメモリ112からの前フレームを読み込む。DR算出部141は、入力ブロックの画素の最大値と最小値からダイナミックレンジDRinを算出する。また、DR算出部141は、前フレームを指定ブロックサイズに分け、前フレームの全ブロックのダイナミックレンジDRを算出する。DR算出部141は、算出したダイナミックレンジと対応するブロックを、DRブロック探索部142に供給する。   The DR calculation unit 141 reads the input block supplied from the blocking unit 111 and the previous frame from the frame memory 112. The DR calculation unit 141 calculates the dynamic range DRin from the maximum value and the minimum value of the pixels of the input block. Also, the DR calculation unit 141 divides the previous frame into designated block sizes, and calculates the dynamic range DR of all blocks of the previous frame. The DR calculation unit 141 supplies a block corresponding to the calculated dynamic range to the DR block search unit 142.

DRブロック探索部142は、DR算出部141により算出された入力ブロックのダイナミックレンジDRinと、前フレームのブロックのダイナミックレンジDRを比較し、ダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを探索する。DRブロック探索部142は、探索したブロックが1つの場合、探索したブロックが入力ブロックに対応する前フレームのブロックであると決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給し、探索したブロックが複数ある場合、探索したブロックと入力ブロックをDCTブロック探索部143に供給する。   The DR block search unit 142 compares the dynamic range DRin of the input block calculated by the DR calculation unit 141 with the dynamic range DR of the block of the previous frame, and searches for a block having the dynamic range DR closest to the dynamic range DRin. . When there is one searched block, the DR block search unit 142 determines that the searched block is a block of the previous frame corresponding to the input block, supplies the determined block and the input block to the motion vector calculation unit 144, When there are a plurality of searched blocks, the searched blocks and input blocks are supplied to the DCT block search unit 143.

DCTブロック探索部143は、DRブロック探索部142により探索された複数のブロックと入力ブロックのDCT係数を求め、入力ブロックのDCT係数と複数のブロックのDCT係数の相関係数を算出し、複数のブロックのうち、相関係数最大のブロックを、入力ブロックに対応する前フレームのブロックであると決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給する。   The DCT block search unit 143 obtains DCT coefficients of a plurality of blocks and input blocks searched by the DR block search unit 142, calculates a correlation coefficient between the DCT coefficients of the input block and the DCT coefficients of the plurality of blocks, Among the blocks, the block having the maximum correlation coefficient is determined to be the block of the previous frame corresponding to the input block, and the determined block and the input block are supplied to the motion vector calculation unit 144.

なお、図6のDCTブロック探索部143は、DCT係数の相関に基づいて、入力ブロックに対応する前フレームのブロックを決定したが、周波数成分などの波形であれば、FFTを用いるようにしてもよく、DCT係数に限定されない。   Note that the DCT block search unit 143 in FIG. 6 determines the previous frame block corresponding to the input block based on the correlation of the DCT coefficients. However, if the waveform is a frequency component or the like, the FFT may be used. Well, not limited to DCT coefficients.

動きベクトル算出部144は、DRブロック探索部142またはDCTブロック探索部143により決定されたブロックに基づいて、動きベクトルを算出し、算出した動きベクトルを残差算出部115およびデータ合成部117に供給する。   The motion vector calculation unit 144 calculates a motion vector based on the block determined by the DR block search unit 142 or the DCT block search unit 143, and supplies the calculated motion vector to the residual calculation unit 115 and the data synthesis unit 117. To do.

図7は、図5の残差算出部115の構成例を示している。   FIG. 7 shows a configuration example of the residual calculation unit 115 of FIG.

図7の例において、残差算出部115は、予測ブロック演算部151および残差演算部152により構成されている。   In the example of FIG. 7, the residual calculation unit 115 includes a prediction block calculation unit 151 and a residual calculation unit 152.

予測ブロック演算部151は、動き推定部114からの動きベクトル、およびフレームメモリ112からの前フレームを読み込み、動きベクトルと前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求め、求めた予測ブロックを残差演算部152に供給する。   The prediction block calculation unit 151 reads the motion vector from the motion estimation unit 114 and the previous frame from the frame memory 112, generates a pixel value of the prediction block using the motion vector and the previous frame, obtains a prediction block, The obtained prediction block is supplied to the residual calculation unit 152.

残差演算部152は、ブロック化部111からの入力ブロック、および予測ブロック演算部151からの予測ブロックを読み込み、入力ブロックと予測ブロックの残差を算出し、算出した残差を、残差ブロックとして、残差符号化部116に供給する。   The residual calculation unit 152 reads the input block from the blocking unit 111 and the prediction block from the prediction block calculation unit 151, calculates the residual between the input block and the prediction block, and uses the calculated residual as the residual block. Is supplied to the residual encoding unit 116.

図8は、図5の残差符号化部116の構成例を示している。   FIG. 8 shows a configuration example of the residual encoding unit 116 of FIG.

図8の例において、残差符号化部116は、DCT係数変換部161、量子化部162、およびランレングス符号化部163により構成されている。   In the example of FIG. 8, the residual encoding unit 116 includes a DCT coefficient conversion unit 161, a quantization unit 162, and a run length encoding unit 163.

DCT係数変換部161は、残差演算部152からの残差ブロックを読み込み、読み込んだ残差ブロックをDCT係数に変換し、変換したDCT係数を量子化部162に供給する。   The DCT coefficient conversion unit 161 reads the residual block from the residual calculation unit 152, converts the read residual block into a DCT coefficient, and supplies the converted DCT coefficient to the quantization unit 162.

量子化部162は、DCT係数変換部161により変換されたDCT係数、および量子化テーブル121を読み込み、量子化テーブル121を用いて、DCT係数を量子化(スカラー量子化)し、量子化データとして、ランレングス符号化部163に供給する。   The quantization unit 162 reads the DCT coefficient converted by the DCT coefficient conversion unit 161 and the quantization table 121, quantizes the DCT coefficient (scalar quantization) using the quantization table 121, and generates quantized data. And supplied to the run-length encoding unit 163.

ランレングス符号化部163は、量子化部162からの量子化データをジグザグスキャンし、その後、ランレングス符号化し、ランレングス符号化されたデータを、エントロピ符号データとして、データ合成部117に供給する。   The run-length encoding unit 163 performs zigzag scanning on the quantized data from the quantization unit 162, and then performs run-length encoding, and supplies the run-length encoded data to the data synthesis unit 117 as entropy code data. .

次に、図9のフローチャートを参照して、図5の符号化部82の符号化処理を説明する。なお、この符号化処理は、図4を参照して上述した符号化装置63の処理におけるステップS5の符号化処理である。   Next, the encoding process of the encoding unit 82 in FIG. 5 will be described with reference to the flowchart in FIG. 9. This encoding process is the encoding process of step S5 in the process of the encoding device 63 described above with reference to FIG.

符号化部82のブロック化部111およびフレームメモリ112には、A/D変換部81からのデジタルの画像データVdg1が入力される。フレームメモリ112に入力され、蓄積された前フレームの画像データは、動き推定部114および残差算出部115に供給される。   Digital image data Vdg1 from the A / D conversion unit 81 is input to the blocking unit 111 and the frame memory 112 of the encoding unit 82. The image data of the previous frame input and stored in the frame memory 112 is supplied to the motion estimation unit 114 and the residual calculation unit 115.

A/D変換部81からのデジタルの画像データVdg1が入力されると、ブロック化部111は、ステップS21において、ブロック化処理を実行する。このブロック化処理は、図10を参照して詳しく後述する。   When the digital image data Vdg1 from the A / D conversion unit 81 is input, the blocking unit 111 executes a blocking process in step S21. This blocking process will be described later in detail with reference to FIG.

ステップS21のブロック化処理により、読み込まれた入力画像が指定ブロックサイズに分割され、分割された画像データが入力ブロックとして、ブロック毎に動き推定部114および残差算出部115に供給され、処理は、ステップS22に進む。   By the blocking process of step S21, the read input image is divided into designated block sizes, and the divided image data is supplied as input blocks to the motion estimation unit 114 and the residual calculation unit 115 for each block. The process proceeds to step S22.

動き推定部114は、ブロック化部111から入力ブロックが入力されると、ステップS22において、入力ブロックと前フレームを用いて、動き推定処理を実行する。この動き推定処理は、図11を参照して詳しく後述する。   When the input block is input from the blocking unit 111, the motion estimation unit 114 performs a motion estimation process using the input block and the previous frame in step S22. This motion estimation process will be described later in detail with reference to FIG.

ステップS23の動き推定処理により、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが前フレームから探索されることにより、動きベクトルが算出される。そして、算出された動きベクトルが、残差算出部115およびデータ合成部117に供給され、処理は、ステップS24に進む。   A motion vector is calculated by searching for a block having a dynamic range closest to the dynamic range of the input block from the previous frame by the motion estimation process in step S23. Then, the calculated motion vector is supplied to the residual calculation unit 115 and the data synthesis unit 117, and the process proceeds to step S24.

残差算出部115は、動き推定部114から動きベクトルが供給されると、ステップS23において、残差算出処理を実行する。この残差算出処理は、図12を参照して詳しく後述する。   When the motion vector is supplied from the motion estimation unit 114, the residual calculation unit 115 executes a residual calculation process in step S23. This residual calculation process will be described later in detail with reference to FIG.

ステップS23の残差算出処理により、動き推定部114からの動きベクトルと、フレームメモリ112からの前フレームを用いて、予測ブロックの画素値が生成され、予測ブロックが求められる。そして、求められた予測ブロックと、ブロック化部111からの入力ブロックの残差が、残差ブロックとして、残差符号化部116に供給され、処理は、ステップS24に進む。   By the residual calculation process in step S23, the pixel value of the prediction block is generated using the motion vector from the motion estimation unit 114 and the previous frame from the frame memory 112, and the prediction block is obtained. Then, the obtained prediction block and the residual of the input block from the blocking unit 111 are supplied as a residual block to the residual encoding unit 116, and the process proceeds to step S24.

残差符号化部116は、残差算出部115から残差ブロックが供給されると、ステップS24において、残差符号化処理を実行する。この残差符号化処理は、図13を参照して詳しく後述する。   When the residual block is supplied from the residual calculation unit 115, the residual encoding unit 116 executes a residual encoding process in step S24. This residual encoding process will be described later in detail with reference to FIG.

ステップS24の残差符号化処理により、残差算出部115からの残差ブロックが、DCT係数に変換され、量子化テーブル121を用いて量子化され、ランレングス符号化され、エントロピ符号データとして、データ合成部117に供給され、処理は、ステップS25に進む。   By the residual encoding process in step S24, the residual block from the residual calculation unit 115 is converted into DCT coefficients, quantized using the quantization table 121, run-length encoded, and as entropy code data. The data is supplied to the data synthesis unit 117, and the process proceeds to step S25.

データ合成部117は、残差符号化部116からエントロピ符号データが入力されると、ステップS25においてデータ合成処理を実行する。このデータ合成処理は、図14を参照して詳しく後述する。   When the entropy code data is input from the residual encoding unit 116, the data synthesis unit 117 performs a data synthesis process in step S25. This data composition processing will be described later in detail with reference to FIG.

ステップS25のデータ合成処理により、動き推定部114からの動きベクトル、および残差符号化部116からのエントロピ符号データが、符号化データVcdとして合成され、後段の記録部83または復号部84に出力される。   Through the data synthesis process in step S25, the motion vector from the motion estimation unit 114 and the entropy code data from the residual encoding unit 116 are synthesized as encoded data Vcd and output to the recording unit 83 or the decoding unit 84 in the subsequent stage. Is done.

以上により、符号化部82の符号化処理は、終了され、処理は、図4のステップS5に戻り、ステップS6に進み、復号処理が実行される。   As described above, the encoding process of the encoding unit 82 is terminated, and the process returns to step S5 in FIG. 4 and proceeds to step S6, where the decoding process is executed.

次に、図10のフローチャートを参照して、図9のステップS21における、図5のブロック化部111のブロック化処理を説明する。   Next, the blocking process of the blocking unit 111 in FIG. 5 in step S21 in FIG. 9 will be described with reference to the flowchart in FIG.

ブロック化部111は、ステップS41において、A/D変換部81から入力されたデジタルの画像データVdg1を入力画像として読み込み、ステップS42に進み、入力画像を指定ブロック(例えば、4×4画素または8×8画素など)に分割し、ステップS43に進む。   In step S41, the block forming unit 111 reads the digital image data Vdg1 input from the A / D conversion unit 81 as an input image, proceeds to step S42, and converts the input image into a designated block (for example, 4 × 4 pixels or 8 X8 pixels, etc.), and the process proceeds to step S43.

ブロック化部111は、ステップS43において、分割した指定ブロックサイズの画像データを、入力ブロックとして、ブロック毎に、動き推定部114および残差算出部115に供給し、ブロック化処理を終了し、図9のステップS21に戻り、ステップS22に進む。   In step S43, the blocking unit 111 supplies the divided image data of the designated block size as an input block to the motion estimation unit 114 and the residual calculation unit 115 for each block, ends the blocking process, Returning to step S21 of step 9, the process proceeds to step S22.

次に、図11のフローチャートを参照して、図9のステップS22における、図5の動き推定部114の動き推定処理を説明する。   Next, the motion estimation process of the motion estimation unit 114 in FIG. 5 in step S22 in FIG. 9 will be described with reference to the flowchart in FIG.

DR算出部141は、ステップS61において、ブロック化部111から供給される入力ブロックを読み込み、ステップS62に進み、フレームメモリ112から前フレームを読み込み、ステップS63に進む。   In step S61, the DR calculation unit 141 reads the input block supplied from the blocking unit 111, proceeds to step S62, reads the previous frame from the frame memory 112, and proceeds to step S63.

DR算出部141は、ステップS63において、入力ブロックの画素の最大値と最小値からダイナミックレンジDRinを算出し、算出したダイナミックレンジDRinと入力ブロックをDRブロック探索部142に供給し、ステップS64に進む。なお、このとき、DR算出部141は、前フレームにおいて指定ブロックサイズに分けられた各ブロックのダイナミックレンジDRも算出し、算出したダイナミックレンジDRと前フレームを、DRブロック探索部142に供給する。   In step S63, the DR calculation unit 141 calculates the dynamic range DRin from the maximum value and the minimum value of the pixels of the input block, supplies the calculated dynamic range DRin and the input block to the DR block search unit 142, and proceeds to step S64. . At this time, the DR calculation unit 141 also calculates the dynamic range DR of each block divided into the designated block size in the previous frame, and supplies the calculated dynamic range DR and the previous frame to the DR block search unit 142.

DRブロック探索部142は、ステップS64において、DR算出部141により算出された入力ブロックのダイナミックレンジDRinと、前フレームのブロックのダイナミックレンジDRを比較し、前フレームから、ダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを探索し、ステップS65に進む。   In step S64, the DR block searching unit 142 compares the dynamic range DRin of the input block calculated by the DR calculating unit 141 with the dynamic range DR of the block of the previous frame, and the dynamic closest to the dynamic range DRin from the previous frame. The block having the range DR is searched, and the process proceeds to step S65.

DRブロック探索部142は、ステップS65において、探索したブロック、すなわち、入力ブロックのダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを複数探索したか否かを判定し、複数探索したと判定した探索した場合、探索したブロックと入力ブロックをDCTブロック探索部143に供給し、ステップS66に進む。   In step S65, the DR block search unit 142 determines whether or not a plurality of blocks having a dynamic range DR closest to the dynamic range DRin of the input block has been searched in step S65. In this case, the searched block and input block are supplied to the DCT block search unit 143, and the process proceeds to step S66.

DCTブロック探索部143は、ステップS66において、DRブロック探索部142により探索された複数のブロックと入力ブロックのDCT係数を求め、入力ブロックのDCT係数と複数のブロックのDCT係数の相関係数を算出し、算出したDCT係数の相関係数を比較し、ステップS67に進む。   In step S66, the DCT block search unit 143 obtains DCT coefficients of a plurality of blocks and input blocks searched by the DR block search unit 142, and calculates a correlation coefficient between the DCT coefficients of the input block and the DCT coefficients of the plurality of blocks. Then, the calculated correlation coefficients of the DCT coefficients are compared, and the process proceeds to step S67.

DCTブロック探索部143は、DCT係数の相関係数を比較した結果、ステップS67において、複数のブロックのうち、相関係数最大のブロックを、入力ブロックに対応する前フレームのブロックとして決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給し、ステップS69に進む。   As a result of comparing the correlation coefficients of the DCT coefficients, the DCT block search unit 143 determines, in step S67, the block with the largest correlation coefficient among the plurality of blocks as the block of the previous frame corresponding to the input block. The processed block and the input block are supplied to the motion vector calculation unit 144, and the process proceeds to step S69.

一方、DRブロック探索部142は、ステップS65において、入力ブロックのダイナミックレンジDRinに最も近いダイナミックレンジDRを有するブロックを1つだけ探索したと判定した場合、ステップS68に進み、探索したブロックを入力ブロックに対応する前フレームのブロックとして決定し、決定したブロックと入力ブロックを動きベクトル算出部144に供給し、ステップS69に進む。   On the other hand, if the DR block search unit 142 determines in step S65 that only one block having the dynamic range DR closest to the dynamic range DRin of the input block has been searched, the process proceeds to step S68, and the searched block is the input block. And the determined block and the input block are supplied to the motion vector calculation unit 144, and the process proceeds to step S69.

動きベクトル算出部144は、ステップS69において、DRブロック探索部142またはDCTブロック探索部143により決定されたブロックに基づいて、動きベクトルを算出し、算出した動きベクトルを残差算出部115およびデータ合成部117に供給し、動き推定処理を終了し、図9のステップS22に戻り、ステップS23に進む。   In step S69, the motion vector calculation unit 144 calculates a motion vector based on the block determined by the DR block search unit 142 or the DCT block search unit 143, and uses the calculated motion vector as the residual calculation unit 115 and the data synthesis. Is supplied to the unit 117, the motion estimation process is terminated, the process returns to step S22 in FIG. 9, and the process proceeds to step S23.

次に、図12のフローチャートを参照して、図9のステップS23における、図5の残差算出部115の残差算出処理を説明する。   Next, the residual calculation processing of the residual calculation unit 115 in FIG. 5 in step S23 in FIG. 9 will be described with reference to the flowchart in FIG.

残差演算部152は、ステップS101において、ブロック化部111から供給される入力ブロックを読み込み、ステップS102に進む。   In step S101, the residual calculation unit 152 reads the input block supplied from the blocking unit 111, and proceeds to step S102.

予測ブロック演算部151は、ステップS102において、動き推定部114から供給される動きベクトルを読み込み、ステップS103に進み、フレームメモリ112から供給される前フレームを読み込み、ステップS104に進む。   In step S102, the prediction block calculation unit 151 reads the motion vector supplied from the motion estimation unit 114, proceeds to step S103, reads the previous frame supplied from the frame memory 112, and proceeds to step S104.

予測ブロック演算部151は、ステップS104において、動き推定部114からの動きベクトルと、フレームメモリ112からの前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求め、求めた予測ブロックを残差演算部152に供給し、ステップS105に進む。   In step S104, the prediction block calculation unit 151 generates a pixel value of the prediction block using the motion vector from the motion estimation unit 114 and the previous frame from the frame memory 112, obtains a prediction block, and obtains the prediction block Is supplied to the residual calculation unit 152, and the process proceeds to step S105.

残差演算部152は、ステップS105において、ブロック化部111からの入力ブロック、および予測ブロック演算部151からの予測ブロックの残差を算出し、算出した残差を、残差ブロックとして、残差符号化部116に供給し、残差算出処理を終了し、図9のステップS23に戻り、ステップS24に進む。   In step S105, the residual calculation unit 152 calculates the residual of the input block from the blocking unit 111 and the prediction block from the prediction block calculation unit 151, and uses the calculated residual as the residual block. This is supplied to the encoding unit 116, the residual calculation process is terminated, the process returns to step S23 in FIG. 9, and the process proceeds to step S24.

次に、図13のフローチャートを参照して、図9のステップS24における、図5の残差符号化部116の残差符号化処理を説明する。   Next, the residual encoding process of the residual encoding unit 116 of FIG. 5 in step S24 of FIG. 9 will be described with reference to the flowchart of FIG.

DCT係数変換部161は、ステップS121において、残差演算部152からの残差ブロックを読み込み、ステップS122に進み、読み込んだ残差ブロックをDCT変換し、DCT係数を取得し、取得したDCT係数を量子化部162に供給し、ステップS123に進む。   In step S121, the DCT coefficient conversion unit 161 reads the residual block from the residual calculation unit 152, proceeds to step S122, DCT-transforms the read residual block, acquires the DCT coefficient, and acquires the acquired DCT coefficient. The data is supplied to the quantization unit 162, and the process proceeds to step S123.

量子化部162は、DCT係数変換部161からDCT係数が供給されると、ステップS123において、量子化テーブル121を読み込み、ステップS124に進み、読み込んだ量子化テーブル121を用いて、DCT係数を量子化し、量子化した量子化データを、ランレングス符号化部163に供給し、ステップS125に進む。   When the DCT coefficient is supplied from the DCT coefficient conversion unit 161, the quantization unit 162 reads the quantization table 121 in step S123, proceeds to step S124, and quantizes the DCT coefficient using the read quantization table 121. The quantized quantized data is supplied to the run-length encoding unit 163, and the process proceeds to step S125.

ランレングス符号化部163は、量子化部162から量子化データが供給されると、ステップS125において、量子化データ(すなわち、量子化されたDCT係数)をジグザグスキャンし、ステップS126に進み、ジグザグスキャンした量子化データをランレングス符号化し、ランレングス符号化されたデータを、エントロピ符号データとして、データ合成部117に供給し、残差符号化処理を終了し、図9のステップS24に戻り、ステップS25に進む。   When the quantized data is supplied from the quantizing unit 162, the run-length encoding unit 163 performs zigzag scanning on the quantized data (that is, the quantized DCT coefficient) in step S125, and proceeds to step S126. The scanned quantized data is run-length encoded, and the run-length encoded data is supplied as entropy code data to the data synthesis unit 117, the residual encoding process is terminated, and the process returns to step S24 in FIG. Proceed to step S25.

次に、図14のフローチャートを参照して、図10のステップS25における、図5のデータ合成部117のデータ合成処理を説明する。   Next, the data composition processing of the data composition unit 117 in FIG. 5 in step S25 in FIG. 10 will be described with reference to the flowchart in FIG.

データ合成部117は、ステップS141において、残差符号化部116から供給されるエントロピ符号データを読み込み、ステップS142に進み、動き推定部114から供給される動きベクトルを読み込み、ステップS143に進む。   In step S141, the data synthesis unit 117 reads the entropy code data supplied from the residual encoding unit 116, proceeds to step S142, reads the motion vector supplied from the motion estimation unit 114, and proceeds to step S143.

データ合成部117は、ステップS143において、エントロピ符号データ、および動きベクトルを合成し、符号化データVcdとして、後段の記録部83または復号部84に供給する。   In step S143, the data synthesis unit 117 synthesizes the entropy code data and the motion vector, and supplies them as encoded data Vcd to the subsequent recording unit 83 or decoding unit 84.

そして、データ合成部117は、データ合成処理を終了し、図9のステップS25に戻り、図9の符号化処理を終了し、図4のステップS5に戻り、ステップS6に進む。   Then, the data synthesis unit 117 ends the data synthesis process, returns to step S25 in FIG. 9, ends the encoding process in FIG. 9, returns to step S5 in FIG. 4, and proceeds to step S6.

以上のように、符号化部82においては、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが前フレームから探索され、探索されたブロックに基づいて、動きベクトルが算出されるので、符号化によりダイナミックレンジが変化してしまい、動きベクトルの推定が失敗することが多く、正確な動き推定が困難となる。   As described above, in the encoding unit 82, a block having a dynamic range closest to the dynamic range of the input block is searched from the previous frame, and a motion vector is calculated based on the searched block. As a result, the dynamic range changes, and motion vector estimation often fails, making accurate motion estimation difficult.

したがって、デジタルコピーおよびアナログコピーが抑制される。   Therefore, digital copy and analog copy are suppressed.

また、入力ブロックのダイナミックレンジに最も近いダイナミックレンジを有するブロックが複数探索された場合に、DCT係数(すなわち、周波数成分)の相関係数による比較を行うことにより、動きベクトルを算出するようにしたので、あまりにも異なる画素が含まれるブロックが探索されることを少し抑制することができる。   In addition, when a plurality of blocks having a dynamic range closest to the dynamic range of the input block are searched, a motion vector is calculated by performing a comparison using a correlation coefficient of DCT coefficients (that is, frequency components). Therefore, searching for a block including too different pixels can be suppressed a little.

さらに、この動きベクトルは、動き推定部114によりダイナミックレンジに最も近いダイナミックレンジを有するブロックが前フレームから探索され、探索されたブロックに基づいて、求められたものであり、A/D変換部81から入力されるデジタルの画像データVdg1には、ホワイトノイズや位相ずれが付加されているため、ダイナミックレンジがさらに変化し、間違って推定されたものが多く、確からしくない。   Further, the motion vector is obtained from the previous frame by searching for a block having a dynamic range closest to the dynamic range by the motion estimation unit 114, and the A / D conversion unit 81. Since the digital image data Vdg1 inputted from is added with white noise and phase shift, the dynamic range is further changed, and many of them are erroneously estimated, which is not sure.

したがって、この動きベクトルを用いて得られる動き推定後の残差が符号化されたエントロピ符号化データもあまり確からしくない。これにより、復号部84により符号化データVcdが用いられて復号されて得られるデジタルの画像データVdg2の画質は、劣化してしまう。   Therefore, the entropy-encoded data obtained by encoding the residual after motion estimation obtained using this motion vector is not very accurate. As a result, the image quality of the digital image data Vdg2 obtained by decoding using the encoded data Vcd by the decoding unit 84 deteriorates.

以上より、符号化部82による符号化により、アナログコピーがさらに抑制される。   As described above, the analog copy is further suppressed by the encoding by the encoding unit 82.

次に、図2の復号部84の構成の詳細について説明する。   Next, details of the configuration of the decoding unit 84 of FIG. 2 will be described.

図15は、復号部84の構成を示すブロック図である。復号部84には、符号化部82または記録部83から符号化データVcdが入力され、符号化データVcdが復号され、デジタルの画像データVdg2として、後段のD/A変換部85に供給される。   FIG. 15 is a block diagram illustrating a configuration of the decoding unit 84. The decoding unit 84 receives the encoded data Vcd from the encoding unit 82 or the recording unit 83, decodes the encoded data Vcd, and supplies it as digital image data Vdg2 to the D / A conversion unit 85 at the subsequent stage. .

復号部84は、データ分解部211、残差復号部212、フレームメモリ213、動き補償部214、残差加算部215、およびデータ結合部216により構成される。   The decoding unit 84 includes a data decomposing unit 211, a residual decoding unit 212, a frame memory 213, a motion compensation unit 214, a residual adding unit 215, and a data combining unit 216.

データ分解部211は、符号化部82(あるいは記録部83)からの符号化データVcdを入力し、符号化データVcdから、動きベクトル、およびエントロピ符号データを分解し、動きベクトルを動き補償部214に供給し、エントロピ符号データを残差復号部212に供給する。   The data decomposition unit 211 receives the encoded data Vcd from the encoding unit 82 (or the recording unit 83), decomposes the motion vector and entropy code data from the encoded data Vcd, and converts the motion vector into the motion compensation unit 214. And the entropy code data is supplied to the residual decoding unit 212.

残差復号部212は、データ分解部211からのエントロピ符号データを読み込み、残差補償を行う。すなわち、残差復号部212は、エントロピ符号データを復号し、復号部84に内蔵される一般的な量子化テーブル121を用いて、逆量子化を行い、逆量子化により得られた値を、逆DCT変換することで残差ブロックを求め、求めた残差ブロックを残差加算部215に供給する。   The residual decoding unit 212 reads the entropy code data from the data decomposition unit 211 and performs residual compensation. That is, the residual decoding unit 212 decodes entropy code data, performs inverse quantization using a general quantization table 121 built in the decoding unit 84, and obtains a value obtained by the inverse quantization, Residual blocks are obtained by inverse DCT transformation, and the obtained residual blocks are supplied to the residual adder 215.

フレームメモリ213には、データ結合部216からのデジタルの画像データVdg2が蓄積され、フレームメモリ213は、前フレームの画像データを動き補償部214に供給する。   The frame memory 213 stores the digital image data Vdg2 from the data combination unit 216, and the frame memory 213 supplies the image data of the previous frame to the motion compensation unit 214.

動き補償部214は、データ分解部211からの動きベクトルに基づいて、フレームメモリ213から読み込んだ前フレームから、動き推定先のブロックを求め、求めたブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給する。   The motion compensation unit 214 obtains a motion estimation destination block from the previous frame read from the frame memory 213 based on the motion vector from the data decomposition unit 211, obtains a prediction block from the obtained block, and obtains the obtained prediction The block is supplied to the residual adder 215.

残差加算部215は、動き補償部214により求められた予測ブロックに、残差復号部212により求められた残差ブロックを加算し、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給する。   The residual addition unit 215 adds the residual block obtained by the residual decoding unit 212 to the prediction block obtained by the motion compensation unit 214, obtains an output block, and determines the obtained output block as the data combining unit 216. To supply.

データ結合部216は、内蔵する図示せぬメモリに出力画像領域を有し、残差加算部215からの出力ブロックの画像データを、出力画像領域に書き込み、すべての出力ブロックの分が書き込まれたとき、出力画像領域に書き込まれた画像データを、デジタルの画像データVdg2として、後段のD/A変換部85に供給するとともに、フレームメモリ213に書き込む。   The data combination unit 216 has an output image area in a built-in memory (not shown), writes the image data of the output block from the residual addition unit 215 to the output image area, and all the output blocks are written. At this time, the image data written in the output image area is supplied as digital image data Vdg2 to the D / A conversion unit 85 in the subsequent stage and written into the frame memory 213.

以上のように、図15の復号部84において、動き補償部214により求められた予測ブロックは、符号化部82により求められたあまり確かではない動きベクトルに基づいて取得されている。また、残差復号部212により求められた残差ブロックも、符号化部82において動きベクトルに基づいて求められている。   As described above, in the decoding unit 84 of FIG. 15, the prediction block obtained by the motion compensation unit 214 is acquired based on the motion vector obtained by the encoding unit 82 which is not very certain. The residual block obtained by the residual decoding unit 212 is also obtained based on the motion vector in the encoding unit 82.

すなわち、動き補償部214が実行する動き補償も、残差復号部212が実行する残差補償も、必ずしも正確ではない。したがって、予測ブロックと残差ブロックが加算されて生成される出力ブロックからなるデジタルの画像データVdg2の画質は劣化してしまう。これにより、アナログコピーが抑制される。   That is, neither the motion compensation performed by the motion compensation unit 214 nor the residual compensation performed by the residual decoding unit 212 is necessarily accurate. Therefore, the image quality of the digital image data Vdg2 including the output block generated by adding the prediction block and the residual block deteriorates. Thereby, analog copy is suppressed.

図16は、図15の残差復号部212の構成例を示している。   FIG. 16 shows a configuration example of the residual decoding unit 212 of FIG.

図18の例において、残差復号部212は、ランレングス復号部221、逆量子化部222、および逆DCT変換部223により構成されている。   In the example of FIG. 18, the residual decoding unit 212 includes a run length decoding unit 221, an inverse quantization unit 222, and an inverse DCT transform unit 223.

ランレングス復号部221は、データ分解部211からのエントロピ符号データを読み込み、読み込んだエントロピ符号データをランレングス復号し、ランレングス復号されたデータ、すなわち、量子化データを、逆量子化部222に供給する。   The run-length decoding unit 221 reads the entropy code data from the data decomposing unit 211, performs the run-length decoding on the read entropy code data, and the run-length decoded data, that is, the quantized data, is sent to the inverse quantization unit 222. Supply.

逆量子化部222は、一般的な量子化テーブル121を読み込み、読み込んだ量子化テーブル121を用いて、ランレングス復号部221によりランレングス復号された量子化データを逆量子化し、逆量子化により得られた値(すなわち、DCT係数)を、逆DCT変換部223に供給する。   The inverse quantization unit 222 reads a general quantization table 121, uses the read quantization table 121, inversely quantizes the quantized data that has been run-length decoded by the run-length decoding unit 221, and performs inverse quantization. The obtained value (ie, DCT coefficient) is supplied to the inverse DCT transform unit 223.

逆DCT変換部223は、逆量子化部222により逆量子化されたDCT係数を、逆DCT変換することで、残差ブロックを取得し、取得した残差ブロックを、残差加算部215に供給する。   The inverse DCT transformation unit 223 obtains a residual block by performing inverse DCT transformation on the DCT coefficient inversely quantized by the inverse quantization unit 222 and supplies the obtained residual block to the residual addition unit 215. To do.

図17は、図15の動き補償部214の構成例を示している。   FIG. 17 shows a configuration example of the motion compensation unit 214 of FIG.

図17の例において、動き補償部214は、動き補償処理部231および予測ブロック取得部232により構成されている。   In the example of FIG. 17, the motion compensation unit 214 includes a motion compensation processing unit 231 and a prediction block acquisition unit 232.

動き補償処理部231は、データ分解部211から供給される動きベクトルを読み込み、フレームメモリ213から前フレームを読み込む。そして、動き補償処理部231は、データ分解部211からの動きベクトルに基づいて、フレームメモリ213からの前フレームから、動き推定先のブロックを求める。   The motion compensation processing unit 231 reads the motion vector supplied from the data decomposition unit 211 and reads the previous frame from the frame memory 213. Then, the motion compensation processing unit 231 obtains a motion estimation destination block from the previous frame from the frame memory 213 based on the motion vector from the data decomposing unit 211.

予測ブロック取得部232は、動き補償処理部231により求められた動き推定先のブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給する。   The prediction block acquisition unit 232 acquires a prediction block from the motion estimation destination block obtained by the motion compensation processing unit 231, and supplies the acquired prediction block to the residual addition unit 215.

次に、図18のフローチャートを参照して、図15の復号部84の復号処理を説明する。なお、この符号化処理は、図4を参照して上述した符号化装置63の処理におけるステップS6の復号処理である。   Next, the decoding process of the decoding unit 84 in FIG. 15 will be described with reference to the flowchart in FIG. This encoding process is the decoding process in step S6 in the process of the encoding device 63 described above with reference to FIG.

復号部84のデータ分解部211には、符号化部82(あるいは記録部83)から符号化データVcdが供給される。データ分解部211は、符号化データVcdが供給されると、ステップS211において、データ分解処理を実行する。このデータ分解処理は、図19を参照して詳しく後述する。   The encoded data Vcd is supplied from the encoding unit 82 (or recording unit 83) to the data decomposition unit 211 of the decoding unit 84. When the encoded data Vcd is supplied, the data decomposing unit 211 performs a data decomposing process in step S211. This data decomposition process will be described later in detail with reference to FIG.

ステップS211のデータ分解処理により、符号化部82からの符号化データVcdが分解され、分解された動きベクトルが動き補償部214に供給され、エントロピ符号データが、残差復号部212に供給され、処理は、ステップS212に進む。   The encoded data Vcd from the encoding unit 82 is decomposed by the data decomposition processing in step S211, the decomposed motion vector is supplied to the motion compensation unit 214, and the entropy code data is supplied to the residual decoding unit 212. The process proceeds to step S212.

残差復号部212は、データ分解部211からエントロピ符号データが供給されると、ステップS212において、残差復号処理を実行する。この残差復号処理は、図20を参照して詳しく後述する。   When entropy code data is supplied from the data decomposing unit 211, the residual decoding unit 212 performs a residual decoding process in step S212. This residual decoding process will be described later in detail with reference to FIG.

ステップS212の残差復号処理により、エントロピ符号データがランレングス復号され、ランレングス復号された量子化データと量子化テーブル121を用いて、逆量子化が行われ、逆量子化により得られた値が逆DCT変換されて、残差ブロックが求められ、残差加算部215に供給され、処理は、ステップS213に進む。   The entropy code data is run-length decoded by the residual decoding process in step S212, and the inverse quantization is performed using the run-length decoded quantization data and the quantization table 121, and the value obtained by the inverse quantization. Are subjected to inverse DCT transform to obtain a residual block, which is supplied to the residual adding unit 215, and the process proceeds to step S213.

動き補償部214は、データ分解部211から動きベクトルが供給されると、ステップS213において、動き補償処理を実行する。この動き補償処理は、図21を参照して詳しく後述する。   When the motion vector is supplied from the data decomposing unit 211, the motion compensating unit 214 executes a motion compensation process in step S213. This motion compensation process will be described later in detail with reference to FIG.

ステップS213の動き補償処理により、データ分解部211からの動きベクトルに基づいて、フレームメモリ213から読み込んだ前フレームから、動き推定先のブロックが求められ、求められたブロックから、予測ブロックが取得され、取得された予測ブロックが残差加算部215に供給され、処理は、ステップS214に進む。   Based on the motion vector from the data decomposing unit 211, the motion estimation destination block is obtained from the previous frame read from the frame memory 213 by the motion compensation processing in step S213, and the prediction block is obtained from the obtained block. The obtained prediction block is supplied to the residual adding unit 215, and the process proceeds to step S214.

残差加算部215は、動き補償部214から予測ブロックが供給されると、ステップS214において、残差加算処理を実行する。この残差加算処理は、図22を参照して詳しく後述する。   When the prediction block is supplied from the motion compensation unit 214, the residual addition unit 215 performs residual addition processing in step S214. This residual addition process will be described later in detail with reference to FIG.

ステップS214の残差加算処理により、動き補償部214からの予測ブロックに、残差復号部212からの残差ブロックが加算され、出力ブロックとしてデータ結合部216に供給され、処理は、ステップS215に進む。   By the residual addition process in step S214, the residual block from the residual decoding unit 212 is added to the prediction block from the motion compensation unit 214 and is supplied to the data combining unit 216 as an output block, and the process proceeds to step S215. move on.

残差加算部215から出力ブロックが供給されると、データ結合部216は、ステップS215において、データ結合処理を実行する。このデータ結合処理は、図23を参照して詳しく後述する。   When the output block is supplied from the residual adding unit 215, the data combining unit 216 executes data combining processing in step S215. This data combination process will be described later in detail with reference to FIG.

ステップS215のデータ結合処理により、残差加算部215からの出力ブロックの画像データが、出力画像領域に書き込まれ、すべての出力ブロックの分が書き込まれたとき、出力画像領域に書き込まれた画像データが、デジタルの画像データVdg2として、後段のD/A変換部85に供給され、復号処理は終了し、図4のステップS6に戻り、ステップS7に進む。   The image data of the output block from the residual adding unit 215 is written in the output image area by the data combination processing in step S215, and the image data written in the output image area when all the output blocks are written. Is supplied as digital image data Vdg2 to the D / A conversion unit 85 in the subsequent stage, the decoding process ends, the process returns to step S6 in FIG. 4, and proceeds to step S7.

次に、図19のフローチャートを参照して、図18のステップS211における、図15のデータ分解部211のデータ分解処理を説明する。   Next, the data decomposition process of the data decomposition unit 211 in FIG. 15 in step S211 in FIG. 18 will be described with reference to the flowchart in FIG.

データ分解部211は、ステップS231において、符号化部82から供給される符号化データVcdを入力し、ステップS232に進み、入力した符号化データVcdを分解する。   In step S231, the data decomposing unit 211 receives the encoded data Vcd supplied from the encoding unit 82, proceeds to step S232, and decomposes the input encoded data Vcd.

すなわち、データ分解部211は、ステップS232において、符号化データVcdから、動きベクトルおよびエントロピ符号データを分解し、ステップS233に進む。   That is, in step S232, the data decomposing unit 211 decomposes the motion vector and entropy code data from the encoded data Vcd, and proceeds to step S233.

データ分解部211は、ステップS233において、分解した動きベクトルを動き補償部214に供給し、分解したエントロピ符号データを、残差復号部212に供給し、データ分解処理を終了し、図18のステップS211に戻り、ステップS212に進む。   In step S233, the data decomposition unit 211 supplies the decomposed motion vector to the motion compensation unit 214, supplies the decomposed entropy code data to the residual decoding unit 212, ends the data decomposition process, and performs the step of FIG. It returns to S211 and progresses to step S212.

次に、図20のフローチャートを参照して、図18のステップS212における、図15の残差復号部212の残差復号処理を説明する。   Next, the residual decoding process of the residual decoding unit 212 in FIG. 15 in step S212 in FIG. 18 will be described with reference to the flowchart in FIG.

ランレングス復号部221は、ステップS251において、データ分解部211から供給されるエントロピ符号データを読み込み、ステップS252に進み、読み込んだエントロピ符号データをランレングス復号し、ランレングス復号されたデータ、すなわち、量子化データを得て、量子化データを逆量子化部222に供給し、ステップS253に進む。   In step S251, the run-length decoding unit 221 reads the entropy code data supplied from the data decomposition unit 211, proceeds to step S252, and performs run-length decoding on the read entropy code data, that is, the run-length decoded data, that is, The quantized data is obtained, the quantized data is supplied to the inverse quantization unit 222, and the process proceeds to step S253.

逆ベクトル量子化部221は、ステップS253において、量子化テーブル121を読み込み、ステップS254に進み、ランレングス復号部221からの量子化データと量子化テーブル121を用いて逆量子化を行い、逆量子化により得られた値(すなわち、DCT係数)を、逆DCT変換部223に供給し、ステップS255に進む。   In step S253, the inverse vector quantization unit 221 reads the quantization table 121, proceeds to step S254, performs inverse quantization using the quantization data from the run-length decoding unit 221 and the quantization table 121, and performs inverse quantization. The value (that is, the DCT coefficient) obtained by the conversion is supplied to the inverse DCT transform unit 223, and the process proceeds to step S255.

この量子化テーブル121は、一般的な量子化テーブルであり、復号部84に予め記憶されている。   The quantization table 121 is a general quantization table and is stored in advance in the decoding unit 84.

逆DCT変換部223は、ステップS255において、逆ベクトル量子化部221からのDCT係数を、逆DCT変換することで、残差ブロックを取得し、取得した残差ブロックを残差加算部215に供給し、残差復号処理を終了し、図18のステップS212に戻り、ステップS213に進む。   In step S <b> 255, the inverse DCT transform unit 223 obtains a residual block by performing inverse DCT transform on the DCT coefficient from the inverse vector quantization unit 221, and supplies the obtained residual block to the residual addition unit 215. Then, the residual decoding process ends, the process returns to step S212 in FIG. 18, and the process proceeds to step S213.

次に、図21のフローチャートを参照して、図18のステップS213における、図15の動き補償部214の動き補償処理を説明する。   Next, the motion compensation processing of the motion compensation unit 214 in FIG. 15 in step S213 in FIG. 18 will be described with reference to the flowchart in FIG.

動き補償処理部231は、ステップS271において、データ分解部211から供給される動きベクトルを読み込み、ステップS272に進み、フレームメモリ213から前フレームを読み込み、ステップS273に進む。   In step S271, the motion compensation processing unit 231 reads the motion vector supplied from the data decomposition unit 211, proceeds to step S272, reads the previous frame from the frame memory 213, and proceeds to step S273.

動き補償処理部231は、ステップS273において、データ分解部211からの動きベクトルに基づいて、フレームメモリ213からの前フレームから、動き推定先のブロックを求め、ステップS274に進む。   In step S273, the motion compensation processing unit 231 obtains a motion estimation destination block from the previous frame from the frame memory 213 based on the motion vector from the data decomposition unit 211, and proceeds to step S274.

予測ブロック取得部232は、ステップS274において、動き補償処理部231により求められた動き推定先のブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給し、動き補償処理を終了し、図18のステップS213に戻り、ステップS214に進む。   In step S274, the prediction block acquisition unit 232 acquires a prediction block from the motion estimation destination block obtained by the motion compensation processing unit 231, and supplies the acquired prediction block to the residual addition unit 215 for motion compensation processing. Is finished, the process returns to step S213 in FIG. 18, and proceeds to step S214.

次に、図22のフローチャートを参照して、図18のステップS214における、図15の残差加算部215の残差加算処理を説明する。   Next, the residual addition process of the residual addition unit 215 in FIG. 15 in step S214 in FIG. 18 will be described with reference to the flowchart in FIG.

残差加算部215は、ステップS291において、残差復号部212から供給される残差ブロックを読み込み、ステップS292に進み、動き補償部214から供給される予測ブロックを読み込み、ステップS293に進む。   In step S291, the residual addition unit 215 reads the residual block supplied from the residual decoding unit 212, proceeds to step S292, reads the prediction block supplied from the motion compensation unit 214, and proceeds to step S293.

残差加算部215は、ステップS293において、動き補償部214からの予測ブロックに、残差復号部212からの残差ブロックを加算することにより、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給し、残差加算処理を終了し、図18のステップS214に戻り、ステップS215に進む。   In step S293, the residual addition unit 215 obtains an output block by adding the residual block from the residual decoding unit 212 to the prediction block from the motion compensation unit 214, and the obtained output block is subjected to data combination. To the unit 216, the residual addition process is terminated, the process returns to step S214 in FIG. 18, and the process proceeds to step S215.

次に、図23のフローチャートを参照して、図18のステップS215における、図15のデータ結合部216のデータ結合処理を説明する。   Next, the data combining process of the data combining unit 216 in FIG. 15 in step S215 in FIG. 18 will be described with reference to the flowchart in FIG.

データ結合部216は、ステップS311において、残差加算部215から供給されるすべての出力ブロック(すなわち、符号化部82のブロック化部111が入力した入力画像に対応するすべてのブロック)を入力し、ステップS312に進む。   In step S311, the data combination unit 216 inputs all output blocks supplied from the residual addition unit 215 (that is, all blocks corresponding to the input image input by the blocking unit 111 of the encoding unit 82). The process proceeds to step S312.

データ結合部216は、ステップS312において、出力ブロックの画像データを出力画像領域に書き込み、ステップS313に進み、すべての出力ブロックの書き込みが終了したか否かを判定し、すべての出力ブロックの書き込みが終了していないと判定した場合、ステップS312に戻り、それ以降の処理を繰り返す。   In step S312, the data combination unit 216 writes the image data of the output block to the output image area, proceeds to step S313, determines whether writing of all the output blocks is completed, and writes all of the output blocks. If it is determined that the process has not ended, the process returns to step S312 to repeat the subsequent processes.

データ結合部216は、ステップS313において、すべての出力ブロックの書き込みが終了したと判定した場合、ステップS314に進み、出力画像領域に書き込まれた画像データを、デジタルの画像データVdg2として、後段のD/A変換部85に供給するとともにフレームメモリ213に書き込み、図18のステップS215に進み、図18の復号処理を終了し、図4のステップS6に戻り、ステップS7に進む。   If the data combination unit 216 determines in step S313 that writing of all output blocks has been completed, the process proceeds to step S314, in which the image data written in the output image area is converted into digital image data Vdg2, and the subsequent D The data is supplied to the / A converter 85 and written to the frame memory 213, and the process proceeds to step S215 in FIG. 18, the decoding process in FIG. 18 is terminated, the process returns to step S6 in FIG. 4, and the process proceeds to step S7.

以上のように、復号部84においては、符号化部82によりダイナミックレンジが最も近いブロックに基づいて推定された動きベクトルを用いて、動き補償されるので、動き補償により得られる予測ブロックが用いられて生成される画像データの画質は、劣化してしまう。   As described above, in the decoding unit 84, motion compensation is performed using the motion vector estimated based on the block having the closest dynamic range by the encoding unit 82, so that a prediction block obtained by motion compensation is used. The image quality of the image data generated in this way deteriorates.

また、復号部84においては、符号化部82により動きベクトルを用いて得られる動き推定後の残差がJPEG符号化されたエントロピ符号データを用いて、残差補償が実行されるので、残差補償により得られる残差ブロックが用いられて生成される画像データの画質は、劣化してしまう。   Further, in the decoding unit 84, residual compensation is performed using entropy code data obtained by JPEG encoding of the residual after motion estimation obtained by using the motion vector by the encoding unit 82. The image quality of the image data generated using the residual block obtained by the compensation is deteriorated.

したがって、アナログコピーを抑制することができる。   Therefore, analog copying can be suppressed.

以上のように、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を用いて符号化処理が実行されるため、符号化部82における動き推定やエントロピ符号化が正確に行われることが抑制される。   As described above, in the image processing system 51 according to the present invention, the encoding process is executed using the digital image data Vdg1 to which white noise and phase shift are added. Accurate entropy encoding is suppressed.

また、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を符号化処理した符号化データVcdを用いて、復号処理が実行されるので、動き補償や残差補償が正確に行われることが抑制される。   In the image processing system 51 according to the present invention, since the decoding process is executed using the encoded data Vcd obtained by encoding the digital image data Vdg1 to which white noise and phase shift are added, motion compensation is performed. And the residual compensation is suppressed from being performed accurately.

以上により、符号化部82から得られる符号化データVcdと、それを復号した復号部84からのデジタルの画像データVdg2は、デジタルの画像データVdg0やアナログの画像データVan1よりも画質が大きく劣化してしまう。これにより、アナログコピーの防止に寄与することができる。   As described above, the encoded data Vcd obtained from the encoding unit 82 and the digital image data Vdg2 from the decoding unit 84 obtained by decoding the encoded data Vcd greatly deteriorate in image quality compared with the digital image data Vdg0 and the analog image data Van1. End up. This can contribute to prevention of analog copy.

なお、上記説明においては、符号化装置63の復号部84を用いて説明したが、再生装置61の復号部71も同様の構成であり、同様の処理が実行される。したがって、本発明に係る符号化および復号は、繰り返し実行されることもあり、その場合には、繰り返される毎に、その結果得られる画像データの画質は、ますます劣化するので、さらにアナログコピーの防止の寄与に効果がある。   In the above description, the decoding unit 84 of the encoding device 63 has been described. However, the decoding unit 71 of the reproduction device 61 has the same configuration, and the same processing is executed. Therefore, the encoding and decoding according to the present invention may be repeatedly performed. In this case, the image quality of the resulting image data is further deteriorated every time it is repeated. It is effective in contributing to prevention.

また、本実施の形態においては、各処理を行うブロックを、例えば、8画素×8画素や4画素×4画素などにより構成するようにして説明したが、これらは、一例であり、各処理を行うブロックを構成する画素は、上記画素数に限定されない。   Further, in the present embodiment, the block for performing each process has been described as being configured by, for example, 8 pixels × 8 pixels, 4 pixels × 4 pixels, and the like. However, these are examples, and each process is performed. The number of pixels constituting the block to be performed is not limited to the number of pixels.

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、図2の再生装置61や符号化装置63は、例えば、図24に示されるようなパーソナルコンピュータ301により構成される。   The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the playback device 61 and the encoding device 63 in FIG. 2 are configured by, for example, a personal computer 301 as shown in FIG.

図24に示されるように、CPU311は、ROM(Read Only Memory)312に記録されているプログラム、または記憶部318からRAM(Random Access Memory)313にロードされたプログラムに従って各種の処理を実行する。RAM313にはまた、CPU311が各種の処理を実行する上において必要なデータなども適宜記憶される。   As illustrated in FIG. 24, the CPU 311 executes various processes according to a program recorded in a ROM (Read Only Memory) 312 or a program loaded from a storage unit 318 to a RAM (Random Access Memory) 313. The RAM 313 also appropriately stores data necessary for the CPU 311 to execute various processes.

CPU311、ROM312、およびRAM313は、バス314を介して相互に接続されている。このバス314にはまた、入出力インタフェース315も接続されている。   The CPU 311, the ROM 312, and the RAM 313 are connected to each other via the bus 314. An input / output interface 315 is also connected to the bus 314.

入出力インタフェース315には、キーボード、マウスなどよりなる入力部316、CRT、LCDなどよりなるディスプレイ(例えば、図2のディスプレイ62やディスプレイ86)、並びにスピーカなどよりなる出力部317、ハードディスクなどより構成される記憶部318、モデム、ターミナルアダプタなどより構成される通信部319が接続されている。通信部319は、インターネットを含む図示せぬネットワークを介して他の情報処理装置との通信処理を行う。   The input / output interface 315 includes an input unit 316 including a keyboard and a mouse, a display such as a CRT and an LCD (for example, the display 62 and the display 86 in FIG. 2), an output unit 317 including a speaker, a hard disk, and the like. A communication unit 319 including a storage unit 318, a modem, a terminal adapter, and the like is connected. The communication unit 319 performs communication processing with other information processing apparatuses via a network (not shown) including the Internet.

入出力インタフェース315にはまた、必要に応じて、ドライブ320が接続され、磁気ディスク321、光ディスク322、光磁気ディスク323、或いは半導体メモリ324などよりなるリムーバブル記録媒体が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部318などにインストールされる。   A drive 320 is connected to the input / output interface 315 as necessary, and a removable recording medium including a magnetic disk 321, an optical disk 322, a magneto-optical disk 323, a semiconductor memory 324, or the like is appropriately mounted and read from them. The computer program thus installed is installed in the storage unit 318 or the like as necessary.

すなわち、ドライブ320が、図2の記録部83に相当することになる。   That is, the drive 320 corresponds to the recording unit 83 in FIG.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.

例えば、上述した図2の復号部71およびD/A変換部72、並びに、A/D変換部81、符号化部82、復号部84、およびD/A変換部85などの機能を有するソフトウェアを構成するプログラムがインストールされる。なお、このプログラムは、全体として上述した一連の処理を実行できれば、その形態は特に限定されない。例えば、上述した各ブロックのそれぞれに対応するモジュールのそれぞれからなるモジュール構成とされてもよいし、幾つかのブロックの機能の一部または全部が組み合わされたモジュール、若しくは、ブロックの機能が分割されたモジュールからなるモジュール構成とされてもよい。或いは、単に1つのアルゴリズムを有するプログラムでもよい。   For example, software having functions such as the decoding unit 71 and the D / A conversion unit 72, the A / D conversion unit 81, the encoding unit 82, the decoding unit 84, and the D / A conversion unit 85 in FIG. The program to be configured is installed. Note that the form of the program is not particularly limited as long as the above-described series of processes can be executed as a whole. For example, the module configuration may include a module corresponding to each of the blocks described above, a module in which some or all of the functions of several blocks are combined, or the functions of the blocks are divided. It may be a module configuration made up of modules. Or the program which has only one algorithm may be sufficient.

このようなプログラムを含む記録媒体は、図24に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク321(フロッピディスクを含む)、光ディスク322(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク323(MD(Mini-Disk)を含む)、もしくは半導体メモリ324などよりなるリムーバブル記録媒体(パッケージメディア)により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM312や、記憶部318などで構成される。   As shown in FIG. 24, the recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk 321 (including a floppy disk) on which the program is recorded. ), Optical disk 322 (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disk 323 (including MD (mini-disk)), or semiconductor memory 324, etc. In addition to being configured by a recording medium (package medium), it is configured by a ROM 312 on which a program is recorded, a storage unit 318, and the like provided to the user in a state of being incorporated in the apparatus main body in advance.

ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   Further, the program may be processed by a single computer, or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.

従来の画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional image processing system. 本発明を適用した画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing system to which this invention is applied. 画像データのフレームの構成を示す図である。It is a figure which shows the structure of the flame | frame of image data. 図2の画像処理システムの処理を説明するフローチャートである。It is a flowchart explaining the process of the image processing system of FIG. 図2の符号化装置の符号化部の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an encoding unit of the encoding device in FIG. 2. 図5の動き推定部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion estimation part of FIG. 図5の残差算出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual calculation part of FIG. 図5の残差符号化部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual encoding part of FIG. 図4のステップS5における図2の符号化部の符号化処理を説明するフローチャートである。5 is a flowchart for describing an encoding process of an encoding unit in FIG. 2 in step S5 in FIG. 図9のステップS21のブロック化処理を説明するフローチャートである。It is a flowchart explaining the blocking process of step S21 of FIG. 図9のステップS22の動き推定処理を説明するフローチャートである。It is a flowchart explaining the motion estimation process of step S22 of FIG. 図9のステップS23の残差算出処理を説明するフローチャートである。It is a flowchart explaining the residual calculation process of step S23 of FIG. 図9のステップS24の残差符号化処理を説明するフローチャートである。It is a flowchart explaining the residual encoding process of step S24 of FIG. 図9のステップS26のデータ合成処理を説明するフローチャートである。It is a flowchart explaining the data composition process of step S26 of FIG. 図2の符号化装置の復号部の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a decoding unit of the encoding device in FIG. 2. 図15の残差復号部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual decoding part of FIG. 図15の動き補償部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion compensation part of FIG. 図4のステップS6における図2の復号部の復号処理を説明するフローチャートである。6 is a flowchart for explaining the decoding process of the decoding unit of FIG. 2 in step S6 of FIG. 図18のステップS211のデータ分解処理を説明するフローチャートである。It is a flowchart explaining the data decomposition process of step S211 of FIG. 図18のステップS212の残差復号処理を説明するフローチャートである。It is a flowchart explaining the residual decoding process of step S212 of FIG. 図18のステップS213の動き補償処理を説明するフローチャートである。It is a flowchart explaining the motion compensation process of step S213 of FIG. 図18のステップS214の残差加算処理を説明するフローチャートである。It is a flowchart explaining the residual addition process of step S214 of FIG. 図18のステップS215のデータ結合処理を説明するフローチャートである。It is a flowchart explaining the data combination process of step S215 of FIG. 本発明を適用するパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal computer to which this invention is applied.

符号の説明Explanation of symbols

51 画像処理システム,61 再生装置,62 ディスプレイ,63 符号化装置,81 A/D変換部,82 符号化部,83 記録部,84 復号部,85 D/A変換部,86 ディスプレイ,111 ブロック化部,112 フレームメモリ,114 動き推定部,115 残差算出部,116 残差符号化部,117 データ合成部,121 量子化テーブル,211 データ分解部,212 残差復号部,213 フレームメモリ,214 動き補償部,215 残差加算部,216 データ結合部   51 image processing system, 61 playback device, 62 display, 63 encoding device, 81 A / D conversion unit, 82 encoding unit, 83 recording unit, 84 decoding unit, 85 D / A conversion unit, 86 display, 111 block Unit, 112 frame memory, 114 motion estimation unit, 115 residual calculation unit, 116 residual encoding unit, 117 data synthesis unit, 121 quantization table, 211 data decomposition unit, 212 residual decoding unit, 213 frame memory, 214 Motion compensation unit, 215 Residual addition unit, 216 Data combination unit

Claims (16)

画像データを符号化する符号化装置において、
入力される画像データ中の第1のフレームをブロック化するブロック化手段と、
前記ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定手段と、
前記動き推定手段により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化手段と
を備える符号化装置。
In an encoding device for encoding image data,
Blocking means for blocking the first frame in the input image data;
Dynamic range detecting means for detecting a dynamic range of a pixel value of a first block of a first frame blocked by the blocking means;
When a second block having a dynamic range closest to the dynamic range detected by the dynamic range detection unit is detected from the second frame in the image data, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of a first block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Motion estimation means for estimating the motion vector of the block of
An encoding device comprising: encoding means for encoding the first block using the motion vector estimated by the motion estimation means.
前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを出力するノイズ付加手段をさらに備え、
前記ブロック化手段は、前記ノイズ付加手段により前記ノイズが付加された前記画像データの第1のフレームをブロック化する
請求項1に記載の符号化装置。
Noise addition means for adding noise to the image data and outputting the image data to which the noise has been added;
The encoding apparatus according to claim 1, wherein the blocking unit blocks the first frame of the image data to which the noise is added by the noise adding unit.
前記動き推定手段により推定された前記動きベクトルを用いて、前記第1ブロックに対応する前記第2のフレームの画像データと、前記第1のブロックにおける画像データとの差分を算出する差分算出手段をさらに備え、
前記符号化手段は、前記差分算出手段により算出された前記差分を符号化することにより、前記第1のブロックを符号化する
ことを特徴とする請求項1に記載の符号化装置。
Difference calculation means for calculating a difference between the image data of the second frame corresponding to the first block and the image data of the first block using the motion vector estimated by the motion estimation means. In addition,
The encoding apparatus according to claim 1, wherein the encoding unit encodes the first block by encoding the difference calculated by the difference calculation unit.
前記符号化手段は、JPEG(Joint Photographic Coding Experts Group)方式で符号化する
請求項に記載の符号化装置。
The encoding device according to claim 3 , wherein the encoding means performs encoding by a JPEG (Joint Photographic Coding Experts Group) method.
前記動き推定手段により推定された前記動きベクトル、および前記符号化手段により符号化された前記第1のブロックを、符号化データとして後段に出力するデータ出力手段を
さらに備える請求項1に記載の符号化装置。
The code according to claim 1, further comprising data output means for outputting the motion vector estimated by the motion estimation means and the first block encoded by the encoding means to the subsequent stage as encoded data. Device.
画像データを符号化する符号化装置の符号化方法において、
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化ステップと
を含む符号化方法。
In an encoding method of an encoding device for encoding image data,
A blocking step of blocking the first frame in the input image data;
A dynamic range detecting step of detecting a dynamic range of a pixel value of a first block of a first frame blocked by the processing of the blocking step;
When a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detection step is detected from the second frame in the image data, and a plurality of the second blocks are detected , Calculating a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a plurality of DCT coefficients of the second block, and using the second block having the maximum correlation coefficient, A motion estimation step for estimating a motion vector of the first block;
And a coding step of coding the first block using the motion vector estimated by the processing of the motion estimation step.
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化ステップと
を含む処理をコンピュータに行わせるためのプログラムが記録されている記録媒体。
A blocking step of blocking the first frame in the input image data;
A dynamic range detecting step of detecting a dynamic range of a pixel value of a first block of a first frame blocked by the processing of the blocking step;
When a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detection step is detected from the second frame in the image data, and a plurality of the second blocks are detected , Calculating a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a plurality of DCT coefficients of the second block, and using the second block having the maximum correlation coefficient, A motion estimation step for estimating a motion vector of the first block;
A recording medium on which a program for causing a computer to perform a process including an encoding step of encoding the first block using the motion vector estimated by the process of the motion estimation step is recorded.
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出ステップと、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出ステップの処理により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化ステップと
を含む処理をコンピュータに行わせるためのプログラム。
A blocking step of blocking the first frame in the input image data;
A dynamic range detecting step of detecting a dynamic range of a pixel value of a first block of a first frame blocked by the processing of the blocking step;
When a second block having a dynamic range closest to the dynamic range detected by the processing of the dynamic range detection step is detected from the second frame in the image data, and a plurality of the second blocks are detected , Calculating a correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of the first block and a plurality of DCT coefficients of the second block, and using the second block having the maximum correlation coefficient, A motion estimation step for estimating a motion vector of the first block;
A program for causing a computer to perform a process including: an encoding step of encoding the first block using the motion vector estimated by the process of the motion estimation step.
画像データを復号する復号装置において、
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、
前記データ入力手段により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出手段と、
前記データ入力手段により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算手段と
を備える復号装置。
In a decoding device for decoding image data,
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Data input means for inputting a motion vector estimated as a block motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained by using the motion vector;
Difference value extraction means for extracting the difference value by decoding the encoded data input by the data input means;
The image of the first frame is added by adding the difference value extracted by the difference value extracting means to the image data of the second frame in accordance with the motion vector input by the data input means. And a data adding means for generating data.
前記データ加算手段により生成された前記画像データにノイズを付加し、前記ノイズが付加された画像データを後段に出力するノイズ付加手段を
さらに備える請求項に記載の復号装置。
The decoding apparatus according to claim 9 , further comprising noise adding means for adding noise to the image data generated by the data adding means and outputting the image data to which the noise is added to a subsequent stage.
前記データ入力手段により入力された前記動きベクトルに応じて、前記第2のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段をさらに備え、
前記データ加算手段は、前記動き補償手段により予測された予測ブロックの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成する
請求項に記載の復号装置。
Further comprising motion compensation means for predicting image data of a prediction block from the image data of the second frame in accordance with the motion vector input by the data input means;
The data adding unit generates the image data of the first frame by adding the difference value extracted by the difference value extracting unit to the image data of the prediction block predicted by the motion compensation unit. The decoding device according to claim 9 .
画像データを復号する復号装置の復号方法において、
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算ステップと
を含む復号方法。
In a decoding method of a decoding device for decoding image data,
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as a motion of a block, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector;
A difference value extracting step of extracting the difference value by decoding the encoded data input by the data input step;
By adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the data input step, the first frame And a data adding step for generating image data of the frame.
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算ステップと
を含む処理をコンピュータに行わせるためのプログラムが記録されている記録媒体。
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as a motion of a block, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector;
A difference value extracting step of extracting the difference value by decoding the encoded data input by the data input step;
By adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the data input step, the first frame A recording medium on which is recorded a program for causing a computer to perform a process including a data addition step of generating image data of the frame.
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算ステップと
を含む処理をコンピュータに行わせるためのプログラム。
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. A data input step for inputting a motion vector estimated as a motion of a block, and encoded data obtained by encoding a difference value between the first frame and the second frame obtained using the motion vector;
A difference value extracting step of extracting the difference value by decoding the encoded data input by the data input step;
By adding the difference value extracted by the difference value extraction step to the image data of the second frame in accordance with the motion vector input by the data input step, the first frame A program for causing a computer to perform a process including a data adding step for generating image data of a frame.
符号化装置および復号装置からなり、画像データに対して符号化および復号を行う画像処理システムにおいて、
前記符号化装置は、
入力される画像データ中の第1のフレームをブロック化するブロック化手段と、
前記ブロック化手段によりブロック化された第1のフレームの第1のブロックの画素値のダイナミックレンジを検出するダイナミックレンジ検出手段と、
前記画像データ中の第2のフレームから、前記ダイナミックレンジ検出手段により検出されたダイナミックレンジに最も近いダイナミックレンジを有する第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きベクトルを推定する動き推定手段と、
前記動き推定手段により推定された前記動きベクトルを用いて、前記第1のブロックを符号化する符号化手段と
を備える画像処理システム。
In an image processing system comprising an encoding device and a decoding device for encoding and decoding image data,
The encoding device includes:
Blocking means for blocking the first frame in the input image data;
Dynamic range detecting means for detecting a dynamic range of a pixel value of a first block of a first frame blocked by the blocking means;
When a second block having a dynamic range closest to the dynamic range detected by the dynamic range detection unit is detected from the second frame in the image data, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of a first block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Motion estimation means for estimating the motion vector of the block of
An image processing system comprising: encoding means for encoding the first block using the motion vector estimated by the motion estimation means.
符号化装置および復号装置からなり、画像データに対して符号化および復号を行う画像処理システムにおいて、
前記復号装置は、
画像データ中の第1のフレームの第1のブロックのダイナミックレンジに最も近いダイナミックレンジを有する第2のフレームの第2のブロックを検出し、前記第2のブロックが複数検出された場合、前記第1のブロックのDCT(Discrete Cosine Transform)係数、複数の前記第2のブロックのDCT係数との相関係数を算出し、相関係数最大の前記第2のブロックを用いて、前記第1のブロックの動きとして推定された動きベクトルと、前記動きベクトルを用いて得られた前記第1フレームおよび前記第2フレーム間の差分値が符号化された符号化データとを入力するデータ入力手段と、
前記データ入力手段により入力された前記符号化データを復号することにより前記差分値を抽出する差分値抽出手段と、
前記データ入力手段により入力された前記動きベクトルに応じて、前記第2のフレームの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第1のフレームの画像データを生成するデータ加算手段と
を備える画像処理システム。
In an image processing system comprising an encoding device and a decoding device for encoding and decoding image data,
The decoding device
When the second block of the second frame having the dynamic range closest to the dynamic range of the first block of the first frame in the image data is detected, and a plurality of the second blocks are detected, A correlation coefficient between a DCT (Discrete Cosine Transform) coefficient of one block and a plurality of DCT coefficients of the second block is calculated, and the first block is calculated using the second block having the maximum correlation coefficient. Data input means for inputting a motion vector estimated as a block motion and encoded data obtained by encoding a difference value between the first frame and the second frame obtained by using the motion vector;
Difference value extraction means for extracting the difference value by decoding the encoded data input by the data input means;
The image of the first frame is added by adding the difference value extracted by the difference value extracting means to the image data of the second frame in accordance with the motion vector input by the data input means. An image processing system comprising: data addition means for generating data.
JP2005029544A 2005-02-04 2005-02-04 Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method Expired - Fee Related JP4696577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005029544A JP4696577B2 (en) 2005-02-04 2005-02-04 Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005029544A JP4696577B2 (en) 2005-02-04 2005-02-04 Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method

Publications (3)

Publication Number Publication Date
JP2006217404A JP2006217404A (en) 2006-08-17
JP2006217404A5 JP2006217404A5 (en) 2007-09-27
JP4696577B2 true JP4696577B2 (en) 2011-06-08

Family

ID=36980221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005029544A Expired - Fee Related JP4696577B2 (en) 2005-02-04 2005-02-04 Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method

Country Status (1)

Country Link
JP (1) JP4696577B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787499A (en) * 1993-09-09 1995-03-31 Sony Corp Method and device for detecting motion vector
JPH11242747A (en) * 1998-02-25 1999-09-07 Sony Corp Motion detecting device and image signal processor
JP2004289685A (en) * 2003-03-24 2004-10-14 Sony Corp Data coding apparatus and data coding method, data output apparatus, and data output method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787499A (en) * 1993-09-09 1995-03-31 Sony Corp Method and device for detecting motion vector
JPH11242747A (en) * 1998-02-25 1999-09-07 Sony Corp Motion detecting device and image signal processor
JP2004289685A (en) * 2003-03-24 2004-10-14 Sony Corp Data coding apparatus and data coding method, data output apparatus, and data output method

Also Published As

Publication number Publication date
JP2006217404A (en) 2006-08-17

Similar Documents

Publication Publication Date Title
JP5048383B2 (en) Image data spatial prediction apparatus and method, encoding apparatus and method using the same, image data spatial prediction compensation apparatus and method, and decoding apparatus and method using the same
US7957471B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system and method, and recording medium
JP2009529845A (en) Method and apparatus for encoding moving picture by adaptively applying optimal prediction mode, and method and apparatus for decoding moving picture
JP4696577B2 (en) Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method
JP2016158282A (en) Moving image prediction decoding method and moving image prediction decoding apparatus
US20100027621A1 (en) Apparatus, method and computer program product for moving image generation
JP5972687B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
US7952769B2 (en) Systems and methods for image processing coding/decoding
JP4581733B2 (en) Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system
WO2010001832A1 (en) Dynamic image prediction/encoding device and dynamic image prediction/decoding device
JP4716086B2 (en) Encoding apparatus and method, recording medium, program, and image processing system
JP4552677B2 (en) Encoding apparatus and method, decoding apparatus and method, information processing system, recording medium, and program
JP4556125B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP2020058075A (en) Moving image prediction encoding device, moving image prediction decoding device, moving image prediction encoding method, moving image prediction decoding method, and recording medium
JP4577043B2 (en) Image processing apparatus and method, recording medium, and program
JP4697519B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP4556694B2 (en) Encoding apparatus and method, recording medium, program, and image processing system
JP4573110B2 (en) Encoding apparatus and method, recording medium, program, and image processing system
JP2006238373A (en) Coder and coding method, decoder and decoding method, image processing system and image processing method, recording medium, and program
JP4715222B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP2008259059A (en) Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program
JP4730585B2 (en) Encoding apparatus and method, decoding apparatus and method, information processing system, recording medium, and program
JP2006217403A (en) Coding apparatus and method, decoding apparatus and method, recording medium, program, image processing system, and image processing method
JP4099600B2 (en) Signal processing system, signal processing apparatus and signal processing method, encoding apparatus and encoding method, and decoding apparatus and decoding method
JP5175813B2 (en) Encoding device, decoding device, and image processing program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees