JP2001346209A - Data processing unit and data processing method, and recording medium - Google Patents
Data processing unit and data processing method, and recording mediumInfo
- Publication number
- JP2001346209A JP2001346209A JP2000164024A JP2000164024A JP2001346209A JP 2001346209 A JP2001346209 A JP 2001346209A JP 2000164024 A JP2000164024 A JP 2000164024A JP 2000164024 A JP2000164024 A JP 2000164024A JP 2001346209 A JP2001346209 A JP 2001346209A
- Authority
- JP
- Japan
- Prior art keywords
- data
- class
- tap
- processing
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 11
- 239000000284 extract Substances 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 78
- 238000006243 chemical reaction Methods 0.000 claims description 54
- 238000000605 extraction Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 5
- 238000013139 quantization Methods 0.000 description 70
- 238000010586 diagram Methods 0.000 description 19
- 230000000903 blocking effect Effects 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 13
- 230000003044 adaptive effect Effects 0.000 description 9
- 238000000354 decomposition reaction Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 101100366711 Arabidopsis thaliana SSL13 gene Proteins 0.000 description 1
- 241000255925 Diptera Species 0.000 description 1
- 101100366561 Panax ginseng SS11 gene Proteins 0.000 description 1
- 229910017435 S2 In Inorganic materials 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、並びに記録媒体に関し、特に、例
えば、不可逆圧縮された画像等を復号する場合等に用い
て好適なデータ処理装置およびデータ処理方法、並びに
記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus, a data processing method, and a recording medium, and more particularly, to a data processing apparatus and a data processing suitable for use in decoding lossy-compressed images and the like. The present invention relates to a method and a recording medium.
【0002】[0002]
【従来の技術】例えば、ディジタル画像データは、その
データ量が多いため、そのまま記録や伝送を行うには、
大容量の記録媒体や伝送媒体が必要となる。そこで、一
般には、画像データを圧縮符号化することにより、その
データ量を削減してから、記録や伝送が行われる。2. Description of the Related Art For example, digital image data has a large data amount.
A large-capacity recording medium and transmission medium are required. Therefore, in general, recording and transmission are performed after compressing and encoding image data to reduce the data amount.
【0003】画像を圧縮符号化する方式としては、例え
ば、静止画の圧縮符号化方式であるJPEG(Joint Pho
tographic Experts Group)方式や、動画の圧縮符号化方
式であるMPEG(Moving Picture Experts Group)方式
等がある。As a method of compressing and encoding an image, for example, a JPEG (Joint Photo) which is a compression encoding method of a still image is used.
There is an MPEG (Moving Picture Experts Group) method, which is a moving image compression encoding method, and the like.
【0004】例えば、JPEG方式による画像データの
符号化/復号は、図1に示すように行われる。For example, encoding / decoding of image data according to the JPEG system is performed as shown in FIG.
【0005】即ち、図1(A)は、従来のJPEG符号
化装置の一例の構成を示している。[0005] That is, FIG. 1A shows a configuration of an example of a conventional JPEG encoding device.
【0006】符号化対象の画像データは、ブロック化回
路1に入力され、ブロック化回路1は、そこに入力され
る画像データを、8×8画素の64画素でなるブロック
に分割する。ブロック化回路1で得られる各ブロック
は、DCT(Discrete Cosine Transform)回路2に供給
される。DCT回路2は、ブロック化回路1からのブロ
ックに対して、DCT(離散コサイン変換)処理を施
し、1個のDC(Direct Current)成分(直流成分)と、
水平方向および垂直方向についての63個の周波数成分
(AC(Alternating Current)成分)(交流成分)の、
合計64個のDCT係数に変換する。各ブロックごとの
64個のDCT係数は、DCT回路2から量子化回路3
に供給される。[0006] The image data to be encoded is input to a blocking circuit 1, which divides the input image data into blocks of 64 8x8 pixels. Each block obtained by the blocking circuit 1 is supplied to a DCT (Discrete Cosine Transform) circuit 2. The DCT circuit 2 performs a DCT (Discrete Cosine Transform) process on the block from the blocking circuit 1, and generates one DC (Direct Current) component (DC component),
Of 63 frequency components (AC (Alternating Current) components) (AC components) in the horizontal and vertical directions,
This is converted into a total of 64 DCT coefficients. The 64 DCT coefficients for each block are converted from the DCT circuit 2 to the quantization circuit 3
Supplied to
【0007】量子化回路3は、所定の量子化テーブルに
したがって、DCT回路2からのDCT係数を量子化
し、その量子化結果(以下、適宜、量子化DCT係数と
いう)を、量子化に用いた量子化テーブルとともに、エ
ントロピー符号化回路4に供給する。The quantization circuit 3 quantizes the DCT coefficient from the DCT circuit 2 according to a predetermined quantization table, and uses the quantization result (hereinafter, appropriately referred to as a quantized DCT coefficient) for quantization. The information is supplied to the entropy encoding circuit 4 together with the quantization table.
【0008】ここで、図1(B)は、量子化回路3にお
いて用いられる量子化テーブルの例を示している。量子
化テーブルには、一般に、人間の視覚特性を考慮して、
重要性の高い低周波数のDCT係数は細かく量子化し、
重要性の低い高周波数のDCT係数は粗く量子化するよ
うな量子化ステップが設定されており、これにより、画
像の画質の劣化を抑えて、効率の良い圧縮が行われるよ
うになっている。FIG. 1B shows an example of a quantization table used in the quantization circuit 3. Generally, quantization tables take into account human visual characteristics,
The low-frequency DCT coefficients of high importance are finely quantized,
A quantization step for coarsely quantizing the DCT coefficient of a low-frequency high frequency is set, and thereby the image quality of the image is suppressed from being degraded, and the compression is performed efficiently.
【0009】エントロピー符号化回路4は、量子化回路
3からの量子化DCT係数に対して、例えば、ハフマン
符号化等のエントロピー符号化処理を施して、量子化回
路3からの量子化テーブルを付加し、その結果得られる
符号化データを、JPEG符号化結果として出力する。The entropy coding circuit 4 performs an entropy coding process such as Huffman coding on the quantized DCT coefficient from the quantization circuit 3 and adds a quantization table from the quantization circuit 3. Then, the resulting encoded data is output as a JPEG encoded result.
【0010】次に、図1(C)は、図1(A)のJPE
G符号化装置が出力する符号化データを復号する、従来
のJPEG復号装置の一例の構成を示している。Next, FIG. 1C shows the JPE of FIG.
1 shows a configuration of an example of a conventional JPEG decoding device that decodes encoded data output from a G encoding device.
【0011】符号化データは、エントロピー復号回路1
1に入力され、エントロピー復号回路11は、符号化デ
ータを、エントロピー符号化された量子化DCT係数
と、量子化テーブルとに分離する。さらに、エントロピ
ー復号回路11は、エントロピー符号化された量子化D
CT係数をエントロピー復号し、その結果得られる量子
化DCT係数を、量子化テーブルとともに、逆量子化回
路12に供給する。逆量子化回路12は、エントロピー
復号回路11からの量子化DCT係数を、同じくエント
ロピー復号回路11からの量子化テーブルにしたがって
逆量子化し、その結果得られるDCT係数を、逆DCT
回路13に供給する。逆DCT回路13は、逆量子化回
路12からのDCT係数に、逆DCT処理を施し、その
結果られる8×8画素の(復号)ブロックを、ブロック
分解回路14に供給する。ブロック分解回路14は、逆
DCT回路13からのブロックのブロック化を解くこと
で、復号画像を得て出力する。The encoded data is transmitted to an entropy decoding circuit 1
1, the entropy decoding circuit 11 separates the encoded data into entropy-encoded quantized DCT coefficients and a quantization table. Further, the entropy decoding circuit 11 performs the entropy-encoded quantization D
The CT coefficients are entropy-decoded, and the resulting quantized DCT coefficients are supplied to an inverse quantization circuit 12 together with a quantization table. The inverse quantization circuit 12 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 11 in accordance with the quantization table from the entropy decoding circuit 11, and converts the resulting DCT coefficient into the inverse DCT coefficient.
It is supplied to the circuit 13. The inverse DCT circuit 13 performs an inverse DCT process on the DCT coefficient from the inverse quantization circuit 12, and supplies the resulting (decoded) block of 8 × 8 pixels to the block decomposition circuit 14. The block decomposition circuit 14 obtains and outputs a decoded image by deblocking the block from the inverse DCT circuit 13.
【0012】[0012]
【発明が解決しようとする課題】図1(A)のJPEG
符号化装置では、その量子化回路3において、ブロック
の量子化に用いる量子化テーブルの量子化ステップを大
きくすることにより、符号化データのデータ量を削減す
ることができる。即ち、高圧縮を実現することができ
る。SUMMARY OF THE INVENTION The JPEG shown in FIG.
In the encoding device, the quantization circuit 3 can reduce the data amount of the encoded data by increasing the quantization step of the quantization table used for quantizing the block. That is, high compression can be realized.
【0013】しかしながら、量子化ステップを大きくす
ると、いわゆる量子化誤差も大きくなることから、図1
(C)のJPEG復号装置で得られる復号画像の画質が
劣化する。即ち、復号画像には、ぼけや、ブロック歪
み、モスキートノイズ等が顕著に現れる。However, when the quantization step is increased, the so-called quantization error is also increased.
(C) The image quality of the decoded image obtained by the JPEG decoding device is degraded. That is, blur, block distortion, mosquito noise, and the like appear conspicuously in the decoded image.
【0014】従って、符号化データのデータ量の削減し
ながら、復号画像の画質を劣化させないようにするに
は、あるいは、符号化データのデータ量を維持して、復
号画像の画質を向上させるには、JPEG復号した後
に、何らかの画質向上のための処理を行う必要がある。Therefore, in order to prevent the image quality of the decoded image from deteriorating while reducing the data amount of the encoded data, or to improve the image quality of the decoded image while maintaining the data amount of the encoded data. It is necessary to perform some kind of processing for improving image quality after JPEG decoding.
【0015】しかしながら、JPEG復号した後に、画
質向上のための処理を行うことは、処理が煩雑になり、
最終的に復号画像が得られるまでの時間も長くなる。However, performing processing for improving the image quality after JPEG decoding complicates the processing.
The time until a decoded image is finally obtained also increases.
【0016】本発明は、このような状況に鑑みてなされ
たものであり、JPEG符号化された画像等から、効率
的に、画質の良い復号画像を得ること等ができるように
するものである。The present invention has been made in view of such a situation, and is intended to efficiently obtain a high-quality decoded image from a JPEG-coded image or the like. .
【0017】[0017]
【課題を解決するための手段】本発明の第1のデータ処
理装置は、学習を行うことにより求められたタップ係数
を取得する取得手段と、注目している処理データである
注目処理データを、幾つかのクラスのうちのいずれかに
クラス分類するのに用いる変換データを、少なくとも、
注目処理データに対応するブロック以外のブロックから
抽出し、クラスタップとして出力するクラスタップ抽出
手段と、クラスタップに基づいて、注目処理データのク
ラスを求めるクラス分類を行うクラス分類手段と、注目
処理データのクラスのタップ係数、および変換データを
用いて、所定の予測演算を行うことにより、注目処理デ
ータの予測値を求める演算手段とを備えることを特徴と
する。A first data processing apparatus according to the present invention comprises: an obtaining means for obtaining a tap coefficient obtained by performing learning; and a processing data of interest, which is processing data of interest. The conversion data used to classify into any of several classes is at least
Class tap extracting means for extracting from a block other than the block corresponding to the processing data of interest and outputting it as a class tap; class classification means for performing class classification for obtaining a class of the processing data of interest based on the class tap; And calculating means for calculating a predicted value of the processing data of interest by performing a predetermined prediction operation using the tap coefficients of the class and the conversion data.
【0018】第1のデータ処理装置において、演算手段
には、タップ係数および変換データを用いて、線形1次
予測演算を行わせることができる。In the first data processing device, the operation means can perform a linear primary prediction operation using the tap coefficients and the converted data.
【0019】第1のデータ処理装置には、タップ係数を
記憶している記憶手段をさらに設けることができ、この
場合、取得手段には、記憶手段から、タップ係数を取得
させることができる。The first data processing device may further include a storage unit for storing the tap coefficients. In this case, the obtaining unit may cause the obtaining unit to obtain the tap coefficients from the storage unit.
【0020】第1のデータ処理装置において、変換デー
タは、データを、少なくとも、離散コサイン変換したも
のとすることができる。In the first data processing device, the converted data may be at least discrete cosine transformed data.
【0021】第1のデータ処理装置において、クラス分
類手段には、クラスタップとなっている変換データであ
る、離散コサイン変換されたデータの直流成分または交
流成分の電力に基づいて、注目処理データのクラスを求
めさせることができる。In the first data processing apparatus, the class classifying means includes, based on the DC component or AC component power of the discrete cosine-transformed data, which is the conversion data that is the class tap, the target processing data of the target processing data. You can ask for a class.
【0022】第1のデータ処理装置において、クラスタ
ップ抽出手段には、注目処理データに対応するブロック
の周辺のブロックから、クラスタップとする変換データ
を抽出させることができる。In the first data processing apparatus, the class tap extracting means can extract conversion data to be used as class taps from blocks around the block corresponding to the processing data of interest.
【0023】第1のデータ処理装置において、クラスタ
ップ抽出手段には、注目処理データに対応するブロック
からも、クラスタップとする変換データを抽出させるこ
とができる。In the first data processing apparatus, the class tap extracting means can extract the conversion data to be used as the class tap from the block corresponding to the processing data of interest.
【0024】第1のデータ処理装置において、タップ係
数は、タップ係数および変換データを用いて、所定の予
測演算を行うことにより得られる処理データの予測値の
予測誤差が、統計的に最小になるように、学習を行うこ
とにより得られたものとすることができる。In the first data processing device, the prediction error of the prediction value of the processing data obtained by performing a predetermined prediction operation using the tap coefficient and the conversion data is statistically minimized. Thus, it can be obtained by learning.
【0025】第1のデータ処理装置において、データ
は、動画または静止画の画像データとすることができ
る。In the first data processing device, the data may be moving image or still image data.
【0026】本発明の第1のデータ処理方法は、学習を
行うことにより求められたタップ係数を取得する取得ス
テップと、注目している処理データである注目処理デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる変換データを、少なくとも、注目処理デー
タに対応するブロック以外のブロックから抽出し、クラ
スタップとして出力するクラスタップ抽出ステップと、
クラスタップに基づいて、注目処理データのクラスを求
めるクラス分類を行うクラス分類ステップと、注目処理
データのクラスのタップ係数、および変換データを用い
て、所定の予測演算を行うことにより、注目処理データ
の予測値を求める演算ステップとを備えることを特徴と
する。According to a first data processing method of the present invention, an acquisition step of acquiring a tap coefficient obtained by performing learning, and a process data of interest, which is a process data of interest, among several classes. A class tap extraction step of extracting, at least, the conversion data used for classifying into any one of the blocks other than the block corresponding to the processing data of interest, and outputting as a class tap,
Based on the class tap, a class classification step of performing a class classification for obtaining a class of the target processing data, and a predetermined prediction operation using the tap coefficient of the class of the target processing data and the conversion data, thereby obtaining the target processing data. And a calculation step of calculating a predicted value of
【0027】本発明の第1の記録媒体は、学習を行うこ
とにより求められたタップ係数を取得する取得ステップ
と、注目している処理データである注目処理データを、
幾つかのクラスのうちのいずれかにクラス分類するのに
用いる変換データを、少なくとも、注目処理データに対
応するブロック以外のブロックから抽出し、クラスタッ
プとして出力するクラスタップ抽出ステップと、クラス
タップに基づいて、注目処理データのクラスを求めるク
ラス分類を行うクラス分類ステップと、注目処理データ
のクラスのタップ係数、および変換データを用いて、所
定の予測演算を行うことにより、注目処理データの予測
値を求める演算ステップとを備えるプログラムが記録さ
れていることを特徴とする。According to the first recording medium of the present invention, an acquisition step of acquiring a tap coefficient obtained by performing learning, and a process data of interest, which is a process data of interest,
A class tap extraction step of extracting at least conversion data used to classify the class into any of several classes from blocks other than the block corresponding to the processing data of interest and outputting the class tap as a class tap; Based on a class classification step of performing a class classification for obtaining a class of the processing data of interest based on a tap coefficient of the class of the processing data of interest and the conversion data, a prediction operation of the processing data of interest is performed. And a calculation step for calculating
【0028】本発明の第2のデータ処理装置は、ブロッ
ク単位の変換データを、学習時の生徒となる生徒データ
として生成する生成手段と、処理データを、学習時の教
師となる教師データとして、注目している教師データで
ある注目教師データを、幾つかのクラスのうちのいずれ
かにクラス分類するのに用いる生徒データを、少なくと
も、注目教師データに対応するブロック以外のブロック
から抽出し、クラスタップとして出力するクラスタップ
抽出手段と、クラスタップに基づいて、注目教師データ
のクラスを求めるクラス分類を行うクラス分類手段と、
クラスごとのタップ係数、および生徒データを用いて予
測演算を行うことにより得られる教師データの予測値の
予測誤差が、統計的に最小になるように学習を行い、タ
ップ係数を、クラスごとに求める学習手段とを備えるこ
とを特徴とする。According to a second data processing apparatus of the present invention, a generating means for generating converted data in block units as student data to be a student at the time of learning, and processing data as teacher data to be a teacher at the time of learning The student data used to classify the teacher data of interest, which is the teacher data of interest, into one of several classes is extracted from at least the blocks other than the block corresponding to the teacher data of interest. Class tap extracting means for outputting as a tap, class classifying means for performing class classification for obtaining a class of the teacher data of interest based on the class tap,
Learning is performed so that the prediction error of the prediction value of the teacher data obtained by performing the prediction operation using the tap coefficient for each class and the student data is statistically minimized, and the tap coefficient is obtained for each class. Learning means.
【0029】第2のデータ処理装置において、学習手段
には、タップ係数および生徒データを用いて線形1次予
測演算を行うことにより得られる教師データの予測値の
予測誤差が、統計的に最小になるように学習を行わせる
ことができる。In the second data processing apparatus, the learning means statistically minimizes the prediction error of the prediction value of the teacher data obtained by performing the linear primary prediction operation using the tap coefficients and the student data. Learning can be performed as follows.
【0030】第2のデータ処理装置において、生成手段
には、データを、少なくとも、離散コサイン変換するこ
とにより、生徒データを生成させることができる。In the second data processing device, the generating means can generate the student data by at least performing discrete cosine transform on the data.
【0031】第2のデータ処理装置において、クラス分
類手段には、クラスタップとなっている生徒データであ
る、離散コサイン変換されたデータの直流成分または交
流成分の電力に基づいて、注目教師データのクラスを求
めさせることができる。In the second data processing apparatus, the class classifying means includes, based on the DC component or AC component power of the discrete cosine transformed data, which is the student data serving as the class tap, for the teacher data of interest. You can ask for a class.
【0032】第2のデータ処理装置において、クラスタ
ップ抽出手段には、注目教師データに対応するブロック
の周辺のブロックから、クラスタップとする生徒データ
を抽出させることができる。In the second data processing apparatus, the class tap extracting means can extract student data to be used as class taps from blocks around the block corresponding to the teacher data of interest.
【0033】第2のデータ処理装置において、クラスタ
ップ抽出手段には、注目教師データに対応するブロック
からも、クラスタップとする生徒データを抽出させるこ
とができる。In the second data processing device, the class tap extracting means can extract the student data to be used as the class tap from the block corresponding to the teacher data of interest.
【0034】第2のデータ処理装置において、データ
は、動画または静止画の画像データとすることができ
る。In the second data processing device, the data may be moving image or still image data.
【0035】本発明の第2のデータ処理方法は、ブロッ
ク単位の変換データを、学習時の生徒となる生徒データ
として生成する生成ステップと、処理データを、学習時
の教師となる教師データとして、注目している教師デー
タである注目教師データを、幾つかのクラスのうちのい
ずれかにクラス分類するのに用いる生徒データを、少な
くとも、注目教師データに対応するブロック以外のブロ
ックから抽出し、クラスタップとして出力するクラスタ
ップ抽出ステップと、クラスタップに基づいて、注目教
師データのクラスを求めるクラス分類を行うクラス分類
ステップと、クラスごとのタップ係数、および生徒デー
タを用いて予測演算を行うことにより得られる教師デー
タの予測値の予測誤差が、統計的に最小になるように学
習を行い、タップ係数を、クラスごとに求める学習ステ
ップとを備えることを特徴とする。According to a second data processing method of the present invention, a generating step of generating converted data in block units as student data to be a student at the time of learning, and processing data as teacher data to be a teacher at the time of learning The student data used to classify the teacher data of interest, which is the teacher data of interest, into one of several classes is extracted from at least the blocks other than the block corresponding to the teacher data of interest. A class tap extraction step of outputting as a tap, a class classification step of performing a class classification for obtaining a class of the teacher data of interest based on the class tap, and a prediction operation using a tap coefficient for each class and student data. Learning is performed so that the prediction error of the prediction value of the obtained teacher data is statistically minimized, and tap The number, characterized in that it comprises a learning step of determining for each class.
【0036】本発明の第2の記録媒体は、ブロック単位
の変換データを、学習時の生徒となる生徒データとして
生成する生成ステップと、処理データを、学習時の教師
となる教師データとして、注目している教師データであ
る注目教師データを、幾つかのクラスのうちのいずれか
にクラス分類するのに用いる生徒データを、少なくと
も、注目教師データに対応するブロック以外のブロック
から抽出し、クラスタップとして出力するクラスタップ
抽出ステップと、クラスタップに基づいて、注目教師デ
ータのクラスを求めるクラス分類を行うクラス分類ステ
ップと、クラスごとのタップ係数、および生徒データを
用いて予測演算を行うことにより得られる教師データの
予測値の予測誤差が、統計的に最小になるように学習を
行い、タップ係数を、クラスごとに求める学習ステップ
とを備えるプログラムが記録されていることを特徴とす
る。In the second recording medium of the present invention, a generation step of generating converted data in block units as student data to be a student at the time of learning, and processing data as teacher data to be a teacher at the time of learning. The student data used to classify the target teacher data, which is the target teacher data, into one of several classes is extracted from at least blocks other than the block corresponding to the target teacher data, and the class tap is performed. A class tap extracting step of outputting as a class tap; a class classification step of performing a class classification for obtaining a class of the teacher data of interest based on the class tap; and a prediction operation using the tap coefficient and the student data for each class. The training is performed so that the prediction error of the predicted value of the teacher data is statistically minimized, and the tap coefficient is Program and a learning step of determining for each class is characterized in that it is recorded.
【0037】本発明の第1のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、注目処理デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる変換データが、少なくとも、注目処理デー
タに対応するブロック以外のブロックから抽出され、ク
ラスタップとして出力される。そして、そのクラスタッ
プに基づいて、注目処理データのクラスを求めるクラス
分類が行われ、注目処理データのクラスのタップ係数、
および変換データを用いて、所定の予測演算を行うこと
により、注目処理データの予測値が求められる。In the first data processing apparatus, the first data processing method, and the recording medium according to the present invention, at least conversion data used to classify the target processing data into one of several classes includes: It is extracted from blocks other than the block corresponding to the processing data of interest and output as class taps. Then, based on the class tap, a class classification for obtaining a class of the processing data of interest is performed, and a tap coefficient of the class of the processing data of interest,
By performing a predetermined prediction operation using the conversion data and the conversion data, a prediction value of the processing data of interest is obtained.
【0038】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、注目教師デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる生徒データが、少なくとも、注目教師デー
タに対応するブロック以外のブロックから抽出され、ク
ラスタップとして出力される。さらに、そのクラスタッ
プに基づいて、注目教師データのクラスを求めるクラス
分類が行われる。そして、クラスごとのタップ係数、お
よび生徒データを用いて予測演算を行うことにより得ら
れる教師データの予測値の予測誤差が、統計的に最小に
なるように学習が行われ、タップ係数が、クラスごとに
求められる。In the second data processing apparatus, data processing method, and recording medium of the present invention, at least student data used to classify the noted teacher data into any of several classes includes at least: It is extracted from blocks other than the block corresponding to the teacher data of interest and output as class taps. Further, a class classification for obtaining a class of the teacher data of interest is performed based on the class tap. Learning is performed so that the prediction error of the predicted value of the teacher data obtained by performing the prediction operation using the tap coefficient for each class and the student data is statistically minimized. Required for each.
【0039】[0039]
【発明の実施の形態】図2は、本発明を適用した画像伝
送システムの一実施の形態の構成例を示している。FIG. 2 shows a configuration example of an embodiment of an image transmission system to which the present invention is applied.
【0040】伝送すべき画像データは、エンコーダ21
に供給されるようになっており、エンコーダ21は、そ
こに供給される画像データを、例えば、JPEG符号化
し、符号化データとする。即ち、エンコーダ21は、例
えば、前述の図1(A)に示したJPEG符号化装置と
同様に構成されており、画像データをJPEG符号化す
る。エンコーダ21がJPEG符号化を行うことにより
得られる符号化データは、例えば、半導体メモリ、光磁
気ディスク、磁気ディスク、光ディスク、磁気テープ、
相変化ディスクなどでなる記録媒体23に記録され、あ
るいは、また、例えば、地上波、衛星回線、CATV
(Cable Television)網、インターネット、公衆回線な
どでなる伝送媒体24を介して伝送される。The image data to be transmitted is transmitted to the encoder 21
The encoder 21 encodes the image data supplied thereto, for example, by JPEG encoding to obtain encoded data. That is, the encoder 21 is configured, for example, in the same manner as the above-described JPEG encoding apparatus shown in FIG. 1A, and JPEG-encodes image data. Encoded data obtained by the encoder 21 performing JPEG encoding includes, for example, a semiconductor memory, a magneto-optical disk, a magnetic disk, an optical disk, a magnetic tape,
It is recorded on a recording medium 23 such as a phase change disk or the like.
(Cable Television) is transmitted via a transmission medium 24 such as a network, the Internet, or a public line.
【0041】デコーダ22は、記録媒体23または伝送
媒体24を介して提供される符号化データを受信して、
元の画像データに復号する。この復号化された画像デー
タは、例えば、図示せぬモニタに供給されて表示等され
る。The decoder 22 receives the encoded data provided via the recording medium 23 or the transmission medium 24,
Decode to original image data. The decoded image data is supplied to, for example, a monitor (not shown) and displayed.
【0042】次に、図3は、図2のデコーダ22の構成
例を示している。FIG. 3 shows an example of the configuration of the decoder 22 shown in FIG.
【0043】符号化データは、エントロピー復号回路3
1に供給されるようになっており、エントロピー復号回
路31は、符号化データを、エントロピー復号して、そ
の結果得られるブロックごとの量子化DCT係数Qを、
係数変換回路32に供給する。なお、符号化データに
は、図1(C)のエントロピー復号回路11で説明した
場合と同様に、エントロピー符号化された量子化DCT
係数の他、量子化テーブルも含まれるが、量子化テーブ
ルは、後述するように、必要に応じて、量子化DCT係
数の復号に用いることが可能である。The encoded data is supplied to the entropy decoding circuit 3
1, the entropy decoding circuit 31 performs entropy decoding of the encoded data, and obtains a quantized DCT coefficient Q for each block obtained as a result.
It is supplied to the coefficient conversion circuit 32. Note that the coded data includes the entropy-coded quantized DCT as in the case described in the entropy decoding circuit 11 in FIG.
In addition to the coefficients, a quantization table is also included. The quantization table can be used for decoding the quantized DCT coefficients as needed, as described later.
【0044】係数変換回路32は、エントロピー復号回
路31からの量子化DCT係数Qと、後述する学習を行
うことにより求められるタップ係数を用いて、所定の予
測演算を行うことにより、ブロックごとの量子化DCT
係数を、8×8画素の元のブロックに復号する。The coefficient conversion circuit 32 performs a predetermined prediction operation using the quantized DCT coefficient Q from the entropy decoding circuit 31 and a tap coefficient obtained by performing learning, which will be described later. DCT
The coefficients are decoded into the original block of 8 × 8 pixels.
【0045】ブロック分解回路33は、係数変換回路3
2において得られる、復号されたブロック(復号ブロッ
ク)のブロック化を解くことで、復号画像を得て出力す
る。The block decomposition circuit 33 includes a coefficient conversion circuit 3
By deblocking the decoded block (decoded block) obtained in step 2, a decoded image is obtained and output.
【0046】次に、図4のフローチャートを参照して、
図3のデコーダ22の処理について説明する。Next, referring to the flowchart of FIG.
The processing of the decoder 22 in FIG. 3 will be described.
【0047】符号化データは、エントロピー復号回路3
1に順次供給され、ステップS1において、エントロピ
ー復号回路31は、符号化データをエントロピー復号
し、ブロックごとの量子化DCT係数Qを、係数変換回
路32に供給する。係数変換回路32は、ステップS2
において、エントロピー復号回路31からのブロックご
との量子化DCT係数Qを、タップ係数を用いた予測演
算を行うことにより、ブロックごとの画素値に復号し、
ブロック分解回路33に供給する。ブロック分解回路3
3は、ステップS3において、係数変換回路32からの
画素値のブロック(復号ブロック)のブロック化を解く
ブロック分解を行い、その結果得られる復号画像を出力
して、処理を終了する。The encoded data is supplied to the entropy decoding circuit 3
1, the entropy decoding circuit 31 entropy-decodes the encoded data in step S1, and supplies the quantized DCT coefficient Q for each block to the coefficient transforming circuit 32. The coefficient conversion circuit 32 determines in step S2
In, the quantized DCT coefficient Q for each block from the entropy decoding circuit 31 is decoded into a pixel value for each block by performing a prediction operation using a tap coefficient,
This is supplied to the block decomposition circuit 33. Block decomposition circuit 3
In step S3, block decomposition is performed to unblock the pixel value block (decoded block) from the coefficient conversion circuit 32, and a decoded image obtained as a result is output, and the process ends.
【0048】次に、図3の係数変換回路32では、例え
ば、クラス分類適応処理を利用して、量子化DCT係数
を、画素値に復号することができる。Next, the coefficient conversion circuit 32 shown in FIG. 3 can decode the quantized DCT coefficients into pixel values by using, for example, a class classification adaptive process.
【0049】クラス分類適応処理は、クラス分類処理と
適応処理とからなり、クラス分類処理によって、データ
を、その性質に基づいてクラス分けし、各クラスごとに
適応処理を施すものであり、適応処理は、以下のような
手法のものである。The class classification adaptation process includes a class classification process and an adaptation process. The class classification process classifies data into classes based on the nature of the data, and performs an adaptation process for each class. Is based on the following method.
【0050】即ち、適応処理では、例えば、量子化DC
T係数と、所定のタップ係数との線形結合により、元の
画素の予測値を求めることで、量子化DCT係数が、元
の画素値に復号される。That is, in the adaptive processing, for example, the quantization DC
The quantized DCT coefficient is decoded into the original pixel value by obtaining the predicted value of the original pixel by a linear combination of the T coefficient and a predetermined tap coefficient.
【0051】具体的には、例えば、いま、ある画像を教
師データとするとともに、その画像を、ブロック単位で
DCT処理し、さらに量子化して得られる量子化DCT
係数を生徒データとして、教師データである画素の画素
値yの予測値E[y]を、幾つかの量子化DCT係数x
1,x2,・・・の集合と、所定のタップ係数w1,w2,
・・・の線形結合により規定される線形1次結合モデル
により求めることを考える。この場合、予測値E[y]
は、次式で表すことができる。More specifically, for example, a certain image is now used as teacher data, and the image is subjected to DCT processing in block units and further quantized to obtain a quantized DCT.
Using the coefficients as student data, a prediction value E [y] of a pixel value y of a pixel as teacher data is converted to some quantized DCT coefficients x
1, x 2, a set of ..., predetermined tap coefficients w 1, w 2,
.. Are considered by a linear first-order combination model defined by the linear combination. In this case, the predicted value E [y]
Can be expressed by the following equation.
【0052】 E[y]=w1x1+w2x2+・・・ ・・・(1)E [y] = w 1 x 1 + w 2 x 2 +... (1)
【0053】式(1)を一般化するために、タップ係数
wjの集合でなる行列W、生徒データxijの集合でなる
行列X、および予測値E[yj]の集合でなる行列Y’
を、To generalize equation (1), a matrix W consisting of a set of tap coefficients w j , a matrix X consisting of a set of student data x ij , and a matrix Y consisting of a set of predicted values E [y j ] '
To
【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.
【0054】 XW=Y’ ・・・(2) ここで、行列Xの成分xijは、i件目の生徒データの集
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi]
は、i件目の教師データの予測値を表す。なお、式
(1)の左辺におけるyは、行列Yの成分yiのサフィ
ックスiを省略したものであり、また、式(1)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。XW = Y ′ (2) Here, the component x ij of the matrix X is a set of i-th student data (a set of student data used for predicting the i-th teacher data y i ). Means the j-th student data in the matrix W, and the component w j of the matrix W represents a tap coefficient by which a product with the j-th student data in the set of the student data is calculated. Also, y
i represents the i-th teacher data, and therefore, E [y i ]
Represents the predicted value of the i-th teacher data. Note that y on the left side of the equation (1) is obtained by omitting the suffix i of the component y i of the matrix Y. Further, x 1 , x 2 ,. The suffix i of the component x ij is omitted.
【0055】そして、この観測方程式に最小自乗法を適
用して、元の画素値yに近い予測値E[y]を求めるこ
とを考える。この場合、教師データとなる真の画素値y
の集合でなる行列Y、および画素値yに対する予測値E
[y]の残差eの集合でなる行列Eを、Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the original pixel value y. In this case, a true pixel value y serving as teacher data
And a predicted value E for a pixel value y
A matrix E consisting of a set of residuals e of [y] is
【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。(Equation 2) From equation (2), the following residual equation is established.
【0056】 XW=Y+E ・・・(3)XW = Y + E (3)
【0057】この場合、元の画素値yに近い予測値E
[y]を求めるためのタップ係数wjは、自乗誤差In this case, the predicted value E close to the original pixel value y
The tap coefficient w j for obtaining [y] is a square error
【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.
【0058】従って、上述の自乗誤差をタップ係数wj
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、元の画素値yに近い予測値E[y]を
求めるため最適値ということになる。Therefore, the above square error is calculated by tap coefficient w j
Is zero, that is, a tap coefficient w j that satisfies the following equation is an optimum value for obtaining a predicted value E [y] close to the original pixel value y.
【0059】[0059]
【数4】 ・・・(4)(Equation 4) ... (4)
【0060】そこで、まず、式(3)を、タップ係数w
jで微分することにより、次式が成立する。Therefore, first, the equation (3) is changed to the tap coefficient w
By differentiating with j , the following equation is established.
【0061】[0061]
【数5】 ・・・(5)(Equation 5) ... (5)
【0062】式(4)および(5)より、式(6)が得
られる。From equations (4) and (5), equation (6) is obtained.
【0063】[0063]
【数6】 ・・・(6)(Equation 6) ... (6)
【0064】さらに、式(3)の残差方程式における生
徒データxij、タップ係数wj、教師データyi、および
残差eiの関係を考慮すると、式(6)から、次のよう
な正規方程式を得ることができる。Further, considering the relationship among the student data x ij , the tap coefficient w j , the teacher data y i , and the residual e i in the residual equation of the equation (3), the following equation is obtained from the equation (6). A normal equation can be obtained.
【0065】[0065]
【数7】 ・・・(7)(Equation 7) ... (7)
【0066】なお、式(7)に示した正規方程式は、行
列(共分散行列)Aおよびベクトルvを、The normal equation shown in equation (7) is obtained by converting a matrix (covariance matrix) A and a vector v into
【数8】 で定義するとともに、ベクトルWを、数1で示したよう
に定義すると、式 AW=v ・・・(8) で表すことができる。(Equation 8) If the vector W is defined as shown in Expression 1, it can be expressed by the following expression: AW = v (8)
【0067】式(7)における各正規方程式は、生徒デ
ータxijおよび教師データyiのセットを、ある程度の
数だけ用意することで、求めるべきタップ係数wjの数
Jと同じ数だけたてることができ、従って、式(8)
を、ベクトルWについて解くことで(但し、式(8)を
解くには、式(8)における行列Aが正則である必要が
ある)、最適なタップ係数(ここでは、自乗誤差を最小
にするタップ係数)wjを求めることができる。なお、
式(8)を解くにあたっては、例えば、掃き出し法(Ga
uss-Jordanの消去法)などを用いることが可能である。Each normal equation in the equation (7) is prepared by preparing a certain number of sets of the student data x ij and the teacher data y i , and forming the same number as the number J of the tap coefficients w j to be obtained. And therefore equation (8)
Is solved for the vector W (however, in order to solve the equation (8), the matrix A in the equation (8) needs to be regular) to obtain an optimal tap coefficient (here, the square error is minimized). Tap coefficient) w j can be obtained. In addition,
In solving equation (8), for example, the sweeping method (Ga
uss-Jordan elimination method) can be used.
【0068】以上のようにして、最適なタップ係数wj
を求めておき、さらに、そのタップ係数wjを用い、式
(1)により、元の画素値yに近い予測値E[y]を求
めるのが適応処理である。As described above, the optimum tap coefficient w j
The adaptive processing is to obtain a predicted value E [y] close to the original pixel value y by using the tap coefficient wj and using the equation (1).
【0069】なお、例えば、教師データとして、JPE
G符号化する画像と同一画質の画像を用いるとともに、
生徒データとして、その教師データをDCTおよび量子
化して得られる量子化DCT係数を用いた場合、タップ
係数としては、JPEG符号化された画像データを、元
の画像データに復号するのに、予測誤差が、統計的に最
小となるものが得られることになる。For example, as teacher data, JPE
While using an image of the same image quality as the image to be G-coded,
When DCT and quantized DCT coefficients obtained by quantizing the teacher data are used as student data, a prediction error is used as a tap coefficient when decoding JPEG-coded image data into original image data. However, a statistically minimum one is obtained.
【0070】従って、JPEG符号化を行う際の圧縮率
を高くしても、即ち、量子化に用いる量子化ステップを
粗くしても、適応処理によれば、予測誤差が、統計的に
最小となる復号処理が施されることになり、実質的に、
JPEG符号化された画像の復号処理と、その画質を向
上させるための処理とが、同時に施されることになる。
その結果、圧縮率を高くしても、復号画像の画質を維持
することができる。Therefore, even if the compression ratio at the time of performing JPEG encoding is increased, that is, even if the quantization step used for quantization is made coarse, according to the adaptive processing, the prediction error is statistically minimized. Will be performed, and in effect,
The decoding process of the JPEG encoded image and the process of improving the image quality are performed at the same time.
As a result, even if the compression ratio is increased, the image quality of the decoded image can be maintained.
【0071】また、例えば、教師データとして、JPE
G符号化する画像よりも高画質の画像を用いるととも
に、生徒データとして、その教師データの画質を、JP
EG符号化する画像と同一画質に劣化させ、さらに、D
CTおよび量子化して得られる量子化DCT係数を用い
た場合、タップ係数としては、JPEG符号化された画
像データを、高画質の画像データに復号するのに、予測
誤差が、統計的に最小となるものが得られることにな
る。For example, as teacher data, JPE
An image having a higher image quality than the image to be G-encoded is used, and the image quality of the teacher data is used as student data according to JP.
The image quality is degraded to the same image quality as the image to be EG-coded.
When a quantized DCT coefficient obtained by CT and quantization is used, as a tap coefficient, when decoding JPEG-coded image data into high-quality image data, the prediction error is statistically minimized. Will be obtained.
【0072】従って、この場合、適応処理によれば、J
PEG符号化された画像の復号処理と、その画質をより
向上させるための処理とが、同時に施されることにな
る。なお、上述したことから、教師データまたは生徒デ
ータとなる画像の画質を変えることで、復号画像の画質
を任意のレベルとするタップ係数を得ることができる。Therefore, in this case, according to the adaptive processing, J
The decoding process of the PEG-encoded image and the process of further improving the image quality are performed at the same time. As described above, by changing the image quality of the image serving as the teacher data or the student data, it is possible to obtain a tap coefficient for setting the image quality of the decoded image to an arbitrary level.
【0073】また、上述の場合には、教師データとして
画像データを用い、生徒データとして量子化DCT係数
を用いるようにしたが、その他、例えば、教師データと
してDCT係数を用い、生徒データとして、そのDCT
係数を量子化した量子化DCT係数を用いるようにする
ことも可能である。この場合、適応処理によれば、量子
化DCT係数から、量子化誤差を低減(抑制)したDC
T係数を予測するためのタップ係数が得られることにな
る。In the above case, the image data is used as the teacher data, and the quantized DCT coefficients are used as the student data. In addition, for example, the DCT coefficients are used as the teacher data, and the student data is used as the student data. DCT
It is also possible to use quantized DCT coefficients obtained by quantizing the coefficients. In this case, according to the adaptive processing, a DC in which the quantization error is reduced (suppressed) from the quantized DCT coefficient.
A tap coefficient for predicting the T coefficient is obtained.
【0074】図5は、以上のようなクラス分類適応処理
により、量子化DCT係数を画素値に復号する、図3の
係数変換回路32の第1の構成例を示している。FIG. 5 shows a first configuration example of the coefficient conversion circuit 32 shown in FIG. 3 for decoding quantized DCT coefficients into pixel values by the above-described class classification adaptive processing.
【0075】エントロピー復号回路31(図3)が出力
するブロックごとの量子化DCT係数は、予測タップ抽
出回路41およびクラスタップ抽出回路42に供給され
るようになっている。The quantized DCT coefficients for each block output from the entropy decoding circuit 31 (FIG. 3) are supplied to the prediction tap extraction circuit 41 and the class tap extraction circuit 42.
【0076】予測タップ抽出回路41は、そこに供給さ
れる量子化DCT係数のブロック(以下、適宜、DCT
ブロックという)に対応する画素値のブロック(この画
素値のブロックは、現段階では存在しないが、仮想的に
想定される)(以下、適宜、画素ブロックという)を、
順次、注目画素ブロックとし、さらに、その注目画素ブ
ロックを構成する各画素を、例えば、いわゆるラスタス
キャン順に、順次、注目画素とする。さらに、予測タッ
プ抽出回路41は、注目画素の画素値を予測するのに用
いる量子化DCT係数を抽出し、予測タップとする。The prediction tap extraction circuit 41 supplies a block of quantized DCT coefficients (hereinafter referred to as DCT
A block having a pixel value corresponding to the block (hereinafter, referred to as a block) (hereinafter, referred to as a pixel block, as appropriate)
The target pixel block is sequentially set as a target pixel block, and each pixel constituting the target pixel block is set as a target pixel sequentially in a so-called raster scan order, for example. Further, the prediction tap extracting circuit 41 extracts a quantized DCT coefficient used for predicting the pixel value of the pixel of interest, and sets it as a prediction tap.
【0077】即ち、予測タップ抽出回路41は、例え
ば、図6(A)に示すように、注目画素が属する画素ブ
ロックに対応するDCTブロックのすべての量子化DC
T係数、即ち、8×8の64個の量子化DCT係数を、
予測タップとして抽出する。従って、本実施の形態で
は、ある画素ブロックのすべての画素について、同一の
予測タップが構成される。但し、予測タップは、注目画
素ごとに、異なる量子化DCT係数で構成することが可
能である。That is, for example, as shown in FIG. 6A, the prediction tap extracting circuit 41 outputs all the quantized DCs of the DCT block corresponding to the pixel block to which the pixel of interest belongs.
T coefficients, ie, 64 8 × 8 quantized DCT coefficients,
Extract as a prediction tap. Therefore, in the present embodiment, the same prediction tap is formed for all pixels in a certain pixel block. However, the prediction tap can be configured with different quantized DCT coefficients for each target pixel.
【0078】なお、予測タップを構成する量子化DCT
係数は、上述したパターンのものに限定されるものでは
ない。The quantized DCT constituting the prediction tap
The coefficients are not limited to those of the pattern described above.
【0079】予測タップ抽出回路41において得られ
る、画素ブロックを構成する各画素についての予測タッ
プ、即ち、64画素それぞれについての64セットの予
測タップは、積和演算回路45に供給される。但し、本
実施の形態では、上述したように、画素ブロックのすべ
ての画素について、同一の予測タップが構成されるの
で、実際には、1つの画素ブロックに対して、1セット
の予測タップを、積和演算回路45に供給すれば良い。The prediction taps for each pixel constituting the pixel block, that is, 64 sets of prediction taps for each of the 64 pixels, obtained in the prediction tap extraction circuit 41, are supplied to the product-sum operation circuit 45. However, in the present embodiment, as described above, since the same prediction tap is configured for all pixels of the pixel block, one set of prediction taps is actually set for one pixel block. It may be supplied to the product-sum operation circuit 45.
【0080】クラスタップ抽出回路42は、注目画素
を、幾つかのクラスのうちのいずれかに分類するための
クラス分類に用いる量子化DCT係数を抽出して、クラ
スタップとする。The class tap extracting circuit 42 extracts a quantized DCT coefficient used for class classification for classifying the target pixel into one of several classes, and sets it as a class tap.
【0081】なお、JPEG符号化では、画像が、画素
ブロックごとに符号化(DCT処理および量子化)され
ることから、ある画素ブロックに属する画素は、例え
ば、すべて同一のクラスにクラス分類することとする。
従って、クラスタップ抽出回路42は、ある画素ブロッ
クの各画素については、同一のクラスタップを構成す
る。In JPEG encoding, an image is encoded (DCT processing and quantization) for each pixel block. Therefore, all pixels belonging to a certain pixel block are classified into the same class, for example. And
Therefore, the class tap extracting circuit 42 forms the same class tap for each pixel of a certain pixel block.
【0082】即ち、本実施の形態では、クラスタップ抽
出回路42は、例えば、図6(B)に示すように、注目
画素が属する画素ブロックに対応するDCTブロック
と、その上下左右に隣接する4個のDCTブロックの、
合計で5個のDCTブロックの320(=8×8×5)
個の量子化DCT係数を、クラスタップとして抽出す
る。That is, in the present embodiment, the class tap extracting circuit 42 includes, for example, as shown in FIG. 6B, a DCT block corresponding to a pixel block to which a pixel of interest belongs, and four DCT blocks adjacent vertically and horizontally. Of DCT blocks
320 of 5 DCT blocks in total (= 8 × 8 × 5)
The quantized DCT coefficients are extracted as class taps.
【0083】ここで、画素ブロックに属する各画素を、
すべて同一のクラスにクラス分類するということは、そ
の画素ブロックをクラス分類することと等価である。従
って、クラスタップ抽出回路42には、注目画素ブロッ
クを構成する64画素それぞれをクラス分類するための
64セットのクラスタップではなく、注目画素ブロック
をクラス分類するための1セットのクラスタップを構成
させれば良く、このため、クラスタップ抽出回路42
は、画素ブロックごとに、その画素ブロックをクラス分
類するために、その画素ブロックに対応するDCTブロ
ックと、その上下左右に隣接する4個のDCTブロック
の量子化DCT係数を抽出して、クラスタップとするよ
うになっている。Here, each pixel belonging to the pixel block is represented by
Classifying all pixel classes into the same class is equivalent to classifying the pixel block. Therefore, the class tap extracting circuit 42 configures one set of class taps for classifying the target pixel block, instead of 64 sets of class taps for classifying each of the 64 pixels constituting the target pixel block. Therefore, the class tap extraction circuit 42
Extracts, for each pixel block, a DCT block corresponding to the pixel block and quantized DCT coefficients of four DCT blocks adjacent above, below, left, and right to classify the pixel block into classes. And so on.
【0084】なお、クラスタップを構成する量子化DC
T係数は、上述したパターンのものに限定されるもので
はない。Note that the quantized DC constituting the class tap is
The T coefficient is not limited to the pattern described above.
【0085】即ち、JPEG符号化では、8×8画素の
画素ブロック単位で、DCTおよび量子化が行われるこ
とにより、8×8の量子化DCT係数からなるDCTブ
ロックが構成されるから、ある画素ブロックの画素を、
クラス分類適応処理によって復号する場合には、その画
素ブロックに対応するDCTブロックの量子化DCT係
数だけを、クラスタップとして用いることが考えられ
る。That is, in JPEG encoding, a DCT block composed of 8 × 8 quantized DCT coefficients is formed by performing DCT and quantization in units of 8 × 8 pixel blocks. The pixels of the block
When decoding by the classification adaptive processing, it is conceivable that only the quantized DCT coefficient of the DCT block corresponding to the pixel block is used as a class tap.
【0086】しかしながら、画像においては、ある画素
ブロックに注目した場合に、その画素ブロックの画素
と、その周辺の画素ブロックの画素との間には、少なか
らず相関があるのが一般的である。従って、上述のよう
に、ある画素ブロックに対応するDCTブロックだけで
なく、それ以外のDCTブロックからも、量子化DCT
係数を抽出して、クラスタップとして用いることによっ
て、注目画素を、より適切にクラス分けすることが可能
となり、その結果、画素ブロックに対応するDCTブロ
ックの量子化DCT係数だけを、クラスタップとして用
いる場合に比較して、復号画像の画質を向上させること
が可能となる。However, in an image, when attention is paid to a certain pixel block, there is generally not less than a correlation between pixels of the pixel block and pixels of peripheral pixel blocks. Therefore, as described above, not only the DCT block corresponding to a certain pixel block, but also the other DCT blocks, the quantized DCT block.
By extracting coefficients and using them as class taps, the target pixel can be more appropriately classified, and as a result, only the quantized DCT coefficients of the DCT block corresponding to the pixel block are used as class taps. As compared with the case, the image quality of the decoded image can be improved.
【0087】ここで、上述の場合には、ある画素ブロッ
クに対応するDCTブロックと、その上下左右に隣接す
る4個のDCTブロックの量子化DCT係数を、クラス
タップとするようにしたが、クラスタップとする量子化
DCT係数は、その他、ある画素ブロックに対応するD
CTブロックの斜め方向に隣接するDCTブロックや、
隣接しないが周辺にあるDCTブロック等から抽出する
ようにしても良い。即ち、どのような範囲のDCTブロ
ックから、クラスタップとする量子化DCT係数を抽出
するかは、特に限定されるものではない。Here, in the above case, the DCT block corresponding to a certain pixel block and the quantized DCT coefficients of the four DCT blocks adjacent to the upper, lower, left and right sides are set as class taps. Quantized DCT coefficients to be used as taps are other than DCT coefficients corresponding to a certain pixel block.
DCT blocks obliquely adjacent to CT blocks,
It may be extracted from a DCT block or the like that is not adjacent but is adjacent. That is, the range of DCT blocks from which quantized DCT coefficients to be used as class taps are extracted is not particularly limited.
【0088】クラスタップ抽出回路42において得られ
る、注目画素ブロックのクラスタップは、クラス分類回
路43に供給されるようになっており、クラス分類回路
43は、クラスタップ抽出回路42からのクラスタップ
に基づき、注目画素ブロックをクラス分類し、その結果
得られるクラスに対応するクラスコードを出力する。The class tap of the target pixel block obtained by the class tap extracting circuit 42 is supplied to the class classifying circuit 43. The class classifying circuit 43 converts the class tap from the class tap extracting circuit 42 into the class tap. Based on this, the target pixel block is classified into classes, and a class code corresponding to the resulting class is output.
【0089】ここで、クラス分類を行う方法としては、
例えば、ADRC(Adaptive Dynamic Range Coding)等を採
用することができる。Here, as a method of classifying,
For example, ADRC (Adaptive Dynamic Range Coding) or the like can be adopted.
【0090】ADRCを用いる方法では、クラスタップを構
成する量子化DCT係数が、ADRC処理され、その結果得
られるADRCコードにしたがって、注目画素ブロックのク
ラスが決定される。In the method using ADRC, the quantized DCT coefficients constituting the class tap are subjected to ADRC processing, and the class of the target pixel block is determined according to the ADRC code obtained as a result.
【0091】なお、KビットADRCにおいては、例えば、
クラスタップを構成する量子化DCT係数の最大値MAX
と最小値MINが検出され、DR=MAX-MINを、集合の局所的
なダイナミックレンジとし、このダイナミックレンジDR
に基づいて、クラスタップを構成する量子化DCT係数
がKビットに再量子化される。即ち、クラスタップを構
成する量子化DCT係数の中から、最小値MINが減算さ
れ、その減算値がDR/2Kで除算(量子化)される。そし
て、以上のようにして得られる、クラスタップを構成す
るKビットの各量子化DCT係数を、所定の順番で並べ
たビット列が、ADRCコードとして出力される。従って、
クラスタップが、例えば、1ビットADRC処理された場合
には、そのクラスタップを構成する各量子化DCT係数
は、最小値MINが減算された後に、最大値MAXと最小値MI
Nとの平均値で除算され、これにより、各量子化DCT
係数が1ビットとされる(2値化される)。そして、そ
の1ビットの量子化DCT係数を所定の順番で並べたビ
ット列が、ADRCコードとして出力される。In the K-bit ADRC, for example,
The maximum value MAX of the quantized DCT coefficient constituting the class tap
And the minimum value MIN is detected, and DR = MAX-MIN is set as the local dynamic range of the set.
, The quantized DCT coefficients making up the class tap are re-quantized to K bits. That is, from among the quantized DCT coefficients forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. Then, a bit string obtained by arranging the K-bit quantized DCT coefficients constituting the class tap in a predetermined order, which is obtained as described above, is output as an ADRC code. Therefore,
When the class tap is subjected to, for example, 1-bit ADRC processing, the quantized DCT coefficients constituting the class tap are obtained by subtracting the minimum value MIN from the maximum value MAX and the minimum value MI.
Divided by the average value with N, so that each quantized DCT
The coefficient is one bit (binarized). Then, a bit string in which the 1-bit quantized DCT coefficients are arranged in a predetermined order is output as an ADRC code.
【0092】なお、クラス分類回路43には、例えば、
クラスタップを構成する量子化DCT係数のレベル分布
のパターンを、そのままクラスコードとして出力させる
ことも可能であるが、この場合、クラスタップが、N個
の量子化DCT係数で構成され、各量子化DCT係数
に、Kビットが割り当てられているとすると、クラス分
類回路43が出力するクラスコードの場合の数は、(2
N)K通りとなり、量子化DCT係数のビット数Kに指数
的に比例した膨大な数となる。The class classification circuit 43 includes, for example,
It is also possible to output the pattern of the level distribution of the quantized DCT coefficients constituting the class taps as it is as the class code. In this case, however, the class tap is constituted by N quantized DCT coefficients, and Assuming that K bits are assigned to the DCT coefficient, the number of class codes output from the classifying circuit 43 is (2
N) becomes K Street, an enormous number exponentially proportional to the number of bits K of quantized DCT coefficients.
【0093】従って、クラス分類回路43においては、
クラスタップの情報量を、上述のADRC処理や、あるいは
ベクトル量子化等によって圧縮してから、クラス分類を
行うのが好ましい。Therefore, in the classification circuit 43,
It is preferable to perform the class classification after compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.
【0094】ところで、本実施の形態では、クラスタッ
プは、上述したように、320個の量子化DCT係数で
構成される。従って、例えば、仮に、クラスタップを1
ビットADRC処理することにより、クラス分類を行うこと
としても、クラスコードの場合の数は、2320通りとい
う膨大な値となる。By the way, in the present embodiment, the class tap is composed of 320 quantized DCT coefficients as described above. Therefore, for example, if the class tap is 1
By bit ADRC processing, as to perform the classification, the number of cases of the class code is a huge value of 2 320 ways.
【0095】そこで、本実施の形態では、クラス分類回
路43において、クラスタップを構成する量子化DCT
係数から、重要性の高い特徴量を抽出し、その特徴量に
基づいてクラス分類を行うことで、クラス数を低減する
ようになっている。Therefore, in the present embodiment, the classifying circuit 43 uses the quantized DCT constituting the class tap.
A feature amount having high importance is extracted from the coefficient, and the class is classified based on the feature amount, thereby reducing the number of classes.
【0096】即ち、図7は、図5のクラス分類回路43
の構成例を示している。That is, FIG. 7 shows the classification circuit 43 of FIG.
Is shown.
【0097】クラスタップは、電力演算回路51に供給
されるようになっており、電力演算回路51は、クラス
タップを構成する量子化DCT係数を、幾つかの空間周
波数帯域のものに分け、各周波数帯域の電力を演算す
る。The class taps are supplied to the power calculation circuit 51. The power calculation circuit 51 divides the quantized DCT coefficients constituting the class taps into several spatial frequency bands, and Calculate the power in the frequency band.
【0098】即ち、本実施の形態では、クラスタップ
は、図6(B)に示したように、5個のDCTブロック
の量子化DCT係数から構成されるが、電力演算回路5
1は、クラスタップを構成する各DCTブロックの8×
8個の量子化DCT係数を、例えば、図8に示すような
4つの空間周波数帯域S0,S1,S2,S3に分割する。That is, in the present embodiment, the class tap is composed of quantized DCT coefficients of five DCT blocks as shown in FIG.
1 is 8 × of each DCT block constituting the class tap.
The eight quantized DCT coefficients are divided into, for example, four spatial frequency bands S 0 , S 1 , S 2 , and S 3 as shown in FIG.
【0099】ここで、1つのDCTブロックの8×8個
の量子化DCT係数それぞれを、アルファベットxに、
図6(A)に示したような、ラスタスキャン順に、0か
らのシーケンシャルな整数を付して表すこととすると、
空間周波数帯域S0は、4個の量子化DCT係数x0,x
1,x8,x9から構成され、空間周波数帯域S1は、12
個の量子化DCT係数x2,x3,x4,x5,x6,x7,
x10,x11,x12,x13,x14,x15から構成される。
また、空間周波数帯域S2は、12個の量子化DCT係
数x16,x17,x24,x25,x32,x33,x40,x41,
x48,x49,x56,x57から構成され、空間周波数帯域
S3は、36個の量子化DCT係数x1 8,x19,x20,
x21,x22,x23,x26,x27,x28,x29,x30,x
31,x3 4,x35,x36,x37,x38,x39,x42,
x43,x44,x45,x46,x47,x5 0,x51,x52,x
53,x54,x55,x58,x59,x60,x61,x62,x63
から構成される。Here, each of the 8 × 8 quantized DCT coefficients of one DCT block is represented by an alphabet x,
As shown in FIG. 6A, a sequential integer from 0 is added to the raster scan order.
The spatial frequency band S 0 has four quantized DCT coefficients x 0 , x
1, is composed of x 8, x 9, the spatial frequency band S 1 is 12
Quantized DCT coefficients x 2 , x 3 , x 4 , x 5 , x 6 , x 7 ,
x 10, x 11, x 12 , x 13, composed of x 14, x 15.
Further, the spatial frequency band S 2 is 12 quantized DCT coefficients x 16, x 17, x 24 , x 25, x 32, x 33, x 40, x 41,
consists x 48, x 49, x 56 , x 57, the spatial frequency band S 3 is 36 quantized DCT coefficients x 1 8, x 19, x 20,
x 21, x 22, x 23 , x 26, x 27, x 28, x 29, x 30, x
31, x 3 4, x 35 , x 36, x 37, x 38, x 39, x 42,
x 43, x 44, x 45 , x 46, x 47, x 5 0, x 51, x 52, x
53, x 54, x 55, x 58, x 59, x 60, x 61, x 62, x 63
Consists of
【0100】さらに、電力演算回路51は、クラスタッ
プを構成する5つのDCTブロックそれぞれについて、
その空間周波数帯域S0,S1,S2,S3のそれぞれに関
し、量子化DCT係数のAC成分の電力P0,P1,
P2,P3を演算し、クラスコード生成回路52に出力す
る。Further, the power operation circuit 51 performs the following for each of the five DCT blocks constituting the class tap.
For each of the spatial frequency bands S 0 , S 1 , S 2 , S 3 , the powers P 0 , P 1 , AC of the AC components of the quantized DCT coefficients
P 2 and P 3 are calculated and output to the class code generation circuit 52.
【0101】即ち、電力演算回路51は、空間周波数帯
域S0については、上述の4個の量子化DCT係数x0,
x1,x8,x9のうちのAC成分x1,x8,x9の2乗和
x1 2+x8 2+x9 2を求め、これを、電力P0として、ク
ラスコード生成回路52に出力する。また、電力演算回
路51は、空間周波数帯域S1についての、上述の12
個の量子化DCT係数のAC成分、即ち、12個すべて
の量子化DCT係数の2乗和を求め、これを、電力P1
として、クラスコード生成回路52に出力する。さら
に、電力演算回路51は、空間周波数帯域S2とS3につ
いても、空間周波数帯域S1における場合と同様にし
て、それぞれの電力P2とP3を求め、クラスコード生成
回路52に出力する。That is, the power operation circuit 51 operates in the spatial frequency band.
Area S0For the above four quantized DCT coefficients x0,
x1, X8, X9AC component x of1, X8, X9Sum of squares
x1 Two+ X8 Two+ X9 TwoAnd calculate the power P0As
Output to the Las code generation circuit 52. Also, the power calculation time
The road 51 corresponds to the above-mentioned 12 for the spatial frequency band S1.
AC components of the quantized DCT coefficients, ie, all 12
Is calculated, and the sum of squares of the quantized DCT coefficients of1
To the class code generation circuit 52. Further
In addition, the power operation circuit 51 has a spatial frequency band STwoAnd SThreeNitsu
The spatial frequency band S1As in
And each power PTwoAnd PThreeAnd generate class code
Output to the circuit 52.
【0102】クラスコード生成回路52は、電力演算回
路51からの、クラスタップを構成する5個のDCTブ
ロックそれぞれについての電力P0,P1,P2,P3を、
閾値テーブル記憶部53に記憶された、対応する閾値T
H0,TH1,TH2,TH3とそれぞれ比較し、それぞれ
の大小関係に基づいて、クラスコードを出力する。即
ち、クラスコード生成回路52は、電力P0と閾値TH0
とを比較し、その大小関係を表す1ビットのコードを得
る。同様に、クラスコード生成回路52は、電力P1と
閾値TH1、電力P2と閾値TH2、電力P3と閾値TH3
を、それぞれ比較することにより、それぞれについて、
1ビットのコードを得る。The class code generation circuit 52 calculates the powers P 0 , P 1 , P 2 , and P 3 from the power operation circuit 51 for each of the five DCT blocks constituting the class tap,
The corresponding threshold value T stored in the threshold value table storage unit 53
H 0 , TH 1 , TH 2 , and TH 3 are compared with each other, and a class code is output based on the magnitude relation. That is, the class code generation circuit 52 determines the power P 0 and the threshold TH 0
And a 1-bit code representing the magnitude relationship is obtained. Similarly, the class code generation circuit 52 determines the power P 1 and the threshold TH 1 , the power P 2 and the threshold TH 2 , and the power P 3 and the threshold TH 3
By comparing
Get 1-bit code.
【0103】クラスコード生成回路52は、クラスタッ
プを構成する5個のDCTブロックそれぞれについて、
上述のようにして、4つの1ビットのコード、即ち、合
計で、20ビットのコードを得る。そして、クラスコー
ド生成回路52は、この20ビットのコードを、注目画
素ブロックのクラスを表すクラスコードとして出力す
る。この場合、注目画素ブロックは、220個のクラスの
うちのいずれかにクラス分類されることになる。[0103] The class code generation circuit 52 performs the following operations on each of the five DCT blocks constituting the class tap.
As described above, four 1-bit codes, that is, a total of 20-bit codes are obtained. Then, the class code generation circuit 52 outputs the 20-bit code as a class code representing the class of the target pixel block. In this case, the target pixel block will be classification into one of 2 20 classes.
【0104】閾値テーブル記憶部53は、空間周波数帯
域S0乃至S3の電力P0乃至P3とそれぞれ比較する閾値
TH0乃至TH3を記憶している。The threshold value table storage unit 53 stores threshold values TH 0 to TH 3 to be compared with the electric powers P 0 to P 3 of the spatial frequency bands S 0 to S 3 , respectively.
【0105】なお、上述の場合には、クラス分類処理
に、量子化DCT係数のDC成分x0が用いられない
が、このDC成分x0をも用いてクラス分類処理を行う
ことも可能である。In the above case, the DC component x 0 of the quantized DCT coefficient is not used in the class classification process, but the class classification process can be performed using the DC component x 0. .
【0106】図5に戻り、以上のようなクラス分類回路
43が出力するクラスコードは、係数テーブル記憶部4
4に、アドレスとして与えられる。Returning to FIG. 5, the class code output from the classifying circuit 43 as described above is stored in the coefficient table storage unit 4.
4 is given as an address.
【0107】係数テーブル記憶部44は、後述するよう
な学習処理が行われることにより得られるタップ係数が
登録された係数テーブルを記憶しており、クラス分類回
路43が出力するクラスコードに対応するアドレスに記
憶されているタップ係数を積和演算回路45に出力す
る。The coefficient table storage section 44 stores a coefficient table in which tap coefficients obtained by performing a learning process described later are registered, and stores an address corresponding to the class code output from the class classification circuit 43. Is output to the product-sum operation circuit 45.
【0108】ここで、本実施の形態では、画素ブロック
がクラス分類されるから、注目画素ブロックについて、
1つのクラスコードが得られる。一方、画素ブロック
は、本実施の形態では、8×8画素の64画素で構成さ
れるから、注目画素ブロックについて、それを構成する
64画素それぞれを復号するための64セットのタップ
係数が必要である。従って、係数テーブル記憶部44に
は、1つのクラスコードに対応するアドレスに対して、
64セットのタップ係数が記憶されている。Here, in the present embodiment, the pixel blocks are classified into classes, so that the target pixel block is
One class code is obtained. On the other hand, in the present embodiment, since the pixel block is composed of 64 pixels of 8 × 8 pixels, 64 sets of tap coefficients for decoding each of the 64 pixels constituting the target pixel block are required. is there. Therefore, the coefficient table storage unit 44 stores, for an address corresponding to one class code,
64 sets of tap coefficients are stored.
【0109】積和演算回路45は、予測タップ抽出回路
41が出力する予測タップと、係数テーブル記憶部44
が出力するタップ係数とを取得し、その予測タップとタ
ップ係数とを用いて、式(1)に示した線形予測演算
(積和演算)を行い、その結果得られる注目画素ブロッ
クの8×8画素の画素値を、対応するDCTブロックの
復号結果として、ブロック分解回路33(図3)に出力
する。The product-sum operation circuit 45 includes a prediction tap output from the prediction tap extraction circuit 41 and a coefficient table storage unit 44.
Is obtained, and the linear prediction operation (product-sum operation) shown in Expression (1) is performed using the prediction taps and the tap coefficients. The pixel value of the pixel is output to the block decomposition circuit 33 (FIG. 3) as a decoding result of the corresponding DCT block.
【0110】ここで、予測タップ抽出回路41において
は、上述したように、注目画素ブロックの各画素が、順
次、注目画素とされるが、積和演算回路45は、注目画
素ブロックの、注目画素となっている画素の位置に対応
した動作モード(以下、適宜、画素位置モードという)
となって、処理を行う。Here, in the prediction tap extracting circuit 41, as described above, each pixel of the target pixel block is sequentially set as the target pixel. Operation mode corresponding to the position of the pixel (hereinafter, appropriately referred to as pixel position mode)
And perform the processing.
【0111】即ち、例えば、注目画素ブロックの画素の
うち、ラスタスキャン順で、i番目の画素を、piと表
し、画素piが、注目画素となっている場合、積和演算
回路45は、画素位置モード#iの処理を行う。That is, for example, among the pixels of the pixel block of interest, the i-th pixel in the raster scan order is represented as p i, and when the pixel p i is the pixel of interest, the product-sum operation circuit 45 , The processing of the pixel position mode #i is performed.
【0112】具体的には、上述したように、係数テーブ
ル記憶部44は、注目画素ブロックを構成する64画素
それぞれを復号するための64セットのタップ係数を出
力するが、そのうちの画素piを復号するためのタップ
係数のセットをWiと表すと、積和演算回路45は、動
作モードが、画素位置モード#iのときには、予測タッ
プと、64セットのタップ係数のうちのセットWiとを
用いて、式(1)の積和演算を行い、その積和演算結果
を、画素piの復号結果とする。[0112] More specifically, as described above, the coefficient table storage unit 44 is to output the tap coefficients of the 64 sets for decoding the respective 64 pixels constituting the pixel block of interest, the pixel p i of which If the set of tap coefficients for decoding denoted W i, sum-of-products operation circuit 45, the operation mode is, when the pixel position mode #i includes a prediction tap, and a set W i of the tap coefficients of the 64 sets Is used, and the result of the product-sum operation is used as the decoding result of the pixel p i .
【0113】次に、図9のフローチャートを参照して、
図5の係数変換回路32の処理について説明する。Next, referring to the flowchart of FIG.
The processing of the coefficient conversion circuit 32 in FIG. 5 will be described.
【0114】エントロピー復号回路31が出力するブロ
ックごとの量子化DCT係数は、予測タップ抽出回路4
1およびクラスタップ抽出回路42において順次受信さ
れ、予測タップ抽出回路41は、そこに供給される量子
化DCT係数のブロック(DCTブロック)に対応する
画素ブロックを、順次、注目画素ブロックとする。The quantized DCT coefficient for each block output from the entropy decoding circuit 31
1 and the class tap extraction circuit 42 sequentially receive the prediction block, and the prediction tap extraction circuit 41 sequentially sets the pixel blocks corresponding to the blocks of the quantized DCT coefficients (DCT blocks) supplied thereto as target pixel blocks.
【0115】そして、クラスタップ抽出回路42は、ス
テップS11において、そこで受信した量子化DCT係
数の中から、注目画素ブロックをクラス分類するのに用
いるもの、即ち、本実施の形態では、注目画素ブロック
に対応するDCTブロックと、その上下左右に隣接する
4個のDCTブロックとの、合計で5個のDCTブロッ
クの量子化DCT係数を抽出して、クラスタップを構成
し、クラス分類回路43に供給する。In step S11, the class tap extracting circuit 42 uses the quantized DCT coefficients received there to classify the target pixel block, that is, in this embodiment, the class tap extraction circuit 42 uses the target pixel block. , And a total of five quantized DCT coefficients of the DCT block corresponding to, and four DCT blocks adjacent to the upper, lower, left, and right sides thereof are extracted to form a class tap, which is supplied to the class classification circuit 43. I do.
【0116】クラス分類回路43は、ステップS12に
おいて、クラスタップ抽出回路42からのクラスタップ
を用いて、注目画素ブロックをクラス分類し、その結果
得られるクラスコードを、係数テーブル記憶部44に出
力する。In step S12, the class classification circuit 43 classifies the pixel block of interest using the class tap from the class tap extraction circuit 42, and outputs the resulting class code to the coefficient table storage unit 44. .
【0117】即ち、ステップS12では、図10のフロ
ーチャートに示すように、まず最初に、ステップS21
において、クラス分類回路43(図7)の電力演算回路
51が、クラスタップを構成する5個のDCTブロック
それぞれについて、図8に示した4つの空間周波数帯域
S0乃至S3それぞれの電力P0乃至P3を演算する。この
電力P0乃至P3は、電力演算回路51からクラスコード
生成回路52に出力される。That is, in step S12, as shown in the flowchart of FIG.
, The power calculation circuit 51 of the class classification circuit 43 (FIG. 7) calculates the power P 0 of each of the four spatial frequency bands S 0 to S 3 shown in FIG. 8 for each of the five DCT blocks constituting the class tap. or it calculates the P 3. The powers P 0 to P 3 are output from the power calculation circuit 51 to the class code generation circuit 52.
【0118】クラスコード生成回路52は、ステップS
22において、閾値テーブル記憶部53から閾値TH0
乃至TH3を読み出し、電力演算回路51からの、クラ
スタップを構成する5個のDCTブロックの電力P0乃
至P3それぞれと、閾値TH0乃至TH3それぞれとを
比較し、それぞれの大小関係に基づいたクラスコードを
生成して、リターンする。The class code generation circuit 52 determines in step S
At 22, the threshold value TH 0 is stored in the threshold value table storage unit 53.
To read the TH 3, compared from power calculating circuit 51, the five DCT blocks forming the class tap and the power P 0 to P 3, respectively, and a threshold value TH0 to TH3 respectively, based on the respective magnitude relationships Generate class code and return.
【0119】図9に戻り、ステップS12において以上
のようにして得られるクラスコードは、クラス分類回路
43から係数テーブル記憶部44に対して、アドレスと
して与えられる。Returning to FIG. 9, the class code obtained as described above in step S12 is given from the class classification circuit 43 to the coefficient table storage unit 44 as an address.
【0120】係数テーブル記憶部44は、クラス分類回
路43からのアドレスとしてのクラスコードを受信する
と、ステップS13において、そのアドレスに記憶され
ている64セットのタップ係数を読み出し、積和演算回
路45に出力する。When the coefficient table storage unit 44 receives the class code as the address from the class classification circuit 43, it reads out the 64 sets of tap coefficients stored at the address in step S13, and sends it to the product-sum operation circuit 45. Output.
【0121】そして、ステップS14に進み、予測タッ
プ抽出回路41は、注目画素ブロックの画素のうち、ラ
スタスキャン順で、まだ、注目画素とされていない画素
を、注目画素として、その注目画素の画素値を予測する
のに用いる量子化DCT係数を抽出し、予測タップとし
て構成する。この予測タップは、予測タップ抽出回路4
1から積和演算回路45に供給される。Then, the process proceeds to step S14, in which the prediction tap extracting circuit 41 sets, as a target pixel, a pixel which has not been set as the target pixel in the raster scan order among the pixels of the target pixel block, and sets the target pixel as a target pixel. A quantized DCT coefficient used for predicting a value is extracted and configured as a prediction tap. This prediction tap is a prediction tap extraction circuit 4
1 is supplied to the product-sum operation circuit 45.
【0122】ここで、本実施の形態では、各画素ブロッ
クごとに、その画素ブロックのすべての画素について、
同一の予測タップが構成されるので、実際には、ステッ
プS14の処理は、注目画素ブロックについて、最初に
注目画素とされる画素に対してだけ行えば、残りの63
画素に対しては、行う必要がない。Here, in this embodiment, for each pixel block, all the pixels in the pixel block are
Since the same prediction tap is configured, in practice, if the processing of step S14 is performed only on the pixel that is initially set as the target pixel for the target pixel block, the remaining 63
There is no need to do this for pixels.
【0123】積和演算回路45は、ステップS15にお
いて、ステップS13で係数テーブル記憶部44が出力
する64セットのタップ係数のうち、注目画素に対する
画素位置モードに対応するタップ係数のセットを取得
し、そのタップ係数のセットと、ステップS14で予測
タップ抽出回路41から供給される予測タップとを用い
て、式(1)に示した積和演算を行い、注目画素の画素
値の復号値を得る。In step S15, the product-sum operation circuit 45 acquires a set of tap coefficients corresponding to the pixel position mode for the target pixel from among the 64 sets of tap coefficients output from the coefficient table storage unit 44 in step S13. Using the set of tap coefficients and the prediction tap supplied from the prediction tap extraction circuit 41 in step S14, the product-sum operation shown in Expression (1) is performed to obtain a decoded value of the pixel value of the target pixel.
【0124】そして、ステップS16に進み、予測タッ
プ抽出回路41は、注目画素ブロックのすべての画素
を、注目画素として処理を行ったかどうかを判定する。
ステップS16において、注目画素ブロックのすべての
画素を、注目画素として、まだ処理を行っていないと判
定された場合、ステップS14に戻り、予測タップ抽出
回路41は、注目画素ブロックの画素のうち、ラスタス
キャン順で、まだ、注目画素とされていない画素を、新
たに注目画素として、以下、同様の処理を繰り返す。Then, proceeding to step S16, the prediction tap extracting circuit 41 determines whether or not all pixels of the target pixel block have been processed as the target pixel.
If it is determined in step S16 that all the pixels of the target pixel block have not been processed yet as the target pixel, the process returns to step S14, and the prediction tap extraction circuit 41 returns the raster tap among the pixels of the target pixel block. In the scanning order, a pixel that has not been set as a target pixel is set as a new target pixel, and the same processing is repeated.
【0125】また、ステップS16において、注目画素
ブロックのすべての画素を、注目画素として処理を行っ
たと判定された場合、即ち、注目画素ブロックのすべて
の画素の復号値が得られた場合、積和演算回路45は、
その復号値で構成される画素ブロック(復号ブロック)
を、ブロック分解回路33(図3)に出力し、処理を終
了する。If it is determined in step S16 that all pixels of the target pixel block have been processed as the target pixel, that is, if the decoded values of all the pixels of the target pixel block have been obtained, The arithmetic circuit 45
Pixel block composed of the decoded value (decoded block)
Is output to the block decomposition circuit 33 (FIG. 3), and the process is terminated.
【0126】なお、図9のフローチャートにしたがった
処理は、予測タップ抽出回路41が、新たな注目画素ブ
ロックを設定するごとに繰り返し行われる。The process according to the flowchart of FIG. 9 is repeated each time the prediction tap extracting circuit 41 sets a new pixel block of interest.
【0127】次に、上述の場合には、クラス分類回路4
3において、クラスタップを構成する5つのDCTブロ
ックそれぞれについて、同一の空間周波数帯域S0乃至
S3の電力P0乃至P3を計算し、その電力に基づいて、
クラス分類を行うようにしたが、その他、クラス分類
は、例えば、クラスタップを構成する5つのDCTブロ
ックの幾つかについて、異なる空間周波数帯域の電力を
計算し、その電力に基づいて行うようにすることも可能
である。Next, in the above case, the classifying circuit 4
In 3, for each of five DCT blocks forming the class taps, the power P 0 to P 3 of the same spatial frequency band S 0 to S 3 calculated, based on the power,
The class classification is performed. In addition, the class classification is performed based on the calculated power of different spatial frequency bands for some of the five DCT blocks forming the class tap, for example. It is also possible.
【0128】即ち、例えば、図11に斜線を付して示す
ように、クラスタップを構成する5つのDCTブロック
のうち、注目画素ブロックに対応するDCTブロック
(以下、適宜、注目DCTブロックという)について
は、垂直方向の高周波数帯域の電力Pvおよび水平方向
の高周波数帯域の電力Phを、注目DCTブロックの上
に隣接するDCTブロックについては、垂直方向の高周
波数帯域の電力Puを、注目DCTブロックの下に隣接
するDCTブロックについては、垂直方向の高周波数帯
域の電力Pdを、注目DCTブロックの左隣のDCTブ
ロックについては、水平方向の高周波数帯域の電力Pl
を、注目DCTブロックの右隣のDCTブロックについ
ては、水平方向の高周波数帯域の電力Prを、それぞれ
計算し、それらの電力Pv,Ph,Pu,Pd,Pl,Prに
基づき、図7および図10で説明した場合と同様にし
て、クラス分類を行うようにすることが可能である。That is, for example, as shown by hatching in FIG. 11, of the five DCT blocks constituting the class tap, the DCT block corresponding to the target pixel block (hereinafter referred to as the target DCT block as appropriate) is the power P v and the power P h in the horizontal direction of the high-frequency band in the vertical direction of the high frequency band, for the DCT block adjacent to the upper side of the target DCT block, the power P u in the vertical direction of the high frequency band, for DCT block adjacent to the bottom of the target DCT block, the power P d in the vertical direction of the high-frequency band, the DCT block adjacent to the left of the target DCT block, the power P l horizontal high frequency band
The, for the DCT block to the right of the target DCT block, the power P r of the horizontal high frequency band, respectively calculated, their power P v, P h, P u , P d, P l, P r , It is possible to perform the class classification in the same manner as in the case described with reference to FIGS.
【0129】この場合、図7に示したクラス分類回路4
3では、図9のステップS12において、図12に示す
ような処理が行われる。In this case, the classification circuit 4 shown in FIG.
In 3, the process as shown in FIG. 12 is performed in step S12 in FIG.
【0130】即ち、まず最初に、ステップS31におい
て、クラス分類回路43(図7)の電力演算回路51
が、クラスタップを構成する5個のDCTブロックにつ
いて、図11で説明したような各周波数帯域の電力
Pv,Ph,Pu,Pd,Pl,Prを演算し、クラスコード
生成回路52に出力する。That is, first, in step S31, the power calculation circuit 51 of the class classification circuit 43 (FIG. 7)
But the five DCT blocks forming the class tap, and arithmetic power P v of each frequency band as described in FIG. 11, P h, P u, P d, P l, and P r, the class code generation Output to the circuit 52.
【0131】クラスコード生成回路52は、ステップS
32において、閾値テーブル記憶部53から閾値を読み
出す。なお、ここでは、閾値テーブル記憶部53に、電
力P v,Ph,Pu,Pd,Pl,Prそれぞれと比較するた
めの閾値THv,THh,TH u,THd,THl,THrが
記憶されているものとする。The class code generation circuit 52 executes the processing in step S
At 32, the threshold is read from the threshold table storage 53.
put out. Here, the threshold table storage unit 53 stores
Force P v, Ph, Pu, Pd, Pl, PrCompare with each
Threshold THv, THh, TH u, THd, THl, THrBut
It shall be stored.
【0132】クラスコード生成回路52は、閾値テーブ
ル記憶部53から閾値THv,THh,THu,THd,T
Hl,THrを読み出すと、それぞれを、電力演算回路5
1からの電力Pv,Ph,Pu,Pd,Pl,Prそれぞれと
比較し、それぞれの大小関係に基づいた、6個の1ビッ
トを得る。そして、クラスコード生成回路52は、その
6個の1ビットのコードからなる6ビットのコードを、
クラスコードとして出力し、リターンする。従って、こ
の場合、注目画素(注目画素ブロック)は、64(=2
6)個のクラスのうちのいずれかにクラス分類されるこ
とになる。The class code generation circuit 52 stores the threshold values TH v , TH h , TH u , TH d , T
When H l and TH r are read, each is read by the power operation circuit 5.
Power P v from 1, P h, P u, P d, compared to P l, P r respectively, based on the respective magnitude relation, obtaining six 1 bits. Then, the class code generation circuit 52 generates a 6-bit code including the six 1-bit codes,
Output as class code and return. Therefore, in this case, the target pixel (target pixel block) is 64 (= 2
6 ) Classification into one of the classes.
【0133】次に、以上においては、クラスタップとし
ての量子化DCT係数のAC成分をクラス分類に用いる
ようにしたが、クラス分類は、その他、量子化DCT係
数のDC成分を用いて行うことも可能である。Next, in the above description, the AC component of the quantized DCT coefficient as a class tap is used for the class classification. However, the class classification can also be performed using the DC component of the quantized DCT coefficient. It is possible.
【0134】即ち、クラス分類は、例えば、図13に示
すように、注目DCTブロックのDC成分C0、その上
下左右に隣接するDCTブロックそれぞれのDC成分C
u,C d,Cl,Crを用いて行うことが可能である。That is, the class classification is, for example, as shown in FIG.
As shown, the DC component C of the DCT block of interest0,Moreover
DC component C of each DCT block adjacent to the lower left and right
u, C d, Cl, CrIt is possible to perform using.
【0135】この場合、図5のクラス分類回路43は、
例えば、図14に示すように構成される。In this case, the class classification circuit 43 of FIG.
For example, it is configured as shown in FIG.
【0136】クラスタップは、差分演算回路151に供
給されるようになっており、差分演算回路151は、ク
ラスタップを構成する5個のDCTブロックのうち、注
目DCTブロックの上下左右に隣接するDCTブロック
のDC成分Cu,Cd,Cl,Crそれぞれと、注目DCT
ブロックのDC成分C0との差分の絶対値Du,Dd,
Dl,Drを演算し、クラスコード生成回路152に供給
する。即ち、差分演算回路151は、式Du=|Cu−C
0|,Dd=|Cd−C0|,Dl=|Cl−C0|,Dr=|
Cr−C0|を演算し、その演算結果を、クラスコード生
成回路152に供給する。The class taps are supplied to a difference calculation circuit 151. The difference calculation circuit 151 selects one of the five DCT blocks constituting the class tap, which is adjacent to the DCT block above, below, left and right. DC component of block C u, C d, C l , and C r, respectively, attention DCT
Absolute value D u of the difference between the DC component C 0 of the block, D d,
Dl and Dr are calculated and supplied to the class code generation circuit 152. That is, the difference calculation circuit 151 calculates the expression Du = | Cu- C
0 |, D d = | C d −C 0 |, D l = | C 1 −C 0 |, Dr = |
C r −C 0 | is calculated, and the calculation result is supplied to the class code generation circuit 152.
【0137】クラスコード生成回路152は、差分演算
回路151からの演算結果(差分絶対値)Du,Dd,D
l,Drを、閾値テーブル記憶部153に記憶された、対
応する閾値THu,THd,THl,THrとそれぞれ比較
し、それぞれの大小関係に基づいて、クラスコードを出
力する。即ち、クラスコード生成回路152は、差分絶
対値Duと閾値THuとを比較し、その大小関係を表す1
ビットのコードを得る。同様に、クラスコード生成回路
152は、差分絶対値Ddと閾値THd、差分絶対値Dl
と閾値THl、差分絶対値Drと閾値THrを、それぞれ
比較することにより、それぞれについて、1ビットのコ
ードを得る。The class code generation circuit 152 calculates the operation results (absolute difference values) D u , D d and D from the difference operation circuit 151.
l, the D r, stored in the threshold table storage unit 153, compares corresponding threshold TH u, TH d, TH l, and TH r respectively, based on the respective magnitude relationship, and outputs the class code. That is, the class code generating circuit 152 compares the difference absolute value D u and the threshold TH u, representing the magnitude relation 1
Get a bit of code. Similarly, the class code generation circuit 152 calculates the difference absolute value D d , the threshold value TH d , and the difference absolute value D l
The threshold TH l, the difference absolute value D r and the threshold TH r, by comparing each for each, to obtain a 1-bit code.
【0138】そして、クラスコード生成回路152は、
以上のようにして得られる4つの1ビットのコードを、
例えば、所定の順番で並べることにより得られる4ビッ
トのコード(従って、0乃至15のうちのいずれかの
値)を、注目画素ブロックのクラスを表すクラスコード
として出力する。従って、この場合、注目画素ブロック
は、24(=16)個のクラスのうちのいずれかにクラ
ス分類されることになる。Then, the class code generation circuit 152
The four 1-bit codes obtained as described above are
For example, a 4-bit code (accordingly, any value from 0 to 15) obtained by arranging in a predetermined order is output as a class code representing the class of the pixel block of interest. Therefore, in this case, the target pixel block is classified into any one of 2 4 (= 16) classes.
【0139】閾値テーブル記憶部153は、差分絶対値
Du,Dd,Dl,Drとそれぞれ比較する閾値THu,T
Hd,,THl,THrを記憶している。The threshold value table storage unit 153 stores threshold values TH u and T u to be compared with the absolute difference values D u , D d , D l and Dr respectively.
H d ,, TH l, stores TH r.
【0140】クラス分類回路43が図14に示したよう
に構成される場合、図9のステップS12では、図15
に示すような処理が行われる。When the classifying circuit 43 is configured as shown in FIG. 14, in step S12 in FIG.
The processing shown in FIG.
【0141】即ち、この場合、まず最初に、ステップS
41において、差分演算回路151は、クラスタップを
構成する5個のDCTブロックそれぞれのDC成分
C0,Cu,Cd,Cl,Crを用いて、上述の差分絶対値
Du,Dd,Dl,Drを演算し、クラスコード生成回路1
52に供給する。That is, in this case, first, step S
In 41, the difference calculation circuit 151, five DCT blocks each DC component constituting the class tap C 0, C u, C d , C l, using a C r, the above-described difference absolute value D u, D d , Dl , and Dr are calculated, and the class code generation circuit 1
52.
【0142】クラスコード生成回路152は、ステップ
S42において、閾値テーブル記憶部153に記憶され
た閾値THu,THd,THl,THrそれぞれと、差分演
算回路151からの差分絶対値Du,Dd,Dl,Drそれ
ぞれと比較し、その大小関係を表す4つの1ビットのコ
ードを得る。そして、クラスコード生成回路152は、
その4つの1ビットのコードでなる4ビットのコード
を、クラスコードとして出力し、リターンする。In step S42, the class code generation circuit 152 compares the threshold values TH u , TH d , TH l , and TH r stored in the threshold value table storage section 153 with the absolute difference values D u , D d, compared to D l, D r respectively, to obtain the four 1-bit code representing the magnitude relationship. Then, the class code generation circuit 152
The 4-bit code consisting of the four 1-bit codes is output as a class code, and the process returns.
【0143】なお、クラス分類は、量子化DCT係数の
AC成分だけ、またはDC成分だけを用いて行う他、A
C成分およびDC成分の両方を用いて行うことも可能で
ある。即ち、クラス分類の方法は、上述した手法に限定
されるものではない。The class classification is performed using only the AC component or only the DC component of the quantized DCT coefficient.
It is also possible to carry out using both the C component and the DC component. That is, the method of class classification is not limited to the method described above.
【0144】次に、図16は、図5の係数テーブル記憶
部44に記憶させるタップ係数の学習処理を行う学習装
置の一実施の形態の構成例を示している。Next, FIG. 16 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG.
【0145】ブロック化回路61には、1枚以上の学習
用の画像データが供給されるようになっており、ブロッ
ク化回路61は、その学習用の画像を、JPEG符号化
における場合と同様に、8×8画素の画素ブロックにブ
ロック化する。One or more pieces of learning image data are supplied to the blocking circuit 61. The blocking circuit 61 converts the learning image into the same data as in the case of JPEG encoding. , 8 × 8 pixels.
【0146】DCT回路62は、ブロック化回路61が
ブロック化した画素ブロックを、順次、注目画素ブロッ
クとして読み出し、その注目画素ブロックを、DCT処
理することで、DCT係数のブロックとする。このDC
T係数のブロックは、量子化回路63に供給される。The DCT circuit 62 sequentially reads out the pixel blocks formed by the blocking circuit 61 as a pixel block of interest, and subjects the pixel block of interest to a DCT process to obtain a block of DCT coefficients. This DC
The block of the T coefficient is supplied to the quantization circuit 63.
【0147】量子化回路63は、DCT回路62からの
DCT係数のブロックを、JPEG符号化に用いられる
のと同一の量子化テーブルにしたがって量子化し、その
結果得られる量子化DCT係数のブロック(DCTブロ
ック)を、予測タップ抽出回路64およびクラスタップ
抽出回路65に順次供給する。The quantization circuit 63 quantizes the block of DCT coefficients from the DCT circuit 62 in accordance with the same quantization table used for JPEG encoding, and obtains a block of quantized DCT coefficients (DCT coefficient) obtained as a result. Block) are sequentially supplied to the prediction tap extraction circuit 64 and the class tap extraction circuit 65.
【0148】予測タップ抽出回路64は、注目画素ブロ
ックの画素のうち、ラスタスキャン順で、まだ、注目画
素とされていない画素を、注目画素として、その注目画
素について、図5の予測タップ抽出回路41が構成する
のと同一の予測タップを、量子化回路63の出力から、
必要な量子化DCT係数を抽出することで構成する。こ
の予測タップは、学習時の生徒となる生徒データとし
て、予測タップ抽出回路64から正規方程式加算回路6
7に供給される。The prediction tap extraction circuit 64 selects, from the pixels of the pixel block of interest, pixels which have not been set as the pixel of interest in the raster scan order as the pixel of interest, and sets the prediction tap extraction circuit of FIG. From the output of the quantization circuit 63, the same prediction tap
It is configured by extracting necessary quantized DCT coefficients. This prediction tap is sent from the prediction tap extraction circuit 64 to the normal equation addition circuit 6 as student data to be a student during learning.
7 is supplied.
【0149】クラスタップ抽出回路65は、注目画素ブ
ロックについて、図5のクラスタップ抽出回路42が構
成するのと同一のクラスタップを、量子化回路63の出
力から、必要な量子化DCT係数を抽出することで構成
する。このクラスタップは、クラスタップ抽出回路65
からクラス分類回路66に供給される。The class tap extracting circuit 65 extracts, from the output of the quantizing circuit 63, the same quantized DCT coefficients as the class taps formed by the class tap extracting circuit 42 of FIG. It is constituted by doing. This class tap is a class tap extraction circuit 65.
Is supplied to the class classification circuit 66.
【0150】クラス分類回路66は、クラスタップ抽出
回路65からのクラスタップを用いて、図5のクラス分
類回路43と同一の処理を行うことで、注目画素ブロッ
クをクラス分類し、その結果得られるクラスコードを、
正規方程式加算回路67に供給する。The class classification circuit 66 performs the same processing as the class classification circuit 43 of FIG. 5 using the class taps from the class tap extraction circuit 65, thereby classifying the pixel block of interest and obtaining the result. Class code
It is supplied to the normal equation adding circuit 67.
【0151】正規方程式加算回路67は、ブロック化回
路61から、注目画素(の画素値)を教師データとして
読み出し、予測タップ構成回路64からの生徒データと
しての予測タップ(を構成する量子化DCT係数)、お
よび注目画素を対象とした足し込みを行う。The normal equation adding circuit 67 reads out the pixel of interest (the pixel value thereof) from the blocking circuit 61 as teacher data, and the quantized DCT coefficient constituting the prediction tap as the student data from the prediction tap forming circuit 64. ) And addition for the pixel of interest.
【0152】即ち、正規方程式加算回路67は、クラス
分類回路66から供給されるクラスコードに対応するク
ラスごとに、予測タップ(生徒データ)を用い、式
(8)の行列Aにおける各コンポーネントとなってい
る、生徒データどうしの乗算(xinxim)と、サメーシ
ョン(Σ)に相当する演算を行う。That is, the normal equation addition circuit 67 uses the prediction taps (student data) for each class corresponding to the class code supplied from the class classification circuit 66 to generate each component in the matrix A of the equation (8). Multiplication (x in x im ) between the student data, and an operation corresponding to summation (Σ).
【0153】さらに、正規方程式加算回路67は、やは
り、クラス分類回路66から供給されるクラスコードに
対応するクラスごとに、予測タップ(生徒データ)およ
び注目画素(教師データ)を用い、式(8)のベクトル
vにおける各コンポーネントとなっている、生徒データ
と教師データの乗算(xinyi)と、サメーション
(Σ)に相当する演算を行う。Further, the normal equation adding circuit 67 also uses the prediction tap (student data) and the pixel of interest (teacher data) for each class corresponding to the class code supplied from the class classification circuit 66 to obtain the equation (8). )), Multiplication (x in y i ) of student data and teacher data, which are components in the vector v, and an operation corresponding to summation (Σ) are performed.
【0154】なお、正規方程式加算回路67における、
上述のような足し込みは、各クラスについて、注目画素
に対する画素位置モードごとに行われる。The normal equation adding circuit 67
The above-described addition is performed for each class in each pixel position mode for the target pixel.
【0155】正規方程式加算回路67は、以上の足し込
みを、ブロック化回路61に供給された学習用の画像を
構成する画素すべてを注目画素として行い、これによ
り、各クラスについて、画素位置モードごとに、式
(8)に示した正規方程式がたてられる。The normal equation adding circuit 67 performs the above addition using all the pixels constituting the learning image supplied to the blocking circuit 61 as a pixel of interest. Then, the normal equation shown in equation (8) is established.
【0156】タップ係数決定回路68は、正規方程式加
算回路67においてクラスごとに(かつ、画素位置モー
ドごとに)生成された正規方程式を解くことにより、ク
ラスごとに、64セットのタップ係数を求め、係数テー
ブル記憶部69の、各クラスに対応するアドレスに供給
する。The tap coefficient determination circuit 68 solves the normal equation generated for each class (and for each pixel position mode) in the normal equation addition circuit 67, thereby obtaining 64 sets of tap coefficients for each class. The coefficients are supplied to addresses corresponding to each class in the coefficient table storage unit 69.
【0157】なお、学習用の画像として用意する画像の
枚数や、その画像の内容等によっては、正規方程式加算
回路67において、タップ係数を求めるのに必要な数の
正規方程式が得られないクラスが生じる場合があり得る
が、タップ係数決定回路68は、そのようなクラスにつ
いては、例えば、デフォルトのタップ係数を出力する。Depending on the number of images prepared as learning images, the content of the images, and the like, the normal equation adding circuit 67 may not be able to obtain the number of normal equations necessary for obtaining the tap coefficients. In such a case, the tap coefficient determination circuit 68 outputs, for example, a default tap coefficient for such a class.
【0158】係数テーブル記憶部69は、タップ係数決
定回路68から供給されるクラスごとの64セットのタ
ップ係数を記憶する。The coefficient table storage unit 69 stores 64 sets of tap coefficients for each class supplied from the tap coefficient determination circuit 68.
【0159】次に、図17のフローチャートを参照し
て、図16の学習装置の処理(学習処理)について説明
する。Next, the processing (learning processing) of the learning apparatus of FIG. 16 will be described with reference to the flowchart of FIG.
【0160】ブロック化回路61には、学習用の画像デ
ータが供給され、ブロック化回路61は、ステップS5
1において、学習用の画像データを、JPEG符号化に
おける場合と同様に、8×8画素の画素ブロックにブロ
ック化して、ステップS52に進む。ステップS52で
は、DCT回路62が、ブロック化回路61がブロック
化した画素ブロックを、順次読み出し、その画素ブロッ
クを、DCT処理することで、DCT係数のブロックと
し、ステップS53に進む。ステップS53では、量子
化回路63が、DCT回路62において得られたDCT
係数のブロックを順次読み出し、JPEG符号化に用い
られるのと同一の量子化テーブルにしたがって量子化し
て、量子化DCT係数で構成されるブロック(DCTブ
ロック)とする。The image data for learning is supplied to the blocking circuit 61, and the blocking circuit 61 proceeds to step S5.
In step 1, the learning image data is divided into 8 × 8 pixel blocks as in the case of JPEG encoding, and the process proceeds to step S52. In step S52, the DCT circuit 62 sequentially reads out the pixel blocks that have been blocked by the blocking circuit 61, performs DCT processing on the pixel blocks to obtain DCT coefficient blocks, and proceeds to step S53. In step S53, the quantization circuit 63 outputs the DCT obtained by the DCT circuit 62.
Coefficient blocks are sequentially read out and quantized in accordance with the same quantization table used for JPEG encoding to obtain blocks (DCT blocks) composed of quantized DCT coefficients.
【0161】そして、ステップS54に進み、クラスタ
ップ抽出回路65は、ブロック化回路61でブロック化
された画素ブロックのうち、まだ注目画素ブロックとさ
れていないものを、注目画素ブロックとする。さらに、
クラスタップ抽出回路65は、注目画素ブロックをクラ
ス分類するのに用いる量子化DCT係数を、量子化回路
63で得られたDCTブロックから抽出して、クラスタ
ップを構成し、クラス分類回路66に供給する。クラス
分類回路66は、ステップS55において、図10のフ
ローチャートで説明した場合と同様に、クラスタップ抽
出回路65からのクラスタップを用いて、注目画素ブロ
ックをクラス分類し、その結果得られるクラスコード
を、正規方程式加算回路67に供給して、ステップS5
6に進む。Then, the process proceeds to step S54, where the class tap extracting circuit 65 sets a pixel block which has not been set as a target pixel block among the pixel blocks divided by the blocking circuit 61 as a target pixel block. further,
The class tap extracting circuit 65 extracts a quantized DCT coefficient used for classifying the pixel block of interest from the DCT block obtained by the quantizing circuit 63, forms a class tap, and supplies the class tap to the class classifying circuit 66. I do. In step S55, the class classification circuit 66 classifies the pixel block of interest using the class tap from the class tap extraction circuit 65, as in the case described with reference to the flowchart of FIG. Is supplied to the normal equation adding circuit 67, and the process proceeds to step S5.
Proceed to 6.
【0162】ステップS56では、予測タップ抽出回路
64が、注目画素ブロックの画素のうち、ラスタスキャ
ン順で、まだ、注目画素とされていない画素を、注目画
素として、その注目画素について、図5の予測タップ抽
出回路41が構成するのと同一の予測タップを、量子化
回路63の出力から必要な量子化DCT係数を抽出する
ことで構成する。そして、予測タップ抽出回路64は、
注目画素についての予測タップを、生徒データとして、
正規方程式加算回路67に供給し、ステップS57に進
む。In step S56, the prediction tap extracting circuit 64 sets a pixel which has not been set as the target pixel in the raster scan order among the pixels of the target pixel block as the target pixel, and sets the target pixel in FIG. The same prediction tap as that formed by the prediction tap extraction circuit 41 is configured by extracting necessary quantized DCT coefficients from the output of the quantization circuit 63. Then, the prediction tap extraction circuit 64
The prediction tap for the pixel of interest is used as student data.
This is supplied to the normal equation addition circuit 67, and the process proceeds to step S57.
【0163】ステップS57では、正規方程式加算回路
67は、ブロック化回路61から、注目画素を教師デー
タとして読み出し、生徒データとしての予測タップ(を
構成する量子化DCT係数)、および教師データとして
の注目画素を対象として、式(8)の行列Aとベクトル
vの、上述したような足し込みを行う。なお、この足し
込みは、クラス分類回路66からのクラスコードに対応
するクラスごとに、かつ注目画素に対する画素位置モー
ドごとに行われる。In step S57, the normal equation adding circuit 67 reads out the pixel of interest from the blocking circuit 61 as teacher data, predicts taps as student data (quantized DCT coefficients forming the same), and pays attention as teacher data. The above-described addition of the matrix A and the vector v in Expression (8) is performed on the pixels. This addition is performed for each class corresponding to the class code from the class classification circuit 66 and for each pixel position mode for the target pixel.
【0164】そして、ステップS58に進み、予測タッ
プ抽出回路64は、注目画素ブロックのすべての画素
を、注目画素として、足し込みを行ったかどうかを判定
する。ステップS58において、注目画素ブロックのす
べての画素を、注目画素として、まだ足し込みを行って
いないと判定された場合、ステップS56に戻り、予測
タップ抽出回路64は、注目画素ブロックの画素のう
ち、ラスタスキャン順で、まだ、注目画素とされていな
い画素を、新たに注目画素として、以下、同様の処理を
繰り返す。Then, proceeding to step S58, the prediction tap extracting circuit 64 determines whether or not all pixels of the target pixel block have been added as the target pixel. If it is determined in step S58 that all the pixels of the target pixel block have not been added as the target pixels, the process returns to step S56, and the prediction tap extracting circuit 64 determines, from among the pixels of the target pixel block, In the raster scan order, a pixel that has not been set as a target pixel is newly set as a target pixel, and the same processing is repeated thereafter.
【0165】また、ステップS58において、注目画素
ブロックのすべての画素を、注目画素として、足し込み
を行ったと判定された場合、ステップS59に進み、ブ
ロック化回路61は、学習用の画像から得られたすべて
の画素ブロックを、注目画素ブロックとして処理を行っ
たかどうかを判定する。ステップS59において、学習
用の画像から得られたすべての画素ブロックを、注目画
素ブロックとして、まだ処理を行っていないと判定され
た場合、ステップS54に戻り、ブロック化回路61で
ブロック化された画素ブロックのうち、まだ注目画素ブ
ロックとされていないものが、新たに注目画素ブロック
とされ、以下、同様の処理が繰り返される。If it is determined in step S58 that all the pixels of the target pixel block have been added as the target pixel, the process proceeds to step S59, where the blocking circuit 61 obtains the image from the learning image. It is determined whether or not all the processed pixel blocks have been processed as target pixel blocks. In step S59, if it is determined that all the pixel blocks obtained from the learning image have not been processed yet as the pixel block of interest, the process returns to step S54, and the pixels blocked by the blocking circuit 61 are returned. Of the blocks, those that have not yet been set as the target pixel block are newly set as the target pixel block, and the same processing is repeated thereafter.
【0166】一方、ステップS59において、学習用の
画像から得られたすべての画素ブロックを、注目画素ブ
ロックとして処理を行ったと判定された場合、即ち、正
規方程式加算回路67において、各クラスについて、画
素位置モードごとの正規方程式が得られた場合、ステッ
プS60に進み、タップ係数決定回路68は、各クラス
の画素位置モードごとに生成された正規方程式を解くこ
とにより、各クラスごとに、そのクラスの64の画素位
置モードそれぞれに対応する64セットのタップ係数を
求め、係数テーブル記憶部69の、各クラスに対応する
アドレスに供給して記憶させ、処理を終了する。On the other hand, if it is determined in step S59 that all the pixel blocks obtained from the learning image have been processed as the target pixel block, that is, the normal equation When the normal equation for each position mode is obtained, the process proceeds to step S60, where the tap coefficient determination circuit 68 solves the normal equation generated for each class of the pixel position mode, and for each class, 64 sets of tap coefficients corresponding to each of the 64 pixel position modes are obtained, supplied to and stored in the coefficient table storage unit 69 at addresses corresponding to each class, and the process is terminated.
【0167】以上のようにして、係数テーブル記憶部6
9に記憶された各クラスごとのタップ係数が、図5の係
数テーブル記憶部44に記憶されている。As described above, the coefficient table storage unit 6
The tap coefficients for each class stored in 9 are stored in the coefficient table storage unit 44 in FIG.
【0168】従って、係数テーブル記憶部44に記憶さ
れたタップ係数は、線形予測演算を行うことにより得ら
れる元の画素値の予測値の予測誤差(ここでは、自乗誤
差)が、統計的に最小になるように学習を行うことによ
り求められたものであり、その結果、図5の係数変換回
路32によれば、JPEG符号化された画像を、元の画
像に限りなく近い画像に復号することができる。Therefore, the tap coefficients stored in the coefficient table storage unit 44 are such that the prediction error (here, the square error) of the prediction value of the original pixel value obtained by performing the linear prediction operation is statistically minimized. The coefficient conversion circuit 32 shown in FIG. 5 decodes a JPEG-coded image into an image that is as close as possible to the original image. Can be.
【0169】また、上述したように、JPEG符号化さ
れた画像の復号処理と、その画質を向上させるための処
理とが、同時に施されることとなるので、JPEG符号
化された画像から、効率的に、画質の良い復号画像を得
ることができる。As described above, the decoding process of the JPEG-coded image and the process of improving the image quality are performed at the same time. Thus, a decoded image with good image quality can be obtained.
【0170】次に、図18は、図3の係数変換回路32
の第2の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
18の係数変換回路32は、逆量子化回路71が新たに
設けられている他は、基本的に、図5における場合と同
様に構成されている。Next, FIG. 18 shows the coefficient conversion circuit 32 of FIG.
2 shows a second configuration example. In the figure, portions corresponding to those in FIG. 5 are denoted by the same reference numerals, and a description thereof will be omitted as appropriate below. That is, the coefficient conversion circuit 32 in FIG. 18 has basically the same configuration as that in FIG. 5 except that an inverse quantization circuit 71 is newly provided.
【0171】図18の実施の形態において、逆量子化回
路71には、エントロピー復号回路31(図3)におい
て符号化データをエントロピー復号することにより得ら
れるブロックごとの量子化DCT係数が供給される。In the embodiment of FIG. 18, the inverse quantization circuit 71 is supplied with quantized DCT coefficients for each block obtained by entropy decoding the encoded data in the entropy decoding circuit 31 (FIG. 3). .
【0172】なお、エントロピー復号回路31において
は、上述したように、符号化データから、量子化DCT
係数の他、量子化テーブルも得られるが、図18の実施
の形態では、この量子化テーブルも、エントロピー復号
回路31から逆量子化回路71に供給されるようになっ
ている。As described above, the entropy decoding circuit 31 converts the coded data from the quantized DCT
In addition to the coefficients, a quantization table is obtained. In the embodiment shown in FIG. 18, this quantization table is also supplied from the entropy decoding circuit 31 to the inverse quantization circuit 71.
【0173】逆量子化回路71は、エントロピー復号回
路31からの量子化DCT係数を、同じくエントロピー
復号回路31からの量子化テーブルにしたがって逆量子
化し、その結果られるDCT係数を、予測タップ抽出回
路41およびクラスタップ抽出回路42に供給する。The inverse quantization circuit 71 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 31 in accordance with the quantization table from the entropy decoding circuit 31, and outputs the resulting DCT coefficient to the prediction tap extraction circuit 41. And to the class tap extraction circuit 42.
【0174】従って、予測タップ抽出回路41とクラス
タップ抽出回路42では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図5における場合と同様の処理が行われる。Therefore, in the prediction tap extraction circuit 41 and the class tap extraction circuit, not the quantized DCT coefficient but
A prediction tap and a class tap are respectively configured for DCT coefficients, and thereafter, for DCT coefficients,
The same processing as in FIG. 5 is performed.
【0175】このように、図18の実施の形態では、量
子化DCT係数ではなく、DCT係数(量子化DCT係
数を逆量子化したもの)を対象として処理が行われるた
め、係数テーブル記憶部44に記憶させるタップ係数
は、図5における場合と異なるものとする必要がある。As described above, in the embodiment of FIG. 18, the processing is performed not on the quantized DCT coefficient but on the DCT coefficient (the inversely quantized DCT coefficient). Need to be different from that in FIG.
【0176】そこで、図19は、図18の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図16における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、適宜省
略する。即ち、図19の学習装置は、量子化回路63の
後段に、逆量子化回路81が新たに設けられている他
は、図16における場合と基本的に同様に構成されてい
る。FIG. 19 shows an example of the configuration of an embodiment of a learning apparatus for performing a learning process of tap coefficients stored in the coefficient table storage section 44 of FIG. In the figure, portions corresponding to the case in FIG. 16 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the learning device in FIG. 19 is configured basically in the same manner as in FIG. 16 except that an inverse quantization circuit 81 is newly provided at a subsequent stage of the quantization circuit 63.
【0177】図19の実施の形態において、逆量子化回
路81は、逆量子化回路63が出力する量子化DCT係
数を、図18の逆量子化回路71と同様に逆量子化し、
その結果得られるDCT係数を、予測タップ抽出回路6
4およびクラスタップ抽出回路65に供給する。In the embodiment of FIG. 19, the inverse quantization circuit 81 inversely quantizes the quantized DCT coefficient output from the inverse quantization circuit 63 in the same manner as the inverse quantization circuit 71 of FIG.
The DCT coefficients obtained as a result are extracted by the prediction tap extraction circuit 6.
4 and the class tap extraction circuit 65.
【0178】従って、予測タップ抽出回路64とクラス
タップ抽出回路65では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図16における場合と同様の処理が行われる。Therefore, the prediction tap extraction circuit 64 and the class tap extraction circuit 65 do not use the quantized DCT coefficient but
A prediction tap and a class tap are respectively configured for DCT coefficients, and thereafter, for DCT coefficients,
The same processing as in FIG. 16 is performed.
【0179】その結果、DCT係数が量子化され、さら
に逆量子化されることにより生じる量子化誤差の影響を
低減するタップ係数が得られることになる。As a result, a tap coefficient that reduces the effect of a quantization error caused by the DCT coefficient being quantized and further dequantized is obtained.
【0180】次に、図20は、図3の係数変換回路32
の第3の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
20の係数変換回路32は、積和演算回路45の後段
に、逆DCT回路101が新たに設けられている他は、
基本的に、図5における場合と同様に構成されている。Next, FIG. 20 shows the coefficient conversion circuit 32 of FIG.
3 shows a third configuration example. In the figure, portions corresponding to those in FIG. 5 are denoted by the same reference numerals, and a description thereof will be omitted as appropriate below. That is, the coefficient transforming circuit 32 of FIG. 20 is different from the product-sum calculating circuit 45 in that an inverse DCT circuit 101 is newly provided at the subsequent stage.
Basically, the configuration is the same as in FIG.
【0181】逆DCT回路101は、積和演算回路45
の出力を逆DCT処理することにより、画像に復号して
出力する。従って、図20の実施の形態では、積和演算
回路45は、予測タップ抽出回路41が出力する予測タ
ップを構成する量子化DCT係数と、係数テーブル記憶
部44に記憶されたタップ係数とを用いた積和演算を行
うことにより、DCT係数を出力する。The inverse DCT circuit 101 includes a product-sum operation circuit 45
Is subjected to an inverse DCT process, thereby decoding and outputting the image. Therefore, in the embodiment of FIG. 20, the product-sum operation circuit 45 uses the quantized DCT coefficients constituting the prediction taps output by the prediction tap extraction circuit 41 and the tap coefficients stored in the coefficient table storage unit 44. The DCT coefficient is output by performing the sum-of-products operation.
【0182】このように、図20の実施の形態では、量
子化DCT係数が、タップ係数との積和演算により、画
素値に復号されるのではなく、DCT係数に変換され、
さらに、そのDCT係数が、逆DCT回路101で逆D
CTされることにより、画素値に復号される。従って、
係数テーブル記憶部44に記憶させるタップ係数は、図
5における場合と異なるものとする必要がある。As described above, in the embodiment of FIG. 20, the quantized DCT coefficients are not decoded into pixel values by the product-sum operation with the tap coefficients, but are converted into DCT coefficients.
Further, the DCT coefficient is converted into an inverse D
By being subjected to CT, it is decoded into a pixel value. Therefore,
The tap coefficients stored in the coefficient table storage section 44 need to be different from those in FIG.
【0183】そこで、図21は、図20の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図16における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、適宜省
略する。即ち、図21の学習装置は、正規方程式加算回
路67に対し、教師データとして、学習用の画像の画素
値ではなく、DCT回路62が出力する、学習用の画像
をDCT処理したDCT係数が与えられるようになって
いる他は、図16における場合と同様に構成されてい
る。FIG. 21 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG. In the figure, portions corresponding to the case in FIG. 16 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the learning apparatus in FIG. 21 gives the normal equation addition circuit 67, as teacher data, not the pixel value of the learning image but the DCT coefficient output from the DCT circuit 62 and obtained by performing the DCT processing on the learning image. Other than that, the configuration is the same as that in the case of FIG.
【0184】従って、図21の実施の形態では、正規方
程式加算回路67が、DCT回路62が出力するDCT
係数を教師データとするとともに、予測タップ構成回路
64が出力する予測タップを構成する量子化DCT係数
を生徒データとして、上述の足し込みを行う。そして、
タップ係数決定回路68は、そのような足し込みにより
得られる正規方程式を解くことにより、タップ係数を求
める。その結果、図21の学習装置では、量子化DCT
係数を、量子化回路63における量子化による量子化誤
差を低減(抑制)したDCT係数に変換するタップ係数
が求められることになる。Therefore, in the embodiment of FIG. 21, the normal equation adding circuit 67 outputs the DCT signal output from the DCT circuit 62.
The above addition is performed using the coefficients as teacher data and the quantized DCT coefficients constituting the prediction taps output from the prediction tap configuration circuit 64 as the student data. And
The tap coefficient determination circuit 68 obtains a tap coefficient by solving a normal equation obtained by such addition. As a result, in the learning device of FIG.
A tap coefficient for converting the coefficient into a DCT coefficient in which a quantization error due to the quantization in the quantization circuit 63 is reduced (suppressed) is obtained.
【0185】図20の係数変換回路32では、積和演算
回路45が、上述のようなタップ係数を用いて積和演算
を行うため、その出力は、予測タップ抽出回路41が出
力する量子化DCT係数を、その量子化誤差を低減した
DCT係数に変換したものとなっている。従って、その
ようなDCT係数が、逆DCT回路101で逆DCTさ
れることにより、量子化誤差の影響による画質の劣化を
低減した復号画像が得られることになる。In the coefficient conversion circuit 32 shown in FIG. 20, since the product-sum operation circuit 45 performs the product-sum operation using the tap coefficients as described above, the output is the quantized DCT output from the prediction tap extraction circuit 41. The coefficient is converted into a DCT coefficient whose quantization error is reduced. Therefore, such a DCT coefficient is subjected to inverse DCT by the inverse DCT circuit 101, so that a decoded image with reduced image quality deterioration due to the influence of the quantization error can be obtained.
【0186】次に、図22は、図3の係数変換回路32
の第4の構成例を示している。なお、図中、図5、図1
8、または図20における場合と対応する部分について
は、同一の符号を付してあり、以下では、その説明は、
適宜省略する。即ち、図22の係数変換回路32は、図
18における場合と同様に、逆量子化回路71が新たに
設けられ、かつ、図20における場合と同様に、逆DC
T回路101が新たに設けられている他は、図5におけ
る場合と同様に構成されている。Next, FIG. 22 shows the coefficient conversion circuit 32 of FIG.
4 shows a fourth configuration example. In FIG. 5, FIG.
8, or portions corresponding to those in FIG. 20 are denoted by the same reference numerals, and the description thereof will be made below.
Omitted as appropriate. That is, in the coefficient conversion circuit 32 of FIG. 22, an inverse quantization circuit 71 is newly provided, as in the case of FIG. 18, and, as in the case of FIG.
The configuration is the same as that in FIG. 5 except that a T circuit 101 is newly provided.
【0187】従って、図22の実施の形態では、予測タ
ップ抽出回路41とクラスタップ抽出回路42では、量
子化DCT係数ではなく、DCT係数を対象として、予
測タップとクラスタップがそれぞれ構成される。さら
に、図22の実施の形態では、積和演算回路45は、予
測タップ抽出回路41が出力する予測タップを構成する
DCT係数と、係数テーブル記憶部44に記憶されたタ
ップ係数とを用いた積和演算を行うことにより、量子化
誤差を低減したDCT係数を得て、逆DCT回路101
に出力する。Accordingly, in the embodiment shown in FIG. 22, the prediction tap extraction circuit 41 and the class tap extraction circuit 42 form prediction taps and class taps not for quantized DCT coefficients but for DCT coefficients. Further, in the embodiment of FIG. 22, the product-sum operation circuit 45 uses the DCT coefficient constituting the prediction tap output from the prediction tap extraction circuit 41 and the tap coefficient stored in the coefficient table storage unit 44. By performing a sum operation, a DCT coefficient with a reduced quantization error is obtained, and the inverse DCT circuit 101
Output to
【0188】次に、図23は、図22の係数テーブル記
憶部44に記憶させるタップ係数の学習処理を行う学習
装置の一実施の形態の構成例を示している。なお、図
中、図16、図19、または図21における場合と対応
する部分については、同一の符号を付してあり、以下で
は、その説明は、適宜省略する。即ち、図23の学習装
置は、図19における場合と同様に、逆量子化回路81
が新たに設けられ、さらに、図21における場合と同様
に、正規方程式加算回路67に対し、教師データとし
て、学習用の画像の画素値ではなく、DCT回路62が
出力する、学習用の画像をDCT処理したDCT係数が
与えられるようになっている他は、図16における場合
と同様に構成されている。Next, FIG. 23 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG. In the drawings, the same reference numerals are given to portions corresponding to the case in FIG. 16, FIG. 19, or FIG. 21, and the description thereof will be appropriately omitted below. That is, the learning device of FIG.
21. Further, as in the case of FIG. 21, the learning image output from the DCT circuit 62 is output to the normal equation adding circuit 67 as teacher data instead of the pixel value of the learning image. The configuration is the same as that in FIG. 16 except that DCT coefficients subjected to DCT processing are given.
【0189】従って、図23の実施の形態では、正規方
程式加算回路67が、DCT回路62が出力するDCT
係数(量子化誤差のないDCT係数)を教師データとす
るとともに、予測タップ構成回路64が出力する予測タ
ップを構成するDCT係数(量子化されて逆量子化され
たDCT係数)を生徒データとして、上述の足し込みを
行う。そして、タップ係数決定回路68は、そのような
足し込みにより得られる正規方程式を解くことにより、
タップ係数を求める。その結果、図23の学習装置で
は、量子化され、さらに逆量子化されたDCT係数を、
その量子化および逆量子化による量子化誤差を低減した
DCT係数に変換するタップ係数が求められることにな
る。Therefore, in the embodiment of FIG. 23, the normal equation adding circuit 67
Coefficients (DCT coefficients without quantization errors) are used as teacher data, and DCT coefficients (DCT coefficients that have been quantized and dequantized) constituting prediction taps output from the prediction tap configuration circuit 64 are used as student data. The above addition is performed. Then, the tap coefficient determination circuit 68 solves the normal equation obtained by such addition,
Find the tap coefficient. As a result, in the learning device of FIG. 23, the quantized and further dequantized DCT coefficients are
A tap coefficient to be converted to a DCT coefficient in which a quantization error due to the quantization and the inverse quantization is reduced is obtained.
【0190】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。Next, the above-described series of processing can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is
Installed on a general-purpose computer.
【0191】そこで、図24は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。FIG. 24 shows an example of the configuration of an embodiment of a computer in which a program for executing the above-described series of processing is installed.
【0192】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク205やROM2
03に予め記録しておくことができる。The program is stored in a hard disk 205 or a ROM 2 as a recording medium built in the computer.
03 can be recorded in advance.
【0193】あるいはまた、プログラムは、フロッピー
(登録商標)ディスク、CD-ROM(Compact Disc Read Onl
y Memory),MO(Magneto optical)ディスク,DVD(Digita
l Versatile Disc)、磁気ディスク、半導体メモリなど
のリムーバブル記録媒体211に、一時的あるいは永続
的に格納(記録)しておくことができる。このようなリ
ムーバブル記録媒体211は、いわゆるパッケージソフ
トウエアとして提供することができる。Alternatively, the program may be a floppy (registered trademark) disk, a CD-ROM (Compact Disc Read Onl
y Memory), MO (Magneto optical) disc, DVD (Digita
l Versatile Disc), a magnetic disk, a semiconductor memory, etc., can be temporarily or permanently stored (recorded) in a removable recording medium 211. Such a removable recording medium 211 can be provided as so-called package software.
【0194】なお、プログラムは、上述したようなリム
ーバブル記録媒体211からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部208で受信し、内蔵するハード
ディスク205にインストールすることができる。The program can be installed in the computer from the removable recording medium 211 as described above, or transmitted from a download site to the computer wirelessly via a satellite for digital satellite broadcasting, or transmitted to a LAN (Local Area). Network) or the Internet, and the program can be transferred to the computer by wire, and the computer can receive the transferred program by the communication unit 208 and install the program on the built-in hard disk 205.
【0195】コンピュータは、CPU(Central Processing
Unit)202を内蔵している。CPU202には、バス2
01を介して、入出力インタフェース210が接続され
ており、CPU202は、入出力インタフェース210を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部207が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)203に格納されているプログラムを実行
する。あるいは、また、CPU202は、ハードディスク
205に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部208で受信されてハー
ドディスク205にインストールされたプログラム、ま
たはドライブ209に装着されたリムーバブル記録媒体
211から読み出されてハードディスク205にインス
トールされたプログラムを、RAM(Random Access Memor
y)204にロードして実行する。これにより、CPU20
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU202は、その処理結果を、必要に応
じて、例えば、入出力インタフェース210を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部206から出力、あるいは、通信部208から
送信、さらには、ハードディスク205に記録等させ
る。The computer has a CPU (Central Processing).
Unit 202. The CPU 202 has a bus 2
01, the input / output interface 210 is connected. The CPU 202 operates the input unit 207 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 210. When a command is input, the ROM (Read O
(Nly Memory) 203 is executed. Alternatively, the CPU 202 may execute a program stored in the hard disk 205, a program transferred from a satellite or a network, received by the communication unit 208 and installed on the hard disk 205, or a removable recording medium 211 mounted on the drive 209. The program read and installed on the hard disk 205 is stored in a RAM (Random Access Memory).
y) Load to 204 and execute. This allows the CPU 20
2 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 202 transmits the processing result as necessary, for example, via the input / output interface 210.
An output is made from an output unit 206 including an LCD (Liquid CryStal Display), a speaker, or the like, or transmitted from a communication unit 208, and further recorded on the hard disk 205.
【0196】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。Here, in this specification, processing steps for writing a program for causing a computer to perform various processes do not necessarily have to be processed in chronological order in the order described in the flowchart, and may be performed in parallel. Alternatively, it also includes processing executed individually (for example, parallel processing or processing by an object).
【0197】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。The program may be processed by one computer, or may be processed by a plurality of computers in a distributed manner. Further, the program may be transferred to a remote computer and executed.
【0198】なお、本実施の形態では、画像データを対
象としたが、本発明は、その他、例えば、音声データに
も適用可能である。Although the present embodiment is directed to image data, the present invention is also applicable to, for example, audio data.
【0199】さらに、本実施の形態では、静止画を圧縮
符号化するJPEG符号化された画像を対象としたが、
本発明は、動画を圧縮符号化する、例えば、MPEG符
号化された画像を対象とすることも可能である。Further, in the present embodiment, a JPEG-encoded image for compressing and encoding a still image is targeted.
The present invention can be applied to an image in which a moving image is compression-encoded, for example, an MPEG-encoded image.
【0200】また、本実施の形態では、少なくとも、D
CT処理を行うJPEG符号化された符号化データの復
号を行うようにしたが、本発明は、その他の直交変換ま
たは周波数変換によって、ブロック単位(ある所定の単
位)で変換されたデータの復号や変換に適用可能であ
る。即ち、本発明は、例えば、サブバンド符号化された
データや、フーリエ変換されたデータ等を復号したり、
それらの量子化誤差等を低減したデータに変換する場合
にも適用可能である。In the present embodiment, at least D
Although the decoding of the JPEG-encoded data for performing the CT process is performed, the present invention provides decoding and decoding of data converted in block units (a predetermined unit) by other orthogonal transformation or frequency transformation. Applicable for conversion. That is, for example, the present invention decodes subband encoded data, Fourier transformed data, and the like,
The present invention is also applicable to a case where the data is converted into data in which the quantization error or the like is reduced.
【0201】さらに、本実施の形態では、デコーダ22
において、タップ係数を、あらかじめ記憶しておくよう
にしたが、タップ係数は、符号化データに含めて、デコ
ーダ22に提供するようにすることが可能である。Further, in the present embodiment, the decoder 22
In the above, the tap coefficients are stored in advance, but the tap coefficients can be included in the encoded data and provided to the decoder 22.
【0202】また、本実施の形態では、タップ係数を用
いた線形1次予測演算によって、復号や変換を行うよう
にしたが、復号および変換は、その他、2次以上の高次
の予測演算によって行うことも可能である。Further, in the present embodiment, decoding and conversion are performed by a linear primary prediction operation using tap coefficients. However, decoding and conversion are also performed by a second-order or higher-order prediction operation. It is also possible to do.
【0203】さらに、本実施の形態では、クラスタップ
を、注目画素に対応するDCTブロックの量子化DCT
係数だけでなく、他のDCTブロックの量子化DCT係
数をも用いて構成するようにしたが、予測タップも、同
様に構成することが可能である。Further, in the present embodiment, the class tap is set to the quantized DCT of the DCT block corresponding to the pixel of interest.
Although the configuration is made using not only the coefficients but also the quantized DCT coefficients of the other DCT blocks, the prediction taps can be similarly configured.
【0204】[0204]
【発明の効果】本発明の第1のデータ処理装置およびデ
ータ処理方法、並びに記録媒体によれば、注目処理デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる変換データが、少なくとも、注目処理デー
タに対応するブロック以外のブロックから抽出され、ク
ラスタップとして出力される。そして、そのクラスタッ
プに基づいて、注目処理データのクラスを求めるクラス
分類が行われ、注目処理データのクラスのタップ係数、
および変換データを用いて、所定の予測演算を行うこと
により、注目処理データの予測値が求められる。従っ
て、効率的に、変換データから、所望の処理データを求
めることが可能となる。According to the first data processing apparatus, the data processing method, and the recording medium of the present invention, the conversion data used to classify the processing data of interest into one of several classes can be obtained. , Are extracted from at least blocks other than the block corresponding to the processing data of interest and output as class taps. Then, based on the class tap, a class classification for obtaining a class of the processing data of interest is performed, and a tap coefficient of the class of the processing data of interest,
By performing a predetermined prediction operation using the conversion data and the conversion data, a prediction value of the processing data of interest is obtained. Therefore, it is possible to efficiently obtain desired processing data from the converted data.
【0205】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体によれば、注目教師データ
を、幾つかのクラスのうちのいずれかにクラス分類する
のに用いる生徒データが、少なくとも、注目教師データ
に対応するブロック以外のブロックから抽出され、クラ
スタップとして出力される。さらに、そのクラスタップ
に基づいて、注目教師データのクラスを求めるクラス分
類が行われる。そして、クラスごとのタップ係数、およ
び生徒データを用いて予測演算を行うことにより得られ
る教師データの予測値の予測誤差が、統計的に最小にな
るように学習が行われ、タップ係数が、クラスごとに求
められる。従って、そのタップ係数を用いることによ
り、効率的に、直交変換または周波数変換されたデータ
から所望のデータを求めることが可能となる。According to the second data processing apparatus, data processing method, and recording medium of the present invention, at least student data used to classify the teacher data of interest into one of several classes is included. , Are extracted from blocks other than the block corresponding to the teacher data of interest and output as class taps. Further, a class classification for obtaining a class of the teacher data of interest is performed based on the class tap. Learning is performed so that the prediction error of the predicted value of the teacher data obtained by performing the prediction operation using the tap coefficient for each class and the student data is statistically minimized. Required for each. Therefore, by using the tap coefficients, it is possible to efficiently obtain desired data from the orthogonally transformed or frequency transformed data.
【図1】従来のJPEG符号化/復号を説明するための
図である。FIG. 1 is a diagram for explaining conventional JPEG encoding / decoding.
【図2】本発明を適用した画像伝送システムの一実施の
形態の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an embodiment of an image transmission system to which the present invention has been applied.
【図3】図2のデコーダ22の構成例を示すブロック図
である。FIG. 3 is a block diagram illustrating a configuration example of a decoder 22 in FIG. 2;
【図4】図3のデコーダ22の処理を説明するフローチ
ャートである。FIG. 4 is a flowchart illustrating a process of a decoder 22 in FIG. 3;
【図5】図3の係数変換回路32の第1の構成例を示す
ブロック図である。FIG. 5 is a block diagram illustrating a first configuration example of a coefficient conversion circuit 32 in FIG. 3;
【図6】クラスタップの例を説明する図である。FIG. 6 is a diagram illustrating an example of a class tap.
【図7】図5のクラス分類回路43の構成例を示すブロ
ック図である。FIG. 7 is a block diagram illustrating a configuration example of a class classification circuit 43 in FIG. 5;
【図8】電力演算回路51の処理を説明するための図で
ある。FIG. 8 is a diagram for explaining processing of a power calculation circuit 51;
【図9】図5の係数変換回路32の処理を説明するフロ
ーチャートである。FIG. 9 is a flowchart illustrating a process of a coefficient conversion circuit 32 of FIG. 5;
【図10】図9のステップS12の処理のより詳細を説
明するフローチャートである。FIG. 10 is a flowchart illustrating details of a process in step S12 of FIG. 9;
【図11】クラス分類の方法を説明するための図であ
る。FIG. 11 is a diagram for explaining a class classification method.
【図12】図5のクラス分類回路43の処理を説明する
フローチャートである。FIG. 12 is a flowchart illustrating a process of a class classification circuit 43 of FIG. 5;
【図13】クラス分類の他の方法を説明するための図で
ある。FIG. 13 is a diagram for explaining another method of class classification.
【図14】図5のクラス分類回路43の他の構成例を示
すブロック図である。FIG. 14 is a block diagram showing another configuration example of the class classification circuit 43 of FIG. 5;
【図15】図14のクラス分類回路43の処理を説明す
るフローチャートである。FIG. 15 is a flowchart illustrating a process of a class classification circuit 43 of FIG. 14;
【図16】タップ係数を学習する学習装置の第1実施の
形態の構成例を示すブロック図である。FIG. 16 is a block diagram illustrating a configuration example of a first embodiment of a learning device that learns tap coefficients.
【図17】図16の学習装置の処理を説明するフローチ
ャートである。FIG. 17 is a flowchart illustrating a process of the learning device in FIG. 16;
【図18】図3の係数変換回路32の第2の構成例を示
すブロック図である。18 is a block diagram illustrating a second configuration example of the coefficient conversion circuit 32 in FIG.
【図19】学習装置の第2実施の形態の構成例を示すブ
ロック図である。FIG. 19 is a block diagram illustrating a configuration example of a second embodiment of the learning device.
【図20】図3の係数変換回路32の第3の構成例を示
すブロック図である。20 is a block diagram illustrating a third configuration example of the coefficient conversion circuit 32 in FIG. 3;
【図21】学習装置の第3実施の形態の構成例を示すブ
ロック図である。FIG. 21 is a block diagram illustrating a configuration example of a third embodiment of the learning device.
【図22】図3の係数変換回路32の第4の構成例を示
すブロック図である。FIG. 22 is a block diagram illustrating a fourth configuration example of the coefficient conversion circuit 32 in FIG. 3;
【図23】学習装置の第4実施の形態の構成例を示すブ
ロック図である。FIG. 23 is a block diagram illustrating a configuration example of a fourth embodiment of the learning device.
【図24】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。FIG. 24 is a block diagram illustrating a configuration example of a computer according to an embodiment of the present invention.
21 エンコーダ, 22 デコーダ, 23 記録媒
体, 24 伝送媒体, 31 エントロピー復号回
路, 32 係数変換回路, 33 ブロック分解回
路, 41 予測タップ抽出回路, 42 クラスタッ
プ抽出回路, 43クラス分類回路, 44 係数テー
ブル記憶部, 45積和演算回路, 51電力演算回
路, 52 クラスコード生成回路, 53 閾値テー
ブル記憶部, 61 ブロック化回路, 62 DCT
回路, 63 量子化回路, 64予測タップ抽出回
路, 65 クラスタップ抽出回路, 66 クラス分
類回路, 67 正規方程式加算回路, 68 タップ
係数決定回路, 69 係数テーブル記憶部, 71,
81 逆量子化回路, 91 逆量子化回路, 101
逆DCT回路, 151 差分演算回路, 152
クラスコード生成回路, 153 閾値テーブル記憶
部, 201 バス, 202 CPU, 203ROM,
204 RAM, 205 ハードディスク, 206
出力部, 207 入力部, 208 通信部, 20
9 ドライブ, 210 入出力インタフェース, 2
11 リムーバブル記録媒体Reference Signs List 21 encoder, 22 decoder, 23 recording medium, 24 transmission medium, 31 entropy decoding circuit, 32 coefficient conversion circuit, 33 block decomposition circuit, 41 prediction tap extraction circuit, 42 class tap extraction circuit, 43 class classification circuit, 44 coefficient table storage Unit, 45 product-sum operation circuit, 51 power operation circuit, 52 class code generation circuit, 53 threshold table storage unit, 61 blocking circuit, 62 DCT
Circuit, 63 quantization circuit, 64 prediction tap extraction circuit, 65 class tap extraction circuit, 66 class classification circuit, 67 normal equation addition circuit, 68 tap coefficient determination circuit, 69 coefficient table storage section, 71,
81 inverse quantization circuit, 91 inverse quantization circuit, 101
Inverse DCT circuit, 151 difference operation circuit, 152
Class code generation circuit, 153 threshold table storage unit, 201 bus, 202 CPU, 203 ROM,
204 RAM, 205 Hard disk, 206
Output unit, 207 input unit, 208 communication unit, 20
9 drives, 210 input / output interfaces, 2
11 Removable recording medium
───────────────────────────────────────────────────── フロントページの続き (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 内田 真史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK01 MA00 MA02 MA23 PP01 SS06 SS11 SS20 TA41 TB07 TB14 TC03 TC06 TD02 TD06 TD12 TD13 UA05 UA38 5C078 AA04 BA21 BA32 BA42 BA57 DA02 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Takeharu Nishikata 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Masashi Uchida 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F term (reference) 5C059 KK01 MA00 MA02 MA23 PP01 SS06 SS11 SS20 TA41 TB07 TB14 TC03 TC06 TD02 TD06 TD12 TD13 UA05 UA38 5C078 AA04 BA21 BA32 BA42 BA57 DA02
Claims (20)
理または周波数変換処理を所定のブロック単位で施すこ
とにより得られるブロック単位の変換データから、前記
変換データに所望の処理を施した処理データの予測値を
求めるデータ処理装置であって、 学習を行うことにより求められたタップ係数を取得する
取得手段と、 注目している処理データである注目処理データを、幾つ
かのクラスのうちのいずれかにクラス分類するのに用い
る前記変換データを、少なくとも、前記注目処理データ
に対応するブロック以外のブロックから抽出し、クラス
タップとして出力するクラスタップ抽出手段と、 前記クラスタップに基づいて、前記注目処理データのク
ラスを求めるクラス分類を行うクラス分類手段と、 前記注目処理データのクラスの前記タップ係数、および
変換データを用いて、所定の予測演算を行うことによ
り、前記注目処理データの予測値を求める演算手段とを
備えることを特徴とするデータ処理装置。1. Prediction of processing data obtained by subjecting data obtained by subjecting the converted data to desired processing at least from block-based converted data obtained by performing orthogonal transformation processing or frequency conversion processing on the data in predetermined block units. A data processing device for obtaining a value, wherein an obtaining means for obtaining a tap coefficient obtained by performing learning; and a processing data of interest, which is processing data of interest, in one of several classes. Class tap extracting means for extracting the converted data used for class classification at least from blocks other than the block corresponding to the target processing data and outputting it as a class tap, and the target processing data based on the class tap. Class classifying means for performing class classification for obtaining a class of -Up factor, and using the conversion data, by performing a predetermined prediction calculation, the data processing apparatus characterized by comprising a calculating means for calculating a predicted value of the target processing data.
変換データを用いて、線形1次予測演算を行うことを特
徴とする請求項1に記載のデータ処理装置。2. The data processing apparatus according to claim 1, wherein said calculation means performs a linear primary prediction calculation using said tap coefficients and conversion data.
をさらに備え、 前記取得手段は、前記記憶手段から、前記タップ係数を
取得することを特徴とする請求項1に記載のデータ処理
装置。3. The data processing apparatus according to claim 1, further comprising a storage unit that stores the tap coefficient, wherein the obtaining unit obtains the tap coefficient from the storage unit.
くとも、離散コサイン変換したものであることを特徴と
する請求項1に記載のデータ処理装置。4. The data processing apparatus according to claim 1, wherein the converted data is at least a discrete cosine transform of the data.
プとなっている変換データである、離散コサイン変換さ
れたデータの直流成分または交流成分の電力に基づい
て、前記注目処理データのクラスを求めることを特徴と
する請求項4に記載のデータ処理装置。5. The class classification means obtains a class of the processing data of interest based on DC component or AC component power of discrete cosine transformed data, which is the transformation data serving as the class tap. The data processing device according to claim 4, wherein:
データに対応するブロックの周辺のブロックから、前記
クラスタップとする前記変換データを抽出することを特
徴とする請求項1に記載のデータ処理装置。6. The data processing apparatus according to claim 1, wherein the class tap extracting unit extracts the conversion data to be the class tap from a block around a block corresponding to the processing data of interest. .
データに対応するブロックからも、前記クラスタップと
する前記変換データを抽出することを特徴とする請求項
1に記載のデータ処理装置。7. The data processing apparatus according to claim 1, wherein the class tap extracting unit extracts the conversion data as the class tap from a block corresponding to the processing data of interest.
び変換データを用いて、所定の予測演算を行うことによ
り得られる前記処理データの予測値の予測誤差が、統計
的に最小になるように、学習を行うことにより得られた
ものであることを特徴とする請求項1に記載のデータ処
理装置。8. The tap coefficient is such that a prediction error of a prediction value of the processing data obtained by performing a predetermined prediction operation using the tap coefficient and the conversion data is statistically minimized. The data processing apparatus according to claim 1, wherein the data processing apparatus is obtained by performing learning.
データであることを特徴とする請求項1に記載のデータ
処理装置。9. The data processing device according to claim 1, wherein the data is image data of a moving image or a still image.
処理または周波数変換処理を所定のブロック単位で施す
ことにより得られるブロック単位の変換データから、前
記変換データに所望の処理を施した処理データの予測値
を求めるデータ処理方法であって、 学習を行うことにより求められたタップ係数を取得する
取得ステップと、 注目している処理データである注目処理データを、幾つ
かのクラスのうちのいずれかにクラス分類するのに用い
る前記変換データを、少なくとも、前記注目処理データ
に対応するブロック以外のブロックから抽出し、クラス
タップとして出力するクラスタップ抽出ステップと、 前記クラスタップに基づいて、前記注目処理データのク
ラスを求めるクラス分類を行うクラス分類ステップと、 前記注目処理データのクラスの前記タップ係数、および
変換データを用いて、所定の予測演算を行うことによ
り、前記注目処理データの予測値を求める演算ステップ
とを備えることを特徴とするデータ処理方法。10. Prediction of processing data obtained by subjecting the converted data to a desired process from at least block-based converted data obtained by performing orthogonal transform processing or frequency transform processing on the data in predetermined block units. A data processing method for obtaining a value, wherein an obtaining step of obtaining a tap coefficient obtained by performing learning; and a process data of interest, which is the process data of interest, in one of several classes. A class tap extraction step of extracting the conversion data used for class classification at least from blocks other than the block corresponding to the target processing data and outputting the class tap as a class tap; A class classification step of performing a class classification for obtaining a class of The tap coefficients of the class, and using the conversion data, by performing a predetermined prediction computation, data processing method characterized by comprising a calculation step of obtaining a prediction value of the target processing data.
処理または周波数変換処理を所定のブロック単位で施す
ことにより得られるブロック単位の変換データから、前
記変換データに所望の処理を施した処理データの予測値
を求めるデータ処理を、コンピュータに行わせるプログ
ラムが記録されている記録媒体であって、 学習を行うことにより求められたタップ係数を取得する
取得ステップと、 注目している処理データである注目処理データを、幾つ
かのクラスのうちのいずれかにクラス分類するのに用い
る前記変換データを、少なくとも、前記注目処理データ
に対応するブロック以外のブロックから抽出し、クラス
タップとして出力するクラスタップ抽出ステップと、 前記クラスタップに基づいて、前記注目処理データのク
ラスを求めるクラス分類を行うクラス分類ステップと、 前記注目処理データのクラスの前記タップ係数、および
変換データを用いて、所定の予測演算を行うことによ
り、前記注目処理データの予測値を求める演算ステップ
とを備えるプログラムが記録されていることを特徴とす
る記録媒体。11. Prediction of processing data obtained by subjecting the converted data to a desired processing from at least block-based converted data obtained by performing orthogonal transformation processing or frequency conversion processing on the data in predetermined block units. An acquisition step of acquiring a tap coefficient obtained by performing learning on a recording medium in which a program for causing a computer to perform data processing for obtaining a value; A class tap extracting step of extracting at least the conversion data used to classify data into any of several classes from blocks other than the block corresponding to the processing data of interest, and outputting as a class tap A class for obtaining the class of the processing data of interest based on the class tap. A class classification step of performing a Lass classification; and a calculation step of calculating a predicted value of the target processing data by performing a predetermined prediction calculation using the tap coefficient and the conversion data of the class of the target processing data. A recording medium on which a program is recorded.
処理または周波数変換処理を所定のブロック単位で施す
ことにより得られるブロック単位の変換データから、予
測演算によって、前記変換データに所望の処理を施した
処理データを求めるのに用いるタップ係数を学習するデ
ータ処理装置であって、 前記ブロック単位の変換データを、学習時の生徒となる
生徒データとして生成する生成手段と、 前記処理データを、学習時の教師となる教師データとし
て、注目している教師データである注目教師データを、
幾つかのクラスのうちのいずれかにクラス分類するのに
用いる前記生徒データを、少なくとも、前記注目教師デ
ータに対応するブロック以外のブロックから抽出し、ク
ラスタップとして出力するクラスタップ抽出手段と、 前記クラスタップに基づいて、前記注目教師データのク
ラスを求めるクラス分類を行うクラス分類手段と、 前記クラスごとの前記タップ係数、および生徒データを
用いて予測演算を行うことにより得られる前記教師デー
タの予測値の予測誤差が、統計的に最小になるように学
習を行い、前記タップ係数を、クラスごとに求める学習
手段とを備えることを特徴とするデータ処理装置。12. A desired processing is performed on the converted data by predictive calculation from at least a block-by-block converted data obtained by performing an orthogonal transform process or a frequency transform process on the data in a predetermined block unit. A data processing device that learns tap coefficients used for obtaining processing data, wherein the conversion data in block units is generated as student data to be a student during learning. As teacher data to be a teacher, attention teacher data, which is the teacher data of interest,
Class tap extracting means for extracting the student data used for classifying into any one of several classes from at least blocks other than the block corresponding to the noted teacher data, and outputting as class taps; Class classification means for performing class classification for obtaining a class of the teacher data of interest based on class taps; prediction of the teacher data obtained by performing a prediction operation using the tap coefficient for each class and student data A data processing apparatus comprising: learning means for performing learning so that a prediction error of a value is statistically minimized, and obtaining the tap coefficient for each class.
び生徒データを用いて線形1次予測演算を行うことによ
り得られる前記教師データの予測値の予測誤差が、統計
的に最小になるように学習を行うことを特徴とする請求
項12に記載のデータ処理装置。13. The learning means so that a prediction error of a prediction value of the teacher data obtained by performing a linear primary prediction operation using the tap coefficient and the student data is statistically minimized. The data processing apparatus according to claim 12, wherein the data processing is performed.
くとも、離散コサイン変換することにより、前記生徒デ
ータを生成することを特徴とする請求項12に記載のデ
ータ処理装置。14. The data processing apparatus according to claim 12, wherein the generation unit generates the student data by at least performing a discrete cosine transform on the data.
ップとなっている生徒データである、離散コサイン変換
されたデータの直流成分または交流成分の電力に基づい
て、前記注目教師データのクラスを求めることを特徴と
する請求項14に記載のデータ処理装置。15. The class classifying means obtains a class of the teacher data of interest based on a DC component or an AC component of discrete cosine transformed data, which is student data serving as the class tap. The data processing device according to claim 14, wherein:
師データに対応するブロックの周辺のブロックから、前
記クラスタップとする前記生徒データを抽出することを
特徴とする請求項12に記載のデータ処理装置。16. The data processing apparatus according to claim 12, wherein the class tap extracting means extracts the student data as the class tap from blocks around a block corresponding to the teacher data of interest. .
師データに対応するブロックからも、前記クラスタップ
とする前記生徒データを抽出することを特徴とする請求
項12に記載のデータ処理装置。17. The data processing apparatus according to claim 12, wherein the class tap extracting means extracts the student data as the class tap from a block corresponding to the teacher data of interest.
像データであることを特徴とする請求項12に記載のデ
ータ処理装置。18. The data processing device according to claim 12, wherein the data is image data of a moving image or a still image.
処理または周波数変換処理を所定のブロック単位で施す
ことにより得られるブロック単位の変換データから、予
測演算によって、前記変換データに所望の処理を施した
処理データを求めるのに用いるタップ係数を学習するデ
ータ処理方法であって、 前記ブロック単位の変換データを、学習時の生徒となる
生徒データとして生成する生成ステップと、 前記処理データを、学習時の教師となる教師データとし
て、注目している教師データである注目教師データを、
幾つかのクラスのうちのいずれかにクラス分類するのに
用いる前記生徒データを、少なくとも、前記注目教師デ
ータに対応するブロック以外のブロックから抽出し、ク
ラスタップとして出力するクラスタップ抽出ステップ
と、 前記クラスタップに基づいて、前記注目教師データのク
ラスを求めるクラス分類を行うクラス分類ステップと、 前記クラスごとの前記タップ係数、および生徒データを
用いて予測演算を行うことにより得られる前記教師デー
タの予測値の予測誤差が、統計的に最小になるように学
習を行い、前記タップ係数を、クラスごとに求める学習
ステップとを備えることを特徴とするデータ処理方法。19. At least a desired process is performed on the converted data by a prediction operation from the converted data in a block unit obtained by performing at least an orthogonal transform process or a frequency transform process on the data in a predetermined block unit. A data processing method for learning tap coefficients used to determine processing data, wherein the conversion data in block units is generated as student data to be a student during learning. As teacher data to be a teacher, attention teacher data, which is the teacher data of interest,
A class tap extracting step of extracting at least the student data used for classifying into any of several classes from blocks other than the block corresponding to the noted teacher data, and outputting as a class tap; A class classification step of performing a class classification for obtaining a class of the noted teacher data based on a class tap; and a prediction of the teacher data obtained by performing a prediction operation using the tap coefficient and the student data for each class. A learning step of performing learning so that a value prediction error is statistically minimized, and obtaining a tap coefficient for each class.
処理または周波数変換処理を所定のブロック単位で施す
ことにより得られるブロック単位の変換データから、予
測演算によって、前記変換データに所望の処理を施した
処理データを求めるのに用いるタップ係数を学習するデ
ータ処理を、コンピュータに行わせるプログラムが記録
されている記録媒体であって、 前記ブロック単位の変換データを、学習時の生徒となる
生徒データとして生成する生成ステップと、 前記処理データを、学習時の教師となる教師データとし
て、注目している教師データである注目教師データを、
幾つかのクラスのうちのいずれかにクラス分類するのに
用いる前記生徒データを、少なくとも、前記注目教師デ
ータに対応するブロック以外のブロックから抽出し、ク
ラスタップとして出力するクラスタップ抽出ステップ
と、 前記クラスタップに基づいて、前記注目教師データのク
ラスを求めるクラス分類を行うクラス分類ステップと、 前記クラスごとの前記タップ係数、および生徒データを
用いて予測演算を行うことにより得られる前記教師デー
タの予測値の予測誤差が、統計的に最小になるように学
習を行い、前記タップ係数を、クラスごとに求める学習
ステップとを備えるプログラムが記録されていることを
特徴とする記録媒体。20. By performing a prediction operation on data, at least a desired processing is performed on the converted data in a block unit obtained by performing an orthogonal transform process or a frequency transform process on a predetermined block basis. A recording medium on which a program for causing a computer to perform a data process of learning tap coefficients used for obtaining processing data is recorded, wherein the conversion data in block units is generated as student data to be a student during learning. And generating the processing data, as teacher data to be a teacher at the time of learning, teacher data of interest as teacher data of interest,
A class tap extracting step of extracting at least the student data used for classifying into any of several classes from blocks other than the block corresponding to the noted teacher data, and outputting as a class tap; A class classification step of performing a class classification for obtaining a class of the noted teacher data based on a class tap; and a prediction of the teacher data obtained by performing a prediction operation using the tap coefficient and the student data for each class. And a learning step of learning so as to statistically minimize the value prediction error and obtaining the tap coefficient for each class.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000164024A JP4678454B2 (en) | 2000-06-01 | 2000-06-01 | Data processing apparatus, data processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000164024A JP4678454B2 (en) | 2000-06-01 | 2000-06-01 | Data processing apparatus, data processing method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001346209A true JP2001346209A (en) | 2001-12-14 |
JP4678454B2 JP4678454B2 (en) | 2011-04-27 |
Family
ID=18667695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000164024A Expired - Fee Related JP4678454B2 (en) | 2000-06-01 | 2000-06-01 | Data processing apparatus, data processing method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4678454B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007295599A (en) * | 2007-06-04 | 2007-11-08 | Sony Corp | Learning apparatus and learning method, program, and recording medium |
US8457210B2 (en) | 2010-12-20 | 2013-06-04 | Kabushiki Kaisha Toshiba | Image decoding apparatus and method adding a sign of the coefficient before linear estimation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0779434A (en) * | 1993-09-06 | 1995-03-20 | Sony Corp | Reception/reproduction device for digital picture signal |
JPH09331526A (en) * | 1996-04-11 | 1997-12-22 | Sony Corp | Image signal processor and its method |
-
2000
- 2000-06-01 JP JP2000164024A patent/JP4678454B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0779434A (en) * | 1993-09-06 | 1995-03-20 | Sony Corp | Reception/reproduction device for digital picture signal |
JPH09331526A (en) * | 1996-04-11 | 1997-12-22 | Sony Corp | Image signal processor and its method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007295599A (en) * | 2007-06-04 | 2007-11-08 | Sony Corp | Learning apparatus and learning method, program, and recording medium |
US8457210B2 (en) | 2010-12-20 | 2013-06-04 | Kabushiki Kaisha Toshiba | Image decoding apparatus and method adding a sign of the coefficient before linear estimation |
Also Published As
Publication number | Publication date |
---|---|
JP4678454B2 (en) | 2011-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7336829B2 (en) | Data processing apparatus and method and recording medium | |
JP5957559B2 (en) | Video encoding / decoding method and apparatus using large size transform unit | |
US7082220B2 (en) | Data processing apparatus | |
JP2004528791A (en) | Inter-frame encoding method and apparatus | |
EP1355428B1 (en) | Data processing apparatus | |
WO2019198519A1 (en) | Data processing device and data processing method | |
JP4517448B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4752088B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4419287B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP4678454B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4538698B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4538699B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4147789B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2001345707A (en) | Data processing apparatus and data processing method as well as recording medium | |
JP4505729B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4154647B2 (en) | Data processing apparatus, data processing method, program, and recording medium | |
JP4491701B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP2002335405A (en) | Image data processing unit and method, recording medium, and program | |
JP2001285648A (en) | Image processing apparatus, image processing method, and recording medium | |
JP2003023634A (en) | Image coding/decoding method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100527 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110106 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110119 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |