JP2001320587A - Data processor and data processing method, and recording medium - Google Patents
Data processor and data processing method, and recording mediumInfo
- Publication number
- JP2001320587A JP2001320587A JP2000135357A JP2000135357A JP2001320587A JP 2001320587 A JP2001320587 A JP 2001320587A JP 2000135357 A JP2000135357 A JP 2000135357A JP 2000135357 A JP2000135357 A JP 2000135357A JP 2001320587 A JP2001320587 A JP 2001320587A
- Authority
- JP
- Japan
- Prior art keywords
- data
- tap
- circuit
- prediction
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 12
- 238000000034 method Methods 0.000 claims description 97
- 238000013139 quantization Methods 0.000 claims description 96
- 238000006243 chemical reaction Methods 0.000 claims description 55
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 21
- 230000002123 temporal effect Effects 0.000 claims description 8
- 230000002542 deteriorative effect Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 4
- 230000000593 degrading effect Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 8
- 238000000605 extraction Methods 0.000 description 45
- 238000010586 diagram Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 23
- 230000000903 blocking effect Effects 0.000 description 15
- 238000000354 decomposition reaction Methods 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 13
- 230000003044 adaptive effect Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101100366711 Arabidopsis thaliana SSL13 gene Proteins 0.000 description 1
- 241000255925 Diptera Species 0.000 description 1
- 101100366561 Panax ginseng SS11 gene Proteins 0.000 description 1
- 235000014548 Rubus moluccanus Nutrition 0.000 description 1
- 229910017435 S2 In Inorganic materials 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、並びに記録媒体に関し、特に、例
えば、圧縮された画像を高画質の画像に復号する場合等
に用いて好適なデータ処理装置およびデータ処理方法、
並びに記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus, a data processing method, and a recording medium, and more particularly to a data processing apparatus suitable for use, for example, when decoding a compressed image into a high-quality image. And data processing methods,
And a recording medium.
【0002】[0002]
【従来の技術】例えば、ディジタル画像データは、その
データ量が多いため、そのまま記録や伝送を行うには、
大容量の記録媒体や伝送媒体が必要となる。そこで、一
般には、画像データを圧縮符号化することにより、その
データ量を削減してから、記録や伝送が行われる。2. Description of the Related Art For example, digital image data has a large data amount.
A large-capacity recording medium and transmission medium are required. Therefore, in general, recording and transmission are performed after compressing and encoding image data to reduce the data amount.
【0003】画像を圧縮符号化する方式としては、例え
ば、静止画の圧縮符号化方式であるJPEG(Joint Pho
tographic Experts Group)方式や、動画の圧縮符号化方
式であるMPEG(Moving Picture Experts Group)方式
等がある。As a method of compressing and encoding an image, for example, a JPEG (Joint Photo) which is a compression encoding method of a still image is used.
There is an MPEG (Moving Picture Experts Group) method, which is a moving image compression encoding method, and the like.
【0004】例えば、JPEG方式による画像データの
符号化/復号は、図1に示すように行われる。For example, encoding / decoding of image data according to the JPEG system is performed as shown in FIG.
【0005】即ち、図1(A)は、従来のJPEG符号
化装置の一例の構成を示している。[0005] That is, FIG. 1A shows a configuration of an example of a conventional JPEG encoding device.
【0006】符号化対象の画像データは、ブロック化回
路1に入力され、ブロック化回路1は、そこに入力され
る画像データを、8×8画素の64画素でなるブロック
に分割する。ブロック化回路1で得られる各ブロック
は、DCT(Discrete Cosine Transform)回路2に供給
される。DCT回路2は、ブロック化回路1からのブロ
ックに対して、DCT(離散コサイン変換)処理を施
し、1個のDC(Direct Current)成分と、水平方向およ
び垂直方向についての63個の周波数成分(AC(Alter
nating Current)成分)の、合計64個のDCT係数に
変換する。各ブロックごとの64個のDCT係数は、D
CT回路2から量子化回路3に供給される。[0006] The image data to be encoded is input to a blocking circuit 1, which divides the input image data into blocks of 64 8x8 pixels. Each block obtained by the blocking circuit 1 is supplied to a DCT (Discrete Cosine Transform) circuit 2. The DCT circuit 2 performs a DCT (Discrete Cosine Transform) process on the block from the blocking circuit 1, and performs one DC (Direct Current) component and 63 frequency components (horizontal and vertical). AC (Alter
(Nating Current) component) into a total of 64 DCT coefficients. The 64 DCT coefficients for each block are D
The signal is supplied from the CT circuit 2 to the quantization circuit 3.
【0007】量子化回路3は、所定の量子化テーブルに
したがって、DCT回路2からのDCT係数を量子化
し、その量子化結果(以下、適宜、量子化DCT係数と
いう)を、量子化に用いた量子化テーブルとともに、エ
ントロピー符号化回路4に供給する。The quantization circuit 3 quantizes the DCT coefficient from the DCT circuit 2 according to a predetermined quantization table, and uses the quantization result (hereinafter, appropriately referred to as a quantized DCT coefficient) for quantization. The information is supplied to the entropy encoding circuit 4 together with the quantization table.
【0008】ここで、図1(B)は、量子化回路3にお
いて用いられる量子化テーブルの例を示している。量子
化テーブルには、一般に、人間の視覚特性を考慮して、
重要性の高い低周波数のDCT係数は細かく量子化し、
重要性の低い高周波数のDCT係数は粗く量子化するよ
うな量子化ステップが設定されており、これにより、画
像の画質の劣化を抑えて、効率の良い圧縮が行われるよ
うになっている。FIG. 1B shows an example of a quantization table used in the quantization circuit 3. Generally, quantization tables take into account human visual characteristics,
The low-frequency DCT coefficients of high importance are finely quantized,
A quantization step for coarsely quantizing the DCT coefficient of a low-frequency high frequency is set, and thereby the image quality of the image is suppressed from being degraded, and the compression is performed efficiently.
【0009】エントロピー符号化回路4は、量子化回路
3からの量子化DCT係数に対して、例えば、ハフマン
符号化等のエントロピー符号化処理を施して、量子化回
路3からの量子化テーブルを付加し、その結果得られる
符号化データを、JPEG符号化結果として出力する。The entropy coding circuit 4 performs an entropy coding process such as Huffman coding on the quantized DCT coefficient from the quantization circuit 3 and adds a quantization table from the quantization circuit 3. Then, the resulting encoded data is output as a JPEG encoded result.
【0010】次に、図1(C)は、図1(A)のJPE
G符号化装置が出力する符号化データを復号する、従来
のJPEG復号装置の一例の構成を示している。Next, FIG. 1C shows the JPE of FIG.
1 shows a configuration of an example of a conventional JPEG decoding device that decodes encoded data output from a G encoding device.
【0011】符号化データは、エントロピー復号回路1
1に入力され、エントロピー復号回路11は、符号化デ
ータを、エントロピー符号化された量子化DCT係数
と、量子化テーブルとに分離する。さらに、エントロピ
ー復号回路11は、エントロピー符号化された量子化D
CT係数をエントロピー復号し、その結果得られる量子
化DCT係数を、量子化テーブルとともに、逆量子化回
路12に供給する。逆量子化回路12は、エントロピー
復号回路11からの量子化DCT係数を、同じくエント
ロピー復号回路11からの量子化テーブルにしたがって
逆量子化し、その結果得られるDCT係数を、逆DCT
回路13に供給する。逆DCT回路13は、逆量子化回
路12からのDCT係数に、逆DCT処理を施し、その
結果得られる8×8画素の復号ブロックを、ブロック分
解回路14に供給する。ブロック分解回路14は、逆D
CT回路13からの復号ブロックのブロック化を解くこ
とで、復号画像を得て出力する。The encoded data is transmitted to an entropy decoding circuit 1
1, the entropy decoding circuit 11 separates the encoded data into entropy-encoded quantized DCT coefficients and a quantization table. Further, the entropy decoding circuit 11 performs the entropy-encoded quantization D
The CT coefficients are entropy-decoded, and the resulting quantized DCT coefficients are supplied to an inverse quantization circuit 12 together with a quantization table. The inverse quantization circuit 12 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 11 in accordance with the quantization table from the entropy decoding circuit 11, and converts the resulting DCT coefficient into the inverse DCT coefficient.
It is supplied to the circuit 13. The inverse DCT circuit 13 performs an inverse DCT process on the DCT coefficient from the inverse quantization circuit 12, and supplies the resulting 8 × 8 pixel decoded block to the block decomposition circuit 14. The block decomposition circuit 14 calculates the inverse D
By unblocking the decoded block from the CT circuit 13, a decoded image is obtained and output.
【0012】[0012]
【発明が解決しようとする課題】図1(A)のJPEG
符号化装置では、その量子化回路3において、ブロック
の量子化に用いる量子化テーブルの量子化ステップを大
きくすることにより、符号化データのデータ量を削減す
ることができる。即ち、高圧縮を実現することができ
る。SUMMARY OF THE INVENTION The JPEG shown in FIG.
In the encoding device, the quantization circuit 3 can reduce the data amount of the encoded data by increasing the quantization step of the quantization table used for quantizing the block. That is, high compression can be realized.
【0013】しかしながら、量子化ステップを大きくす
ると、いわゆる量子化誤差も大きくなることから、図1
(C)のJPEG復号装置で得られる復号画像の画質が
劣化する。即ち、復号画像には、ぼけや、ブロック歪
み、モスキートノイズ等が顕著に現れる。However, when the quantization step is increased, the so-called quantization error is also increased.
(C) The image quality of the decoded image obtained by the JPEG decoding device is degraded. That is, blur, block distortion, mosquito noise, and the like appear conspicuously in the decoded image.
【0014】従って、符号化データのデータ量を削減し
ながら、復号画像の画質を劣化させないようにするに
は、あるいは、符号化データのデータ量を維持して、復
号画像の画質を向上させるには、JPEG復号した後
に、何らかの画質向上のための処理を行う必要がある。Therefore, in order to prevent the image quality of the decoded image from deteriorating while reducing the data amount of the encoded data, or to improve the image quality of the decoded image while maintaining the data amount of the encoded data. It is necessary to perform some kind of processing for improving image quality after JPEG decoding.
【0015】しかしながら、JPEG復号した後に、画
質向上のための処理を行うことは、処理が煩雑になり、
最終的に復号画像が得られるまでの時間も長くなる。However, performing processing for improving the image quality after JPEG decoding complicates the processing.
The time until a decoded image is finally obtained also increases.
【0016】本発明は、このような状況に鑑みてなされ
たものであり、JPEG符号化された画像等から、効率
的に、画質の良い復号画像を得ること等ができるように
するものである。The present invention has been made in view of such a situation, and is intended to efficiently obtain a high-quality decoded image from a JPEG-coded image or the like. .
【0017】[0017]
【課題を解決するための手段】本発明の第1のデータ処
理装置は、学習を行うことにより求められたタップ係数
を取得する取得手段と、タップ係数および変換データを
用いて、所定の予測演算を行うことにより、変換データ
を、元のデータに復号し、かつ、その元のデータに所定
の処理を施した処理データを得る演算手段とを備えるこ
とを特徴とする。A first data processing apparatus according to the present invention comprises: an acquiring means for acquiring a tap coefficient obtained by performing learning; and a predetermined predictive operation using a tap coefficient and conversion data. And decoding means for decoding the converted data into the original data, and obtaining processing data obtained by subjecting the original data to a predetermined process.
【0018】第1のデータ処理装置において、演算手段
には、タップ係数および変換データを用いて、線形1次
予測演算を行わせることができる。In the first data processing device, the operation means can perform a linear primary prediction operation using the tap coefficients and the converted data.
【0019】第1のデータ処理装置には、タップ係数を
記憶している記憶手段をさらに設けることができ、この
場合、取得手段には、記憶手段から、タップ係数を取得
させることができる。The first data processing device may further include a storage unit for storing the tap coefficients. In this case, the obtaining unit may cause the obtaining unit to obtain the tap coefficients from the storage unit.
【0020】第1のデータ処理装置において、変換デー
タは、元のデータを、直交変換または周波数変換し、さ
らに量子化することにより得られたものとすることがで
きる。In the first data processing device, the transformed data can be obtained by subjecting the original data to orthogonal transform or frequency transform and then quantizing.
【0021】第1のデータ処理装置には、変換データを
逆量子化する逆量子化手段をさらに設けることができ、
演算手段には、逆量子化された変換データを用いて予測
演算を行わせることができる。The first data processing apparatus may further include an inverse quantization means for inversely quantizing the transformed data,
The calculation means can perform a prediction calculation using the inversely quantized transform data.
【0022】第1のデータ処理装置において、変換デー
タは、元のデータを、少なくとも、離散コサイン変換し
たものとすることができる。In the first data processing device, the transformed data may be at least discrete cosine transformed from the original data.
【0023】第1のデータ処理装置には、処理データの
うちの、注目している注目データを予測するのにタップ
係数とともに用いる変換データを抽出し、予測タップと
して出力する予測タップ抽出手段をさらに設けることが
でき、この場合、演算手段には、予測タップおよびタッ
プ係数を用いて予測演算を行わせることができる。The first data processing apparatus further includes a prediction tap extracting means for extracting conversion data used together with a tap coefficient for predicting the target data of interest among the processing data, and outputting the converted data as a prediction tap. In this case, the calculation means can perform the prediction calculation using the prediction tap and the tap coefficient.
【0024】第1のデータ処理装置には、注目データ
を、幾つかのクラスのうちのいずれかにクラス分類する
のに用いる変換データを抽出し、クラスタップとして出
力するクラスタップ抽出手段と、クラスタップに基づい
て、注目データのクラスを求めるクラス分類を行うクラ
ス分類手段とをさらに設けることができ、この場合、演
算手段には、予測タップおよび注目データのクラスに対
応するタップ係数を用いて予測演算を行わせることがで
きる。The first data processing apparatus includes a class tap extracting means for extracting converted data used to classify the target data into any of several classes and outputting the converted data as class taps; Classification means for performing a class classification for obtaining the class of the data of interest based on the taps may be further provided. In this case, the calculating means includes a prediction tap and a prediction coefficient using a tap coefficient corresponding to the class of the data of interest. An operation can be performed.
【0025】第1のデータ処理装置において、演算手段
では、所定の予測演算を行うことにより、元のデータ
に、その品質を向上させる処理を施した処理データを得
るようにすることができる。In the first data processing device, the calculation means performs predetermined prediction calculation to obtain processed data obtained by performing processing for improving the quality of the original data.
【0026】第1のデータ処理装置において、タップ係
数は、タップ係数および変換データを用いて、所定の予
測演算を行うことにより得られる処理データの予測値の
予測誤差が、統計的に最小になるように、学習を行うこ
とにより得られたものとすることができる。In the first data processing apparatus, the tap coefficient is such that the prediction error of the predicted value of the processed data obtained by performing a predetermined prediction operation using the tap coefficient and the converted data is statistically minimized. Thus, it can be obtained by learning.
【0027】第1のデータ処理装置において、元のデー
タは、動画または静止画の画像データとすることができ
る。In the first data processing device, the original data can be moving image or still image data.
【0028】第1のデータ処理装置において、演算手段
では、所定の予測演算を行うことにより、画像データ
に、その画質を向上させる処理を施した処理データを得
るようにすることができる。In the first data processing device, the calculation means performs predetermined prediction calculation to obtain processed data obtained by performing a process for improving image quality on image data.
【0029】第1のデータ処理装置において、演算手段
では、画像データの時間または空間方向の解像度を向上
させた処理データを得るようにすることができる。In the first data processing device, the arithmetic means can obtain processing data with improved resolution in the time or space direction of the image data.
【0030】本発明の第1のデータ処理方法は、学習を
行うことにより求められたタップ係数を取得する取得ス
テップと、タップ係数および変換データを用いて、所定
の予測演算を行うことにより、変換データを、元のデー
タに復号し、かつ、その元のデータに所定の処理を施し
た処理データを得る演算ステップとを備えることを特徴
とする。In the first data processing method of the present invention, the conversion step is performed by performing a predetermined prediction operation using the tap coefficient and the conversion data by obtaining the tap coefficient obtained by performing the learning. A decoding step of decoding the data into the original data and obtaining processed data obtained by subjecting the original data to a predetermined process.
【0031】本発明の第1の記録媒体は、学習を行うこ
とにより求められたタップ係数を取得する取得ステップ
と、タップ係数および変換データを用いて、所定の予測
演算を行うことにより、変換データを、元のデータに復
号し、かつ、その元のデータに所定の処理を施した処理
データを得る演算ステップとを備えるプログラムが記録
されていることを特徴とする。According to the first recording medium of the present invention, the conversion step is performed by obtaining a tap coefficient obtained by performing learning, and by performing a predetermined prediction operation using the tap coefficient and the conversion data. Is decoded into original data and an operation step of obtaining processed data obtained by subjecting the original data to predetermined processing is recorded.
【0032】本発明の第2のデータ処理装置は、教師と
なる教師データに、所定の処理に基づく処理を施し、準
教師データを得る準教師データ生成手段と、準教師デー
タを、少なくとも、直交変換または周波数変換すること
により、生徒となる生徒データを生成する生徒データ生
成手段と、タップ係数および生徒データを用いて予測演
算を行うことにより得られる教師データの予測値の予測
誤差が、統計的に最小になるように学習を行い、タップ
係数を求める学習手段とを備えることを特徴とする。The second data processing apparatus according to the present invention performs processing based on predetermined processing on teacher data as a teacher, and generates a quasi-teacher data generating means for obtaining quasi-teacher data. The conversion error or the frequency conversion is used to generate student data to be students, and the prediction error of the prediction value of the teacher data obtained by performing the prediction operation using the tap coefficient and the student data is statistically different. And learning means for performing learning so as to minimize tapping and obtaining tap coefficients.
【0033】第2のデータ処理装置において、学習手段
には、タップ係数および生徒データを用いて線形1次予
測演算を行うことにより得られる教師データの予測値の
予測誤差が、統計的に最小になるように学習を行わせる
ことができる。In the second data processing apparatus, the learning means statistically minimizes the prediction error of the predicted value of the teacher data obtained by performing the linear primary prediction operation using the tap coefficients and the student data. Learning can be performed as follows.
【0034】第2のデータ処理装置において、生徒デー
タ生成手段には、準教師データを、直交変換または周波
数変換し、さらに量子化することにより、生徒データを
生成させることができる。In the second data processing apparatus, the student data generating means can generate the student data by subjecting the quasi-teacher data to orthogonal transformation or frequency transformation and further quantizing it.
【0035】第2のデータ処理装置において、生徒デー
タ生成手段には、準教師データを、直交変換または周波
数変換して量子化し、さらに逆量子化することにより、
生徒データを生成させることができる。In the second data processing device, the student data generating means quantizes the quasi-teacher data by orthogonal transform or frequency transform, and further quantizes the quasi-teacher data by inverse quantization.
Student data can be generated.
【0036】第2のデータ処理装置において、生徒デー
タ生成手段には、準教師データを、少なくとも、離散コ
サイン変換することにより、生徒データを生成させるこ
とができる。In the second data processing apparatus, the student data generating means can generate the student data by subjecting the quasi-teacher data to at least discrete cosine transform.
【0037】第2のデータ処理装置には、教師データの
うちの、注目している注目教師データを予測するのにタ
ップ係数とともに用いる生徒データを抽出し、予測タッ
プとして出力する予測タップ抽出手段をさらに設けるこ
とができ、この場合、学習手段には、予測タップおよび
タップ係数を用いて予測演算を行うことにより得られる
教師データの予測値の予測誤差が、統計的に最小になる
ように学習を行わせることができる。The second data processing apparatus includes a prediction tap extracting means for extracting student data used together with a tap coefficient for predicting the noted teacher data of interest from the teacher data, and outputting the extracted student data as a prediction tap. In this case, the learning means performs learning so that the prediction error of the prediction value of the teacher data obtained by performing the prediction operation using the prediction tap and the tap coefficient is statistically minimized. Can be done.
【0038】第2のデータ処理装置には、注目教師デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる生徒データを抽出し、クラスタップとして
出力するクラスタップ抽出手段と、クラスタップに基づ
いて、注目教師データのクラスを求めるクラス分類を行
うクラス分類手段とをさらに設けることができ、この場
合、学習手段には、予測タップおよび注目教師データの
クラスに対応するタップ係数を用いて予測演算を行うこ
とにより得られる教師データの予測値の予測誤差が、統
計的に最小になるように学習を行わせ、クラスごとのタ
ップ係数を求めさせることができる。The second data processing device includes class tap extracting means for extracting student data used to classify the teacher data of interest into one of several classes and outputting the data as class taps; Classification means for performing class classification for obtaining the class of the teacher data of interest based on the class taps may be further provided. In this case, the learning means may include tap coefficients corresponding to the prediction tap and the class of the teacher data of interest. The learning is performed so that the prediction error of the prediction value of the teacher data obtained by performing the prediction calculation using the statistical calculation is statistically minimized, and the tap coefficient for each class can be obtained.
【0039】第2のデータ処理装置において、生徒デー
タ生成手段には、準教師データを、所定の単位ごとに、
少なくとも、直交変換処理または周波数変換することに
より、生徒データを生成させることができる。In the second data processing device, the student data generating means stores the quasi-teacher data for each predetermined unit.
At least student data can be generated by performing orthogonal transformation processing or frequency transformation.
【0040】第2のデータ処理装置において、準教師デ
ータ生成手段には、教師データに、その品質を劣化させ
る処理を施すことにより、準教師データを生成させるこ
とができる。In the second data processing apparatus, the quasi-teacher data generating means can generate the quasi-teacher data by subjecting the teacher data to a process of deteriorating the quality of the teacher data.
【0041】第2のデータ処理装置において、教師デー
タは、動画または静止画の画像データとすることができ
る。In the second data processing device, the teacher data can be moving image or still image data.
【0042】第2のデータ処理装置において、準教師デ
ータ生成手段には、画像データに、その画質を劣化させ
る処理を施すことにより、準教師データを生成させるこ
とができる。In the second data processing apparatus, the quasi-teacher data generating means can generate the quasi-teacher data by performing a process of deteriorating the image quality of the image data.
【0043】第2のデータ処理装置において、準教師デ
ータ生成手段には、画像データの時間または空間方向の
解像度を劣化させた準教師データを生成させることがで
きる。In the second data processing device, the quasi-teacher data generating means can generate the quasi-teacher data in which the resolution in the time or space direction of the image data is deteriorated.
【0044】本発明の第2のデータ処理方法は、教師と
なる教師データに、所定の処理に基づく処理を施し、準
教師データを得る準教師データ生成ステップと、準教師
データを、少なくとも、直交変換または周波数変換する
ことにより、生徒となる生徒データを生成する生徒デー
タ生成ステップと、タップ係数および生徒データを用い
て予測演算を行うことにより得られる教師データの予測
値の予測誤差が、統計的に最小になるように学習を行
い、タップ係数を求める学習ステップとを備えることを
特徴とする。According to a second data processing method of the present invention, a quasi-teacher data generating step of performing a process based on a predetermined process on teacher data to be a teacher to obtain quasi-teacher data; A conversion error or a frequency conversion generates a student data to be a student, and a prediction error of a prediction value of teacher data obtained by performing a prediction operation using the tap coefficient and the student data is statistically different. And a learning step of obtaining a tap coefficient by performing learning so as to minimize it.
【0045】本発明の第2の記録媒体は、教師となる教
師データに、所定の処理に基づく処理を施し、準教師デ
ータを得る準教師データ生成ステップと、準教師データ
を、少なくとも、直交変換または周波数変換することに
より、生徒となる生徒データを生成する生徒データ生成
ステップと、タップ係数および生徒データを用いて予測
演算を行うことにより得られる教師データの予測値の予
測誤差が、統計的に最小になるように学習を行い、タッ
プ係数を求める学習ステップとを備えるプログラムが記
録されていることを特徴とする。The second recording medium according to the present invention performs a quasi-teacher data generating step of performing a process based on a predetermined process on teacher data as a teacher to obtain quasi-teacher data. Or, by performing frequency conversion, a student data generation step of generating student data to be a student, and a prediction error of a prediction value of teacher data obtained by performing a prediction operation using the tap coefficient and the student data are statistically reduced. And a learning step of performing learning so as to minimize it and obtaining a tap coefficient.
【0046】本発明の第1のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、学習を行うこ
とにより求められたタップ係数が取得され、そのタップ
係数および変換データを用いて、所定の予測演算が行わ
れることにより、変換データを、元のデータに復号し、
かつ、その元のデータに所定の処理を施した処理データ
が得られる。In the first data processing apparatus, the data processing method, and the recording medium of the present invention, tap coefficients obtained by performing learning are obtained, and a predetermined prediction is performed using the tap coefficients and converted data. By performing the operation, the converted data is decoded into the original data,
In addition, processed data obtained by subjecting the original data to predetermined processing is obtained.
【0047】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、教師となる教
師データに、所定の処理に基づく処理が施され、その結
果得られる準教師データを、少なくとも、直交変換また
は周波数変換することにより、生徒となる生徒データが
生成される。そして、タップ係数および生徒データを用
いて予測演算を行うことにより得られる教師データの予
測値の予測誤差が、統計的に最小になるように学習が行
われ、タップ係数が求められる。In the second data processing apparatus, the data processing method, and the recording medium according to the present invention, a process based on a predetermined process is performed on teacher data to be a teacher, and the resulting quasi-teacher data is converted into at least By performing orthogonal transformation or frequency transformation, student data to be a student is generated. Learning is performed so that the prediction error of the prediction value of the teacher data obtained by performing the prediction operation using the tap coefficient and the student data is statistically minimized, and the tap coefficient is obtained.
【0048】[0048]
【発明の実施の形態】図2は、本発明を適用した画像伝
送システムの一実施の形態の構成例を示している。FIG. 2 shows a configuration example of an embodiment of an image transmission system to which the present invention is applied.
【0049】伝送すべき画像データは、エンコーダ21
に供給されるようになっており、エンコーダ21は、そ
こに供給される画像データを、例えば、JPEG符号化
し、符号化データとする。即ち、エンコーダ21は、例
えば、前述の図1(A)に示したJPEG符号化装置と
同様に構成されており、画像データをJPEG符号化す
る。エンコーダ21がJPEG符号化を行うことにより
得られる符号化データは、例えば、半導体メモリ、光磁
気ディスク、磁気ディスク、光ディスク、磁気テープ、
相変化ディスクなどでなる記録媒体23に記録され、あ
るいは、また、例えば、地上波、衛星回線、CATV
(Cable Television)網、インターネット、公衆回線な
どでなる伝送媒体24を介して伝送される。The image data to be transmitted is
The encoder 21 encodes the image data supplied thereto, for example, by JPEG encoding to obtain encoded data. That is, the encoder 21 is configured, for example, in the same manner as the above-described JPEG encoding apparatus shown in FIG. 1A, and JPEG-encodes image data. Encoded data obtained by the encoder 21 performing JPEG encoding includes, for example, a semiconductor memory, a magneto-optical disk, a magnetic disk, an optical disk, a magnetic tape,
It is recorded on a recording medium 23 such as a phase change disk or the like.
(Cable Television) is transmitted via a transmission medium 24 such as a network, the Internet, or a public line.
【0050】デコーダ22は、記録媒体23または伝送
媒体24を介して提供される符号化データを受信して、
高画質の画像データに復号する。この復号化された高画
質の画像データは、例えば、図示せぬモニタに供給され
て表示等される。The decoder 22 receives the encoded data provided via the recording medium 23 or the transmission medium 24,
Decode to high quality image data. The decoded high-quality image data is supplied to, for example, a monitor (not shown) and displayed.
【0051】次に、図3は、図2のデコーダ22の構成
例を示している。FIG. 3 shows an example of the configuration of the decoder 22 shown in FIG.
【0052】符号化データは、エントロピー復号回路3
1に供給されるようになっており、エントロピー復号回
路31は、符号化データを、エントロピー復号して、そ
の結果得られるブロックごとの量子化DCT係数Qを、
係数変換回路32に供給する。なお、符号化データに
は、図1(C)のエントロピー復号回路11で説明した
場合と同様に、エントロピー符号化された量子化DCT
係数の他、量子化テーブルも含まれるが、この量子化テ
ーブルは、後述するように、必要に応じて、量子化DC
T係数の復号に用いることが可能である。The encoded data is sent to the entropy decoding circuit 3
1, the entropy decoding circuit 31 performs entropy decoding of the encoded data, and obtains a quantized DCT coefficient Q for each block obtained as a result.
It is supplied to the coefficient conversion circuit 32. Note that the coded data includes the entropy-coded quantized DCT as in the case described in the entropy decoding circuit 11 in FIG.
In addition to the coefficients, a quantization table is also included. This quantization table includes a quantization DC
It can be used for decoding the T coefficient.
【0053】係数変換回路32は、エントロピー復号回
路31からの量子化DCT係数Qと、後述する学習を行
うことにより求められるタップ係数を用いて、所定の予
測演算を行うことにより、ブロックごとの量子化DCT
係数を、8×8画素の元のブロックに復号し、かつ、さ
らに、その元のブロックの画質を向上させる処理を施し
たデータを得る。即ち、元のブロックは8×8画素で構
成されるが、係数変換回路32は、タップ係数を用いた
予測演算を行うことにより、その8×8画素のブロック
の横および縦方向の空間解像度を、いずれも2倍にした
16×16画素でなるブロックを得る。従って、係数変
換回路32は、ここでは、図4に示すように、8×8の
量子化DCT係数で構成されるブロックを、16×16
画素で構成されるブロックに復号して出力する。The coefficient conversion circuit 32 performs a predetermined prediction operation using the quantized DCT coefficient Q from the entropy decoding circuit 31 and a tap coefficient obtained by performing learning, which will be described later. DCT
The coefficient is decoded into an original block of 8 × 8 pixels, and data is further processed to improve the image quality of the original block. That is, although the original block is composed of 8 × 8 pixels, the coefficient conversion circuit 32 performs a prediction operation using the tap coefficient to thereby reduce the spatial resolution in the horizontal and vertical directions of the block of 8 × 8 pixels. In each case, a block composed of 16 × 16 pixels is obtained. Accordingly, here, the coefficient conversion circuit 32 converts a block composed of 8 × 8 quantized DCT coefficients into a 16 × 16 block as shown in FIG.
The data is decoded into a block composed of pixels and output.
【0054】ブロック分解回路33は、係数変換回路3
2において得られる16×16画素のブロックのブロッ
ク化を解くことで、空間解像度を向上させた復号画像を
得て出力する。The block decomposition circuit 33 includes a coefficient conversion circuit 3
By unblocking the 16 × 16 pixel block obtained in 2 above, a decoded image with improved spatial resolution is obtained and output.
【0055】次に、図5のフローチャートを参照して、
図3のデコーダ22の処理について説明する。Next, referring to the flowchart of FIG.
The processing of the decoder 22 in FIG. 3 will be described.
【0056】符号化データは、エントロピー復号回路3
1に順次供給され、ステップS1において、エントロピ
ー復号回路31は、符号化データをエントロピー復号
し、ブロックごとの量子化DCT係数Qを、係数変換回
路32に供給する。係数変換回路32は、ステップS2
において、エントロピー復号回路31からのブロックご
との量子化DCT係数Qを、タップ係数を用いた予測演
算を行うことにより、ブロックごとの画素値に復号し、
かつ、そのブロックの空間解像度を向上させた、いわば
高解像度のブロックを得て、ブロック分解回路33に供
給する。ブロック分解回路33は、ステップS3におい
て、係数変換回路32からの、空間解像度が向上された
画素値のブロックのブロック化を解くブロック分解を行
い、その結果得られる高解像度の復号画像を出力して、
処理を終了する。The encoded data is supplied to the entropy decoding circuit 3
1, the entropy decoding circuit 31 entropy-decodes the encoded data in step S1, and supplies the quantized DCT coefficient Q for each block to the coefficient transforming circuit 32. The coefficient conversion circuit 32 determines in step S2
In, the quantized DCT coefficient Q for each block from the entropy decoding circuit 31 is decoded into a pixel value for each block by performing a prediction operation using a tap coefficient,
In addition, a so-called high-resolution block having an improved spatial resolution of the block is obtained and supplied to the block decomposition circuit 33. In step S3, the block decomposition circuit 33 performs block decomposition for deblocking the block of the pixel value with the improved spatial resolution from the coefficient conversion circuit 32, and outputs a high-resolution decoded image obtained as a result. ,
The process ends.
【0057】次に、図3の係数変換回路32では、例え
ば、クラス分類適応処理を利用して、量子化DCT係数
を、画素値に復号し、さらに、その空間解像度を向上さ
せた画像を得ることができる。Next, the coefficient conversion circuit 32 in FIG. 3 decodes the quantized DCT coefficients into pixel values using, for example, class classification adaptive processing, and further obtains an image whose spatial resolution is improved. be able to.
【0058】クラス分類適応処理は、クラス分類処理と
適応処理とからなり、クラス分類処理によって、データ
を、その性質に基づいてクラス分けし、各クラスごとに
適応処理を施すものであり、適応処理は、以下のような
手法のものである。なお、ここでは、説明を簡単にする
ために、適応処理について、量子化DCT係数を、元の
画像に復号する場合を例に説明する。The class classification adaptation process includes a class classification process and an adaptation process. The class classification process classifies data into classes based on their properties, and performs an adaptation process for each class. Is based on the following method. Note that, here, for simplicity of description, the adaptive processing will be described by taking as an example a case where a quantized DCT coefficient is decoded into an original image.
【0059】この場合、適応処理では、例えば、量子化
DCT係数と、所定のタップ係数との線形結合により、
元の画素の予測値を求めることで、量子化DCT係数
が、元の画素値に復号される。In this case, in the adaptive processing, for example, by a linear combination of the quantized DCT coefficient and a predetermined tap coefficient,
By obtaining the predicted value of the original pixel, the quantized DCT coefficient is decoded into the original pixel value.
【0060】具体的には、例えば、いま、ある画像を教
師データとするとともに、その画像を、ブロック単位で
DCT処理し、さらに量子化して得られる量子化DCT
係数を生徒データとして、教師データである画素の画素
値yの予測値E[y]を、幾つかの量子化DCT係数x
1,x2,・・・の集合と、所定のタップ係数w1,w2,
・・・の線形結合により規定される線形1次結合モデル
により求めることを考える。この場合、予測値E[y]
は、次式で表すことができる。More specifically, for example, a certain image is used as teacher data, and the image is subjected to DCT processing in block units and further quantized to obtain a quantized DCT.
Using the coefficients as student data, a prediction value E [y] of a pixel value y of a pixel as teacher data is converted to some quantized DCT coefficients x
1, x 2, a set of ..., predetermined tap coefficients w 1, w 2,
.. Are considered by a linear first-order combination model defined by the linear combination. In this case, the predicted value E [y]
Can be expressed by the following equation.
【0061】 E[y]=w1x1+w2x2+・・・ ・・・(1)E [y] = w 1 x 1 + w 2 x 2 +... (1)
【0062】式(1)を一般化するために、タップ係数
wjの集合でなる行列W、生徒データxijの集合でなる
行列X、および予測値E[yj]の集合でなる行列Y’
を、To generalize equation (1), a matrix W consisting of a set of tap coefficients w j , a matrix X consisting of a set of student data x ij , and a matrix Y consisting of a set of predicted values E [y j ] '
To
【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.
【0063】 XW=Y’ ・・・(2) ここで、行列Xの成分xijは、i件目の生徒データの集
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi]
は、i件目の教師データの予測値を表す。なお、式
(1)の左辺におけるyは、行列Yの成分yiのサフィ
ックスiを省略したものであり、また、式(1)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。XW = Y ′ (2) Here, the component x ij of the matrix X is a set of i-th student data (a set of student data used for predicting the i-th teacher data y i ). Means the j-th student data in the matrix W, and the component w j of the matrix W represents a tap coefficient by which a product with the j-th student data in the set of the student data is calculated. Also, y
i represents the i-th teacher data, and therefore, E [y i ]
Represents the predicted value of the i-th teacher data. Note that y on the left side of the equation (1) is obtained by omitting the suffix i of the component y i of the matrix Y. Further, x 1 , x 2 ,. The suffix i of the component x ij is omitted.
【0064】そして、この観測方程式に最小自乗法を適
用して、元の画素値yに近い予測値E[y]を求めるこ
とを考える。この場合、教師データとなる真の画素値y
の集合でなる行列Y、および画素値yに対する予測値E
[y]の残差eの集合でなる行列Eを、Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the original pixel value y. In this case, a true pixel value y serving as teacher data
And a predicted value E for a pixel value y
A matrix E consisting of a set of residuals e of [y] is
【0065】[0065]
【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。(Equation 2) From equation (2), the following residual equation is established.
【0066】 XW=Y+E ・・・(3)XW = Y + E (3)
【0067】この場合、元の画素値yに近い予測値E
[y]を求めるためのタップ係数wjは、自乗誤差In this case, the predicted value E close to the original pixel value y
The tap coefficient w j for obtaining [y] is a square error
【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.
【0068】従って、上述の自乗誤差をタップ係数wj
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、元の画素値yに近い予測値E[y]を
求めるため最適値ということになる。Therefore, the above square error is calculated by tap coefficient w j
Is zero, that is, a tap coefficient w j that satisfies the following equation is an optimum value for obtaining a predicted value E [y] close to the original pixel value y.
【0069】[0069]
【数4】 ・・・(4)(Equation 4) ... (4)
【0070】そこで、まず、式(3)を、タップ係数w
jで微分することにより、次式が成立する。Therefore, first, the equation (3) is changed to the tap coefficient w
By differentiating with j , the following equation is established.
【0071】[0071]
【数5】 ・・・(5)(Equation 5) ... (5)
【0072】式(4)および(5)より、式(6)が得
られる。From equations (4) and (5), equation (6) is obtained.
【0073】[0073]
【数6】 ・・・(6)(Equation 6) ... (6)
【0074】さらに、式(3)の残差方程式における生
徒データxij、タップ係数wj、教師データyi、および
残差eiの関係を考慮すると、式(6)から、次のよう
な正規方程式を得ることができる。Further, considering the relationship among the student data x ij , the tap coefficient w j , the teacher data y i , and the residual e i in the residual equation of the equation (3), the following equation is obtained from the equation (6). A normal equation can be obtained.
【0075】[0075]
【数7】 ・・・(7)(Equation 7) ... (7)
【0076】なお、式(7)に示した正規方程式は、行
列(共分散行列)Aおよびベクトルvを、The normal equation shown in equation (7) is obtained by converting a matrix (covariance matrix) A and a vector v into
【数8】 で定義するとともに、ベクトルWを、数1で示したよう
に定義すると、式 AW=v ・・・(8) で表すことができる。(Equation 8) If the vector W is defined as shown in Expression 1, it can be expressed by the following expression: AW = v (8)
【0077】式(7)における各正規方程式は、生徒デ
ータxijおよび教師データyiのセットを、ある程度の
数だけ用意することで、求めるべきタップ係数wjの数
Jと同じ数だけたてることができ、従って、式(8)
を、ベクトルWについて解くことで(但し、式(8)を
解くには、式(8)における行列Aが正則である必要が
ある)、最適なタップ係数(ここでは、自乗誤差を最小
にするタップ係数)wjを求めることができる。なお、
式(8)を解くにあたっては、例えば、掃き出し法(Ga
uss-Jordanの消去法)などを用いることが可能である。Each normal equation in the equation (7) is prepared by preparing a certain number of sets of the student data x ij and the teacher data y i to form the same number as the number J of the tap coefficients w j to be obtained. And therefore equation (8)
Is solved for the vector W (however, in order to solve the equation (8), the matrix A in the equation (8) needs to be regular) to obtain an optimal tap coefficient (here, the square error is minimized). Tap coefficient) w j can be obtained. In addition,
In solving equation (8), for example, the sweeping method (Ga
uss-Jordan elimination method) can be used.
【0078】以上のようにして、最適なタップ係数wj
を求めておき、さらに、そのタップ係数wjを用い、式
(1)により、元の画素値yに近い予測値E[y]を求
めるのが適応処理である。As described above, the optimum tap coefficient w j
The adaptive processing is to obtain a predicted value E [y] close to the original pixel value y by using the tap coefficient wj and using the equation (1).
【0079】なお、例えば、教師データとして、JPE
G符号化する画像と同一画質の画像を用いるとともに、
生徒データとして、その教師データをDCTおよび量子
化して得られる量子化DCT係数を用いた場合、タップ
係数としては、JPEG符号化された画像データを、元
の画像データに復号するのに、予測誤差が、統計的に最
小となるものが得られることになる。For example, as teacher data, JPE
While using an image of the same image quality as the image to be G-coded,
When DCT and quantized DCT coefficients obtained by quantizing the teacher data are used as student data, a prediction error is used as a tap coefficient when decoding JPEG-coded image data into original image data. However, a statistically minimum one is obtained.
【0080】従って、JPEG符号化を行う際の圧縮率
を高くしても、即ち、量子化に用いる量子化ステップを
粗くしても、適応処理によれば、予測誤差が、統計的に
最小となる復号処理が施されることになり、実質的に、
JPEG符号化された画像の復号処理と、その画質を向
上させるための処理(以下、適宜、向上処理という)と
が、同時に施されることになる。その結果、圧縮率を高
くしても、復号画像の画質を維持することができる。Therefore, even if the compression rate at the time of performing JPEG encoding is increased, that is, even if the quantization step used for quantization is made coarse, according to the adaptive processing, the prediction error is statistically minimized. Will be performed, and in effect,
A decoding process of a JPEG-coded image and a process of improving the image quality (hereinafter, appropriately referred to as an improvement process) are simultaneously performed. As a result, even if the compression ratio is increased, the image quality of the decoded image can be maintained.
【0081】また、例えば、教師データとして、JPE
G符号化する画像よりも高画質の画像を用いるととも
に、生徒データとして、その教師データの画質を、JP
EG符号化する画像と同一画質に劣化させ、さらに、D
CTおよび量子化して得られる量子化DCT係数を用い
た場合、タップ係数としては、JPEG符号化された画
像データを高画質の画像データに復号するのに、予測誤
差が、統計的に最小となるものが得られることになる。For example, as teacher data, JPE
An image having a higher image quality than the image to be G-encoded is used, and the image quality of the teacher data is used as student data according to JP.
The image quality is degraded to the same image quality as the image to be EG-coded.
When a quantized DCT coefficient obtained by CT and quantization is used, a prediction error is statistically minimized as a tap coefficient when decoding JPEG-coded image data into high-quality image data. Things will be obtained.
【0082】従って、この場合も、適応処理によれば、
JPEG符号化された画像の復号処理と、その画質をよ
り向上させるための向上処理とが、同時に施されること
になる。なお、上述したことから、教師データまたは生
徒データとなる画像の画質を変えることで、復号画像の
画質を任意のレベルとするタップ係数を得ることができ
る。Therefore, also in this case, according to the adaptive processing,
The decoding processing of the JPEG-coded image and the improvement processing for further improving the image quality are performed at the same time. As described above, by changing the image quality of the image serving as the teacher data or the student data, it is possible to obtain a tap coefficient for setting the image quality of the decoded image to an arbitrary level.
【0083】図6は、以上のようなクラス分類適応処理
により、量子化DCT係数を画素値に復号する、図3の
係数変換回路32の第1の構成例を示している。FIG. 6 shows a first configuration example of the coefficient conversion circuit 32 shown in FIG. 3 for decoding quantized DCT coefficients into pixel values by the above-described class classification adaptive processing.
【0084】エントロピー復号回路31(図3)が出力
するブロックごとの量子化DCT係数は、予測タップ抽
出回路41およびクラスタップ抽出回路42に供給され
るようになっている。The quantized DCT coefficients for each block output from the entropy decoding circuit 31 (FIG. 3) are supplied to the prediction tap extraction circuit 41 and the class tap extraction circuit 42.
【0085】予測タップ抽出回路41は、そこに供給さ
れる8×8の量子化DCT係数のブロック(以下、適
宜、DCTブロックという)に対応する高画質の画素値
のブロック(この画素値のブロックは、現段階では存在
しないが、仮想的に想定される)(以下、適宜、高画質
ブロックという)(本実施の形態では、上述したよう
に、16×16画素のブロック)を、順次、注目高画質
ブロックとし、さらに、その注目高画質ブロックを構成
する各画素を、例えば、いわゆるラスタスキャン順に、
順次、注目画素とする。さらに、予測タップ抽出回路4
1は、注目画素の画素値を予測するのに用いる量子化D
CT係数を抽出し、予測タップとする。The prediction tap extracting circuit 41 outputs a block of a high-quality pixel value corresponding to a block of 8 × 8 quantized DCT coefficients supplied thereto (hereinafter referred to as a DCT block as appropriate) (block of this pixel value). Are not present at this stage, but are assumed virtually) (hereinafter, appropriately referred to as high image quality blocks) (in the present embodiment, as described above, blocks of 16 × 16 pixels) are sequentially focused. A high-quality block, and further, each pixel constituting the noted high-quality block is, for example, in a so-called raster scan order,
The target pixel is sequentially set as the target pixel. Further, a prediction tap extraction circuit 4
1 is a quantization D used to predict the pixel value of the pixel of interest.
The CT coefficients are extracted and used as prediction taps.
【0086】即ち、予測タップ抽出回路41は、例え
ば、図7に示すように、注目画素が属する高画質ブロッ
クに対応するDCTブロックのすべての量子化DCT係
数、即ち、8×8の64個の量子化DCT係数を、予測
タップとして抽出する。従って、本実施の形態では、あ
る高画質ブロックのすべての画素について、同一の予測
タップが構成される。但し、予測タップは、注目画素ご
とに、異なる量子化DCT係数で構成することが可能で
ある。That is, as shown in FIG. 7, for example, as shown in FIG. 7, all the quantized DCT coefficients of the DCT block corresponding to the high-quality block to which the pixel of interest belongs, The quantized DCT coefficients are extracted as prediction taps. Therefore, in the present embodiment, the same prediction tap is formed for all pixels of a certain high-quality block. However, the prediction tap can be configured with different quantized DCT coefficients for each target pixel.
【0087】予測タップ抽出回路41において得られ
る、高画質ブロックを構成する各画素についての予測タ
ップ、即ち、16×16の256画素それぞれについて
の256セットの予測タップは、積和演算回路45に供
給される。但し、本実施の形態では、上述したように、
高画質ブロックのすべての画素について、同一の予測タ
ップが構成されるので、実際には、1つの高画質ブロッ
クに対して、1セットの予測タップを、積和演算回路4
5に供給すれば良い。The prediction tap for each pixel constituting the high image quality block, that is, 256 sets of prediction taps for each of 16 × 16 256 pixels, obtained by the prediction tap extraction circuit 41, is supplied to the product-sum operation circuit 45. Is done. However, in the present embodiment, as described above,
Since the same prediction tap is configured for all the pixels of the high-quality block, in practice, one set of prediction taps is assigned to the product-sum operation circuit 4 for one high-quality block.
5 may be supplied.
【0088】クラスタップ抽出回路42は、注目画素
を、幾つかのクラスのうちのいずれかに分類するための
クラス分類に用いる量子化DCT係数を抽出して、クラ
スタップとする。The class tap extracting circuit 42 extracts a quantized DCT coefficient used for class classification for classifying the target pixel into one of several classes, and sets it as a class tap.
【0089】なお、JPEG符号化では、画像が、8×
8画素のブロック(以下、適宜、画素ブロックという)
ごとに符号化(DCT処理および量子化)されることか
ら、ある画素ブロックを高画質化した高画質ブロックに
属する画素は、例えば、すべて同一のクラスにクラス分
類することとする。従って、クラスタップ抽出回路42
は、ある高画質ブロックの各画素については、同一のク
ラスタップを構成する。即ち、クラスタップ抽出回路4
2は、例えば、予測タップ抽出回路41における場合と
同様に、図7に示したような、注目画素が属する高画質
ブロックに対応するDCTブロックの8×8個のすべて
の量子化DCT係数を、クラスタップとして抽出する。In JPEG encoding, an image is 8 ×
8-pixel block (hereinafter, appropriately referred to as a pixel block)
Since each pixel is encoded (DCT processing and quantization), all pixels belonging to a high-quality block obtained by improving a certain pixel block are classified into the same class, for example. Therefore, the class tap extraction circuit 42
Constitutes the same class tap for each pixel of a certain high image quality block. That is, the class tap extraction circuit 4
2, for example, as in the case of the prediction tap extraction circuit 41, as shown in FIG. 7, all 8 × 8 quantized DCT coefficients of the DCT block corresponding to the high image quality block to which the pixel of interest belongs, Extract as a class tap.
【0090】ここで、高画質ブロックに属する各画素
を、すべて同一のクラスにクラス分類するということ
は、その高画質ブロックをクラス分類することと等価で
ある。従って、クラスタップ抽出回路42には、注目高
画質ブロックを構成する16×16の合計256画素そ
れぞれをクラス分類するための256セットのクラスタ
ップではなく、注目高画質ブロックをクラス分類するた
めの1セットのクラスタップを構成させれば良く、この
ため、クラスタップ抽出回路42は、高画質ブロックご
とに、その高画質ブロックをクラス分類するために、そ
の高画質ブロックに対応するDCTブロックの64個の
量子化DCT係数を抽出して、クラスタップとするよう
になっている。Here, classifying all pixels belonging to a high image quality block into the same class is equivalent to classifying the high image quality block. Therefore, the class tap extraction circuit 42 does not include 256 sets of class taps for classifying each of the 16 × 16 total 256 pixels constituting the high-quality block of interest, but includes 1 for classifying the high-quality block of interest. For this reason, the class tap extracting circuit 42 performs, for each high-quality block, 64 DCT blocks corresponding to the high-quality block in order to classify the high-quality block. Are extracted and used as class taps.
【0091】なお、予測タップやクラスタップを構成す
る量子化DCT係数は、上述したパターンのものに限定
されるものではない。The quantized DCT coefficients constituting the prediction taps and the class taps are not limited to the above-mentioned patterns.
【0092】クラスタップ抽出回路42において得られ
る、注目高画質ブロックのクラスタップは、クラス分類
回路43に供給されるようになっており、クラス分類回
路43は、クラスタップ抽出回路42からのクラスタッ
プに基づき、注目高画質ブロックをクラス分類し、その
結果得られるクラスに対応するクラスコードを出力す
る。The class tap of the high-quality block of interest obtained in the class tap extracting circuit 42 is supplied to the class classifying circuit 43. The class classifying circuit 43 outputs the class tap from the class tap extracting circuit 42. , The high-quality block of interest is classified into classes, and a class code corresponding to the resulting class is output.
【0093】ここで、クラス分類を行う方法としては、
例えば、ADRC(Adaptive Dynamic Range Coding)等を採
用することができる。Here, as a method of performing the class classification,
For example, ADRC (Adaptive Dynamic Range Coding) or the like can be adopted.
【0094】ADRCを用いる方法では、クラスタップを構
成する量子化DCT係数が、ADRC処理され、その結果得
られるADRCコードにしたがって、注目高画質ブロックの
クラスが決定される。In the method using ADRC, the quantized DCT coefficients constituting the class tap are subjected to ADRC processing, and the class of the high-quality block of interest is determined according to the ADRC code obtained as a result.
【0095】なお、KビットADRCにおいては、例えば、
クラスタップを構成する量子化DCT係数の最大値MAX
と最小値MINが検出され、DR=MAX-MINを、集合の局所的
なダイナミックレンジとし、このダイナミックレンジDR
に基づいて、クラスタップを構成する量子化DCT係数
がKビットに再量子化される。即ち、クラスタップを構
成する量子化DCT係数の中から、最小値MINが減算さ
れ、その減算値がDR/2Kで除算(量子化)される。そし
て、以上のようにして得られる、クラスタップを構成す
るKビットの各量子化DCT係数を、所定の順番で並べ
たビット列が、ADRCコードとして出力される。従って、
クラスタップが、例えば、1ビットADRC処理された場合
には、そのクラスタップを構成する各量子化DCT係数
は、最小値MINが減算された後に、最大値MAXと最小値MI
Nとの平均値で除算され、これにより、各量子化DCT
係数が1ビットとされる(2値化される)。そして、そ
の1ビットの量子化DCT係数を所定の順番で並べたビ
ット列が、ADRCコードとして出力される。In the K-bit ADRC, for example,
The maximum value MAX of the quantized DCT coefficient constituting the class tap
And the minimum value MIN is detected, and DR = MAX-MIN is set as the local dynamic range of the set.
, The quantized DCT coefficients making up the class tap are re-quantized to K bits. That is, from among the quantized DCT coefficients forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. Then, a bit string obtained by arranging the K-bit quantized DCT coefficients constituting the class tap in a predetermined order, which is obtained as described above, is output as an ADRC code. Therefore,
When the class tap is subjected to, for example, 1-bit ADRC processing, the quantized DCT coefficients constituting the class tap are obtained by subtracting the minimum value MIN from the maximum value MAX and the minimum value MI.
Divided by the average value with N, so that each quantized DCT
The coefficient is one bit (binarized). Then, a bit string in which the 1-bit quantized DCT coefficients are arranged in a predetermined order is output as an ADRC code.
【0096】なお、クラス分類回路43には、例えば、
クラスタップを構成する量子化DCT係数のレベル分布
のパターンを、そのままクラスコードとして出力させる
ことも可能であるが、この場合、クラスタップが、N個
の量子化DCT係数で構成され、各量子化DCT係数
に、Kビットが割り当てられているとすると、クラス分
類回路43が出力するクラスコードの場合の数は、(2
N)K通りとなり、量子化DCT係数のビット数Kに指数
的に比例した膨大な数となる。The class classification circuit 43 includes, for example,
It is also possible to output the pattern of the level distribution of the quantized DCT coefficients constituting the class taps as it is as the class code. In this case, however, the class tap is constituted by N quantized DCT coefficients, and Assuming that K bits are assigned to the DCT coefficient, the number of class codes output from the classifying circuit 43 is (2
N) becomes K Street, an enormous number exponentially proportional to the number of bits K of quantized DCT coefficients.
【0097】従って、クラス分類回路43においては、
クラスタップの情報量を、上述のADRC処理や、あるいは
ベクトル量子化等によって圧縮してから、クラス分類を
行うのが好ましい。Therefore, in the classification circuit 43,
It is preferable to perform the class classification after compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.
【0098】ところで、本実施の形態では、クラスタッ
プは、上述したように、64個の量子化DCT係数で構
成される。従って、例えば、仮に、クラスタップを1ビ
ットADRC処理することにより、クラス分類を行うことと
しても、クラスコードの場合の数は、264通りという大
きな値となる。By the way, in this embodiment, the class tap is composed of 64 quantized DCT coefficients as described above. Therefore, for example, even if class classification is performed by performing 1-bit ADRC processing on a class tap, the number of class codes has a large value of 2 64 .
【0099】そこで、本実施の形態では、クラス分類回
路43において、クラスタップを構成する量子化DCT
係数から、重要性の高い特徴量を抽出し、その特徴量に
基づいてクラス分類を行うことで、クラス数を低減する
ようになっている。Therefore, in the present embodiment, the classifying circuit 43 uses the quantized DCT constituting the class tap.
A feature amount having high importance is extracted from the coefficient, and the class is classified based on the feature amount, thereby reducing the number of classes.
【0100】即ち、図8は、図6のクラス分類回路43
の構成例を示している。That is, FIG. 8 shows the classification circuit 43 of FIG.
Is shown.
【0101】クラスタップは、電力演算回路51に供給
されるようになっており、電力演算回路51は、クラス
タップを構成する量子化DCT係数を、幾つかの空間周
波数帯域のものに分け、各周波数帯域の電力を演算す
る。The class taps are supplied to a power calculation circuit 51. The power calculation circuit 51 divides the quantized DCT coefficients constituting the class taps into those of several spatial frequency bands. Calculate the power in the frequency band.
【0102】即ち、電力演算回路51は、クラスタップ
を構成する8×8個の量子化DCT係数を、例えば、図
9に示すような4つの空間周波数帯域S0,S1,S2,
S3に分割する。That is, the power calculation circuit 51 converts the 8 × 8 quantized DCT coefficients constituting the class tap into, for example, four spatial frequency bands S 0 , S 1 , S 2 , as shown in FIG.
Divided into S 3.
【0103】ここで、クラスタップを構成する8×8個
の量子化DCT係数それぞれを、アルファベットxに、
図7に示したような、ラスタスキャン順に、0からのシ
ーケンシャルな整数を付して表すこととすると、空間周
波数帯域S0は、4個の量子化DCT係数x0,x1,
x8,x9から構成され、空間周波数帯域S1は、12個
の量子化DCT係数x2,x3,x4,x5,x6,x7,x
10,x11,x12,x13,x14,x15から構成される。ま
た、空間周波数帯域S2は、12個の量子化DCT係数
x16,x17,x24,x25,x32,x33,x40,x41,x
48,x49,x56,x57から構成され、空間周波数帯域S
3は、36個の量子化DCT係数x18,x1 9,x20,x
21,x22,x23,x26,x27,x28,x29,x30,
x31,x34,x3 5,x36,x37,x38,x39,x42,x
43,x44,x45,x46,x47,x50,x5 1,x52,
x53,x54,x55,x58,x59,x60,x61,x62,x
63から構成される。Here, each of the 8 × 8 quantized DCT coefficients constituting a class tap is represented by an alphabet x,
As shown in FIG. 7, when the raster frequency is represented by adding a sequential integer from 0 in the raster scan order, the spatial frequency band S 0 has four quantized DCT coefficients x 0 , x 1 ,
consists x 8, x 9, the spatial frequency band S 1 is 12 quantized DCT coefficients x 2, x 3, x 4 , x 5, x 6, x 7, x
10, x 11, x 12, x 13, composed of x 14, x 15. Further, the spatial frequency band S 2 is 12 quantized DCT coefficients x 16, x 17, x 24 , x 25, x 32, x 33, x 40, x 41, x
48, is composed of x 49, x 56, x 57 , the spatial frequency band S
3, 36 quantized DCT coefficients x 18, x 1 9, x 20, x
21, x 22, x 23, x 26, x 27, x 28, x 29, x 30,
x 31, x 34, x 3 5, x 36, x 37, x 38, x 39, x 42, x
43, x 44, x 45, x 46, x 47, x 50, x 5 1, x 52,
x 53, x 54, x 55 , x 58, x 59, x 60, x 61, x 62, x
Consists of 63 .
【0104】さらに、電力演算回路51は、空間周波数
帯域S0,S1,S2,S3それぞれについて、量子化DC
T係数のAC成分の電力P0,P1,P2,P3を演算し、
クラスコード生成回路52に出力する。Further, the power calculation circuit 51 performs quantization DC for each of the spatial frequency bands S 0 , S 1 , S 2 , and S 3.
Calculate the power P 0 , P 1 , P 2 , P 3 of the AC component of the T coefficient,
Output to the class code generation circuit 52.
【0105】即ち、電力演算回路51は、空間周波数帯
域S0については、上述の4個の量子化DCT係数x0,
x1,x8,x9のうちのAC成分x1,x8,x9の2乗和
x1 2+x8 2+x9 2を求め、これを、電力P0として、ク
ラスコード生成回路52に出力する。また、電力演算回
路51は、空間周波数帯域S1についての、上述の12
個の量子化DCT係数のAC成分、即ち、12個すべて
の量子化DCT係数の2乗和を求め、これを、電力P1
として、クラスコード生成回路52に出力する。さら
に、電力演算回路51は、空間周波数帯域S2とS3につ
いても、空間周波数帯域S1における場合と同様にし
て、それぞれの電力P2とP3を求め、クラスコード生成
回路52に出力する。That is, the power operation circuit 51 operates in the spatial frequency band.
Area S0For the above four quantized DCT coefficients x0,
x1, X8, X9AC component x of1, X8, X9Sum of squares
x1 Two+ X8 Two+ X9 TwoAnd calculate the power P0As
Output to the Las code generation circuit 52. Also, the power calculation time
The road 51 corresponds to the above-mentioned 12 for the spatial frequency band S1.
AC components of the quantized DCT coefficients, ie, all 12
Is calculated, and the sum of squares of the quantized DCT coefficients of1
To the class code generation circuit 52. Further
In addition, the power operation circuit 51 has a spatial frequency band STwoAnd SThreeNitsu
The spatial frequency band S1As in
And each power PTwoAnd PThreeAnd generate class code
Output to the circuit 52.
【0106】クラスコード生成回路52は、電力演算回
路51からの電力P0,P1,P2,P3を、閾値テーブル
記憶部53に記憶された、対応する閾値TH0,TH
1,TH2,TH3とそれぞれ比較し、それぞれの大小
関係に基づいて、クラスコードを出力する。即ち、クラ
スコード生成回路52は、電力P0と閾値TH0とを比
較し、その大小関係を表す1ビットのコードを得る。同
様に、クラスコード生成回路52は、電力P1と閾値T
H1、電力P2と閾値TH2、電力P3と閾値TH3を、
それぞれ比較することにより、それぞれについて、1ビ
ットのコードを得る。そして、クラスコード生成回路5
2は、以上のようにして得られる4つの1ビットのコー
ドを、例えば、所定の順番で並べることにより得られる
4ビットのコード(従って、0乃至15のうちのいずれ
かの値)を、注目高画質ブロックのクラスを表すクラス
コードとして出力する。従って、本実施の形態では、注
目高画質ブロックは、24(=16)個のクラスのうち
のいずれかにクラス分類されることになる。The class code generation circuit 52 uses the powers P 0 , P 1 , P 2 , and P 3 from the power calculation circuit 51 as corresponding threshold values TH 0, TH stored in the threshold value table storage unit 53.
1, TH2, and TH3, respectively, and outputs a class code based on the magnitude relation. That is, the class code generation circuit 52 compares the power P 0 and the threshold value TH0, obtain one-bit code representing the magnitude relationship. Similarly, the class code generation circuit 52 calculates the power P 1 and the threshold T
H1, the power P 2 and the threshold value TH2, the power P 3 and the threshold value TH3,
By comparing each, a 1-bit code is obtained for each. Then, the class code generation circuit 5
2 is a 4-bit code obtained by arranging the four 1-bit codes obtained as described above in, for example, a predetermined order (accordingly, any value from 0 to 15). Output as a class code representing the class of the high image quality block. Therefore, in the present embodiment, the high quality image block of interest is classified into any one of 2 4 (= 16) classes.
【0107】閾値テーブル記憶部53は、空間周波数帯
域S0乃至S3の電力P0乃至P3それぞれと比較する閾値
TH0乃至TH3を記憶している。The threshold table storage unit 53 stores thresholds TH0 to TH3 to be compared with the powers P 0 to P 3 of the spatial frequency bands S 0 to S 3 , respectively.
【0108】なお、上述の場合には、クラス分類処理
に、量子化DCT係数のDC成分x0が用いられない
が、このDC成分x0をも用いてクラス分類処理を行う
ことも可能である。In the above case, the DC component x 0 of the quantized DCT coefficient is not used in the class classification process. However, the class classification process can be performed using the DC component x 0. .
【0109】図6に戻り、以上のようなクラス分類回路
43が出力するクラスコードは、係数テーブル記憶部4
4に、アドレスとして与えられる。Returning to FIG. 6, the class code output from the classifying circuit 43 as described above is stored in the coefficient table storage unit 4.
4 is given as an address.
【0110】係数テーブル記憶部44は、後述するよう
な学習処理が行われることにより得られるタップ係数が
登録された係数テーブルを記憶しており、クラス分類回
路43が出力するクラスコードに対応するアドレスに記
憶されているタップ係数を積和演算回路45に出力す
る。The coefficient table storage unit 44 stores a coefficient table in which tap coefficients obtained by performing a learning process described later are registered, and stores an address corresponding to the class code output from the class classification circuit 43. Is output to the product-sum operation circuit 45.
【0111】ここで、本実施の形態では、注目高画質ブ
ロックについて、1つのクラスコードが得られる。一
方、高画質ブロックは、本実施の形態では、16×16
画素の256画素で構成されるから、注目高画質ブロッ
クについては、それを構成する256画素それぞれを復
号するための256セットのタップ係数が必要である。
従って、係数テーブル記憶部44には、1つのクラスコ
ードに対応するアドレスに対して、256セットのタッ
プ係数が記憶されている。Here, in the present embodiment, one class code is obtained for the high-quality block of interest. On the other hand, in the present embodiment, the high image quality block is 16 × 16
Since the target high-quality block is composed of 256 pixels, 256 sets of tap coefficients for decoding each of the 256 pixels constituting the block are necessary.
Therefore, the coefficient table storage unit 44 stores 256 sets of tap coefficients for an address corresponding to one class code.
【0112】積和演算回路45は、予測タップ抽出回路
41が出力する予測タップと、係数テーブル記憶部44
が出力するタップ係数とを取得し、その予測タップとタ
ップ係数とを用いて、式(1)に示した線形予測演算
(積和演算)を行い、その結果得られる注目高画質ブロ
ックの16×16画素の画素値(の予測値)を、対応す
るDCTブロックの復号結果として、ブロック分解回路
33(図3)に出力する。The product-sum operation circuit 45 stores the prediction tap output from the prediction tap extraction circuit 41 and the coefficient table storage 44
Obtains the tap coefficients output by the above, performs the linear prediction operation (product-sum operation) shown in Expression (1) using the prediction taps and the tap coefficients, and obtains the 16 × The pixel values (predicted values) of the 16 pixels are output to the block decomposition circuit 33 (FIG. 3) as decoding results of the corresponding DCT blocks.
【0113】ここで、予測タップ抽出回路41において
は、上述したように、注目高画質ブロックの各画素が、
順次、注目画素とされるが、積和演算回路45は、注目
高画質ブロックの、注目画素となっている画素の位置に
対応した動作モード(以下、適宜、画素位置モードとい
う)となって、処理を行う。Here, in the prediction tap extraction circuit 41, as described above, each pixel of the high-quality block of interest is
The target pixel is sequentially set as the target pixel, and the product-sum operation circuit 45 operates in an operation mode (hereinafter, appropriately referred to as a pixel position mode) corresponding to the position of the target pixel in the target high image quality block. Perform processing.
【0114】即ち、例えば、注目高画質ブロックの画素
のうち、ラスタスキャン順で、i番目の画素を、piと
表し、画素piが、注目画素となっている場合、積和演
算回路45は、画素位置モード#iの処理を行う。That is, for example, among the pixels of the high-quality block of interest, the i-th pixel in the raster scan order is represented by p i, and when the pixel p i is the pixel of interest, the product-sum operation circuit 45 Performs pixel position mode #i processing.
【0115】具体的には、上述したように、係数テーブ
ル記憶部44は、注目高画質ブロックを構成する256
画素それぞれを復号するための256セットのタップ係
数を出力するが、そのうちの画素piを復号するための
タップ係数のセットをWiと表すと、積和演算回路45
は、動作モードが、画素位置モード#iのときには、予
測タップと、256セットのタップ係数のうちのセット
Wiとを用いて、式(1)の積和演算を行い、その積和
演算結果を、画素piの復号結果とする。More specifically, as described above, the coefficient table storage unit 44 stores 256 high-quality blocks of interest.
Although outputs 256 tap coefficients set for decoding the respective pixels, to represent the set of tap coefficients for decoding the pixel p i of which the W i, sum-of-products operation circuit 45
The operation mode is, when the pixel position mode #i, using the prediction taps and a set W i of the tap coefficients 256 sets, performs product sum computation of the formula (1), the product-sum operation result Is the decoding result of the pixel p i .
【0116】次に、図10のフローチャートを参照し
て、図6の係数変換回路32の処理について説明する。Next, the processing of the coefficient conversion circuit 32 of FIG. 6 will be described with reference to the flowchart of FIG.
【0117】エントロピー復号回路31(図3)が出力
するブロックごとの量子化DCT係数は、予測タップ抽
出回路41およびクラスタップ抽出回路42において順
次受信され、予測タップ抽出回路41は、そこに供給さ
れる量子化DCT係数のブロック(DCTブロック)に
対応する高画質ブロックを、順次、注目高画質ブロック
とする。The quantized DCT coefficients for each block output from the entropy decoding circuit 31 (FIG. 3) are sequentially received by the prediction tap extraction circuit 41 and the class tap extraction circuit 42, and the prediction tap extraction circuit 41 is supplied thereto. High-quality blocks corresponding to blocks of quantized DCT coefficients (DCT blocks) are sequentially set as high-quality blocks of interest.
【0118】そして、クラスタップ抽出回路42は、ス
テップS11において、そこで受信した量子化DCT係
数の中から、注目高画質ブロックをクラス分類するのに
用いるものを抽出して、クラスタップを構成し、クラス
分類回路43に供給する。Then, in step S11, the class tap extracting circuit 42 extracts, from the quantized DCT coefficients received there, one used for classifying the high-quality block of interest, and forms a class tap. It is supplied to the class classification circuit 43.
【0119】クラス分類回路43は、ステップS12に
おいて、クラスタップ抽出回路42からのクラスタップ
を用いて、注目高画質ブロックをクラス分類し、その結
果得られるクラスコードを、係数テーブル記憶部44に
出力する。The class classification circuit 43 classifies the high-quality block of interest using the class tap from the class tap extraction circuit 42 in step S12, and outputs the resulting class code to the coefficient table storage unit 44. I do.
【0120】即ち、ステップS12では、図11のフロ
ーチャートに示すように、まず最初に、ステップS21
において、クラス分類回路43(図8)の電力演算回路
51が、クラスタップを構成する8×8個の量子化DC
T係数を、図9に示した4つの空間周波数帯域S0乃至
S3に分割し、それぞれの電力P0乃至P3を演算する。
この電力P0乃至P3は、電力演算回路51からクラスコ
ード生成回路52に出力される。That is, in step S12, as shown in the flowchart of FIG.
, The power calculation circuit 51 of the class classification circuit 43 (FIG. 8) uses 8 × 8 quantized DCs forming a class tap.
The T coefficient is divided into the four spatial frequency bands S 0 to S 3 shown in FIG. 9, and the respective powers P 0 to P 3 are calculated.
The powers P 0 to P 3 are output from the power calculation circuit 51 to the class code generation circuit 52.
【0121】クラスコード生成回路52は、ステップS
22において、閾値テーブル記憶部53から閾値TH0
乃至TH3を読み出し、電力演算回路51からの電力P
0乃至P3それぞれと、閾値TH0乃至TH3それぞれと
を比較し、それぞれの大小関係に基づいたクラスコード
を生成して、リターンする。The class code generation circuit 52 determines in step S
At 22, the threshold value TH0 is stored in the threshold value table storage unit 53.
To TH3 and read the power P from the power calculation circuit 51.
0 to the P 3, respectively, compared with the threshold TH0 to TH3 respectively, to generate a class code based on the respective magnitude relation, the process returns.
【0122】図10に戻り、ステップS12において以
上のようにして得られるクラスコードは、クラス分類回
路43から係数テーブル記憶部44に対して、アドレス
として与えられる。Returning to FIG. 10, the class code obtained as described above in step S12 is given from the class classification circuit 43 to the coefficient table storage unit 44 as an address.
【0123】係数テーブル記憶部44は、クラス分類回
路43からのアドレスとしてのクラスコードを受信する
と、ステップS13において、そのアドレスに記憶され
ている256セットのタップ係数(クラスコードのクラ
スに対応する256セットのタップ係数)を読み出し、
積和演算回路45に出力する。When the coefficient table storage unit 44 receives the class code as the address from the class classification circuit 43, in step S13, it sets 256 tap coefficients (256 corresponding to the class of the class code) stored at the address. Read out the tap coefficient of the set)
Output to the product-sum operation circuit 45.
【0124】そして、ステップS14に進み、予測タッ
プ抽出回路41は、注目高画質ブロックの画素のうち、
ラスタスキャン順で、まだ、注目画素とされていない画
素を、注目画素として、その注目画素の画素値を予測す
るのに用いる量子化DCT係数を抽出し、予測タップと
して構成する。この予測タップは、予測タップ抽出回路
41から積和演算回路45に供給される。Then, the process proceeds to a step S14, where the prediction tap extracting circuit 41 selects one of the pixels of the high quality image block of interest.
In the raster scan order, a pixel that has not yet been set as a target pixel is set as a target pixel, and a quantized DCT coefficient used for predicting a pixel value of the target pixel is extracted and configured as a prediction tap. The prediction tap is supplied from the prediction tap extraction circuit 41 to the product-sum operation circuit 45.
【0125】ここで、本実施の形態では、各高画質ブロ
ックごとに、その高画質ブロックのすべての画素につい
て、同一の予測タップが構成されるので、実際には、ス
テップS14の処理は、注目高画質ブロックについて、
最初に注目画素とされる画素に対してだけ行えば、残り
の255画素に対しては、行う必要がない。Here, in the present embodiment, the same prediction tap is formed for every pixel of each high-quality block for each high-quality block. For high quality blocks,
If the process is performed only on the pixel which is initially set as the target pixel, it is not necessary to perform the process on the remaining 255 pixels.
【0126】積和演算回路45は、ステップS15にお
いて、ステップS13で係数テーブル記憶部44が出力
する256セットのタップ係数のうち、注目画素に対す
る画素位置モードに対応するタップ係数のセットを取得
し、そのタップ係数のセットと、ステップS14で予測
タップ抽出回路41から供給される予測タップとを用い
て、式(1)に示した積和演算を行い、注目画素の画素
値の復号値を得る。In step S15, the product-sum operation circuit 45 acquires a set of tap coefficients corresponding to the pixel position mode for the target pixel from among the 256 sets of tap coefficients output from the coefficient table storage unit 44 in step S13. Using the set of tap coefficients and the prediction tap supplied from the prediction tap extraction circuit 41 in step S14, the product-sum operation shown in Expression (1) is performed to obtain a decoded value of the pixel value of the target pixel.
【0127】そして、ステップS16に進み、予測タッ
プ抽出回路41は、注目高画質ブロックのすべての画素
を、注目画素として処理を行ったかどうかを判定する。
ステップS16において、注目高画質ブロックのすべて
の画素を、注目画素として、まだ処理を行っていないと
判定された場合、ステップS14に戻り、予測タップ抽
出回路41は、注目高画質ブロックの画素のうち、ラス
タスキャン順で、まだ、注目画素とされていない画素
を、新たに注目画素として、以下、同様の処理を繰り返
す。Then, proceeding to step S16, the prediction tap extracting circuit 41 determines whether or not all pixels of the high quality image block of interest have been processed as the pixel of interest.
If it is determined in step S16 that all the pixels of the high-quality block of interest have not been processed yet as the pixel of interest, the process returns to step S14, and the prediction tap extraction circuit 41 returns In the raster scan order, a pixel which has not yet been set as a target pixel is set as a new target pixel, and the same processing is repeated thereafter.
【0128】また、ステップS16において、注目高画
質ブロックのすべての画素を、注目画素として処理を行
ったと判定された場合、即ち、注目高画質ブロックのす
べての画素の復号値(8×8の量子化DCT係数を、8
×8画素に復号し、さらに、その8×8画素を、16×
16画素に高画質化したもの)が得られた場合、積和演
算回路45は、その復号値で構成される高画質ブロック
を、ブロック分解回路33(図3)に出力し、処理を終
了する。If it is determined in step S16 that all pixels of the high-quality block of interest have been processed as the pixel of interest, that is, if the decoded values (8 × 8 quantum pixels) of all the pixels of the high-quality block of interest have been processed. The normalized DCT coefficient is 8
X8 pixels, and the 8x8 pixels are converted to 16x
If a 16-pixel high-quality image is obtained, the product-sum operation circuit 45 outputs the high-quality block composed of the decoded value to the block decomposition circuit 33 (FIG. 3), and ends the processing. .
【0129】なお、図10のフローチャートにしたがっ
た処理は、予測タップ抽出回路41が、新たな注目高画
質ブロックを設定するごとに繰り返し行われる。The process according to the flowchart of FIG. 10 is repeated each time the prediction tap extracting circuit 41 sets a new high-quality block of interest.
【0130】次に、図12は、図6の係数テーブル記憶
部44に記憶させるタップ係数の学習処理を行う学習装
置の一実施の形態の構成例を示している。Next, FIG. 12 shows an example of the configuration of an embodiment of a learning device for performing a learning process of tap coefficients stored in the coefficient table storage section 44 of FIG.
【0131】間引き回路60には、1枚以上の学習用の
画像データが、学習時の教師となる教師データとして供
給されるようになっており、間引き回路60は、その教
師データとしての画像について、図6の係数変換回路3
2における積和演算回路45がタップ係数を用いた積和
演算を行うことにより施す向上処理に基づく処理を施
す。即ち、ここでは、向上処理は、8×8画素を、その
横および縦の空間解像度を2倍にした16×16画素の
高画質のもの(解像度を向上させたもの)に変換する処
理であるから、間引き回路60は、教師データとしての
画像データの画素を間引き、その横および縦の画素数
を、いずれも1/2にした画像データ(以下、適宜、準
教師データという)を生成する。[0131] One or more pieces of learning image data are supplied to the thinning circuit 60 as teacher data to be a teacher at the time of learning. , The coefficient conversion circuit 3 of FIG.
The product-sum operation circuit 45 in 2 performs a process based on the enhancement process performed by performing the product-sum operation using the tap coefficients. That is, here, the improvement processing is processing for converting 8 × 8 pixels into high-quality 16 × 16 pixels (having an improved resolution) whose horizontal and vertical spatial resolutions are doubled. Then, the thinning circuit 60 thins out the pixels of the image data as the teacher data, and generates image data (hereinafter, appropriately referred to as quasi-teacher data) in which both the number of horizontal and vertical pixels are halved.
【0132】なお、準教師データとしての画像データ
は、エンコーダ21(図1)においてJPEG符号化の
対象とされる画像データと同一画質(解像度)のもので
あり、例えば、いま、このJPEG符号化の対象とされ
る画像を、SD(Standard Density)画像とすると、教師
データとする画像としては、そのSD画像の横および縦
の画素数を、いずれも2倍にしたHD(High Density)画
像を用いる必要がある。The image data as the quasi-teacher data has the same image quality (resolution) as the image data to be subjected to the JPEG encoding in the encoder 21 (FIG. 1). Assuming that the target image is an SD (Standard Density) image, the image to be used as teacher data is an HD (High Density) image in which the number of horizontal and vertical pixels of the SD image is doubled. Must be used.
【0133】ブロック化回路61は、間引き回路60が
生成する1枚以上の準教師データとしてのSD画像を、
JPEG符号化における場合と同様に、8×8画素の画
素ブロックにブロック化する。The blocking circuit 61 converts one or more SD images generated by the thinning circuit 60 as quasi-teacher data into
As in the case of JPEG encoding, the image data is divided into 8 × 8 pixel blocks.
【0134】DCT回路62は、ブロック化回路61が
ブロック化した画素ブロックを、順次読み出し、その画
素ブロックを、DCT処理することで、DCT係数のブ
ロックとする。このDCT係数のブロックは、量子化回
路63に供給される。The DCT circuit 62 sequentially reads out the pixel blocks formed by the blocking circuit 61 and performs DCT processing on the pixel blocks to obtain DCT coefficient blocks. This block of DCT coefficients is supplied to the quantization circuit 63.
【0135】量子化回路63は、DCT回路62からの
DCT係数のブロックを、エンコーダ21(図2)にお
けるJPEG符号化に用いられるのと同一の量子化テー
ブルにしたがって量子化し、その結果得られる量子化D
CT係数のブロック(DCTブロック)を、予測タップ
抽出回路64およびクラスタップ抽出回路65に順次供
給する。The quantization circuit 63 quantizes the block of DCT coefficients from the DCT circuit 62 in accordance with the same quantization table used for JPEG encoding in the encoder 21 (FIG. 2), and obtains the resulting quantization. Chemical D
The block of the CT coefficient (DCT block) is sequentially supplied to the prediction tap extracting circuit 64 and the class tap extracting circuit 65.
【0136】予測タップ抽出回路64は、後述する正規
方程式加算回路67が注目高画質ブロックとする高画質
ブロックを構成する16×16画素のうちの注目画素と
なっている画素について、図6の予測タップ抽出回路4
1が構成するのと同一の予測タップを、量子化回路63
の出力から、必要な量子化DCT係数を抽出することで
構成する。この予測タップは、学習時の生徒となる生徒
データとして、予測タップ抽出回路64から正規方程式
加算回路67に供給される。The prediction tap extracting circuit 64 calculates a prediction pixel in FIG. 6 for a pixel which is a pixel of interest out of 16 × 16 pixels constituting a high image quality block to be a high image quality block of interest by a normal equation adding circuit 67 described later. Tap extraction circuit 4
1 constitutes the same prediction tap as the quantization circuit 63
, By extracting necessary quantized DCT coefficients from the output. The prediction tap is supplied from the prediction tap extraction circuit 64 to the normal equation addition circuit 67 as student data to be a student during learning.
【0137】クラスタップ抽出回路65は、注目高画質
ブロックについて、図6のクラスタップ抽出回路42が
構成するのと同一のクラスタップを、量子化回路63の
出力から、必要な量子化DCT係数を抽出することで構
成する。このクラスタップは、クラスタップ抽出回路6
5からクラス分類回路66に供給される。The class tap extracting circuit 65 calculates the same class tap as that constituted by the class tap extracting circuit 42 in FIG. It is composed by extracting. This class tap is a class tap extraction circuit 6
5 is supplied to the classifying circuit 66.
【0138】クラス分類回路66は、クラスタップ抽出
回路65からのクラスタップを用いて、図6のクラス分
類回路43と同一の処理を行うことで、注目高画質ブロ
ックをクラス分類し、その結果得られるクラスコード
を、正規方程式加算回路67に供給する。The class classification circuit 66 performs the same processing as the class classification circuit 43 of FIG. 6 using the class tap from the class tap extraction circuit 65, thereby classifying the high-quality image block of interest and obtaining the result. The supplied class code is supplied to the normal equation adding circuit 67.
【0139】正規方程式加算回路67には、間引き回路
60に教師データとして供給されるのと同一のHD画像
が供給されるようになっており、正規方程式加算回路6
7は、そのHD画像を、16×16画素の高画質ブロッ
クにブロック化し、その高画質ブロックを、順次、注目
高画質ブロックとする。さらに、正規方程式加算回路6
7は、注目高画質ブロックを構成する16×16画素の
うち、例えば、ラスタスキャン順で、まだ注目画素とさ
れていないものを、順次、注目画素とし、その注目画素
(の画素値)と、予測タップ構成回路64からの予測タ
ップ(を構成する量子化DCT係数)を対象とした足し
込みを行う。To the normal equation adding circuit 67, the same HD image as that supplied to the thinning circuit 60 as teacher data is supplied.
7 divides the HD image into high-quality blocks of 16 × 16 pixels, and sequentially sets the high-quality blocks as high-quality blocks of interest. Further, the normal equation adding circuit 6
7, among the 16 × 16 pixels constituting the target high-quality image block, for example, in the raster scan order, those not yet set as the target pixel are sequentially set as the target pixel, and (the pixel value of) the target pixel. The addition is performed on the prediction tap (the quantized DCT coefficient constituting the prediction tap) from the prediction tap configuration circuit 64.
【0140】即ち、正規方程式加算回路67は、クラス
分類回路66から供給されるクラスコードに対応するク
ラスごとに、予測タップ(生徒データ)を用い、式
(8)の行列Aにおける各コンポーネントとなってい
る、生徒データどうしの乗算(xinxim)と、サメーシ
ョン(Σ)に相当する演算を行う。That is, the normal equation addition circuit 67 uses the prediction taps (student data) for each class corresponding to the class code supplied from the class classification circuit 66 to generate each component in the matrix A of the equation (8). Multiplication (x in x im ) between the student data, and an operation corresponding to summation (Σ).
【0141】さらに、正規方程式加算回路67は、やは
り、クラス分類回路66から供給されるクラスコードに
対応するクラスごとに、予測タップ(生徒データ)およ
び注目画素(教師データ)を用い、式(8)のベクトル
vにおける各コンポーネントとなっている、生徒データ
と教師データの乗算(xinyi)と、サメーション
(Σ)に相当する演算を行う。Further, the normal equation addition circuit 67 uses the prediction tap (student data) and the pixel of interest (teacher data) for each class corresponding to the class code supplied from the class classification circuit 66, and calculates the equation (8). )), Multiplication (x in y i ) of student data and teacher data, which are components in the vector v, and an operation corresponding to summation (Σ) are performed.
【0142】なお、正規方程式加算回路67における、
上述のような足し込みは、各クラスについて、注目画素
に対する画素位置モードごとに行われる。Note that the normal equation addition circuit 67
The above-described addition is performed for each class in each pixel position mode for the target pixel.
【0143】正規方程式加算回路67は、以上の足し込
みを、そこに供給される教師データとしてのHD画像を
構成する画素すべてを注目画素として行い、これによ
り、各クラスについて、画素位置モードごとに、式
(8)に示した正規方程式をたてる。The normal equation adding circuit 67 performs the above-mentioned addition with all the pixels constituting the HD image serving as teacher data supplied thereto as target pixels, and thereby, for each class, for each pixel position mode. The normal equation shown in equation (8) is established.
【0144】タップ係数決定回路68は、正規方程式加
算回路67においてクラスごとに(かつ、画素位置モー
ドごとに)生成された正規方程式を解くことにより、ク
ラスごとに、256セットのタップ係数を求め、係数テ
ーブル記憶部69の、各クラスに対応するアドレスに供
給する。The tap coefficient determination circuit 68 solves the normal equation generated for each class (and for each pixel position mode) in the normal equation addition circuit 67, thereby obtaining 256 sets of tap coefficients for each class. The coefficients are supplied to addresses corresponding to each class in the coefficient table storage unit 69.
【0145】なお、学習用の画像として用意する画像の
枚数や、その画像の内容等によっては、正規方程式加算
回路67において、タップ係数を求めるのに必要な数の
正規方程式が得られないクラスが生じる場合があり得る
が、タップ係数決定回路68は、そのようなクラスにつ
いては、例えば、デフォルトのタップ係数を出力する。Note that, depending on the number of images prepared as learning images, the contents of the images, and the like, the normal equation adding circuit 67 does not provide a class in which the necessary number of normal equations for obtaining the tap coefficients cannot be obtained. In such a case, the tap coefficient determination circuit 68 outputs, for example, a default tap coefficient for such a class.
【0146】係数テーブル記憶部69は、タップ係数決
定回路68から供給されるクラスごとの256セットの
タップ係数を記憶する。The coefficient table storage section 69 stores 256 sets of tap coefficients for each class supplied from the tap coefficient determination circuit 68.
【0147】次に、図13のフローチャートを参照し
て、図12の学習装置の処理(学習処理)について説明
する。Next, the processing (learning processing) of the learning apparatus of FIG. 12 will be described with reference to the flowchart of FIG.
【0148】間引き回路60には、学習用の画像データ
であるHD画像が、教師データとして供給され、間引き
回路60は、ステップS30において、その教師データ
としてのHD画像の画素を間引き、その横および縦の画
素数を、いずれも1/2にした準教師データとしてのS
D画像を生成する。The HD image, which is image data for learning, is supplied to the thinning circuit 60 as teacher data. In step S30, the thinning circuit 60 thins out the pixels of the HD image as the teacher data, S as quasi-teacher data in which the number of vertical pixels is halved
Generate a D image.
【0149】そして、ブロック化回路61は、ステップ
S31において、間引き回路60で得られた準教師デー
タとしてのSD画像を、エンコーダ21(図2)による
JPEG符号化における場合と同様に、8×8画素の画
素ブロックにブロック化して、ステップS32に進む。
ステップS32では、DCT回路62が、ブロック化回
路61がブロック化した画素ブロックを、順次読み出
し、その画素ブロックを、DCT処理することで、DC
T係数のブロックとし、ステップS33に進む。ステッ
プS33では、量子化回路63が、DCT回路62にお
いて得られたDCT係数のブロックを順次読み出し、エ
ンコーダ21におけるJPEG符号化に用いられるのと
同一の量子化テーブルにしたがって量子化して、量子化
DCT係数で構成されるブロック(DCTブロック)と
する。Then, in step S31, the blocking circuit 61 converts the SD image as the quasi-teacher data obtained by the thinning circuit 60 into 8 × 8 in the same manner as in the case of JPEG encoding by the encoder 21 (FIG. 2). The process is divided into pixel blocks of pixels, and the process proceeds to step S32.
In step S32, the DCT circuit 62 sequentially reads out the pixel blocks that have been blocked by the blocking circuit 61, and performs DCT processing on the pixel blocks to obtain a DCT.
The block is a T coefficient block, and the process proceeds to step S33. In step S33, the quantization circuit 63 sequentially reads out the blocks of the DCT coefficients obtained in the DCT circuit 62, quantizes the blocks according to the same quantization table used for the JPEG encoding in the encoder 21, and performs the quantization DCT. The block is made up of coefficients (DCT block).
【0150】一方、正規方程式加算回路67にも、教師
データとしてのHD画像が供給され、正規方程式加算回
路67は、そのHD画像を、16×16画素の高画質ブ
ロックにブロック化し、ステップS34において、その
高画質ブロックのうち、まだ、注目高画質ブロックとさ
れていないものを、注目高画質ブロックとする。さら
に、ステップS34では、クラスタップ抽出回路65
が、ブロック化回路61でブロック化された画素ブロッ
クのうち、注目高画質ブロックをクラス分類するのに用
いる量子化DCT係数を、量子化回路63で得られたD
CTブロックから抽出して、クラスタップを構成し、ク
ラス分類回路66に供給する。クラス分類回路66は、
ステップS35において、図11のフローチャートで説
明した場合と同様に、クラスタップ抽出回路65からの
クラスタップを用いて、注目高画質ブロックをクラス分
類し、その結果得られるクラスコードを、正規方程式加
算回路67に供給して、ステップS36に進む。On the other hand, the HD image as teacher data is also supplied to the normal equation addition circuit 67, and the normal equation addition circuit 67 divides the HD image into high-quality blocks of 16 × 16 pixels. Of the high image quality blocks, those which have not yet been set as the high quality image block of interest are set as high quality image blocks of interest. Further, in step S34, the class tap extraction circuit 65
However, among the pixel blocks blocked by the blocking circuit 61, the quantized DCT coefficients used for classifying the high-quality block of interest are obtained by the D
A class tap is extracted from the CT block, and is supplied to a class classification circuit 66. The classification circuit 66
In step S35, the high-quality block of interest is classified into classes using the class taps from the class tap extraction circuit 65, as in the case described with reference to the flowchart of FIG. Then, the process proceeds to step S36.
【0151】ステップS36では、正規方程式加算回路
67が、注目高画質ブロックの画素のうち、ラスタスキ
ャン順で、まだ、注目画素とされていない画素を、注目
画素とし、予測タップ抽出回路64が、その注目画素に
ついて、図6の予測タップ抽出回路41が構成するのと
同一の予測タップを、量子化回路63の出力から必要な
量子化DCT係数を抽出することで構成する。そして、
予測タップ抽出回路64は、注目画素についての予測タ
ップを、生徒データとして、正規方程式加算回路67に
供給し、ステップS37に進む。In step S36, the normal equation adding circuit 67 sets, as the target pixel, a pixel which has not been set as the target pixel in the raster scan order among the pixels of the target high image quality block, and sets the prediction tap extracting circuit 64 as For the pixel of interest, the same prediction tap as that formed by the prediction tap extraction circuit 41 in FIG. 6 is configured by extracting necessary quantized DCT coefficients from the output of the quantization circuit 63. And
The prediction tap extraction circuit 64 supplies the prediction tap for the pixel of interest to the normal equation addition circuit 67 as student data, and proceeds to step S37.
【0152】ステップS37では、正規方程式加算回路
67は、教師データとしての注目画素と、生徒データと
しての予測タップ(を構成する量子化DCT係数)を対
象として、式(8)の行列Aとベクトルvの、上述した
ような足し込みを行う。なお、この足し込みは、クラス
分類回路66からのクラスコードに対応するクラスごと
に、かつ注目画素に対する画素位置モードごとに行われ
る。In step S37, the normal equation adding circuit 67 applies the matrix A and the vector of the equation (8) to the target pixel as teacher data and the prediction tap (the quantized DCT coefficient constituting the student data) as student data. v is added as described above. This addition is performed for each class corresponding to the class code from the class classification circuit 66 and for each pixel position mode for the target pixel.
【0153】そして、ステップS38に進み、正規方程
式加算回路67は、注目高画質ブロックのすべての画素
を、注目画素として、足し込みを行ったかどうかを判定
する。ステップS38において、注目高画質ブロックの
すべての画素を、注目画素として、まだ足し込みを行っ
ていないと判定された場合、ステップS36に戻り、正
規方程式加算回路67は、注目高画質ブロックの画素の
うち、ラスタスキャン順で、まだ、注目画素とされてい
ない画素を、新たに注目画素とし、以下、同様の処理を
繰り返す。Then, the process proceeds to a step S38, where the normal equation adding circuit 67 determines whether or not all the pixels of the high quality image block of interest have been added as the pixel of interest. If it is determined in step S38 that all the pixels of the high-quality block of interest have not been added yet as the pixel of interest, the process returns to step S36, and the normal equation adding circuit 67 returns to the normal equation adding circuit 67. Of these, a pixel that has not been set as the pixel of interest in the raster scan order is newly set as the pixel of interest, and the same processing is repeated thereafter.
【0154】また、ステップS38において、注目高画
質ブロックのすべての画素を、注目画素として、足し込
みを行ったと判定された場合、ステップS39に進み、
正規方程式加算回路67は、教師データとしての画像か
ら得られたすべての高画質ブロックを、注目高画質ブロ
ックとして処理を行ったかどうかを判定する。ステップ
S39において、教師データとしての画像から得られた
すべての高画質ブロックを、注目高画質ブロックとし
て、まだ処理を行っていないと判定された場合、ステッ
プS34に戻り、まだ注目高画質ブロックとされていな
い高画質ブロックが、新たに注目高画質ブロックとさ
れ、以下、同様の処理が繰り返される。If it is determined in step S38 that all pixels of the high-quality block of interest have been added as the pixel of interest, the flow advances to step S39.
The normal equation adding circuit 67 determines whether or not all the high-quality blocks obtained from the image as the teacher data have been processed as the high-quality blocks of interest. In step S39, if it is determined that all the high-quality blocks obtained from the image as the teacher data have not been processed yet as the high-quality block of interest, the process returns to step S34, and is determined as the high-quality block of interest. A high-quality block that has not been used is newly set as a high-quality block of interest, and the same processing is repeated thereafter.
【0155】一方、ステップS39において、教師デー
タとしての画像から得られたすべての高画質ブロック
を、注目高画質ブロックとして処理を行ったと判定され
た場合、即ち、正規方程式加算回路67において、各ク
ラスについて、画素位置モードごとの正規方程式が得ら
れた場合、ステップS40に進み、タップ係数決定回路
68は、各クラスの画素位置モードごとに生成された正
規方程式を解くことにより、各クラスごとに、そのクラ
スの256の画素位置モードそれぞれに対応する256
セットのタップ係数を求め、係数テーブル記憶部69
の、各クラスに対応するアドレスに供給して記憶させ、
処理を終了する。On the other hand, if it is determined in step S39 that all the high-quality blocks obtained from the image as the teacher data have been processed as the high-quality blocks of interest, that is, the normal equation adding circuit 67 When the normal equation for each pixel position mode is obtained, the process proceeds to step S40, where the tap coefficient determination circuit 68 solves the normal equation generated for each class of pixel position mode, so that for each class, 256 corresponding to each of the 256 pixel position modes of the class
The tap coefficient of the set is determined, and the coefficient table storage unit 69
Of the class is supplied to the address corresponding to each class and stored,
The process ends.
【0156】以上のようにして、係数テーブル記憶部6
9に記憶された各クラスごとのタップ係数が、図6の係
数テーブル記憶部44に記憶されている。As described above, the coefficient table storage unit 6
The tap coefficients for each class stored in 9 are stored in the coefficient table storage unit 44 in FIG.
【0157】従って、係数テーブル記憶部44に記憶さ
れたタップ係数は、線形予測演算を行うことにより得ら
れる元の画素値の予測値の予測誤差(ここでは、自乗誤
差)が、統計的に最小になるように学習を行うことによ
り求められたものであり、その結果、図6の係数変換回
路32によれば、JPEG符号化された画像を、教師デ
ータとして用いたHD画像の画質に限りなく近い高画質
の画像に復号することができる。Therefore, the tap coefficients stored in the coefficient table storage unit 44 are such that the prediction error (here, the square error) of the prediction value of the original pixel value obtained by performing the linear prediction operation is statistically minimized. Thus, according to the coefficient conversion circuit 32 shown in FIG. 6, the JPEG encoded image is not limited to the image quality of the HD image used as the teacher data. It can be decoded into a close high-quality image.
【0158】さらに、係数変換回路32によれば、上述
したように、JPEG符号化された画像の復号処理と、
その画質を向上させるための向上処理とが、同時に施さ
れることとなるので、JPEG符号化された画像から、
効率的に、高画質化された復号画像を得ることができ
る。Further, according to the coefficient conversion circuit 32, as described above, the decoding processing of the JPEG-coded image
Since the improvement processing for improving the image quality is performed at the same time, the JPEG encoded image is
A high-quality decoded image can be obtained efficiently.
【0159】次に、図14は、図3の係数変換回路32
の第2の構成例を示している。なお、図中、図6におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
14の係数変換回路32は、逆量子化回路71が新たに
設けられている他は、基本的に、図6における場合と同
様に構成されている。Next, FIG. 14 shows the coefficient conversion circuit 32 of FIG.
2 shows a second configuration example. In the figure, parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the coefficient conversion circuit 32 in FIG. 14 has basically the same configuration as that in FIG. 6 except that an inverse quantization circuit 71 is newly provided.
【0160】図14の実施の形態において、逆量子化回
路71には、エントロピー復号回路31(図3)におい
て符号化データをエントロピー復号することにより得ら
れるブロックごとの量子化DCT係数が供給される。In the embodiment shown in FIG. 14, a quantized DCT coefficient for each block obtained by entropy decoding encoded data in entropy decoding circuit 31 (FIG. 3) is supplied to inverse quantization circuit 71. .
【0161】なお、エントロピー復号回路31において
は、上述したように、符号化データから、量子化DCT
係数の他、量子化テーブルも得られるが、図14の実施
の形態では、この量子化テーブルも、エントロピー復号
回路31から逆量子化回路71に供給されるようになっ
ている。As described above, the entropy decoding circuit 31 converts the coded data from the quantized DCT
In addition to the coefficients, a quantization table can be obtained. In the embodiment shown in FIG. 14, this quantization table is also supplied from the entropy decoding circuit 31 to the inverse quantization circuit 71.
【0162】逆量子化回路71は、エントロピー復号回
路31からの量子化DCT係数を、同じくエントロピー
復号回路31からの量子化テーブルにしたがって逆量子
化し、その結果得られるDCT係数を、予測タップ抽出
回路41およびクラスタップ抽出回路42に供給する。The inverse quantization circuit 71 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 31 in accordance with the quantization table from the entropy decoding circuit 31, and converts the resulting DCT coefficient into a prediction tap extraction circuit. 41 and a class tap extraction circuit 42.
【0163】従って、予測タップ抽出回路41とクラス
タップ抽出回路42では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図6における場合と同様の処理が行われる。Therefore, in the prediction tap extraction circuit 41 and the class tap extraction circuit, not the quantized DCT coefficient but
A prediction tap and a class tap are respectively configured for DCT coefficients, and thereafter, for DCT coefficients,
The same processing as in FIG. 6 is performed.
【0164】このように、図14の実施の形態では、量
子化DCT係数ではなく、DCT係数を対象として処理
が行われるため、係数テーブル記憶部44に記憶させる
タップ係数は、図6における場合と異なるものとする必
要がある。As described above, in the embodiment of FIG. 14, since the processing is performed not on the quantized DCT coefficient but on the DCT coefficient, the tap coefficients stored in the coefficient table storage section 44 are the same as those in FIG. It needs to be different.
【0165】そこで、図15は、図14の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図12における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、適宜省
略する。即ち、図15の学習装置は、量子化回路63の
後段に、逆量子化回路81が新たに設けられている他
は、図12における場合と基本的に同様に構成されてい
る。FIG. 15 shows an example of the configuration of an embodiment of a learning device for performing a learning process of tap coefficients stored in the coefficient table storage section 44 of FIG. In the figure, parts corresponding to those in FIG. 12 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the learning device in FIG. 15 is configured basically in the same manner as in FIG. 12 except that an inverse quantization circuit 81 is newly provided at the subsequent stage of the quantization circuit 63.
【0166】図15の実施の形態において、逆量子化回
路81は、逆量子化回路63が出力する量子化DCT係
数を、図14の逆量子化回路71と同様に逆量子化し、
その結果得られるDCT係数を、予測タップ抽出回路6
4およびクラスタップ抽出回路65に供給する。In the embodiment shown in FIG. 15, the inverse quantization circuit 81 inversely quantizes the quantized DCT coefficient output from the inverse quantization circuit 63 in the same manner as the inverse quantization circuit 71 shown in FIG.
The DCT coefficients obtained as a result are extracted by the prediction tap extraction circuit 6.
4 and the class tap extraction circuit 65.
【0167】従って、予測タップ抽出回路64とクラス
タップ抽出回路65では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図12における場合と同様の処理が行われる。Therefore, in the prediction tap extraction circuit 64 and the class tap extraction circuit 65, not the quantized DCT coefficient but
A prediction tap and a class tap are respectively configured for DCT coefficients, and thereafter, for DCT coefficients,
The same processing as in FIG. 12 is performed.
【0168】その結果、DCT係数が量子化され、さら
に逆量子化されることにより生じる量子化誤差の影響を
低減するタップ係数が得られることになる。As a result, a tap coefficient that reduces the influence of a quantization error caused by the DCT coefficient being quantized and further dequantized is obtained.
【0169】次に、図16は、図3の係数変換回路32
の第3の構成例を示している。なお、図中、図6におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
16の係数変換回路32は、クラスタップ抽出回路42
およびクラス分類回路43が設けられていない他は、基
本的に、図6における場合と同様に構成されている。Next, FIG. 16 shows the coefficient conversion circuit 32 of FIG.
3 shows a third configuration example. In the figure, parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the coefficient conversion circuit 32 of FIG.
The configuration is basically the same as that in FIG. 6 except that the class classification circuit 43 is not provided.
【0170】従って、図16の実施の形態では、クラス
という概念がないが、このことは、クラスが1つである
とも考えるから、係数テーブル記憶部44には、1クラ
スのタップ係数だけが記憶されており、これを用いて処
理が行われる。Therefore, in the embodiment shown in FIG. 16, there is no concept of a class. However, since it is considered that there is only one class, the coefficient table storage unit 44 stores only one class of tap coefficients. The processing is performed using this.
【0171】このように、図16の実施の形態では、係
数テーブル記憶部44に記憶されているタップ係数は、
図6における場合と異なるものとなっている。As described above, in the embodiment of FIG. 16, the tap coefficients stored in the coefficient table storage section 44 are:
This is different from the case in FIG.
【0172】そこで、図17は、図16の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図12における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、適宜省
略する。即ち、図17の学習装置は、クラスタップ抽出
回路65およびクラス分類回路66が設けられていない
他は、図12における場合と基本的に同様に構成されて
いる。FIG. 17 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG. In the figure, parts corresponding to those in FIG. 12 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the learning device in FIG. 17 is basically configured in the same manner as in FIG. 12 except that the class tap extraction circuit 65 and the class classification circuit 66 are not provided.
【0173】従って、図17の学習装置では、正規方程
式加算回路67において、上述の足し込みが、クラスに
は無関係に、画素位置モード別に行われる。そして、タ
ップ係数決定回路68において、画素位置モードごとに
生成された正規方程式を解くことにより、タップ係数が
求められる。Therefore, in the learning apparatus of FIG. 17, the above-described addition is performed for each pixel position mode in the normal equation addition circuit 67 regardless of the class. Then, the tap coefficient is determined in the tap coefficient determination circuit 68 by solving the normal equation generated for each pixel position mode.
【0174】次に、図18は、図3の係数変換回路32
の第4の構成例を示している。なお、図中、図6または
図14における場合と対応する部分については、同一の
符号を付してあり、以下では、その説明は、適宜省略す
る。即ち、図18の係数変換回路32は、クラスタップ
抽出回路42およびクラス分類回路43が設けられてお
らず、かつ逆量子化回路71が新たに設けられている他
は、基本的に、図6における場合と同様に構成されてい
る。Next, FIG. 18 shows the coefficient conversion circuit 32 of FIG.
4 shows a fourth configuration example. In the drawings, portions corresponding to those in FIG. 6 or FIG. 14 are denoted by the same reference numerals, and a description thereof will be omitted below as appropriate. That is, the coefficient conversion circuit 32 shown in FIG. 18 is basically the same as that shown in FIG. 6 except that the class tap extraction circuit 42 and the class classification circuit 43 are not provided and the inverse quantization circuit 71 is newly provided. Are configured in the same manner as in the above.
【0175】従って、図18の実施の形態では、上述の
図16の実施の形態における場合と同様に、係数テーブ
ル記憶部44には、1クラスのタップ係数だけが記憶さ
れており、これを用いて処理が行われる。Therefore, in the embodiment of FIG. 18, as in the case of the above-described embodiment of FIG. 16, only one class of tap coefficients is stored in the coefficient table storage section 44. The processing is performed.
【0176】さらに、図18の実施の形態では、図14
の実施の形態における場合と同様に、予測タップ抽出回
路41において、量子化DCT係数ではなく、逆量子化
回路71が出力するDCT係数を対象として、予測タッ
プが構成され、以降も、DCT係数を対象として、処理
が行われる。Further, in the embodiment shown in FIG.
Similarly to the case of the embodiment, in the prediction tap extraction circuit 41, prediction taps are configured not for the quantized DCT coefficients but for the DCT coefficients output from the inverse quantization circuit 71. Processing is performed as an object.
【0177】従って、図18の実施の形態でも、係数テ
ーブル記憶部44に記憶されているタップ係数は、図6
における場合と異なるものとなっている。Therefore, also in the embodiment of FIG. 18, the tap coefficients stored in the coefficient table
It is different from the case of.
【0178】そこで、図19は、図18の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図12または図15における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図19の学習装置は、クラ
スタップ抽出回路65およびクラス分類回路66が設け
られておらず、かつ逆量子化回路81が新たに設けられ
ている他は、図12における場合と基本的に同様に構成
されている。FIG. 19 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG. In the drawings, the same reference numerals are given to portions corresponding to the case in FIG. 12 or FIG. 15, and the description thereof will be appropriately omitted below. That is, the learning apparatus of FIG. 19 is basically the same as that of FIG. 12 except that the class tap extraction circuit 65 and the class classification circuit 66 are not provided, and the inverse quantization circuit 81 is newly provided. It is configured similarly.
【0179】従って、図19の学習装置では、予測タッ
プ抽出回路64において、量子化DCT係数ではなく、
DCT係数を対象として、予測タップが構成され、以降
も、DCT係数を対象として処理が行われる。さらに、
正規方程式加算回路67において、上述の足し込みが、
クラスには無関係に行われ、タップ係数決定回路68に
おいて、クラスと無関係に生成された正規方程式を解く
ことにより、タップ係数が求められる。Therefore, in the learning device of FIG. 19, in the prediction tap extracting circuit 64, instead of the quantized DCT coefficient,
Prediction taps are configured for DCT coefficients, and thereafter, processing is performed for DCT coefficients. further,
In the normal equation adding circuit 67, the above addition is
The tap coefficient is obtained by solving a normal equation generated independently of the class in the tap coefficient determination circuit 68 regardless of the class.
【0180】次に、以上においては、静止画を圧縮符号
化するJPEG符号化された画像を対象としたが、本発
明は、動画を圧縮符号化する、例えば、MPEG符号化
された画像を対象とすることも可能である。Next, in the above description, JPEG-encoded images for compressing and encoding still images are used. However, the present invention relates to compression-encoding of moving images, for example, MPEG-encoded images. It is also possible to use
【0181】即ち、図20は、MPEG符号化が行われ
る場合の、図2のエンコーダ21の構成例を示してい
る。That is, FIG. 20 shows an example of the configuration of the encoder 21 shown in FIG. 2 when MPEG coding is performed.
【0182】MPEG符号化の対象である動画を構成す
るフレーム(またはフィールド)は、順次、動き検出回
路91と演算器92に供給される。The frames (or fields) constituting the moving image to be MPEG-encoded are sequentially supplied to a motion detection circuit 91 and a computing unit 92.
【0183】動き検出回路91は、そこに供給されるフ
レームについて、16×16画素のマクロブロック単位
で、動きベクトルを検出し、エントロピー符号化回路9
6および動き補償回路100に供給する。The motion detection circuit 91 detects a motion vector of a frame supplied thereto in units of macroblocks of 16 × 16 pixels, and the entropy encoding circuit 9
6 and the motion compensation circuit 100.
【0184】演算器92は、そこに供給される画像が、
I(Intra)ピクチャであれば、そのままブロック化回路
93に供給し、P(Predictive)またはB(Bidirectional
ly predictive)ピクチャであれば、動き補償回路100
から供給される参照画像との差分を演算して、その差分
値を、ブロック化回路93に供給する。The arithmetic unit 92 determines that the image supplied thereto is
If the picture is an I (Intra) picture, it is supplied to the blocking circuit 93 as it is, and the picture is P (Predictive) or B (Bidirectional).
ly predictive) picture, the motion compensation circuit 100
, And the difference value is supplied to the blocking circuit 93.
【0185】ブロック化回路93は、演算器92の出力
を、8×8画素の画素ブロックにブロック化し、DCT
回路94に供給する。DCT回路94は、ブロック化回
路93からの画素ブロックをDCT処理し、その結果得
られるDCT係数を、量子化回路95に供給する。量子
化回路95は、DCT回路93からのブロック単位のD
CT係数を所定の量子化ステップで量子化し、その結果
得られる量子化DCT係数をエントロピー符号化回路9
6に供給する。エントロピー符号化回路96は、量子化
回路95からの量子化DCT係数をエントロピー符号化
し、動き検出回路91からの動きベクトルや、その他の
必要な情報を付加して、その結果得られる符号化データ
(例えば、MPEGトランスポートストリーム)を、M
PEG符号化結果として出力する。A blocking circuit 93 divides the output of the arithmetic unit 92 into 8 × 8 pixel blocks, and performs DCT.
The signal is supplied to a circuit 94. The DCT circuit 94 performs a DCT process on the pixel block from the blocking circuit 93, and supplies a DCT coefficient obtained as a result to the quantization circuit 95. The quantization circuit 95 receives the D from the DCT circuit 93 in block units.
The CT coefficients are quantized in a predetermined quantization step, and the resulting quantized DCT coefficients are
6 The entropy encoding circuit 96 entropy-encodes the quantized DCT coefficient from the quantization circuit 95, adds the motion vector from the motion detection circuit 91 and other necessary information, and obtains encoded data ( For example, an MPEG transport stream)
Output as PEG encoding result.
【0186】量子化回路95が出力する量子化DCT係
数のうち、IピクチャおよびPピクチャは、後で符号化
されるPピクチャやBピクチャの参照画像として用いる
のにローカルデコードする必要があるため、エントロピ
ー符号化回路96の他、逆量子化回路97にも供給され
る。Of the quantized DCT coefficients output by the quantization circuit 95, I-pictures and P-pictures need to be locally decoded to be used as reference pictures for P-pictures and B-pictures to be encoded later. In addition to the entropy encoding circuit 96, the signal is also supplied to an inverse quantization circuit 97.
【0187】逆量子化回路97は、量子化回路95から
の量子化DCT係数を逆量子化することにより、DCT
係数とし、逆DCT回路98に供給する。逆DCT回路
98は、逆量子化回路97からのDCT係数を逆DCT
処理し、演算器99に出力する。演算器99には、逆D
CT回路98の出力の他、動き補償回路100が出力す
る参照画像も供給されるようになっており、演算器99
は、逆DCT回路98の出力が、Pピクチャのものであ
る場合には、その出力と、動き補償回路100の出力と
を加算することで、元の画像を復号し、動き補償回路1
00に供給する。また、演算器99は、逆DCT回路9
8の出力が、Iピクチャのものである場合には、その出
力は、Iピクチャの復号画像となっているので、そのま
ま、動き補償回路100に供給する。The inverse quantization circuit 97 inversely quantizes the quantized DCT coefficient from the quantization circuit 95, thereby obtaining the DCT
The coefficients are supplied to the inverse DCT circuit 98. The inverse DCT circuit 98 converts the DCT coefficient from the inverse quantization circuit 97 into an inverse DCT
Process and output to the arithmetic unit 99. The arithmetic unit 99 has an inverse D
In addition to the output of the CT circuit 98, a reference image output by the motion compensation circuit 100 is also supplied.
When the output of the inverse DCT circuit 98 is that of a P picture, the output of the inverse DCT circuit 98 is added to the output of the motion compensation circuit 100 to decode the original image, and the motion compensation circuit 1
Supply to 00. The arithmetic unit 99 includes the inverse DCT circuit 9
If the output of No. 8 is that of an I picture, the output is a decoded image of the I picture, so that the output is supplied to the motion compensation circuit 100 as it is.
【0188】動き補償回路100は、演算器99から供
給される、ローカルデコードされた画像に対して、動き
検出回路91からの動きベクトルにしたがった動き補償
を施し、その動き補償後の画像を、参照画像として、演
算器92および99に供給する。The motion compensation circuit 100 performs motion compensation on the locally decoded image supplied from the arithmetic unit 99 according to the motion vector from the motion detection circuit 91, and outputs the image after the motion compensation. The reference images are supplied to computing units 92 and 99.
【0189】ここで、図21は、以上のようなMPEG
符号化の結果得られる符号化データを復号する、従来の
MPEGデコーダの一例の構成を示している。Here, FIG. 21 shows the above MPEG format.
1 shows an example of a configuration of a conventional MPEG decoder for decoding encoded data obtained as a result of encoding.
【0190】符号化データは、エントロピー復号回路1
11に供給され、エントロピー復号回路111は、符号
化データをエントロピー復号し、量子化DCT係数、動
きベクトル、その他の情報を得る。そして、量子化DC
T係数は、逆量子化回路112に供給され、動きベクト
ルは、動き補償回路116に供給される。The coded data is transmitted to the entropy decoding circuit 1
The entropy decoding circuit 111 entropy decodes the encoded data to obtain quantized DCT coefficients, motion vectors, and other information. And the quantized DC
The T coefficient is supplied to the inverse quantization circuit 112, and the motion vector is supplied to the motion compensation circuit 116.
【0191】逆量子化回路112は、エントロピー復号
回路111からの量子化DCT係数を逆量子化すること
により、DCT係数とし、逆DCT回路113に供給す
る。逆DCT回路113は、逆量子化回路112からの
DCT係数を逆DCT処理し、演算器114に出力す
る。演算器114には、逆量子化回路113の出力の
他、動き補償回路116が出力する、既に復号されたI
ピクチャまたはPピクチャを、エントロピー復号回路1
11からの動きベクトルにしたがって動き補償したもの
が参照画像として供給されるようになっており、演算器
114は、逆DCT回路113の出力が、PまたはBピ
クチャのものである場合には、その出力と、動き補償回
路100の出力とを加算することで、元の画像を復号
し、ブロック分解回路115に供給する。また、演算器
114は、逆DCT回路113の出力が、Iピクチャの
ものである場合には、その出力は、Iピクチャの復号画
像となっているので、そのまま、ブロック分解回路11
5に供給する。The inverse quantization circuit 112 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 111 to obtain a DCT coefficient, which is supplied to the inverse DCT circuit 113. The inverse DCT circuit 113 performs an inverse DCT process on the DCT coefficient from the inverse quantization circuit 112 and outputs the result to the computing unit 114. To the arithmetic unit 114, in addition to the output of the inverse quantization circuit 113, the already decoded I
A picture or a P picture is converted into an entropy decoding circuit 1
When the output of the inverse DCT circuit 113 is that of a P or B picture, the arithmetic unit 114 performs the motion compensation on the basis of the motion vector from the motion vector 11 and supplies the reference image. By adding the output and the output of the motion compensation circuit 100, the original image is decoded and supplied to the block decomposition circuit 115. If the output of the inverse DCT circuit 113 is that of an I picture, the operation unit 114 outputs the decoded image of the I picture.
5
【0192】ブロック分解回路115は、演算器114
から画素ブロック単位で供給される復号画像のブロック
化を解くことで、復号画像を得て出力する。The block disassembly circuit 115 includes a computing unit 114
By deblocking the decoded image supplied in pixel block units from, a decoded image is obtained and output.
【0193】一方、動き補償回路116は、演算器11
4が出力する復号画像のうちのIピクチャとPピクチャ
を受信し、エントロピー復号回路111からの動きベク
トルにしたがった動き補償を施す。そして、動き補償回
路116は、その動き補償後の画像を、参照画像とし
て、演算器114に供給する。On the other hand, the motion compensation circuit 116
4 receives the I-picture and the P-picture of the decoded image, and performs motion compensation according to the motion vector from the entropy decoding circuit 111. Then, the motion compensation circuit 116 supplies the image after the motion compensation to the arithmetic unit 114 as a reference image.
【0194】図3のデコーダ22では、MPEG符号化
された符号化データも、上述のように、効率的に、高画
質の画像に復号することができる。The decoder 22 shown in FIG. 3 can also efficiently decode encoded data encoded by MPEG into a high-quality image as described above.
【0195】即ち、符号化データは、エントロピー復号
回路31に供給され、エントロピー復号回路31は、符
号化データを、エントロピー復号する。このエントロピ
ー復号の結果得られる量子化DCT係数、動きベクト
ル、その他の情報は、エントロピー復号回路31から係
数変換回路32に供給される。That is, the encoded data is supplied to the entropy decoding circuit 31, and the entropy decoding circuit 31 performs entropy decoding on the encoded data. The quantized DCT coefficients, motion vectors, and other information obtained as a result of the entropy decoding are supplied from the entropy decoding circuit 31 to the coefficient conversion circuit 32.
【0196】係数変換回路32は、エントロピー復号回
路31からの量子化DCT係数Qと、学習を行うことに
より求められたタップ係数を用いて、所定の予測演算を
行うとともに、エントロピー復号回路31からの動きベ
クトルにしたがった動き補償を必要に応じて行うことに
より、量子化DCT係数を、高画質の画素値に復号し、
その高画質の画素値でなる高画質ブロックをブロック分
解回路33に供給する。The coefficient transforming circuit 32 performs a predetermined prediction operation using the quantized DCT coefficient Q from the entropy decoding circuit 31 and the tap coefficient obtained by performing the learning. By performing motion compensation according to the motion vector as needed, the quantized DCT coefficient is decoded into a high-quality pixel value,
The high image quality block including the high image quality pixel value is supplied to the block decomposition circuit 33.
【0197】ブロック分解回路33は、係数変換回路3
2において得られた高画質ブロックのブロック化を解く
ことで、横および縦の画素数がいずれも、MPEG符号
化された画像の、例えば2倍になった高画質の復号画像
を得て出力する。The block decomposition circuit 33 includes a coefficient conversion circuit 3
By deblocking the high-quality block obtained in step 2, a high-quality decoded image whose number of pixels in both the horizontal and vertical directions is, for example, twice as large as that of the MPEG encoded image is obtained and output. .
【0198】次に、図22は、デコーダ22においてM
PEG符号化された符号化データを復号する場合の、図
3の係数変換回路32の構成例を示している。なお、図
中、図18または図21における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図22の係数変換回路32
は、積和演算回路45の後段に、図21における演算器
114および動き補償回路116が設けられている他
は、図18における場合と基本的に同様に構成されてい
る。Next, FIG.
4 shows a configuration example of the coefficient conversion circuit 32 in FIG. 3 when decoding PEG-encoded data. In the figure, the same reference numerals are given to the portions corresponding to the case in FIG. 18 or FIG. 21, and the description thereof will be appropriately omitted below. That is, the coefficient conversion circuit 32 shown in FIG.
The configuration is basically the same as that in FIG. 18 except that an arithmetic unit 114 and a motion compensation circuit 116 in FIG. 21 are provided at the subsequent stage of the product-sum operation circuit 45.
【0199】従って、図22の係数変換回路32では、
量子化DCT係数が、逆量子化回路71において逆量子
化され、その結果得られるDCT係数を用いて、予測タ
ップ抽出回路41において予測タップが構成される。そ
して、積和演算回路45が、その予測タップと、係数テ
ーブル記憶部44に記憶されたタップ係数とを用いた予
測演算を行うことにより、横および縦の画素数がいずれ
も、元の画像の2倍になった高画質のデータを出力す
る。Therefore, in the coefficient conversion circuit 32 of FIG.
The quantized DCT coefficient is inversely quantized in the inverse quantization circuit 71, and the prediction tap is formed in the prediction tap extraction circuit 41 using the DCT coefficient obtained as a result. Then, the product-sum operation circuit 45 performs a prediction operation using the prediction tap and the tap coefficient stored in the coefficient table storage unit 44, so that both the horizontal and vertical pixel numbers are equal to those of the original image. Outputs twice as high quality data.
【0200】そして、演算器114は、積和演算回路4
5の出力を、必要に応じて、動き補償回路116の出力
と加算することで、横および縦の画素数がいずれも、元
の画像の2倍になった高画質の画像を復号し、ブロック
分解回路33(図3)に出力する。The arithmetic unit 114 is provided with the product-sum operation circuit 4
5 is added to the output of the motion compensation circuit 116 as necessary, thereby decoding a high-quality image in which the number of horizontal and vertical pixels is twice the original image, and Output to the decomposition circuit 33 (FIG. 3).
【0201】即ち、Iピクチャについては、積和演算回
路45の出力は、横および縦の画素数がいずれも、元の
画像の2倍になった高画質の画像となっているので、演
算器114は、積和演算回路45の出力を、そのまま、
ブロック分解回路33に出力する。That is, for the I picture, the output of the product-sum operation circuit 45 is a high-quality image in which the number of pixels in both the horizontal and vertical directions is twice that of the original image. 114 is the output of the product-sum operation circuit 45,
Output to the block decomposition circuit 33.
【0202】また、PまたはBピクチャについては、積
和演算回路45の出力は、横および縦の画素数がいずれ
も、元の画像の2倍になった高画質の画像と、高画質の
参照画像との差分となっているから、演算器114は、
積和演算回路45の出力を、動き補償回路116から供
給される高画質の参照画像と加算することで、横および
縦の画素数がいずれも、元の画像の2倍になった高画質
の画像に復号し、ブロック分解回路33に出力する。For a P or B picture, the product-sum operation circuit 45 outputs a high-quality image in which the number of horizontal and vertical pixels is twice the original image and a high-quality reference image. The arithmetic unit 114 calculates the difference from the image
By adding the output of the product-sum operation circuit 45 to the high-quality reference image supplied from the motion compensation circuit 116, the number of horizontal and vertical pixels is double that of the original image. The image is decoded into an image and output to the block decomposition circuit 33.
【0203】一方、動き補償回路116は、演算器11
4が出力する高画質の復号画像のうち、IおよびPピク
チャを受信し、そのIまたはPピクチャの高画質の復号
画像に対して、エントロピー復号回路31(図3)から
の動きベクトルを用いた動き補償を施すことにより、高
画質の参照画像を得て、演算器114に供給する。On the other hand, the motion compensation circuit 116
4 receives the I and P pictures among the high-quality decoded images output by using the motion vectors from the entropy decoding circuit 31 (FIG. 3) for the high-quality decoded images of the I or P pictures. By performing motion compensation, a high-quality reference image is obtained and supplied to the arithmetic unit 114.
【0204】なお、ここでは、復号画像の横および縦の
画素数が、いずれも、元の画像の2倍になっているの
で、動き補償回路116は、例えば、エントロピー復号
回路31からの動きベクトルの横方向および縦方向の大
きさをいずれも2倍にした動きベクトルにしたがって動
き補償を行う。Here, since the number of horizontal and vertical pixels of the decoded image is twice as large as that of the original image, the motion compensating circuit 116 uses the motion vector from the entropy decoding circuit 31, for example. The motion compensation is performed in accordance with a motion vector whose size in both the horizontal and vertical directions is doubled.
【0205】次に、図23は、図22の係数テーブル記
憶部44に記憶させるタップ係数を学習する学習装置の
一実施の形態の構成例を示している。なお、図中、図1
9における場合と対応する部分については、同一の符号
を付してあり、以下では、その説明は、適宜省略する。Next, FIG. 23 shows an example of the configuration of an embodiment of a learning device for learning tap coefficients stored in the coefficient table storage section 44 of FIG. In FIG. 1, FIG.
Parts corresponding to those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
【0206】間引き回路120には、学習用のHD画像
が、教師データとして入力され、間引き回路120は、
例えば、図12の間引き回路60と同様に、教師データ
としてのHD画像の画素を間引き、その横および縦の画
素数を、いずれも1/2にしたSD画像である準教師デ
ータを生成する。そして、この準教師データとしてのS
D画像は、動きベクトル検出回路121および演算器1
22に供給される。The HD image for learning is input to the thinning circuit 120 as teacher data, and the thinning circuit 120
For example, similar to the decimation circuit 60 in FIG. 12, the pixels of the HD image as the teacher data are decimated, and the quasi-teacher data which is an SD image in which both the horizontal and vertical pixels are halved is generated. Then, S as the quasi-teacher data
The D image is obtained from the motion vector detection circuit 121 and the arithmetic unit 1
22.
【0207】動きベクトル検出回路121、演算器12
2、ブロック化回路123、DCT回路124、量子化
回路125、逆量子化回路127、逆DCT回路12
8、演算器129、または動き補償回路130は、図2
0の動きベクトル検出回路91、演算器92、ブロック
化回路93、DCT回路94、量子化回路95、逆量子
化回路97、逆DCT回路98、演算器99、または動
き補償回路100とそれぞれ同様の処理を行い、これに
より、量子化回路125からは、図20の量子化回路9
5が出力するのと同様の量子化DCT係数が出力され
る。The motion vector detecting circuit 121, the arithmetic unit 12
2. Blocking circuit 123, DCT circuit 124, quantization circuit 125, inverse quantization circuit 127, inverse DCT circuit 12
8, the arithmetic unit 129 or the motion compensation circuit 130
0 motion vector detection circuit 91, arithmetic unit 92, blocking circuit 93, DCT circuit 94, quantization circuit 95, inverse quantization circuit 97, inverse DCT circuit 98, arithmetic unit 99, or motion compensation circuit 100, respectively. The processing is performed, so that the quantization circuit 125 of FIG.
5 is output.
【0208】量子化回路125が出力する量子化DCT
係数は、逆量子化回路81に供給され、逆量子化回路8
1は、量子化回路125からの量子化DCT係数を逆量
子化し、DCT係数に変換して、予測タップ抽出回路6
4に供給する。予測タップ抽出回路64は、逆量子化回
路81からのDCT係数から、予測タップを構成し、生
徒データとして、正規方程式加算回路67に供給する。The quantized DCT output from the quantization circuit 125
The coefficient is supplied to the inverse quantization circuit 81 and the inverse quantization circuit 8
1 dequantizes the quantized DCT coefficient from the quantization circuit 125, converts it into a DCT coefficient, and
4 The prediction tap extraction circuit 64 forms a prediction tap from the DCT coefficient from the inverse quantization circuit 81 and supplies the prediction tap to the normal equation addition circuit 67 as student data.
【0209】一方、教師データとしてのHD画像は、間
引き回路120の他、演算器132にも供給されるよう
になっている。演算器132は、教師データとしてのH
D画像から、必要に応じて、補間回路131の出力を減
算し、正規方程式加算回路67に供給する。On the other hand, the HD image as teacher data is supplied not only to the thinning circuit 120 but also to an arithmetic unit 132. Arithmetic unit 132 outputs H as teacher data.
If necessary, the output of the interpolation circuit 131 is subtracted from the D image and supplied to the normal equation addition circuit 67.
【0210】即ち、補間回路131は、動き補償回路1
30が出力するSD画像の参照画像の横および縦の画素
数を2倍にした高画質の参照画像を生成し、演算器13
2に供給する。That is, the interpolation circuit 131 is the motion compensation circuit 1
A high-quality reference image in which the number of horizontal and vertical pixels of the reference image of the SD image output by 30 is doubled,
Feed to 2.
【0211】演算器132は、そこに供給されるHD画
像がIピクチャである場合には、そのIピクチャのHD
画像を、そのまま、教師データとして、正規方程式加算
回路67に供給する。また、演算器132は、そこに供
給されるHD画像がPまたはBピクチャである場合に
は、そのPまたはBピクチャのHD画像と、補間回路1
31が出力する高画質の参照画像との差分を演算するこ
とにより、演算器122が出力するSD画像(準教師デ
ータ)についての差分を高画質化したものを得て、これ
を、教師データとして、正規方程式加算回路67に出力
する。If the HD picture supplied thereto is an I picture, the arithmetic unit 132 outputs the HD picture of the I picture.
The image is supplied as it is to the normal equation adding circuit 67 as teacher data. When the HD image supplied thereto is a P or B picture, the arithmetic unit 132 outputs the HD image of the P or B picture and the interpolation circuit 1.
By calculating a difference between the reference image and the high-quality image output by the output unit 31, a high-quality difference of the SD image (quasi-teacher data) output by the calculator 122 is obtained, and this is used as teacher data. , To the normal equation addition circuit 67.
【0212】なお、補間回路131では、例えば、単純
な補間により画素数を増加させることが可能である。ま
た、補間回路131では、例えば、クラス分類適応処理
により画素数を増加させることも可能である。さらに、
演算器132では、教師データとしてのHD画像をMP
EG符号化し、そのローカルデコードを行って動き補償
したものを、参照画像として用いるようにすることが可
能である。In the interpolation circuit 131, for example, the number of pixels can be increased by simple interpolation. Further, in the interpolation circuit 131, for example, the number of pixels can be increased by a class classification adaptive process. further,
The arithmetic unit 132 converts the HD image as the teacher data into the MP
It is possible to use the EG-encoded and local-decoded motion-compensated image as a reference image.
【0213】正規方程式加算回路67は、演算器132
の出力を教師データとするとともに、逆量子化回路81
からの予測タップを生徒データとして、上述したような
足し込みを行い、これにより、正規方程式を生成する。The normal equation adding circuit 67 includes an arithmetic unit 132
Is used as teacher data and the inverse quantization circuit 81
As described above, the addition is performed using the prediction tap from the as the student data, thereby generating a normal equation.
【0214】そして、タップ係数決定回路68は、正規
方程式加算回路67で生成された正規方程式を解くこと
により、タップ係数を求め、係数テーブル記憶部69に
供給して記憶させる。Then, the tap coefficient determination circuit 68 solves the normal equation generated by the normal equation addition circuit 67 to obtain the tap coefficient, and supplies the tap coefficient to the coefficient table storage section 69 for storage.
【0215】図22の積和演算回路45では、このよう
にして求められたタップ係数を用いて、MPEG符号化
された符号化データが復号されるので、やはり、MPE
G符号化された画像の復号処理と、その画質を向上させ
るための処理とを、同時に施すことができ、従って、M
PEG符号化された画像から、効率的に、高画質の、即
ち、本実施の形態では、横および縦の画素数がいずれも
2倍になったHD画像である復号画像を得ることができ
る。The product-sum operation circuit 45 shown in FIG. 22 decodes the coded data obtained by the MPEG coding using the tap coefficients thus obtained.
The decoding process of the G-encoded image and the process of improving the image quality can be performed at the same time.
From the PEG-encoded image, it is possible to efficiently obtain a decoded image of high image quality, that is, an HD image in which the number of pixels in both the horizontal and vertical directions is doubled in this embodiment.
【0216】なお、図22の係数変換回路32は、逆量
子化回路71を設けずに構成することが可能である。こ
の場合、図23の学習装置は、逆量子化回路81を設け
ずに構成すれば良い。Note that the coefficient conversion circuit 32 in FIG. 22 can be configured without providing the inverse quantization circuit 71. In this case, the learning device in FIG. 23 may be configured without the inverse quantization circuit 81.
【0217】また、図22の係数変換回路32は、図6
における場合と同様に、クラスタップ抽出回路42およ
びクラス分類回路43を設けて構成することが可能であ
る。この場合、図23の学習装置は、図12における場
合のように、クラスタップ抽出回路65およびクラス分
類回路66を設けて構成すれば良い。The coefficient conversion circuit 32 shown in FIG.
As in the case of the above, it is possible to provide and configure the class tap extraction circuit 42 and the class classification circuit 43. In this case, the learning device in FIG. 23 may be provided with a class tap extraction circuit 65 and a class classification circuit 66 as in the case of FIG.
【0218】さらに、上述の場合には、デコーダ22
(図3)において、元の画像の空間解像度を2倍に向上
させた復号画像を得るようにしたが、デコーダ22で
は、元の画像の空間解像度を任意の倍数にした復号画像
や、さらには、元の画像の時間解像度を向上させた復号
画像を得るようにすることも可能である。Further, in the case described above, the decoder 22
In FIG. 3, a decoded image in which the spatial resolution of the original image is doubled is obtained. In the decoder 22, however, a decoded image in which the spatial resolution of the original image is set to an arbitrary multiple, and furthermore, It is also possible to obtain a decoded image in which the time resolution of the original image is improved.
【0219】即ち、例えば、MPEG符号化する対象の
画像が、図24(A)に示すような時間解像度が低いも
のである場合に、デコーダ22では、その画像をMPE
G符号化した符号化データを、図24(B)に示すよう
な、元の画像の時間解像度を2倍にした画像に復号する
ようにすることが可能である。さらには、例えば、MP
EG符号化する対象の画像が、図25(A)に示すよう
な、映画で用いられる24フレーム/秒の画像である場
合に、デコーダ22では、その画像をMPEG符号化し
た符号化データを、図25(B)に示すような、元の画
像の時間解像度を60/24倍にした、60フレーム/
秒の画像に復号するようにすることが可能である。この
場合、いわゆる2−3プルダウンを容易に行うことがで
きる。That is, for example, when an image to be MPEG-encoded has a low temporal resolution as shown in FIG.
The G-encoded data can be decoded into an image whose temporal resolution is doubled as shown in FIG. 24B. Further, for example, MP
When an image to be EG-encoded is an image of 24 frames / second used in a movie as shown in FIG. 25A, the decoder 22 outputs encoded data obtained by MPEG-encoding the image. As shown in FIG. 25 (B), the time resolution of the original image is increased by 60/24 times,
It is possible to decode the image into seconds. In this case, so-called 2-3 pull-down can be easily performed.
【0220】ここで、上述のように、デコーダ22にお
いて、時間解像度を向上させる場合には、予測タップや
クラスタップは、例えば、図26に示すように、2以上
のフレームのDCT係数から構成するようにすることが
可能である。Here, as described above, when the temporal resolution is to be improved in the decoder 22, the prediction taps and the class taps are composed of, for example, DCT coefficients of two or more frames as shown in FIG. It is possible to do so.
【0221】また、デコーダ22では、空間解像度また
は時間解像度のうちのいずれか一方だけではなく、両方
を向上させた復号画像を得るようにすることも可能であ
る。Further, the decoder 22 can obtain a decoded image in which not only one of the spatial resolution or the temporal resolution but also both of them is improved.
【0222】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。Next, the above-described series of processing can be performed by hardware or can be performed by software. When a series of processing is performed by software, a program constituting the software is
Installed on a general-purpose computer.
【0223】そこで、図27は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。FIG. 27 shows a configuration example of an embodiment of a computer in which a program for executing the above-described series of processing is installed.
【0224】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク205やROM2
03に予め記録しておくことができる。The program is stored in a hard disk 205 or a ROM 2 as a recording medium built in the computer.
03 can be recorded in advance.
【0225】あるいはまた、プログラムは、フロッピー
(登録商標)ディスク、CD-ROM(Compact Disc Read Onl
y Memory),MO(Magneto optical)ディスク,DVD(Digita
l Versatile Disc)、磁気ディスク、半導体メモリなど
のリムーバブル記録媒体211に、一時的あるいは永続
的に格納(記録)しておくことができる。このようなリ
ムーバブル記録媒体211は、いわゆるパッケージソフ
トウエアとして提供することができる。Alternatively, the program is stored in a floppy (registered trademark) disk, CD-ROM (Compact Disc Read Onl
y Memory), MO (Magneto optical) disc, DVD (Digita
l Versatile Disc), a magnetic disk, a semiconductor memory, etc., can be temporarily or permanently stored (recorded) in a removable recording medium 211. Such a removable recording medium 211 can be provided as so-called package software.
【0226】なお、プログラムは、上述したようなリム
ーバブル記録媒体211からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部208で受信し、内蔵するハード
ディスク205にインストールすることができる。The program may be installed in the computer from the removable recording medium 211 as described above, or may be wirelessly transferred from a download site to the computer via a digital satellite broadcasting artificial satellite, or transmitted to a LAN (Local Area). Network) or the Internet, and the program can be transferred to the computer by wire, and the computer can receive the transferred program by the communication unit 208 and install the program on the built-in hard disk 205.
【0227】コンピュータは、CPU(Central Processing
Unit)202を内蔵している。CPU202には、バス2
01を介して、入出力インタフェース210が接続され
ており、CPU202は、入出力インタフェース210を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部207が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)203に格納されているプログラムを実行
する。あるいは、また、CPU202は、ハードディスク
205に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部208で受信されてハー
ドディスク205にインストールされたプログラム、ま
たはドライブ209に装着されたリムーバブル記録媒体
211から読み出されてハードディスク205にインス
トールされたプログラムを、RAM(Random Access Memor
y)204にロードして実行する。これにより、CPU20
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU202は、その処理結果を、必要に応
じて、例えば、入出力インタフェース210を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部206から出力、あるいは、通信部208から
送信、さらには、ハードディスク205に記録等させ
る。The computer has a CPU (Central Processing).
Unit 202. The CPU 202 has a bus 2
01, the input / output interface 210 is connected. The CPU 202 operates the input unit 207 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 210. When a command is input, the ROM (Read O
(Nly Memory) 203 is executed. Alternatively, the CPU 202 may execute a program stored in the hard disk 205, a program transferred from a satellite or a network, received by the communication unit 208 and installed on the hard disk 205, or a removable recording medium 211 mounted on the drive 209. The program read and installed on the hard disk 205 is stored in a RAM (Random Access Memory).
y) Load to 204 and execute. This allows the CPU 20
2 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 202 transmits the processing result as necessary, for example, via the input / output interface 210.
An output is made from an output unit 206 including an LCD (Liquid CryStal Display), a speaker, or the like, or transmitted from a communication unit 208, and further recorded on the hard disk 205.
【0228】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。Here, in this specification, processing steps for writing a program for causing a computer to perform various processes do not necessarily need to be processed in a time-series manner in the order described in the flowchart. Alternatively, it also includes processing executed individually (for example, parallel processing or processing by an object).
【0229】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。Further, the program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.
【0230】なお、本実施の形態では、画像データを対
象としたが、本発明は、その他、例えば、音声データに
も適用可能である。Although the present embodiment is directed to image data, the present invention is also applicable to, for example, audio data.
【0231】また、本実施の形態では、少なくとも、D
CT処理を行うJPEG符号化やMPEG符号化された
符号化データの復号を行うようにしたが、本発明は、そ
の他の直交変換または周波数変換によって変換されたデ
ータの復号に適用可能である。即ち、本発明は、例え
ば、サブバンド符号化されたデータや、フーリエ変換さ
れたデータ等を復号する場合にも適用可能である。In the present embodiment, at least D
Although JPEG encoding for performing CT processing and decoding of MPEG-encoded data are performed, the present invention is applicable to decoding of data transformed by other orthogonal transformation or frequency transformation. That is, the present invention is also applicable to, for example, decoding subband encoded data or Fourier transformed data.
【0232】さらに、本実施の形態では、デコーダ22
において、復号に用いるタップ係数を、あらかじめ記憶
しておくようにしたが、タップ係数は、符号化データに
含めて、デコーダ22に提供するようにすることが可能
である。Further, in the present embodiment, the decoder 22
In, the tap coefficients used for decoding are stored in advance, but the tap coefficients can be included in the encoded data and provided to the decoder 22.
【0233】また、本実施の形態では、タップ係数を用
いた線形1次予測演算によって、復号を行うようにした
が、復号は、その他、2次以上の高次の予測演算によっ
て行うことも可能である。In this embodiment, the decoding is performed by the linear primary prediction operation using the tap coefficients. However, the decoding may be performed by a second-order or higher-order prediction operation. It is.
【0234】[0234]
【発明の効果】本発明の第1のデータ処理装置およびデ
ータ処理方法、並びに記録媒体によれば、学習を行うこ
とにより求められたタップ係数が取得され、そのタップ
係数および変換データを用いて、所定の予測演算が行わ
れることにより、変換データを、元のデータに復号し、
かつ、その元のデータに所定の処理を施した処理データ
が得られる。従って、効率的に、変換データを復号し、
かつその復号されたデータに所定の処理を施すことが可
能となる。According to the first data processing apparatus, the data processing method, and the recording medium of the present invention, the tap coefficient obtained by performing the learning is obtained, and the tap coefficient and the conversion data are used to obtain the tap coefficient. By performing a predetermined prediction operation, the converted data is decoded into the original data,
In addition, processed data obtained by subjecting the original data to predetermined processing is obtained. Therefore, efficiently decode the converted data,
In addition, a predetermined process can be performed on the decoded data.
【0235】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体によれば、教師となる教師
データに、所定の処理に基づく処理が施され、その結果
得られる準教師データを、少なくとも、直交変換または
周波数変換することにより、生徒となる生徒データが生
成される。そして、タップ係数および生徒データを用い
て予測演算を行うことにより得られる教師データの予測
値の予測誤差が、統計的に最小になるように学習が行わ
れ、タップ係数が求められる。従って、そのタップ係数
を用いることにより、効率的に、直交変換または周波数
変換されたデータを復号し、かつその復号されたデータ
に所定の処理を施すことが可能となる。According to the second data processing apparatus, the data processing method, and the recording medium of the present invention, teacher data to be a teacher is subjected to processing based on a predetermined process, and the resulting quasi-teacher data is At least orthogonal transformation or frequency transformation generates student data to be students. Learning is performed so that the prediction error of the prediction value of the teacher data obtained by performing the prediction operation using the tap coefficient and the student data is statistically minimized, and the tap coefficient is obtained. Therefore, by using the tap coefficients, it is possible to efficiently decode the orthogonally or frequency-converted data and perform a predetermined process on the decoded data.
【図1】従来のJPEG符号化/復号を説明するための
図である。FIG. 1 is a diagram for explaining conventional JPEG encoding / decoding.
【図2】本発明を適用した画像伝送システムの一実施の
形態の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an embodiment of an image transmission system to which the present invention has been applied.
【図3】図2のデコーダ22の構成例を示すブロック図
である。FIG. 3 is a block diagram illustrating a configuration example of a decoder 22 in FIG. 2;
【図4】8×8のDCT係数が、16×16画素に復号
される様子を示す図である。FIG. 4 is a diagram showing how an 8 × 8 DCT coefficient is decoded into 16 × 16 pixels.
【図5】図3のデコーダ22の処理を説明するフローチ
ャートである。FIG. 5 is a flowchart illustrating a process of a decoder 22 in FIG. 3;
【図6】図3の係数変換回路32の第1の構成例を示す
ブロック図である。FIG. 6 is a block diagram illustrating a first configuration example of a coefficient conversion circuit 32 of FIG. 3;
【図7】予測タップとクラスタップの例を説明する図で
ある。FIG. 7 is a diagram illustrating an example of a prediction tap and a class tap.
【図8】図6のクラス分類回路43の構成例を示すブロ
ック図である。8 is a block diagram illustrating a configuration example of a class classification circuit 43 in FIG. 6;
【図9】図6の電力演算回路51の処理を説明するため
の図である。FIG. 9 is a diagram for explaining processing of a power calculation circuit 51 of FIG. 6;
【図10】図6の係数変換回路32の処理を説明するフ
ローチャートである。FIG. 10 is a flowchart illustrating processing of a coefficient conversion circuit 32 in FIG. 6;
【図11】図10のステップS12の処理のより詳細を
説明するフローチャートである。FIG. 11 is a flowchart illustrating details of a process in step S12 of FIG. 10;
【図12】本発明を適用した学習装置の第1実施の形態
の構成例を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration example of a first embodiment of a learning device to which the present invention has been applied.
【図13】図12の学習装置の処理を説明するフローチ
ャートである。FIG. 13 is a flowchart illustrating a process of the learning device in FIG. 12;
【図14】図3の係数変換回路32の第2の構成例を示
すブロック図である。FIG. 14 is a block diagram showing a second configuration example of the coefficient conversion circuit 32 of FIG. 3;
【図15】本発明を適用した学習装置の第2実施の形態
の構成例を示すブロック図である。FIG. 15 is a block diagram illustrating a configuration example of a second embodiment of a learning device to which the present invention has been applied.
【図16】図3の係数変換回路32の第3の構成例を示
すブロック図である。FIG. 16 is a block diagram illustrating a third configuration example of the coefficient conversion circuit 32 in FIG. 3;
【図17】本発明を適用した学習装置の第3実施の形態
の構成例を示すブロック図である。FIG. 17 is a block diagram illustrating a configuration example of a third embodiment of a learning device to which the present invention has been applied.
【図18】図3の係数変換回路32の第4の構成例を示
すブロック図である。FIG. 18 is a block diagram illustrating a fourth configuration example of the coefficient conversion circuit 32 in FIG. 3;
【図19】本発明を適用した学習装置の第4実施の形態
の構成例を示すブロック図である。FIG. 19 is a block diagram illustrating a configuration example of a fourth embodiment of a learning device to which the present invention has been applied.
【図20】図2のエンコーダ21の構成例を示すブロッ
ク図である。20 is a block diagram illustrating a configuration example of an encoder 21 in FIG.
【図21】MPEGデコーダの一例の構成を示すブロッ
ク図である。FIG. 21 is a block diagram illustrating a configuration example of an MPEG decoder.
【図22】図3の係数変換回路32の第5の構成例を示
すブロック図である。FIG. 22 is a block diagram illustrating a fifth configuration example of the coefficient conversion circuit 32 of FIG. 3;
【図23】本発明を適用した学習装置の第5実施の形態
の構成例を示すブロック図である。FIG. 23 is a block diagram illustrating a configuration example of a fifth embodiment of a learning device to which the present invention has been applied.
【図24】時間解像度を向上させた画像を示す図であ
る。FIG. 24 is a diagram showing an image with improved temporal resolution.
【図25】時間解像度を向上させた画像を示す図であ
る。FIG. 25 is a diagram showing an image with improved temporal resolution.
【図26】2以上のフレームのDCT係数から、クラス
タップおよび予測タップを構成することを示す図であ
る。FIG. 26 is a diagram illustrating that class taps and prediction taps are configured from DCT coefficients of two or more frames.
【図27】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。FIG. 27 is a block diagram illustrating a configuration example of a computer according to an embodiment of the present invention.
21 エンコーダ, 22 デコーダ, 23 記録媒
体, 24 伝送媒体, 31 エントロピー復号回
路, 32 係数変換回路, 33 ブロック分解回
路, 41 予測タップ抽出回路, 42 クラスタッ
プ抽出回路, 43クラス分類回路, 44 係数テー
ブル記憶部, 45積和演算回路, 51電力演算回
路, 52 クラスコード生成回路, 53 閾値テー
ブル記憶部, 60 間引き回路, 61 ブロック化
回路, 62 DCT回路, 63量子化回路, 64
予測タップ抽出回路, 65 クラスタップ抽出回
路,66 クラス分類回路, 67 正規方程式加算回
路, 68 タップ係数決定回路, 69 係数テーブ
ル記憶部, 71,81 逆量子化回路, 114演算
器, 115 動き補償回路, 120 間引き回路,
121 動きベクトル検出回路, 122 演算器,
123 ブロック化回路, 124 DCT回路,
125 量子化回路, 127 逆量子化回路, 12
8 逆DCT回路, 129 演算器, 130 動き
補償回路, 131 補間回路,132 演算器, 2
01 バス, 202 CPU, 203 ROM, 204
RAM, 205 ハードディスク, 206 出力部,
207 入力部, 208 通信部, 209 ドラ
イブ, 210 入出力インタフェース, 211 リ
ムーバブル記録媒体Reference Signs List 21 encoder, 22 decoder, 23 recording medium, 24 transmission medium, 31 entropy decoding circuit, 32 coefficient conversion circuit, 33 block decomposition circuit, 41 prediction tap extraction circuit, 42 class tap extraction circuit, 43 class classification circuit, 44 coefficient table storage Unit, 45 product-sum operation circuit, 51 power operation circuit, 52 class code generation circuit, 53 threshold table storage unit, 60 thinning circuit, 61 blocking circuit, 62 DCT circuit, 63 quantization circuit, 64
Prediction tap extraction circuit, 65 class tap extraction circuit, 66 class classification circuit, 67 normal equation addition circuit, 68 tap coefficient determination circuit, 69 coefficient table storage unit, 71, 81 inverse quantization circuit, 114 arithmetic unit, 115 motion compensation circuit , 120 decimation circuit,
121 motion vector detection circuit, 122 arithmetic unit,
123 block circuit, 124 DCT circuit,
125 quantization circuit, 127 inverse quantization circuit, 12
8 inverse DCT circuit, 129 operation unit, 130 motion compensation circuit, 131 interpolation circuit, 132 operation unit, 2
01 bus, 202 CPU, 203 ROM, 204
RAM, 205 hard disk, 206 output unit,
207 input unit, 208 communication unit, 209 drive, 210 input / output interface, 211 removable recording medium
───────────────────────────────────────────────────── フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大塚 秀樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 國弘 威 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 森藤 孝文 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 内田 真史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK01 MA00 MA23 MC14 PP01 PP04 PP05 PP06 PP07 SS06 SS11 SS20 TA46 TB07 TC02 TC03 TC12 TD13 UA05 UA37 5C076 AA21 AA22 BA06 BB01 5C078 AA04 BA21 BA57 DA01 DA02 ────────────────────────────────────────────────── ─── Continued on the front page (72) Hideo Nakaya, Inventor 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takeharu Nishikata 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Hideki Otsuka 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takeshi Kunihiro 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni (Inc.) (72) Inventor Takafumi Morito 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Masashi Uchida 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation In-house F term (reference) 5C059 KK01 MA00 MA23 MC14 PP01 PP04 PP05 PP06 PP07 SS06 SS11 SS20 TA46 TB07 TC02 TC03 TC12 TD13 UA05 UA37 5C076 AA21 AA22 BA06 BB01 5C078 AA04 BA21 BA57 DA01 DA02
Claims (29)
変換処理を施すことにより得られる変換データを処理す
るデータ処理装置であって、 学習を行うことにより求められたタップ係数を取得する
取得手段と、 前記タップ係数および変換データを用いて、所定の予測
演算を行うことにより、前記変換データを、元のデータ
に復号し、かつ、その元のデータに所定の処理を施した
処理データを得る演算手段とを備えることを特徴とする
データ処理装置。1. A data processing device that processes at least transform data obtained by performing an orthogonal transform process or a frequency transform process, wherein the acquiring device acquires a tap coefficient obtained by performing learning. Calculating means for performing a predetermined prediction operation using the tap coefficient and the converted data, thereby decoding the converted data into original data, and obtaining processed data obtained by subjecting the original data to predetermined processing; and A data processing device comprising:
変換データを用いて、線形1次予測演算を行うことを特
徴とする請求項1に記載のデータ処理装置。2. The data processing apparatus according to claim 1, wherein said calculation means performs a linear primary prediction calculation using said tap coefficients and conversion data.
をさらに備え、 前記取得手段は、前記記憶手段から、前記タップ係数を
取得することを特徴とする請求項1に記載のデータ処理
装置。3. The data processing apparatus according to claim 1, further comprising a storage unit that stores the tap coefficient, wherein the obtaining unit obtains the tap coefficient from the storage unit.
直交変換または周波数変換し、さらに量子化することに
より得られたものであることを特徴とする請求項1に記
載のデータ処理装置。4. The conversion data is obtained by converting the original data into
2. The data processing device according to claim 1, wherein the data is obtained by performing orthogonal transformation or frequency transformation and further performing quantization.
手段をさらに備え、 前記演算手段は、逆量子化された前記変換データを用い
て予測演算を行うことを特徴とする請求項4に記載のデ
ータ処理装置。5. The apparatus according to claim 4, further comprising an inverse quantization means for inversely quantizing the transformed data, wherein the arithmetic means performs a prediction operation using the inversely quantized transformed data. The data processing device according to claim 1.
少なくとも、離散コサイン変換したものであることを特
徴とする請求項1に記載のデータ処理装置。6. The conversion data is obtained by converting the original data into
2. The data processing apparatus according to claim 1, wherein the data processing apparatus performs at least discrete cosine transform.
注目データを予測するのに前記タップ係数とともに用い
る前記変換データを抽出し、予測タップとして出力する
予測タップ抽出手段をさらに備え、 前記演算手段は、前記予測タップおよびタップ係数を用
いて予測演算を行うことを特徴とする請求項1に記載の
データ処理装置。7. A prediction tap extracting means for extracting the conversion data used together with the tap coefficient for predicting target data of interest among the processing data and outputting the conversion data as a prediction tap, The data processing apparatus according to claim 1, wherein the means performs a prediction operation using the prediction tap and the tap coefficient.
ちのいずれかにクラス分類するのに用いる前記変換デー
タを抽出し、クラスタップとして出力するクラスタップ
抽出手段と、 前記クラスタップに基づいて、前記注目データのクラス
を求めるクラス分類を行うクラス分類手段とをさらに備
え、 前記演算手段は、前記予測タップおよび前記注目データ
のクラスに対応する前記タップ係数を用いて予測演算を
行うことを特徴とする請求項7に記載のデータ処理装
置。8. A class tap extracting means for extracting the converted data used to classify the data of interest into one of several classes and outputting the converted data as a class tap, based on the class tap. Classifying means for performing class classification for obtaining the class of the data of interest, wherein the calculating means performs a prediction operation using the prediction tap and the tap coefficient corresponding to the class of the data of interest. The data processing device according to claim 7, wherein
行うことにより、前記元のデータに、その品質を向上さ
せる処理を施した前記処理データを得ることを特徴とす
る請求項1に記載のデータ処理装置。9. The data processing apparatus according to claim 1, wherein the calculation unit obtains the processed data obtained by performing a process for improving the quality of the original data by performing the predetermined prediction calculation. Data processing equipment.
よび変換データを用いて、所定の予測演算を行うことに
より得られる前記処理データの予測値の予測誤差が、統
計的に最小になるように、学習を行うことにより得られ
たものであることを特徴とする請求項1に記載のデータ
処理装置。10. The tap coefficient is such that a prediction error of a predicted value of the processing data obtained by performing a predetermined prediction operation using the tap coefficient and the conversion data is statistically minimized. The data processing apparatus according to claim 1, wherein the data processing apparatus is obtained by performing learning.
の画像データであることを特徴とする請求項1に記載の
データ処理装置。11. The data processing apparatus according to claim 1, wherein the original data is moving image or still image data.
を行うことにより、前記画像データに、その画質を向上
させる処理を施した前記処理データを得ることを特徴と
する請求項11に記載のデータ処理装置。12. The image processing apparatus according to claim 11, wherein the calculation unit obtains the processed data obtained by performing the processing for improving the image quality of the image data by performing the predetermined prediction calculation. Data processing device.
間または空間方向の解像度を向上させた前記処理データ
を得ることを特徴とする請求項11に記載のデータ処理
装置。13. The data processing apparatus according to claim 11, wherein said calculating means obtains the processed data in which the resolution of the image data in a temporal or spatial direction is improved.
数変換処理を施すことにより得られる変換データを処理
するデータ処理方法であって、 学習を行うことにより求められたタップ係数を取得する
取得ステップと、前記タップ係数および変換データを用
いて、所定の予測演算を行うことにより、前記変換デー
タを、元のデータに復号し、かつ、その元のデータに所
定の処理を施した処理データを得る演算ステップとを備
えることを特徴とするデータ処理方法。14. A data processing method for processing at least transform data obtained by performing an orthogonal transform process or a frequency transform process, comprising: an acquiring step of acquiring a tap coefficient obtained by performing learning; An operation step of performing a predetermined prediction operation using the tap coefficients and the conversion data, thereby decoding the conversion data into original data, and obtaining processed data obtained by performing predetermined processing on the original data; A data processing method comprising:
数変換処理を施すことにより得られる変換データを処理
するデータ処理を、コンピュータに行わせるプログラム
が記録されている記録媒体であって、 学習を行うことにより求められたタップ係数を取得する
取得ステップと、 前記タップ係数および変換データを用いて、所定の予測
演算を行うことにより、前記変換データを、元のデータ
に復号し、かつ、その元のデータに所定の処理を施した
処理データを得る演算ステップとを備えるプログラムが
記録されていることを特徴とする記録媒体。15. A recording medium on which a program for causing a computer to perform at least data processing for processing conversion data obtained by performing an orthogonal transformation process or a frequency transformation process is provided. An obtaining step of obtaining the obtained tap coefficient, using the tap coefficient and the converted data, by performing a predetermined prediction operation, the converted data is decoded into the original data, and the original data A recording medium characterized by recording a program comprising: an operation step of obtaining processed data subjected to a predetermined process.
数変換処理を施すことにより得られる変換データを復号
し、かつその復号結果に所定の処理を施すための予測演
算に用いるタップ係数を学習するデータ処理装置であっ
て、 教師となる教師データに、前記所定の処理に基づく処理
を施し、準教師データを得る準教師データ生成手段と、 前記準教師データを、少なくとも、直交変換または周波
数変換することにより、生徒となる生徒データを生成す
る生徒データ生成手段と、 前記タップ係数および生徒データを用いて予測演算を行
うことにより得られる前記教師データの予測値の予測誤
差が、統計的に最小になるように学習を行い、前記タッ
プ係数を求める学習手段とを備えることを特徴とするデ
ータ処理装置。16. A data processing device that decodes at least transform data obtained by performing an orthogonal transform process or a frequency transform process, and learns tap coefficients used in a prediction operation for performing a predetermined process on the decoded result. By performing a process based on the predetermined process on teacher data to be a teacher, a quasi-teacher data generating means for obtaining quasi-teacher data, and at least orthogonal transform or frequency transforming the quasi-teacher data, Student data generating means for generating student data to be students, such that a prediction error of a prediction value of the teacher data obtained by performing a prediction operation using the tap coefficient and the student data is statistically minimized. A data processing device comprising: learning means for performing learning and obtaining the tap coefficient.
び生徒データを用いて線形1次予測演算を行うことによ
り得られる前記教師データの予測値の予測誤差が、統計
的に最小になるように学習を行うことを特徴とする請求
項16に記載のデータ処理装置。17. The learning means according to claim 1, wherein a prediction error of a predicted value of the teacher data obtained by performing a linear primary prediction operation using the tap coefficient and the student data is statistically minimized. 17. The data processing apparatus according to claim 16, wherein the data processing is performed.
師データを、直交変換または周波数変換し、さらに量子
化することにより、前記生徒データを生成することを特
徴とする請求項16に記載のデータ処理装置。18. The data according to claim 16, wherein said student data generating means generates said student data by subjecting said quasi-teacher data to orthogonal transformation or frequency transformation and further quantizing. Processing equipment.
師データを、直交変換または周波数変換して量子化し、
さらに逆量子化することにより、前記生徒データを生成
することを特徴とする請求項16に記載のデータ処理装
置。19. The student data generation means quantizes the quasi-teacher data by orthogonal transformation or frequency transformation,
17. The data processing apparatus according to claim 16, wherein the student data is generated by performing inverse quantization.
師データを、少なくとも、離散コサイン変換することに
より、前記生徒データを生成することを特徴とする請求
項16に記載のデータ処理装置。20. The data processing apparatus according to claim 16, wherein said student data generating means generates said student data by subjecting said quasi-teacher data to at least discrete cosine transform.
る注目教師データを予測するのに前記タップ係数ととも
に用いる前記生徒データを抽出し、予測タップとして出
力する予測タップ抽出手段をさらに備え、 前記学習手段は、前記予測タップおよびタップ係数を用
いて予測演算を行うことにより得られる前記教師データ
の予測値の予測誤差が、統計的に最小になるように学習
を行うことを特徴とする請求項16に記載のデータ処理
装置。21. The apparatus according to claim 21, further comprising: a prediction tap extracting unit configured to extract the student data used together with the tap coefficient to predict the noted teacher data of interest from the teacher data, and output the extracted student data as a prediction tap. The learning means performs learning so that a prediction error of a prediction value of the teacher data obtained by performing a prediction operation using the prediction tap and the tap coefficient is statistically minimized. 17. The data processing device according to item 16.
スのうちのいずれかにクラス分類するのに用いる前記生
徒データを抽出し、クラスタップとして出力するクラス
タップ抽出手段と、 前記クラスタップに基づいて、前記注目教師データのク
ラスを求めるクラス分類を行うクラス分類手段とをさら
に備え、 前記学習手段は、前記予測タップおよび前記注目教師デ
ータのクラスに対応するタップ係数を用いて予測演算を
行うことにより得られる前記教師データの予測値の予測
誤差が、統計的に最小になるように学習を行い、クラス
ごとの前記タップ係数を求めることを特徴とする請求項
21に記載のデータ処理装置。22. Class tap extracting means for extracting the student data used to classify the noted teacher data into one of several classes and outputting the student data as class taps, based on the class taps. Classifying means for performing class classification for obtaining a class of the teacher data of interest, wherein the learning means performs a prediction operation using the prediction tap and a tap coefficient corresponding to the class of the teacher data of interest. 22. The data processing apparatus according to claim 21, wherein learning is performed so that a prediction error of a prediction value of the teacher data obtained by the above is statistically minimized, and the tap coefficient is obtained for each class.
師データを、所定の単位ごとに、少なくとも、直交変換
処理または周波数変換することにより、前記生徒データ
を生成することを特徴とする請求項16に記載のデータ
処理装置。23. The student data generating unit generates the student data by subjecting the quasi-teacher data to at least orthogonal transformation processing or frequency conversion for each predetermined unit. A data processing device according to claim 1.
師データに、その品質を劣化させる処理を施すことによ
り、前記準教師データを生成することを特徴とする請求
項16に記載のデータ処理装置。24. The data processing apparatus according to claim 16, wherein the quasi-teacher data generating means generates the quasi-teacher data by performing a process of degrading the quality of the teacher data. .
の画像データであることを特徴とする請求項16に記載
のデータ処理装置。25. The data processing apparatus according to claim 16, wherein the teacher data is moving image or still image data.
像データに、その画質を劣化させる処理を施すことによ
り、前記準教師データを生成することを特徴とする請求
項25に記載のデータ処理装置。26. The data processing apparatus according to claim 25, wherein the quasi-teacher data generating unit generates the quasi-teacher data by performing a process of deteriorating the image quality of the image data. .
像データの時間または空間方向の解像度を劣化させた前
記準教師データを生成することを特徴とする請求項25
に記載のデータ処理装置。27. The quasi-teacher data generating unit generates the quasi-teacher data in which the resolution of the image data in the temporal or spatial direction is degraded.
A data processing device according to claim 1.
数変換処理を施すことにより得られる変換データを復号
し、かつその復号結果に所定の処理を施すための予測演
算に用いるタップ係数を学習するデータ処理方法であっ
て、 教師となる教師データに、前記所定の処理に基づく処理
を施し、準教師データを得る準教師データ生成ステップ
と、 前記準教師データを、少なくとも、直交変換または周波
数変換することにより、生徒となる生徒データを生成す
る生徒データ生成ステップと、 前記タップ係数および生徒データを用いて予測演算を行
うことにより得られる前記教師データの予測値の予測誤
差が、統計的に最小になるように学習を行い、前記タッ
プ係数を求める学習ステップとを備えることを特徴とす
るデータ処理方法。28. A data processing method for decoding at least transform data obtained by performing an orthogonal transform process or a frequency transform process, and learning tap coefficients used in a prediction operation for performing a predetermined process on the decoded result. By performing a process based on the predetermined process on teacher data to be a teacher, a quasi-teacher data generation step of obtaining quasi-teacher data, and at least orthogonal transform or frequency transforming the quasi-teacher data, A student data generating step of generating student data to be a student, and a prediction error of a prediction value of the teacher data obtained by performing a prediction operation using the tap coefficient and the student data so as to be statistically minimized. A learning step of performing learning and obtaining the tap coefficient.
数変換処理を施すことにより得られる変換データを復号
し、かつその復号結果に所定の処理を施すための予測演
算に用いるタップ係数を学習するデータ処理を、コンピ
ュータに行わせるプログラムが記録されている記録媒体
であって、 教師となる教師データに、前記所定の処理に基づく処理
を施し、準教師データを得る準教師データ生成ステップ
と、 前記準教師データを、少なくとも、直交変換または周波
数変換することにより、生徒となる生徒データを生成す
る生徒データ生成ステップと、 前記タップ係数および生徒データを用いて予測演算を行
うことにより得られる前記教師データの予測値の予測誤
差が、統計的に最小になるように学習を行い、前記タッ
プ係数を求める学習ステップとを備えるプログラムが記
録されていることを特徴とする記録媒体。29. A data process for decoding at least transform data obtained by performing an orthogonal transform process or a frequency transform process and learning tap coefficients used for a prediction operation for performing a predetermined process on the decoded result. A recording medium in which a program to be executed by a computer is recorded, wherein a quasi-teacher data generating step of performing a process based on the predetermined process on teacher data serving as a teacher to obtain quasi-teacher data; At least, by orthogonal transformation or frequency transformation, a student data generating step of generating student data to be a student, and a prediction value of the teacher data obtained by performing a prediction operation using the tap coefficient and the student data. Learning so as to statistically minimize the prediction error of A recording medium characterized by recording a program comprising:
Priority Applications (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000135357A JP4752088B2 (en) | 2000-05-09 | 2000-05-09 | Data processing apparatus, data processing method, and recording medium |
CNB2004100558103A CN100568739C (en) | 2000-05-09 | 2001-05-09 | Data processing device and method |
KR1020027000250A KR100731708B1 (en) | 2000-05-09 | 2001-05-09 | A data processing apparatus and a data processing method, and a recording medium |
EP01930004A EP1282236B1 (en) | 2000-05-09 | 2001-05-09 | Data processing device and data processing method, and recorded medium |
US10/030,591 US7035471B2 (en) | 2000-05-09 | 2001-05-09 | Data processing device and data processing method and recorded medium |
CN2004100558118A CN1578159B (en) | 2000-05-09 | 2001-05-09 | Data processing device and method |
CNB018019870A CN1169303C (en) | 2000-05-09 | 2001-05-09 | Data processing device and method, and recording medium |
PCT/JP2001/003873 WO2001086820A1 (en) | 2000-05-09 | 2001-05-09 | Data processing device and data processing method, and recorded medium |
US11/348,720 US7206452B2 (en) | 2000-05-09 | 2006-02-07 | Data processing apparatus and method and recording medium |
US11/584,483 US7336829B2 (en) | 2000-05-09 | 2006-10-20 | Data processing apparatus and method and recording medium |
US11/584,772 US7283678B2 (en) | 2000-05-09 | 2006-10-20 | Data processing apparatus and method and recording medium |
US11/584,789 US7289671B2 (en) | 2000-05-09 | 2006-10-20 | Data processing apparatus and method and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000135357A JP4752088B2 (en) | 2000-05-09 | 2000-05-09 | Data processing apparatus, data processing method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001320587A true JP2001320587A (en) | 2001-11-16 |
JP4752088B2 JP4752088B2 (en) | 2011-08-17 |
Family
ID=18643446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000135357A Expired - Fee Related JP4752088B2 (en) | 2000-05-09 | 2000-05-09 | Data processing apparatus, data processing method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4752088B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149175A (en) * | 2000-11-14 | 2002-05-24 | Sony Corp | Device and method for processing sound, device and method for learning and recording medium |
WO2004047454A1 (en) * | 2002-11-20 | 2004-06-03 | Sony Corporation | Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program |
WO2009078454A1 (en) | 2007-12-18 | 2009-06-25 | Sony Corporation | Data processing apparatus, data processing method, and storage medium |
US7912711B2 (en) | 2000-08-09 | 2011-03-22 | Sony Corporation | Method and apparatus for speech data |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0779434A (en) * | 1993-09-06 | 1995-03-20 | Sony Corp | Reception/reproduction device for digital picture signal |
JPH08294089A (en) * | 1995-04-20 | 1996-11-05 | Sony Corp | Signal conversion device and signal conversion method |
JPH09331526A (en) * | 1996-04-11 | 1997-12-22 | Sony Corp | Image signal processor and its method |
JPH10191353A (en) * | 1996-12-24 | 1998-07-21 | Sony Corp | Image encoder and image encoding method, image decoder and image decoding method and recording medium |
JPH10313403A (en) * | 1997-05-12 | 1998-11-24 | Sony Corp | Still image pickup device, color copying device and display device |
JPH118840A (en) * | 1997-06-16 | 1999-01-12 | Sony Corp | Image signal processor, method and method for learning pixel moving pattern |
JPH118838A (en) * | 1997-06-17 | 1999-01-12 | Sony Corp | Image signal processing device and its method, and learning method for predictive parameter |
-
2000
- 2000-05-09 JP JP2000135357A patent/JP4752088B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0779434A (en) * | 1993-09-06 | 1995-03-20 | Sony Corp | Reception/reproduction device for digital picture signal |
JPH08294089A (en) * | 1995-04-20 | 1996-11-05 | Sony Corp | Signal conversion device and signal conversion method |
JPH09331526A (en) * | 1996-04-11 | 1997-12-22 | Sony Corp | Image signal processor and its method |
JPH10191353A (en) * | 1996-12-24 | 1998-07-21 | Sony Corp | Image encoder and image encoding method, image decoder and image decoding method and recording medium |
JPH10313403A (en) * | 1997-05-12 | 1998-11-24 | Sony Corp | Still image pickup device, color copying device and display device |
JPH118840A (en) * | 1997-06-16 | 1999-01-12 | Sony Corp | Image signal processor, method and method for learning pixel moving pattern |
JPH118838A (en) * | 1997-06-17 | 1999-01-12 | Sony Corp | Image signal processing device and its method, and learning method for predictive parameter |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7912711B2 (en) | 2000-08-09 | 2011-03-22 | Sony Corporation | Method and apparatus for speech data |
JP2002149175A (en) * | 2000-11-14 | 2002-05-24 | Sony Corp | Device and method for processing sound, device and method for learning and recording medium |
WO2004047454A1 (en) * | 2002-11-20 | 2004-06-03 | Sony Corporation | Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program |
US7729558B2 (en) | 2002-11-20 | 2010-06-01 | Sony Corporation | Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program |
WO2009078454A1 (en) | 2007-12-18 | 2009-06-25 | Sony Corporation | Data processing apparatus, data processing method, and storage medium |
US8169510B2 (en) | 2007-12-18 | 2012-05-01 | Sony Corporation | Data processing device, data processing method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4752088B2 (en) | 2011-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7336829B2 (en) | Data processing apparatus and method and recording medium | |
US9826250B1 (en) | Transform-domain intra prediction | |
RU2582057C2 (en) | Device and method for image processing | |
US12075048B2 (en) | Adaptive coding of prediction modes using probability distributions | |
JP4209134B2 (en) | Method and apparatus for upsampling a compressed bitstream | |
JP4752088B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4517448B2 (en) | Data processing apparatus, data processing method, and recording medium | |
WO2019198519A1 (en) | Data processing device and data processing method | |
JP4538698B2 (en) | Data processing apparatus, data processing method, and recording medium | |
US20060159168A1 (en) | Method and apparatus for encoding pictures without loss of DC components | |
JP4147789B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4678454B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP2002010256A (en) | Image processing apparatus, image processing method and recording medium | |
WO2019131161A1 (en) | Coding device, coding method, decoding device, and decoding method | |
JP4538699B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4081745B2 (en) | Decoding device and decoding method, learning device and learning method, program, and recording medium | |
US20250131693A1 (en) | Systems and methods for improving object detection in compressed feature data in coding of multi-dimensional data | |
JP2001345707A (en) | Data processing apparatus and data processing method as well as recording medium | |
JP2003513563A (en) | Improved cascade compression method and system for digital video and images | |
Young | Software CODEC algorithms for desktop videoconferencing | |
JP2003023634A (en) | Image coding/decoding method and device | |
JP2002074354A (en) | Data processor, data processing method and recording medium | |
JP2003023633A (en) | Image decoding method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100406 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110509 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |