[go: up one dir, main page]

JP2013223149A - Image encoding device, image decoding device, image encoding program, and image decoding program - Google Patents

Image encoding device, image decoding device, image encoding program, and image decoding program Download PDF

Info

Publication number
JP2013223149A
JP2013223149A JP2012094238A JP2012094238A JP2013223149A JP 2013223149 A JP2013223149 A JP 2013223149A JP 2012094238 A JP2012094238 A JP 2012094238A JP 2012094238 A JP2012094238 A JP 2012094238A JP 2013223149 A JP2013223149 A JP 2013223149A
Authority
JP
Japan
Prior art keywords
prediction
unit
filter
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012094238A
Other languages
Japanese (ja)
Inventor
Eisuke Nakasu
英輔 中須
Yasutaka Matsuo
康孝 松尾
Toshie Misu
俊枝 三須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012094238A priority Critical patent/JP2013223149A/en
Publication of JP2013223149A publication Critical patent/JP2013223149A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】演算コストの増加を抑えつつ、イントラ予測の予測精度を向上させること。
【解決手段】画像符号化装置は、画像の画面内予測を行う画像符号化装置であって、予測対象ブロックに隣接する符号化済みブロック内の複数の画素値を取得する取得部と、予測対象ブロック内の予測対象画素から所定範囲内にある取得された符号化済みブロックの画素値及び/又は予測対象ブロック内の予測済みの画素値を用いて、予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測部と、を備える。
【選択図】図3
An object of the present invention is to improve the prediction accuracy of intra prediction while suppressing an increase in calculation cost.
An image encoding device is an image encoding device that performs intra-frame prediction of an image, an acquisition unit that acquires a plurality of pixel values in an encoded block adjacent to a prediction target block, and a prediction target Filter processing for generating a prediction value of a prediction target pixel using a pixel value of an acquired encoded block and / or a predicted pixel value in a prediction target block within a predetermined range from the prediction target pixel in the block An intra-prediction unit that sequentially performs.
[Selection] Figure 3

Description

本発明は、画像の画面内予測を行う画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラムに関する。   The present invention relates to an image encoding device, an image decoding device, an image encoding program, and an image decoding program that perform intra prediction of an image.

近年マルチメディア化が進み、動画像を扱う機会が多くなってきている。画像データは情報量が大きく、画像の集合である動画像は、テレビ放送の主流であるハイビジョン(1920×1080)放送で1Gbit/secを超えるデータ量である。   In recent years, with the advance of multimedia, there are many opportunities to handle moving images. Image data has a large amount of information, and a moving image, which is a set of images, has a data amount exceeding 1 Gbit / sec in high-definition (1920 × 1080) broadcasting, which is the mainstream of television broadcasting.

そのため、動画像データは、H.264/AVC(Advanced Video Coding)や規格化作業中のHEVC(High Efficiency Video Coding)などの国際標準符号化方式に代表される符号化技術によって、データ量を圧縮して伝送・蓄積が行われている。   Therefore, the moving image data is H.264. H.264 / AVC (Advanced Video Coding) and standardization work HEVC (High Efficiency Video Coding) and other encoding techniques represented by international standard encoding schemes are used to transmit and store data after compressing the amount of data. Yes.

国際標準符号化方式であるH.264/AVCは、直交変換や画面間予測(インター予測)、画面内予測(イントラ予測)、算術符号化、デブロッキングフィルターなどのツールを利用して、動画像データの1/100程度までの圧縮を実現している。   H. is an international standard encoding method. H.264 / AVC compresses moving image data to about 1/100 using tools such as orthogonal transform, inter prediction (inter prediction), intra prediction (intra prediction), arithmetic coding, and deblocking filter. Is realized.

ツールの一つであるイントラ予測は、処理対象ブロックに隣接する画素値を参照画素として、複数の予測モードから最適な予測モードを決定して画面内予測を行う。また、デジタル放送などのアプリケーションでは、伝送エラーやチャンネルの切替に対応するため、周期的にイントラ予測が行われる。イントラ予測符号化は、他のフレームのデータを用いるインター予測符号化と比較して圧縮率を高めることが難しい。   Intra prediction, which is one of the tools, performs intra prediction by determining an optimal prediction mode from a plurality of prediction modes using a pixel value adjacent to a processing target block as a reference pixel. In addition, in applications such as digital broadcasting, intra prediction is periodically performed to cope with transmission errors and channel switching. In intra-prediction coding, it is difficult to increase the compression rate compared to inter-prediction coding using data of other frames.

そこで、H.264/AVCでは、図1や図2に示すように、同一フレーム内の符号化済みの画素を用いてイントラ予測を行って、イントラ予測符号化の効率の向上を図っている(非特許文献1)。図1は、4×4ブロックにおけるイントラ予測を示す図である。図2は、16×16ブロックにおけるイントラ予測を示す図である。   Therefore, H.H. In H.264 / AVC, as shown in FIG. 1 and FIG. 2, intra prediction is performed using encoded pixels in the same frame to improve the efficiency of intra prediction encoding (Non-Patent Document 1). ). FIG. 1 is a diagram illustrating intra prediction in a 4 × 4 block. FIG. 2 is a diagram illustrating intra prediction in a 16 × 16 block.

予測の方法としては、予測対象ブロック周辺(典型的には上又は左)の画素値列について、その平均値を予測値に用いる平均値(DC:Direct Current)予測がある。また、予測の方法として、外挿と線形内挿とを組み合わせて予測値を生成する平面(Planar)予測や、ある特定方向に0次外挿を行う方向予測などがある。   As a prediction method, there is an average value (DC: Direct Current) prediction in which an average value of a pixel value sequence around a prediction target block (typically upper or left) is used as a predicted value. Further, as prediction methods, there are plane prediction in which prediction values are generated by combining extrapolation and linear interpolation, and direction prediction in which zero-order extrapolation is performed in a specific direction.

また、予測対象ブロックの周辺画素を境界条件とし、離散コサイン変換(DCT:Discrete Cosine Transform)の低域成分を正則化項として、予測対象ブロックに対し繰り返し収束演算をすることで、予測値を生成する方法もある(特許文献1)。   Also, predictive values are generated by repeatedly performing a convergence operation on a prediction target block using the surrounding pixels of the prediction target block as boundary conditions and a low frequency component of discrete cosine transform (DCT) as a regularization term. There is also a method (Patent Document 1).

特開2011−188133号公報JP 2011-188133 A

ISO/IEC 14496-10: Information technology - Coding of audio visual objects - Part 10: Advanced Video Coding (2010)ISO / IEC 14496-10: Information technology-Coding of audio visual objects-Part 10: Advanced Video Coding (2010)

しかしながら、H.264/AVCで採用しているイントラ予測では、符号化対象ブロックの左上、上、右上又は左のブロックの1ライン分の画素データのみを用いるため、予測対象ブロックのサイズが大きくなると、予測効率の低下が生じてしまう。   However, H.C. In the intra prediction adopted in H.264 / AVC, only pixel data for one line of the upper left, upper, upper right, or left block of the encoding target block is used. Therefore, when the size of the prediction target block increases, the prediction efficiency increases. A drop will occur.

また、画面内の近傍の符号化済みの画像データのみを用いて外挿や内挿を行う方法では、特に画素値波形が非平面的な場合において、予測精度が低下することがあった。   In addition, in the method of performing extrapolation or interpolation using only encoded image data in the vicinity of the screen, the prediction accuracy may be deteriorated particularly when the pixel value waveform is non-planar.

また、繰り返し収束演算を行う方法では、画素値波形が非平面的な場合に有利であるが、画面内の近傍の符号化済みの画像データに加え、予測途中の対象ブロック内部の画像データをも考慮する必要がある。よって、この方法では、演算を繰り返し行うため、演算コストが大きいという問題点があった。   In addition, the method of repeatedly performing the convergence calculation is advantageous when the pixel value waveform is non-planar, but in addition to the encoded image data in the vicinity in the screen, the image data inside the target block being predicted is also included. It is necessary to consider. Therefore, this method has a problem that the calculation cost is high because the calculation is repeatedly performed.

そこで、本発明は、上記課題に鑑みてなされたものであり、演算コストの増加を抑えつつ、イントラ予測の予測精度を向上させることができる画像処理装置及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an image processing device and a program capable of improving the prediction accuracy of intra prediction while suppressing an increase in calculation cost.

本発明の一態様における画像符号化装置は、画像の画面内予測を行う画像符号化装置であって、予測対象ブロックに隣接する符号化済みブロック内の複数の画素値を取得する取得部と、前記予測対象ブロック内の予測対象画素から所定範囲内にある前記取得された符号化済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測部と、を備える。   An image encoding device according to an aspect of the present invention is an image encoding device that performs intra-screen prediction of an image, and obtains a plurality of pixel values in an encoded block adjacent to a prediction target block; Prediction of the prediction target pixel using the pixel value of the acquired encoded block and / or the predicted pixel value in the prediction target block that are within a predetermined range from the prediction target pixel in the prediction target block And an intra prediction unit that sequentially performs filter processing for generating values.

また、前記予測値を生成するフィルターを制御するフィルター制御部をさらに備え、前記フィルター制御部は、前記符号化済みの画素値及び/又は前記予測済みの画素値の水平方向及び垂直方向の相関係数、分散値、周辺画素との画素値の差分、エッジ量、又はテクスチャー特徴量のいずれかの特徴量を算出する特徴算出部と、前記特徴算出部により算出された水平方向及び垂直方向の特徴量に基づき前記フィルターのサイズを決定するサイズ決定部と、を備えてもよい。   Further, the image processing apparatus further includes a filter control unit that controls a filter that generates the prediction value, and the filter control unit includes a phase relationship between the encoded pixel value and / or the predicted pixel value in a horizontal direction and a vertical direction. A feature calculation unit for calculating a feature quantity of any one of number, variance value, pixel value difference with surrounding pixels, edge quantity, or texture feature quantity, and features in the horizontal and vertical directions calculated by the feature calculation unit A size determining unit that determines the size of the filter based on the amount.

また、前記予測値を生成するフィルターを制御するフィルター制御部をさらに備え、
前記フィルター制御部は、それぞれ異なる複数のフィルターを有し、前記予測部で各フィルターにより予測値を生成させ、各フィルターの予測誤差に基づいて、使用するフィルターを決定してもよい。
And a filter control unit that controls a filter that generates the predicted value.
The filter control unit may include a plurality of different filters, the prediction unit may generate a predicted value using each filter, and a filter to be used may be determined based on a prediction error of each filter.

また、前記イントラ予測部は、前記フィルターを用いて予測値を生成するモードと、複数の予測方向を用いて符号化済みの画素値から予測値を生成する各モードとを有し、予測誤差、発生符号量、又はR−D特性に基づいてモードを決定してもよい。   Further, the intra prediction unit has a mode for generating a prediction value using the filter and each mode for generating a prediction value from an encoded pixel value using a plurality of prediction directions, a prediction error, The mode may be determined based on the generated code amount or the RD characteristic.

また、本発明の他の態様における画像復号装置は、前記画像符号化装置により符号化されたストリームを復号する画像復号装置であって、前記ストリームをエントロピー復号する復号部と、画面内予測の予測対象ブロックに隣接する復号済みブロック内の画素値のうち、前記予測対象ブロック内の予測対象画素から所定範囲内にある前記復号済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測部と、を備える。   An image decoding apparatus according to another aspect of the present invention is an image decoding apparatus that decodes a stream encoded by the image encoding apparatus, a decoding unit that performs entropy decoding on the stream, and prediction of intra prediction. Among the pixel values in the decoded block adjacent to the target block, the pixel value of the decoded block and / or the predicted pixel in the prediction target block within a predetermined range from the prediction target pixel in the prediction target block And an intra prediction unit that sequentially performs a filter process for generating a prediction value of the prediction target pixel using the value.

また、本発明の他の態様における画像符号化プログラムは、コンピュータに、予測対象ブロックに隣接する符号化済みブロック内の複数の画素値を取得する取得ステップと、前記予測対象ブロック内の予測対象画素から所定範囲内にある前記取得された符号化済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測ステップと、を実行させる。   An image encoding program according to another aspect of the present invention includes an acquisition step of acquiring a plurality of pixel values in an encoded block adjacent to a prediction target block, and a prediction target pixel in the prediction target block. Filter processing for generating a prediction value of the prediction target pixel sequentially using the pixel value of the acquired encoded block and / or the predicted pixel value in the prediction target block within a predetermined range from And performing an intra prediction step.

また、本発明の他の態様における画像復号プログラムは、コンピュータに、画像符号化されたストリームをエントロピー復号する復号ステップと、画面内予測の予測対象ブロックに隣接する復号済みブロック内の画素値のうち、前記予測対象ブロック内の予測対象画素から所定範囲内にある前記復号済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測ステップと、を実行させる。   An image decoding program according to another aspect of the present invention includes: a decoding step for entropy decoding an image-encoded stream; and a pixel value in a decoded block adjacent to a prediction target block for intra prediction. The prediction value of the prediction target pixel is generated using the pixel value of the decoded block and / or the predicted pixel value of the prediction target block within a predetermined range from the prediction target pixel in the prediction target block. And an intra prediction step for sequentially performing filtering processing.

本発明によれば、演算コストの増加を抑えつつ、イントラ予測の予測精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the prediction precision of intra prediction can be improved, suppressing the increase in calculation cost.

4×4ブロックにおけるイントラ予測を示す図。The figure which shows the intra prediction in 4x4 block. 16×16ブロックにおけるイントラ予測を示す図。The figure which shows the intra prediction in a 16x16 block. 実施例1における画像符号化装置の概略構成の一例を示すブロック図。1 is a block diagram illustrating an example of a schematic configuration of an image encoding device according to Embodiment 1. FIG. 実施例1におけるイントラ予測部の構成の一例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a configuration of an intra prediction unit according to the first embodiment. 面内予測フィルターと予測対象画素との関係を示す図。The figure which shows the relationship between an in-plane prediction filter and a prediction object pixel. イントラ予測に用いられる符号化済みの画素と予測済みの画素の一例を示す図。The figure which shows an example of the encoded pixel used for intra prediction, and the predicted pixel. フィルター処理に用いる画素の例(その1)を示す図。The figure which shows the example (the 1) of the pixel used for a filter process. フィルター処理に用いる画素の例(その2)を示す図。The figure which shows the example (the 2) of the pixel used for a filter process. 実施例1におけるフィルター制御部の構成の一例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a configuration of a filter control unit according to the first embodiment. フィルターの形状の例を示す図。The figure which shows the example of the shape of a filter. 走査順の例を示す図。The figure which shows the example of a scanning order. 実施例1におけるイントラ予測処理の一例を示すフローチャート。5 is a flowchart illustrating an example of intra prediction processing according to the first embodiment. 実施例2におけるフィルター制御部の構成の一例を示すブロック図。FIG. 6 is a block diagram illustrating an example of a configuration of a filter control unit according to a second embodiment. 実施例2におけるイントラ予測処理の一例を示すフローチャート。9 is a flowchart illustrating an example of intra prediction processing according to the second embodiment. 実施例3における画像復号装置の概略構成の一例を示すブロック図。FIG. 10 is a block diagram illustrating an example of a schematic configuration of an image decoding device according to a third embodiment. 実施例4における画像処理装置の構成の一例を示す図。FIG. 10 is a diagram illustrating an example of a configuration of an image processing apparatus according to a fourth embodiment.

以下、添付図面を参照しながら各実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

[実施例1]
<構成>
図3は、実施例1における画像符号化装置10の概略構成の一例を示すブロック図である。図3に示す例では、画像処理装置の一例の画像符号化装置10は、前処理部100、予測誤差信号生成部101、直交変換部102、量子化部103、エントロピー符号化部104、逆量子化部105、逆直交変換部106、復号画像生成部107、フィルター制御部109a、復号画像記憶部110、イントラ予測部111、インター予測部112、動きベクトル計算部113、及び予測画像選択部115を有する。各部についての概略を以下に説明する。
[Example 1]
<Configuration>
FIG. 3 is a block diagram illustrating an example of a schematic configuration of the image encoding device 10 according to the first embodiment. In the example illustrated in FIG. 3, the image encoding device 10, which is an example of an image processing device, includes a preprocessing unit 100, a prediction error signal generation unit 101, an orthogonal transformation unit 102, a quantization unit 103, an entropy encoding unit 104, and an inverse quantum. Conversion unit 105, inverse orthogonal transform unit 106, decoded image generation unit 107, filter control unit 109a, decoded image storage unit 110, intra prediction unit 111, inter prediction unit 112, motion vector calculation unit 113, and predicted image selection unit 115. Have. An outline of each part will be described below.

なお、図3に示す例では、H.264/AVCの国際標準符号化方式に従った構成について説明するが、この符号化方式に限られるものではなく、イントラ予測を行う符号化技術であれば、いずれの技術でも適用可能である。   In the example shown in FIG. A configuration according to the H.264 / AVC international standard encoding method will be described, but the present invention is not limited to this encoding method, and any technology can be applied as long as the encoding technology performs intra prediction.

前処理部100は、ピクチャタイプに合わせてピクチャを並べ替え、ピクチャタイプ及びフレームごとのフレーム画像等を順次出力する。また、前処理部100は、ブロック分割なども行う。   The preprocessing unit 100 rearranges the pictures in accordance with the picture type, and sequentially outputs the picture type and the frame image for each frame. The preprocessing unit 100 also performs block division and the like.

予測誤差信号生成部101は、入力された動画像データの符号化対象画像が、例えば32×32、16×16、8×8画素などのブロックに分割されたブロックデータを取得する。   The prediction error signal generation unit 101 acquires block data obtained by dividing an encoding target image of input moving image data into blocks such as 32 × 32, 16 × 16, and 8 × 8 pixels.

予測誤差信号生成部101は、そのブロックデータと、予測画像選択部115から出力される予測画像のブロックデータとにより、予測誤差信号を生成する。予測誤差信号生成部101は、生成された予測誤差信号を直交変換部102に出力する。   The prediction error signal generation unit 101 generates a prediction error signal based on the block data and the block data of the prediction image output from the prediction image selection unit 115. The prediction error signal generation unit 101 outputs the generated prediction error signal to the orthogonal transformation unit 102.

直交変換部102は、入力された予測誤差信号を直交変換処理する。直交変換部102は、直交変換処理によって水平及び垂直方向の周波数成分に分離された信号を量子化部103に出力する。   The orthogonal transform unit 102 performs orthogonal transform processing on the input prediction error signal. The orthogonal transform unit 102 outputs a signal separated into horizontal and vertical frequency components by the orthogonal transform process to the quantization unit 103.

量子化部103は、直交変換部102からの出力信号を量子化する。量子化部103は、量子化することによって出力信号の符号量を低減し、この出力信号をエントロピー符号化部104及び逆量子化部105に出力する。   The quantization unit 103 quantizes the output signal from the orthogonal transform unit 102. The quantization unit 103 reduces the code amount of the output signal by quantization, and outputs this output signal to the entropy encoding unit 104 and the inverse quantization unit 105.

エントロピー符号化部104は、量子化部103からの出力信号や動きベクトル計算部113から出力された動きベクトル情報などをエントロピー符号化して出力する。エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる方式をいう。   The entropy encoding unit 104 performs entropy encoding on the output signal from the quantization unit 103, the motion vector information output from the motion vector calculation unit 113, and the like, and outputs the result. Entropy coding is a method of assigning variable-length codes according to the appearance frequency of symbols.

逆量子化部105は、量子化部103からの出力信号を逆量子化してから逆直交変換部106に出力する。逆直交変換部106は、逆量子化部105からの出力信号を逆直交変換処理してから復号画像生成部107に出力する。これら逆量子化部105及び逆直交変換部106によって復号処理が行われることにより、符号化前の予測誤差信号と同程度の信号が得られる。   The inverse quantization unit 105 dequantizes the output signal from the quantization unit 103 and then outputs the output signal to the inverse orthogonal transform unit 106. The inverse orthogonal transform unit 106 performs an inverse orthogonal transform process on the output signal from the inverse quantization unit 105 and then outputs the output signal to the decoded image generation unit 107. By performing decoding processing by the inverse quantization unit 105 and the inverse orthogonal transform unit 106, a signal having the same level as the prediction error signal before encoding is obtained.

復号画像生成部107は、インター予測部112で動き補償された画像のブロックデータと、逆量子化部105及び逆直交変換部106により復号処理された予測誤差信号とを加算する。復号画像生成部107は、加算して生成した復号画像のブロックデータを、復号画像記憶部110に出力する。   The decoded image generation unit 107 adds the block data of the image subjected to motion compensation by the inter prediction unit 112 and the prediction error signal decoded by the inverse quantization unit 105 and the inverse orthogonal transform unit 106. The decoded image generation unit 107 outputs the decoded image block data generated by the addition to the decoded image storage unit 110.

復号画像記憶部110は、入力した復号画像のブロックデータを新たな参照画像のデータとして記憶し、フィルター制御部109a、インター予測部112及び動きベクトル計算部113に出力する。   The decoded image storage unit 110 stores the input block data of the decoded image as new reference image data, and outputs the data to the filter control unit 109a, the inter prediction unit 112, and the motion vector calculation unit 113.

フィルター制御部109aは、予測対象ブロックに含まれる予測対象画素から所定範囲内にある符号化済みブロックの画素値及び/又は予測対象ブロック内の予測済みの画素値に基づいて、予測に用いるフィルターを決定する。予測に用いるフィルターを、面内予測フィルターとも呼ぶ。予測対象ブロックは、符号化対象ブロックと同じブロックであってもよいし、符号化対象ブロックが分割されたブロックであってもよい。   The filter control unit 109a selects a filter used for prediction based on the pixel value of the encoded block and / or the predicted pixel value in the prediction target block within a predetermined range from the prediction target pixel included in the prediction target block. decide. A filter used for prediction is also called an in-plane prediction filter. The prediction target block may be the same block as the encoding target block, or may be a block obtained by dividing the encoding target block.

面内予測フィルターとしては、低域通過型の線形フィルター、メディアンフィルター、エッジ保存型ノイズ除去フィルターとして知られるバイラテルフィルター、又はシグマフィルターなどの非線形フィルターなどを適用可能である。   As the in-plane prediction filter, a low-pass linear filter, a median filter, a bilater filter known as an edge-preserving noise removal filter, or a nonlinear filter such as a sigma filter can be applied.

各フィルターの詳細は、下記の文献を参照されたい。
・C.Tomai, R.Manduchi, "Bilateral Filtering for gray and color images," International Conference on Computer Vision, pp.839-846, 1998.
・A.Buades, B.Coll, and J.Morel, "A non -local algorithm for image denoising," IEEE Conference on Computer Vision and Pattern Recognition, vol.2, p.60,2005
・R.C.Bilcu, M.Vehvilainen, "A Modified Sigma Filter for Noise Reduction in Images," Proceedings of the 9th WSEAS Circuits, Systems, Communications and Computers multiconference, WSEAS/CSCC2005, No.15, July 2005
面内予測フィルターには、近傍画素の値のみを用いて対象画素の値を推定する方法と、対象画素に仮の値を挿入して推定する方法とがある。仮の値は、例えば画素値として取り得る範囲の中間値、最大値、最小値、面内予測フィルター内の予測に用いる画素の平均値などである。
For details of each filter, refer to the following documents.
・ C. Tomai, R. Manduchi, "Bilateral Filtering for gray and color images," International Conference on Computer Vision, pp.839-846, 1998.
・ A. Buades, B. Coll, and J. Morel, "A non -local algorithm for image denoising," IEEE Conference on Computer Vision and Pattern Recognition, vol.2, p.60,2005
· RCBilcu, M.Vehvilainen, "A Modified Sigma Filter for Noise Reduction in Images," Proceedings of the 9 th WSEAS Circuits, Systems, Communications and Computers multiconference, WSEAS / CSCC2005, No.15, July 2005
As the in-plane prediction filter, there are a method of estimating the value of the target pixel using only the values of neighboring pixels and a method of estimating by inserting a temporary value into the target pixel. The provisional value is, for example, an intermediate value, a maximum value, a minimum value, an average value of pixels used for prediction in the in-plane prediction filter, or the like in a possible range as pixel values.

また、フィルター制御部109aは、面内予測フィルターのフィルターサイズや、走査順を予測精度が向上するように適応的に変更してもよい。フィルター制御部109aの詳細は、後述する。   The filter control unit 109a may adaptively change the filter size of the in-plane prediction filter and the scanning order so that the prediction accuracy is improved. Details of the filter control unit 109a will be described later.

なお、面内予測フィルターとして用いるフィルターや、そのフィルターサイズや走査順が、イントラ予測部111に予め設定されていれば、フィルター制御部109aは、必ずしも必要な構成ではない。   Note that if the filter used as the in-plane prediction filter, the filter size, and the scanning order are set in the intra prediction unit 111 in advance, the filter control unit 109a is not necessarily required.

イントラ予測部111は、符号化対象画像の予測対象ブロックに対して、すでに符号化された参照画素や予測済みの画素を用いて予測画像を生成する。イントラ予測部111は、フィルター制御部109aにより制御された面内予測フィルターを用いて逐次的にフィルター処理を行うことで、予測対象ブロック内の予測値を生成する。これにより、イントラ予測されたブロックデータが生成される。イントラ予測部111の詳細は、後述する。また、イントラ予測部111は、公知の技術である、予測方向に基づくイントラ予測を行ってもよい。   The intra prediction unit 111 generates a predicted image using the already-encoded reference pixels and predicted pixels for the prediction target block of the encoding target image. The intra prediction unit 111 generates a prediction value in the prediction target block by sequentially performing filter processing using the in-plane prediction filter controlled by the filter control unit 109a. As a result, intra-predicted block data is generated. Details of the intra prediction unit 111 will be described later. Moreover, the intra estimation part 111 may perform intra prediction based on a prediction direction which is a well-known technique.

インター予測部112は、復号画像記憶部110から取得した参照画像のデータを動きベクトル計算部113から提供される動きベクトルで動き補償する。これにより、動き補償された参照画像としてのブロックデータが生成される。   The inter prediction unit 112 performs motion compensation on the reference image data acquired from the decoded image storage unit 110 with the motion vector provided from the motion vector calculation unit 113. Thereby, block data as a motion-compensated reference image is generated.

動きベクトル計算部113は、符号化対象画像におけるブロックデータと、復号画像記憶部110から取得する参照画像とを用いて、動きベクトルを求める。動きベクトルとは、ブロック単位で参照画像内から処理対象ブロックに最も類似している位置を探索するブロックマッチング技術を用いて求められるブロック単位の空間的なずれを示す値である。   The motion vector calculation unit 113 obtains a motion vector using the block data in the encoding target image and the reference image acquired from the decoded image storage unit 110. The motion vector is a value indicating a spatial deviation in units of blocks obtained using a block matching technique for searching for a position most similar to the processing target block from the reference image in units of blocks.

動きベクトル計算部113は、求めた動きベクトルをインター予測部112に出力し、動きベクトルや参照画像を示す情報を含む動きベクトル情報をエントロピー符号化部104に出力する。   The motion vector calculation unit 113 outputs the obtained motion vector to the inter prediction unit 112, and outputs motion vector information including information indicating the motion vector and the reference image to the entropy coding unit 104.

イントラ予測部111とインター予測部112から出力されたブロックデータは、予測画像選択部115に入力される。   The block data output from the intra prediction unit 111 and the inter prediction unit 112 are input to the predicted image selection unit 115.

予測画像選択部115は、イントラ予測部111とインター予測部112から取得したブロックデータのうち、どちらか一方のブロックデータを予測画像として選択する。選択された予測画像は、予測誤差信号生成部101に出力される。   The predicted image selection unit 115 selects one of the block data acquired from the intra prediction unit 111 and the inter prediction unit 112 as a predicted image. The selected prediction image is output to the prediction error signal generation unit 101.

<イントラ予測>
次に、実施例1におけるイントラ予測について説明する。実施例1では、予測対象ブロック内の画素値を、面内予測フィルターにより近傍の画素値を用いて予測する。以降では、予測された画素値を予測値とも呼ぶ。映像信号では、一般的に、近傍の画素は類似した性質を有するため、この性質を利用して、予測対象ブロック内の予測値が生成される。
<Intra prediction>
Next, intra prediction in the first embodiment will be described. In the first embodiment, a pixel value in a prediction target block is predicted by using an in-plane prediction filter using neighboring pixel values. Hereinafter, the predicted pixel value is also referred to as a predicted value. Generally, in a video signal, neighboring pixels have similar properties, and therefore, a predicted value in a prediction target block is generated using this property.

(構成)
図4は、実施例1におけるイントラ予測部111の構成の一例を示すブロック図である。図4に示す例では、イントラ予測部111は、取得部201、予測部202、及びバッファ203を有する。
(Constitution)
FIG. 4 is a block diagram illustrating an example of the configuration of the intra prediction unit 111 according to the first embodiment. In the example illustrated in FIG. 4, the intra prediction unit 111 includes an acquisition unit 201, a prediction unit 202, and a buffer 203.

取得部201は、予測対象ブロックに隣接する符号化済みブロック内の複数の画素値を取得する。取得する画素の数は、使用されるフィルターサイズによって異なる。取得部201は、例えば、予測対象画素から所定範囲内にある符号化済みの画素値を取得する。所定範囲は、面内予測フィルターのサイズに依存する。   The acquisition unit 201 acquires a plurality of pixel values in an encoded block adjacent to the prediction target block. The number of pixels to be acquired depends on the filter size used. For example, the acquisition unit 201 acquires an encoded pixel value within a predetermined range from the prediction target pixel. The predetermined range depends on the size of the in-plane prediction filter.

取得部201は、面内予測フィルターに用いる符号化済みの画素値を、例えばフィルター制御部109aから取得してもよいし、復号画像記憶部110から直接取得するようにしてもよい。取得部201は、取得した符号化済みの画素値を予測部202に出力する。   The acquisition unit 201 may acquire the encoded pixel value used for the in-plane prediction filter, for example, from the filter control unit 109a or directly from the decoded image storage unit 110. The acquisition unit 201 outputs the acquired encoded pixel value to the prediction unit 202.

予測部202は、取得部201により取得された符号化済みブロックの画素値及び/又は予測対象ブロック内の予測済みの画素値を用いて、予測対象ブロック内の予測対象画素の予測値を生成するフィルター処理を逐次的に行う。   The prediction unit 202 generates the prediction value of the prediction target pixel in the prediction target block using the pixel value of the encoded block acquired by the acquisition unit 201 and / or the predicted pixel value in the prediction target block. Perform filtering sequentially.

予測部202は、例えば、予測対象画素を含むフィルターサイズ内に含まれる符号化済みブロックの画素値及び/又は予測対象ブロック内の予測済みの画素値を用いて、予測対象画素の予測値を生成するフィルター処理を逐次的に行う。予測部202は、使用する面内予測フィルターを適宜設定可能とすればよい。   For example, the prediction unit 202 generates a prediction value of the prediction target pixel using the pixel value of the encoded block and / or the predicted pixel value in the prediction target block included in the filter size including the prediction target pixel. The filtering process is performed sequentially. The prediction unit 202 only needs to be able to appropriately set the in-plane prediction filter to be used.

予測部202は、所定の走査順で逐次的にフィルター処理を行うことで、予測対象ブロック内の予測値を順に予測していくことができる。予測部202は、生成した予測対象ブロックの予測値を含むブロックデータを、例えば予測画像選択部115に出力する。   The prediction unit 202 can sequentially predict the prediction values in the prediction target block by sequentially performing the filtering process in a predetermined scanning order. The prediction unit 202 outputs block data including the prediction value of the generated prediction target block to the prediction image selection unit 115, for example.

また、予測部202は、フィルター制御部109aにより面内予測フィルターのフィルターサイズや走査順が決定された場合は、このフィルターサイズや走査順を取得し、このフィルターサイズや走査順に従う。   Further, when the filter size and the scanning order of the in-plane prediction filter are determined by the filter control unit 109a, the prediction unit 202 acquires the filter size and the scanning order, and follows the filter size and the scanning order.

バッファ203は、予測部202で生成された予測対象ブロック内の予測値を記憶する。この予測値は、予測済みの画素値を表す。バッファ203に記憶される予測値は、予測部202による面内予測フィルター処理で必要な分だけ読み出されて処理される。   The buffer 203 stores the prediction value in the prediction target block generated by the prediction unit 202. This predicted value represents a predicted pixel value. Predicted values stored in the buffer 203 are read out and processed by an amount necessary for the in-plane prediction filter processing by the prediction unit 202.

(具体例)
図5は、面内予測フィルターと予測対象画素との関係を示す図である。図5に示す例では、面内予測フィルターfi11は、例えば7×7のサイズであり、その中央に予測対象画素Pを含む。図5に示す例では、画素pi11は、符号化済みの画素を表し、画素pi12は、予測対象ブロックpb11内の予測済みの画素を表し、領域ar11内に含まれる画素は、フィルター処理で用いられる画素を表す。
(Concrete example)
FIG. 5 is a diagram illustrating the relationship between the in-plane prediction filter and the prediction target pixel. In the example illustrated in FIG. 5, the in-plane prediction filter fi <b> 11 has a size of 7 × 7, for example, and includes a prediction target pixel P at the center thereof. In the example illustrated in FIG. 5, the pixel pi11 represents an encoded pixel, the pixel pi12 represents a predicted pixel in the prediction target block pb11, and the pixels included in the region ar11 are used in the filtering process. Represents a pixel.

予測対象ブロックpb11内の予測対象画素Pが、図5に示す位置にある場合、予測部202は、面内予測フィルターfi11の領域ar11に含まれる符号化済みの画素値と、予測済みの画素値とを用いてフィルター処理することで、予測対象画素Pの予測値が生成される。フィルター処理は、上述した面内予測フィルターのいずれかを用いて処理すればよい。   When the prediction target pixel P in the prediction target block pb11 is in the position illustrated in FIG. 5, the prediction unit 202 includes the encoded pixel value and the predicted pixel value included in the region ar11 of the in-plane prediction filter fi11. And the prediction value of the prediction target pixel P is generated. The filtering process may be performed using any of the above-described in-plane prediction filters.

図6は、イントラ予測に用いられる符号化済みの画素と予測済みの画素の一例を示す図である。面内予測フィルターを用いるイントラ予測で用いる画素は、予測対象ブロックの上、左の符号化済みのブロックの画素、及び/又は予測対象ブロック内の既に予測済みの画素である。   FIG. 6 is a diagram illustrating an example of encoded pixels and predicted pixels used for intra prediction. The pixels used in the intra prediction using the in-plane prediction filter are the pixels of the encoded block on the left above the prediction target block and / or the already predicted pixels in the prediction target block.

図6に示すように、予測対象画素がP21の位置にある場合、面内予測フィルターfi11で処理される画素は、領域ar21内にある符号化済みの画素である。予測対象画素がP22の位置にある場合、面内予測フィルターfi11で処理される画素は、領域ar22内にある符号化済みの画素と予測済みの画素との両方である。   As illustrated in FIG. 6, when the prediction target pixel is located at the position P21, the pixel processed by the in-plane prediction filter fi11 is an encoded pixel in the area ar21. When the prediction target pixel is located at the position P22, the pixels processed by the in-plane prediction filter fi11 are both encoded pixels and predicted pixels in the area ar22.

予測対象画素がP23の位置にある場合、面内予測フィルターfi11で処理される画素は、領域ar23内にある符号化済みの画素と予測済みの画素との両方である。予測対象画素がP24の位置にある場合、面内予測フィルターfi11で処理される画素は、領域ar24内にある予測済みの画素である。   When the prediction target pixel is at the position P23, the pixels processed by the in-plane prediction filter fi11 are both encoded pixels and predicted pixels in the area ar23. When the prediction target pixel is at the position P24, the pixel processed by the in-plane prediction filter fi11 is a predicted pixel in the area ar24.

図6に示すように、予測部202は、予測対象画素の予測値を生成する場合、面内予測フィルター内にある、符号化済みの画素値及び/又は予測済みの画素値を用いてフィルター処理を行うことで、予測対象画素の画素値を予測する。予測対象ブロック内の過去に予測された画素の予測値は、バッファ203に記憶されている。   As illustrated in FIG. 6, when generating a prediction value of a prediction target pixel, the prediction unit 202 performs a filter process using an encoded pixel value and / or a predicted pixel value in an in-plane prediction filter. By performing the above, the pixel value of the prediction target pixel is predicted. Predicted values of pixels predicted in the past in the prediction target block are stored in the buffer 203.

面内予測フィルター内にある画素は、予測対象画素と近傍の画素であるため、予測値の予測精度が向上する。また、フィルター処理を行って予測値を生成するため、例えば符号化済みの画素値に符号化歪が含まれている場合は、その歪を除去して予測値を生成することができる。   Since the pixels in the in-plane prediction filter are pixels close to the prediction target pixel, the prediction accuracy of the prediction value is improved. Further, since the prediction value is generated by performing the filtering process, for example, when the encoded pixel value includes the encoding distortion, the prediction value can be generated by removing the distortion.

図6に示すように、フィルター処理で用いられる画素の位置や数は、符号化対象ブロックと面内予測フィルターとの相対的な位置、又は予測対象画素の位置により決定される。   As illustrated in FIG. 6, the position and number of pixels used in the filter processing are determined by the relative position between the encoding target block and the in-plane prediction filter, or the position of the prediction target pixel.

図7は、フィルター処理に用いる画素の例(その1)を示す図である。図7に示す例では、領域ar31にある画素A11〜43は、符号化済み又は予測済みの画素を表し、予測対象画素Pに対して、これらの画素A11〜43を用いてフィルター処理が行われる。図7に示す画素を用いる面内予測フィルターは、例えば、メディアンフィルター、平均値フィルターなどである。   FIG. 7 is a diagram illustrating an example (part 1) of pixels used for the filter processing. In the example illustrated in FIG. 7, the pixels A <b> 11 to 43 in the area ar <b> 31 represent encoded or predicted pixels, and the prediction target pixel P is subjected to filter processing using these pixels A <b> 11 to 43. . The in-plane prediction filter using the pixels shown in FIG. 7 is, for example, a median filter or an average value filter.

図8は、フィルター処理に用いる画素の例(その2)を示す図である。図8に示す例では、領域ar32にある画素A11〜43は、符号化済み又は予測済みの画素を表す。図8に示す例では、予測対象画素Pに対して、これらの画素A11〜43を対称にして未処理の予測値が補間されている。図8に示す例では、補間された予測値も用いてフィルター処理が行われる。図8に示す画素を用いる面内予測フィルターは、例えば、平滑化フィルター、エッジ保存型平滑化フィルターなどである。   FIG. 8 is a diagram illustrating an example (part 2) of pixels used for the filter processing. In the example illustrated in FIG. 8, the pixels A <b> 11 to 43 in the area ar <b> 32 represent encoded or predicted pixels. In the example illustrated in FIG. 8, with respect to the prediction target pixel P, unprocessed prediction values are interpolated with these pixels A11 to 43 being symmetrical. In the example illustrated in FIG. 8, the filtering process is performed using the interpolated predicted value. The in-plane prediction filter using the pixels illustrated in FIG. 8 is, for example, a smoothing filter, an edge-preserving smoothing filter, or the like.

図7や図8に示すように、面内予測フィルターの種類に応じて、予測部202は、フィルター処理に用いる画素の位置や数を決定してもよい。   As illustrated in FIGS. 7 and 8, the prediction unit 202 may determine the position and number of pixels used for the filter process according to the type of the in-plane prediction filter.

<フィルター制御>
次に、実施例1におけるフィルター制御について説明する。以下に説明するフィルター制御部109aは、符号化済みの画素値及び/又は予測済みの画素値の特徴量に応じて、フィルターサイズや走査順(スキャン順)を変更する。
<Filter control>
Next, filter control in the first embodiment will be described. The filter control unit 109a described below changes the filter size and the scanning order (scanning order) according to the feature amount of the encoded pixel value and / or the predicted pixel value.

(構成)
図9は、実施例1におけるフィルター制御部109aの構成の一例を示すブロック図である。図9に示す例では、フィルター制御部109aは、特徴算出部301、サイズ決定部302、及び走査順決定部303を有する。
(Constitution)
FIG. 9 is a block diagram illustrating an example of the configuration of the filter control unit 109a according to the first embodiment. In the example illustrated in FIG. 9, the filter control unit 109 a includes a feature calculation unit 301, a size determination unit 302, and a scanning order determination unit 303.

特徴算出部301は、予測対象ブロックに隣接する符号化済みブロックの所定範囲内にある画素値を取得する。所定範囲とは、例えば、予測対象ブロックの上に隣接する複数ラインの符号化済み画素と予測対象ブロックの左に隣接する複数ラインの符号化済み画素である。   The feature calculation unit 301 acquires a pixel value within a predetermined range of an encoded block adjacent to the prediction target block. The predetermined range is, for example, a plurality of encoded pixels adjacent to the prediction target block and a plurality of encoded pixels adjacent to the left of the prediction target block.

特徴算出部301は、取得した符号化済みの画素値及び/又は予測済みの画素値の特徴量を算出する。特徴量は、例えば、水平方向及び垂直方向の相関係数、分散値、周辺画素との画素値の差分、エッジ量、又はテクスチャー特徴量などのいずれかである。特徴量としていずれを用いるかは、予め設定されていればよい。特徴算出部301は、例えば、符号化済みの画素値の水平方向の特徴量、及び垂直方向の特徴量を算出する。特徴算出部301は、算出した水平方向の特徴量、及び垂直方向の特徴量をサイズ決定部302に出力する。   The feature calculation unit 301 calculates the feature amount of the acquired encoded pixel value and / or predicted pixel value. The feature amount is, for example, any one of a correlation coefficient in the horizontal direction and the vertical direction, a variance value, a difference between pixel values from neighboring pixels, an edge amount, a texture feature amount, and the like. Which is used as the feature amount may be set in advance. For example, the feature calculation unit 301 calculates the feature amount in the horizontal direction and the feature amount in the vertical direction of the encoded pixel value. The feature calculation unit 301 outputs the calculated horizontal feature amount and vertical feature amount to the size determination unit 302.

サイズ決定部302は、特徴算出部301から取得した水平方向の特徴量、及び垂直方向の特徴量に基づいて、面内予測フィルターのサイズを決定する。例えば、サイズ決定部302は、水平方向、垂直方向のそれぞれの特徴量に対して閾値判定を行い、それぞれの方向でサイズを決定する。   The size determination unit 302 determines the size of the in-plane prediction filter based on the horizontal feature amount and the vertical feature amount acquired from the feature calculation unit 301. For example, the size determination unit 302 performs threshold determination for each feature amount in the horizontal direction and the vertical direction, and determines the size in each direction.

サイズ決定部302は、例えば、水平方向の特徴量が水平閾値より小さければ小さいサイズに決定し、水平方向の特徴量が水平閾値以上であれば大きいサイズに決定する。また、サイズ決定部302は、例えば、垂直方向の特徴量が垂直閾値より小さければ小さいサイズに決定し、垂直方向の特徴量が垂直閾値以上であれば大きいサイズに決定する。   For example, the size determination unit 302 determines a small size if the horizontal feature amount is smaller than the horizontal threshold, and determines a large size if the horizontal feature amount is equal to or greater than the horizontal threshold. For example, the size determining unit 302 determines a small size if the vertical feature amount is smaller than the vertical threshold, and determines a large size if the vertical feature amount is equal to or greater than the vertical threshold.

なお、水平閾値、垂直閾値は複数設定されてもよく、サイズ決定部302は、面内予測フィルターの水平、垂直方向のサイズを、細かく設定できるようにしてもよい。水平方向のサイズ、及び垂直方向のサイズが決定すれば、面内予測フィルターの形状が決定する。サイズ決定部302は、決定された面内予測フィルターの水平方向のサイズ、及び垂直方向のサイズをイントラ予測部111及びエントロピー符号化部104に通知する。また、サイズ決定部302は、走査順決定部303が面内予測フィルターのサイズにより走査順を決定する場合は、水平方向のサイズ及び垂直方向のサイズを走査順決定部303に通知してもよい。また、1又は複数の水平閾値及び垂直閾値は、例えば予め設定された所定値であり、実験などにより適切な値が設定されてもよいし、画像毎に学習しながら最適な値が設定されてもよい。   Note that a plurality of horizontal threshold values and vertical threshold values may be set, and the size determination unit 302 may be able to finely set the horizontal and vertical sizes of the in-plane prediction filter. If the size in the horizontal direction and the size in the vertical direction are determined, the shape of the in-plane prediction filter is determined. The size determination unit 302 notifies the intra prediction unit 111 and the entropy encoding unit 104 of the determined horizontal size and vertical size of the in-plane prediction filter. In addition, when the scanning order determination unit 303 determines the scanning order based on the size of the in-plane prediction filter, the size determination unit 302 may notify the scanning order determination unit 303 of the horizontal size and the vertical size. . Further, the one or more horizontal threshold values and vertical threshold values are predetermined values set in advance, for example, and may be set to appropriate values through experiments or the like, or optimal values are set while learning for each image. Also good.

走査順決定部303は、水平方向及び垂直方向の特徴量、又はサイズ決定部302から取得した水平方向のサイズ、及び垂直方向のサイズに基づいて、面内予測フィルターの走査順を決定する。例えば、走査順決定部303は、水平方向の特徴量が、垂直方向の特徴量よりも閾値以上大きければ、水平方向優先の走査順に決定する。また、走査順決定部303は、垂直方向の特徴量が、水平方向の特徴量よりも閾値以上大きければ、垂直方向優先の走査順に決定する。この閾値は、例えば、予め設定された所定値であり、実験などにより適切な値が設定されればよい。   The scanning order determination unit 303 determines the scanning order of the in-plane prediction filter based on the horizontal and vertical feature quantities, or the horizontal size and the vertical size acquired from the size determination unit 302. For example, if the horizontal feature amount is greater than the threshold value by a threshold value or more, the scanning order determining unit 303 determines the horizontal order priority scanning order. Also, the scanning order determination unit 303 determines the scanning order with priority in the vertical direction if the vertical feature quantity is larger than the horizontal feature quantity by a threshold value or more. This threshold value is, for example, a predetermined value set in advance, and an appropriate value may be set by an experiment or the like.

また、走査順決定部303は、面内予測フィルターの水平方向のサイズ、及び垂直方向のサイズ(又は形状)と、走査順とを対応付けたテーブルを保持し、決定された面内予測フィルターのサイズに対応する走査順に決定してもよい。走査順決定部303は、決定した走査順を、イントラ予測部111及びエントロピー符号化部104に通知する。   The scanning order determination unit 303 holds a table in which the horizontal size and vertical size (or shape) of the in-plane prediction filter are associated with the scanning order, and the determined in-plane prediction filter The scanning order corresponding to the size may be determined. The scanning order determination unit 303 notifies the intra-prediction unit 111 and the entropy encoding unit 104 of the determined scanning order.

なお、走査順決定部303は、必ずしも必要な構成ではなく、どの走査順でフィルター処理が行われるかが、イントラ予測部111に予め設定されていてもよい。また、フィルター制御部109aは、複数の面内予測フィルターの中から1つが選択される場合には、フィルター種類をエントロピー符号化部104に通知する。なお、フィルター制御部109aは、フィルターの情報(フィルター種類、フィルターサイズ、走査順など)をエントロピー符号化部104に必ずしも通知しなくてもよい。   Note that the scan order determination unit 303 is not necessarily required, and in which scan order the filter processing is performed may be set in the intra prediction unit 111 in advance. Further, the filter control unit 109a notifies the entropy encoding unit 104 of the filter type when one of the plurality of in-plane prediction filters is selected. The filter control unit 109a does not necessarily need to notify the entropy encoding unit 104 of filter information (filter type, filter size, scanning order, etc.).

(具体例)
図10は、フィルターの形状の例を示す図である。図10(A)に示す形状は、3(横)×9(縦)であり、図10(B)に示す形状は、3×3であり、図10(C)に示す形状は、7×3であり、図10(D)に示す形状は、5×11であり、図10(E)に示す形状は、5×5であり、図10(F)に示す形状は、7×7である。
(Concrete example)
FIG. 10 is a diagram illustrating an example of the shape of a filter. The shape shown in FIG. 10A is 3 (horizontal) × 9 (vertical), the shape shown in FIG. 10B is 3 × 3, and the shape shown in FIG. 3, the shape shown in FIG. 10 (D) is 5 × 11, the shape shown in FIG. 10 (E) is 5 × 5, and the shape shown in FIG. 10 (F) is 7 × 7. is there.

図10に示す例の場合、サイズ決定部302は、水平方向の特徴量に対して閾値th11、閾値th12を準備する。サイズ決定部302は、水平方向の特徴量が閾値th11未満であればサイズを「3」にし、閾値th11以上閾値th12未満であればサイズを「5」にし、閾値th12以上であればサイズを「7」にすればよい。   In the case of the example illustrated in FIG. 10, the size determination unit 302 prepares a threshold th11 and a threshold th12 for the horizontal feature amount. The size determining unit 302 sets the size to “3” if the horizontal feature amount is less than the threshold th11, sets the size to “5” if the feature value is greater than or equal to the threshold th11 and less than the threshold th12, and sets the size to “ 7 ”.

また、サイズ決定部302は、垂直方向の特徴量に対して、閾値th21〜閾値th24を準備する。サイズ決定部302は、垂直方向の特徴量が閾値th21未満であればサイズを「3」にし、閾値th21以上閾値th22未満であればサイズを「5」にし、閾値th22以上閾値th23未満であればサイズを「7」にし、閾値th23以上閾値th24未満であればサイズを「9」にし、閾値th24以上であればサイズを「11」にする。   In addition, the size determination unit 302 prepares threshold values th21 to th24 for the feature amount in the vertical direction. The size determination unit 302 sets the size to “3” if the vertical feature amount is less than the threshold th21, sets the size to “5” if the feature amount is greater than or equal to the threshold th21 and less than the threshold th22, and if the feature amount is greater than or equal to the threshold th22 and less than the threshold th23. The size is set to “7”, the size is set to “9” if the threshold is th23 or more and less than the threshold th24, and the size is set to “11” if the threshold is th24 or more.

これにより、サイズ決定部302は、面内予測フィルターのサイズを決定することができる。上記閾値th11〜12、th21〜th24については、実験などにより求めた適切な値を予め設定しておいてもよいし、画像毎に学習をしながら最適な閾値が設定されるようにしてもよい。   Accordingly, the size determination unit 302 can determine the size of the in-plane prediction filter. As the threshold values th11 to 12 and th21 to th24, appropriate values obtained by experiments or the like may be set in advance, or optimal threshold values may be set while learning for each image. .

図11は、走査順の例を示す図である。図11(A)は、水平方向優先で走査する走査順を示す。図11(B)は、垂直方向優先で走査する走査順を示す。図11(C)は、右上から左下に向かって順に捜査する走査順を示す。図11(D)は、ジグザグに走査する走査順を示す。   FIG. 11 is a diagram illustrating an example of the scanning order. FIG. 11A shows the scanning order for scanning with priority in the horizontal direction. FIG. 11B shows the scanning order for scanning with priority in the vertical direction. FIG. 11C shows a scanning order in which the search is performed in order from the upper right to the lower left. FIG. 11D shows the scanning order for zigzag scanning.

図11に示すブロックpbは、予測対象ブロックを示し、ブロックfiは、面内予測フィルターのサイズを示す。図11(A)に示すように、走査順決定部303は、例えば、横長の形状の面内予測フィルターの場合は、水平方向優先の走査順に決定し、図11(B)に示すように、縦長の形状の面内予測フィルターの場合は、垂直方向優先の走査順に決定する。   A block pb illustrated in FIG. 11 indicates a prediction target block, and a block fi indicates the size of the in-plane prediction filter. As shown in FIG. 11A, for example, in the case of a horizontally long in-plane prediction filter, the scanning order determination unit 303 determines the scanning order with priority in the horizontal direction, and as shown in FIG. In the case of an in-plane prediction filter having a vertically long shape, it is determined in the scanning order with priority in the vertical direction.

<動作>
次に、実施例1における画像符号化装置10の動作について説明する。図12は、実施例1におけるイントラ予測処理の一例を示すフローチャートである。
<Operation>
Next, the operation of the image encoding device 10 in the first embodiment will be described. FIG. 12 is a flowchart illustrating an example of intra prediction processing according to the first embodiment.

ステップS101で、特徴算出部301は、予測対象ブロックの周囲にある符号化済みの画素値を復号画像記憶部110から取得し、画素の特徴量を算出する。画素の特徴量は、例えば水平方向の特徴量と垂直方向の特徴量である。   In step S101, the feature calculation unit 301 acquires encoded pixel values around the prediction target block from the decoded image storage unit 110, and calculates the feature amount of the pixel. The feature amount of the pixel is, for example, a feature amount in the horizontal direction and a feature amount in the vertical direction.

ステップS102で、サイズ決定部302は、算出された水平方向の特徴量、及び垂直方向の特徴量に基づき、面内予測フィルターのサイズを決定する。   In step S102, the size determination unit 302 determines the size of the in-plane prediction filter based on the calculated horizontal feature amount and vertical feature amount.

ステップS103で、走査順決定部303は、水平方向及び垂直方向の特徴量、又は決定された面内予測フィルターのサイズ又は形状に基づいて、フィルターの走査順を決定する。   In step S103, the scanning order determination unit 303 determines the scanning order of the filters based on the horizontal and vertical feature quantities or the determined size or shape of the in-plane prediction filter.

ステップS104で、イントラ予測部111は、決定されたフィルターサイズ、走査順に従って、設定されている面内予測フィルターを用いて、予測対象ブロック内の予測対象画素の予測値を生成する。   In step S104, the intra prediction unit 111 generates a prediction value of the prediction target pixel in the prediction target block using the set in-plane prediction filter according to the determined filter size and scanning order.

ステップS105で、イントラ予測部111は、予測対象ブロック内の全画素を処理したか否かを判定する。全画素が処理済みであれば(ステップS105−YES)ステップS106に進み、全画素が処理済みでなければ(ステップS105−NO)ステップS104に進み、次の予測対象画素の予測値が生成される。   In step S105, the intra prediction unit 111 determines whether all the pixels in the prediction target block have been processed. If all the pixels have been processed (step S105—YES), the process proceeds to step S106. If all the pixels have not been processed (step S105—NO), the process proceeds to step S104, and a predicted value of the next prediction target pixel is generated. .

これにより、フィルターサイズ内の符号化済みの画素値及び/又は予測済みの画素値を用いてフィルター処理することで、逐次的に予測値が生成される。   Accordingly, the prediction value is sequentially generated by performing the filtering process using the encoded pixel value and / or the predicted pixel value within the filter size.

ステップS106で、イントラ予測部111は、画面内の全予測対象ブロックについて、予測処理をしたか否かを判定する。全予測対象ブロックが処理済みであれば(ステップS106−YES)処理を終了し、全予測対象ブロックが処理済みでなければ(ステップS106−NO)ステップS101に戻り、他の予測対象ブロックで同様の処理が行われる。   In step S106, the intra prediction unit 111 determines whether prediction processing has been performed for all prediction target blocks in the screen. If all the prediction target blocks have been processed (step S106-YES), the process ends. If all the prediction target blocks have not been processed (step S106-NO), the process returns to step S101, and the same applies to other prediction target blocks. Processing is performed.

なお、ステップS101〜S103は、必ずしも必要な処理ではない。イントラ予測部111は、フィルターサイズ、走査順を予め設定しておいてもよいからである。   Note that steps S101 to S103 are not necessarily required processes. This is because the intra prediction unit 111 may set the filter size and the scanning order in advance.

以上、実施例1によれば、予測対象画素近傍の画素を用いて、逐次的に予測値を生成するので、演算コストの増加を抑えつつ、イントラ予測の予測精度を向上させることができる。また、実施例1によれば、予測対象ブロック周辺の符号化済みの画素値又は予測済みの画素値の特徴量に基づいて、面内予測フィルターのサイズや走査順を決定することもでき、絵柄の性質を考慮してさらに予測精度を向上させることができる。   As described above, according to the first embodiment, since prediction values are sequentially generated using pixels in the vicinity of the prediction target pixel, it is possible to improve the prediction accuracy of intra prediction while suppressing an increase in calculation cost. Further, according to the first embodiment, the size and scanning order of the in-plane prediction filter can be determined based on the encoded pixel value around the prediction target block or the feature amount of the predicted pixel value. The prediction accuracy can be further improved in consideration of the nature of

また、実施例1によれば、圧縮率が所定の閾値より高く、符号化によるノイズや歪が所定の閾値より大きい場合には、平滑化フィルターや歪の種類に応じた面内予測フィルターを用いることができる。また、画素相関が少ない細かいテクスチャーの場合は、面内予測フィルターのサイズを所定サイズよりも小さくする。また、垂直方向に比べて水平方向の画素相関が高い場合は、横長の面内予測フィルターを用いることが有効である。   Further, according to the first embodiment, when the compression rate is higher than a predetermined threshold and the noise or distortion due to encoding is larger than the predetermined threshold, a smoothing filter or an in-plane prediction filter corresponding to the type of distortion is used. be able to. In the case of a fine texture with little pixel correlation, the size of the in-plane prediction filter is made smaller than a predetermined size. In addition, when the pixel correlation in the horizontal direction is higher than that in the vertical direction, it is effective to use a horizontally long in-plane prediction filter.

また、実施例1によれば、符号化済みの画素に、符号化歪が含まれている場合でも、周辺の画素値を用いてフィルター処理を行うため、符号化歪を除去しつつ予測対象画素の予測値を生成することができる。   Further, according to the first embodiment, even when the encoded pixel includes the encoding distortion, the pixel to be predicted is removed while removing the encoding distortion because the filtering process is performed using the peripheral pixel values. Prediction values can be generated.

なお、実施例1で説明したイントラ予測方法は、予測対象ブロックが比較的大きいサイズの場合に、好適に作用すると考えられる。よって、イントラ予測部111は、例えば、予測対象ブロックが16×16以上の場合に、実施例1で説明した面内予測フィルターを用いるイントラ予測を行い、予測対象ブロックが16×16未満の場合に、既存のイントラ予測を行うようにしてもよい。   In addition, it is thought that the intra prediction method demonstrated in Example 1 acts suitably, when a prediction object block is comparatively large size. Therefore, for example, when the prediction target block is 16 × 16 or more, the intra prediction unit 111 performs intra prediction using the in-plane prediction filter described in the first embodiment, and when the prediction target block is less than 16 × 16. Existing intra prediction may be performed.

[実施例2]
次に、実施例2における画像処理装置の一例の画像符号化装置について説明する。実施例2では、複数の面内予測フィルターの組み合わせを有し、各面内予測フィルターでイントラ予測を行ってみて、最適な面内予測フィルターの組み合わせに決定することで、予測精度を向上させる。
[Example 2]
Next, an image encoding apparatus as an example of the image processing apparatus according to the second embodiment will be described. In the second embodiment, the prediction accuracy is improved by having a combination of a plurality of in-plane prediction filters, performing intra prediction with each in-plane prediction filter, and determining an optimal combination of in-plane prediction filters.

面内予測フィルターの組み合わせは、面内予測フィルターの種類、フィルターサイズ、走査順のうち、少なくとも1つを組み合わせ要素とする。   The combination of the in-plane prediction filters includes at least one of the types of the in-plane prediction filters, the filter size, and the scanning order as a combination element.

<構成>
実施例2における画像符号化装置の構成は、図3に示す概略構成と同様の構成について、同じ符号を用いて説明する。ただし、実施例2では、実施例1と異なる機能、構成を有するフィルター制御部109bは、決定した面内予測フィルターの組み合わせを示す情報をエントロピー符号化部104に通知する。エントロピー符号化部104は、面内予測フィルターの組み合わせを示す情報をビットストリームに含める。
<Configuration>
The configuration of the image encoding device according to the second embodiment will be described using the same reference numerals for the same configuration as the schematic configuration shown in FIG. However, in the second embodiment, the filter control unit 109b having a function and configuration different from those in the first embodiment notifies the entropy coding unit 104 of information indicating the determined combination of the in-plane prediction filters. The entropy encoding unit 104 includes information indicating a combination of intra prediction filters in the bitstream.

<フィルター制御>
次に、実施例2におけるフィルター制御について説明する。以下に説明するフィルター制御部109bは、複数の面内予測フィルター、複数のフィルターサイズ、複数の走査順に対し、それぞれ異なる組み合わせでイントラ予測を行って、最適な組み合わせを決定する。
<Filter control>
Next, filter control in the second embodiment will be described. The filter control unit 109b described below performs intra prediction with different combinations for a plurality of in-plane prediction filters, a plurality of filter sizes, and a plurality of scanning orders, and determines an optimal combination.

(構成)
図13は、実施例2におけるフィルター制御部109bの構成の一例を示すブロック図である。図9に示す例では、フィルター制御部109bは、選択部401、予測誤差生成部405、結果記憶部406、及び決定部407を有する。
(Constitution)
FIG. 13 is a block diagram illustrating an example of the configuration of the filter control unit 109b according to the second embodiment. In the example illustrated in FIG. 9, the filter control unit 109b includes a selection unit 401, a prediction error generation unit 405, a result storage unit 406, and a determination unit 407.

選択部401は、組み合わせを選択するため、フィルター選択部402、サイズ選択部403、及び走査順選択部404を有する。また、選択部401は、イントラ予測部111で用いられる符号化済み画素を復号画像記憶部110から取得し、取得した符号化済み画素をイントラ予測部111に出力する。   The selection unit 401 includes a filter selection unit 402, a size selection unit 403, and a scanning order selection unit 404 in order to select a combination. Also, the selection unit 401 acquires the encoded pixels used in the intra prediction unit 111 from the decoded image storage unit 110 and outputs the acquired encoded pixels to the intra prediction unit 111.

フィルター選択部402は、種類の異なる複数の面内予測フィルターの中から1つを選択する。サイズ選択部403は、複数のフィルターサイズの中から1つを選択する。走査順選択部404は、複数の走査順の中から1つを選択する。   The filter selection unit 402 selects one from a plurality of different in-plane prediction filters. The size selection unit 403 selects one from a plurality of filter sizes. The scanning order selection unit 404 selects one from a plurality of scanning orders.

選択部401は、選択された組み合わせの内容をイントラ予測部111に通知する。選択部401は、1つの組み合わせによるイントラ予測が終了したことをイントラ予測部111から通知された場合、次の組み合わせを選択し、イントラ予測部111にその組み合わせ内容を通知する。なお、選択部401は、面内予測フィルターの種類、フィルターサイズ、走査順の全ての組み合わせで、イントラ予測が行われるように制御する。   The selection unit 401 notifies the intra prediction unit 111 of the contents of the selected combination. When notified from the intra prediction unit 111 that the intra prediction by one combination has been completed, the selection unit 401 selects the next combination and notifies the intra prediction unit 111 of the content of the combination. Note that the selection unit 401 performs control so that intra prediction is performed with all combinations of types of in-plane prediction filters, filter sizes, and scanning orders.

予測誤差生成部405は、イントラ予測部111から生成された予測値を含むブロックデータから予測誤差を生成する。予測誤差生成部405は、生成した予測誤差と、フィルターの組み合わせを示す情報とを結果記憶部406に書き込む。   The prediction error generation unit 405 generates a prediction error from the block data including the prediction value generated from the intra prediction unit 111. The prediction error generation unit 405 writes the generated prediction error and information indicating the filter combination in the result storage unit 406.

結果記憶部406は、フィルターの組み合わせを示す情報と、予測誤差とを記憶する。また、結果記憶部406には、面内予測フィルターに対する全ての組み合わせの予測誤差が、最終的に記憶される。   The result storage unit 406 stores information indicating a combination of filters and a prediction error. The result storage unit 406 finally stores prediction errors of all combinations for the in-plane prediction filter.

決定部407は、結果記憶部406に記憶されている予測誤差の中で、この予測誤差が一番小さい組み合わせのフィルター種類、フィルターサイズ、走査順を決定する。決定部407は、決定した情報をイントラ予測部111及びエントロピー符号化部104に通知する。   The determination unit 407 determines the filter type, filter size, and scanning order of the combination having the smallest prediction error among the prediction errors stored in the result storage unit 406. The determination unit 407 notifies the determined information to the intra prediction unit 111 and the entropy encoding unit 104.

イントラ予測部111では、通知された組み合わせにより予測して生成されたブロックデータを予測画像選択部115に出力する。   The intra prediction unit 111 outputs block data generated by prediction based on the notified combination to the predicted image selection unit 115.

<動作>
次に、実施例2における画像符号化装置の動作について説明する。図14は、実施例2におけるイントラ予測処理の一例を示すフローチャートである。
<Operation>
Next, the operation of the image coding apparatus according to the second embodiment will be described. FIG. 14 is a flowchart illustrating an example of intra prediction processing according to the second embodiment.

ステップS201で、フィルター選択部402は、予め保持しておいた複数の面内予測フィルターの中から1つを選択する。   In step S201, the filter selection unit 402 selects one from a plurality of in-plane prediction filters that are held in advance.

ステップS202で、サイズ選択部403は、予め保持しておいた複数のフィルターサイズの中から1つを選択する。   In step S202, the size selection unit 403 selects one of a plurality of filter sizes held in advance.

ステップS203で、走査順選択部404は、予め保持しておいた複数の走査順の中から1つを選択する。   In step S203, the scanning order selection unit 404 selects one from a plurality of scanning orders held in advance.

ステップS204で、イントラ予測部111は、選択された面内予測フィルター、フィルターサイズ、走査順に従って、予測対象ブロック内の予測対象画素の予測値を生成する。   In step S204, the intra prediction unit 111 generates a prediction value of the prediction target pixel in the prediction target block according to the selected in-plane prediction filter, filter size, and scanning order.

ステップS205で、イントラ予測部111は、予測対象ブロック内の全画素を処理したか否かを判定する。全画素が処理済みであれば(ステップS205−YES)ステップS206に進み、全画素が処理済みでなければ(ステップS205−NO)ステップS204に進み、次の予測対象画素の予測値が生成される。   In step S205, the intra prediction unit 111 determines whether all the pixels in the prediction target block have been processed. If all the pixels have been processed (step S205—YES), the process proceeds to step S206. If all the pixels have not been processed (step S205—NO), the process proceeds to step S204, and a predicted value of the next prediction target pixel is generated. .

これにより、フィルターサイズ内の符号化済みの画素値及び/又は予測済みの画素値を用いて、所定の組み合わせにおける面内予測フィルターを用いて処理することで、逐次的に予測値が生成される。   As a result, by using the encoded pixel value and / or the predicted pixel value within the filter size and performing processing using the in-plane prediction filter in a predetermined combination, predicted values are sequentially generated. .

ステップS206で、選択部401は、全走査順で処理したか否かを判定する。全走査順が処理済みであれば(ステップS206−YES)ステップS207に進み、全走査順が処理済みでなければ(ステップS206−NO)ステップS203に進む。   In step S <b> 206, the selection unit 401 determines whether or not the processing has been performed in the entire scanning order. If the full scan order has been processed (step S206—YES), the process proceeds to step S207, and if the full scan order has not been processed (step S206—NO), the process proceeds to step S203.

ステップS207で、選択部401は、全フィルターサイズで処理しかた否かを判定する。全フィルターサイズが処理済みであれば(ステップS207−YES)ステップS208に進み、全フィルターサイズが処理済みでなければ(ステップS207−NO)ステップS202に戻る。   In step S207, the selection unit 401 determines whether processing has been performed with all filter sizes. If all filter sizes have been processed (step S207—YES), the process proceeds to step S208. If all filter sizes have not been processed (step S207—NO), the process returns to step S202.

ステップS208で、選択部401は、全フィルターで処理したか否かを判定する。全フィルターが処理済みであれば(ステップS208−YES)ステップS209に進み、全フィルターが処理済みでなければ(ステップS208−NO)ステップS201に戻る。   In step S208, the selection unit 401 determines whether or not processing has been performed for all filters. If all filters have been processed (step S208—YES), the process proceeds to step S209. If all filters have not been processed (step S208—NO), the process returns to step S201.

ステップS209で、決定部407は、予測誤差生成部405で生成された予測誤差に基づいて、予測誤差が一番小さいフィルターの組み合わせ(フィルター種類、フィルターサイズ、走査順)を決定する。   In step S209, the determination unit 407 determines a combination of filters (filter type, filter size, scanning order) with the smallest prediction error based on the prediction error generated by the prediction error generation unit 405.

以上、実施例2によれば、複数の面内予測フィルターを有し、各面内予測フィルターでイントラ予測を行ってみて、最適な面内予測フィルターに決定することで、予測精度を向上させることができる。   As described above, according to the second embodiment, the prediction accuracy is improved by having a plurality of in-plane prediction filters, performing intra prediction with each in-plane prediction filter, and determining an optimal in-plane prediction filter. Can do.

なお、演算コストの増加を抑えるため、面内予測フィルターを決定するために行うイントラ予測は、予測対象ブロックの一部だけに行うようにしてもよい。   In order to suppress an increase in calculation cost, intra prediction performed to determine an in-plane prediction filter may be performed on only a part of the prediction target block.

なお、実施例1や実施例2に対し、既存のイントラ予測も候補として加え、最も良いイントラ予測を選択することもできる。例えば、イントラ予測部111は、実施例1や実施例2の面内予測フィルターを用いて予測値を生成するモードと、H.264/AVCなどの複数の予測方向を用いて符号化済みの画素値から予測値を生成する各モードとを有し、予測誤差、発生符号量、又はR−D特性に基づいてモードを決定してもよい。   In addition, the existing intra prediction can also be added as a candidate with respect to Example 1 and Example 2, and the best intra prediction can also be selected. For example, the intra prediction unit 111 generates a prediction value using the in-plane prediction filter according to the first embodiment or the second embodiment, H.264 / AVC and other modes for generating a prediction value from pixel values that have been encoded using a plurality of prediction directions, and determining a mode based on a prediction error, a generated code amount, or an RD characteristic May be.

なお、面内予測フィルターの組み合わせは、面内予測フィルターの種類、フィルターサイズ、走査順全ての組み合わせである必要はなく、いずれか1つ、またはいずれか2つの組み合わせでもよい。   Note that the combinations of the in-plane prediction filters are not necessarily combinations of the types of the in-plane prediction filters, the filter sizes, and the scan order, and may be any one or a combination of any two.

ここで、従来のイントラ予測方法では、符号化対象ブロック(予測対象ブロック)に隣接する1ライン分の画素データのみを用いて予測を行っているため、近傍領域の性質を十分に反映した予測ではなかった。   Here, in the conventional intra prediction method, the prediction is performed using only pixel data for one line adjacent to the encoding target block (prediction target block). There wasn't.

一方、実施例1や実施例2では、予測対象画素の近傍の符号化済みの画素データだけでなく、予測対象ブロック内の予測済みの画素データも合わせて用い、逐次的にフィルタリング処理することで、近傍の画素の性質に基づいて精度良くイントラ予測を行うことができる。   On the other hand, in the first embodiment and the second embodiment, not only the encoded pixel data in the vicinity of the prediction target pixel but also the predicted pixel data in the prediction target block are used together and sequentially filtered. Intra prediction can be performed with high accuracy based on the properties of neighboring pixels.

また、実施例1や実施例2では、予測済みの画素値も考慮するため、非平面的な画素値波形に対する予測精度が向上する。また、逐次型のフィルター構成であるため、繰り返し収束演算よりも演算コストを削減することができる。   Moreover, in Example 1 and Example 2, since the predicted pixel value is also considered, the prediction accuracy with respect to a non-planar pixel value waveform is improved. In addition, since the sequential filter configuration is used, the calculation cost can be reduced as compared with the repeated convergence calculation.

また、面内予測フィルターの種類や特性を変えることで、近傍領域の画素に含まれるノイズや符号化歪による予測効率の低下を防ぐことができる。例えば、平滑化フィルターやメディアンフィルターを用いることでノイズやブロック歪による影響を低減することができる。   In addition, by changing the type and characteristics of the in-plane prediction filter, it is possible to prevent a decrease in prediction efficiency due to noise and coding distortion included in pixels in the vicinity region. For example, the influence of noise and block distortion can be reduced by using a smoothing filter or a median filter.

また、バイラテルフィルターを用いることで、エッジ成分を保存しつつノイズの影響を低減することができる。また、シグマフィルターを用いることで、符号化によるモスキートノイズの影響を低減することができる。   Further, by using a bilater filter, it is possible to reduce the influence of noise while preserving the edge component. Further, by using a sigma filter, it is possible to reduce the influence of mosquito noise due to encoding.

[実施例3]
次に、実施例3における画像処理装置の一例の画像復号装置について説明する。実施例3では、実施例1や実施例2で符号化されたストリームを復号する。実施例3では、実施例1や実施例2と同一の面内予測フィルター処理を行って、符号化装置と同一の予測信号を生成する。
[Example 3]
Next, an image decoding apparatus as an example of an image processing apparatus according to the third embodiment will be described. In the third embodiment, the stream encoded in the first and second embodiments is decoded. In the third embodiment, the same in-plane prediction filter processing as that in the first and second embodiments is performed to generate the same prediction signal as that in the encoding device.

<構成>
図15は、実施例3における画像復号装置50の概略構成の一例を示すブロック図である。図15に示すように、画像復号装置50は、エントロピー復号部501、逆量子化部502、逆直交変換部503、イントラ予測部504、インター予測部506、予測画像選択部507、復号画像生成部508、フィルター制御部510、及び復号画像記憶部511を有する。各部についての概略を以下に説明する。
<Configuration>
FIG. 15 is a block diagram illustrating an example of a schematic configuration of the image decoding device 50 according to the third embodiment. As illustrated in FIG. 15, the image decoding device 50 includes an entropy decoding unit 501, an inverse quantization unit 502, an inverse orthogonal transform unit 503, an intra prediction unit 504, an inter prediction unit 506, a predicted image selection unit 507, and a decoded image generation unit. 508, a filter control unit 510, and a decoded image storage unit 511. An outline of each part will be described below.

エントロピー復号部501は、ビットストリームが入力されると、画像符号化装置10のエントロピー符号化に対応するエントロピー復号を行う。エントロピー復号部501により復号された予測誤差信号は逆量子化部502に出力される。また、面内予測フィルターの組み合わせを示す情報が含まれている場合は、その面内予測フィルターの組み合わせを示す情報はフィルター制御部510に出力される。インター予測されている場合の復号された動きベクトルなどはインター予測部506に出力される。   When the bit stream is input, the entropy decoding unit 501 performs entropy decoding corresponding to the entropy encoding of the image encoding device 10. The prediction error signal decoded by the entropy decoding unit 501 is output to the inverse quantization unit 502. When information indicating the combination of the in-plane prediction filters is included, information indicating the combination of the in-plane prediction filters is output to the filter control unit 510. A decoded motion vector or the like when inter prediction is performed is output to the inter prediction unit 506.

逆量子化部502は、エントロピー復号部501からの出力信号に対して逆量子化処理を行う。逆量子化された出力信号は逆直交変換部503に出力される。   The inverse quantization unit 502 performs inverse quantization processing on the output signal from the entropy decoding unit 501. The inversely quantized output signal is output to the inverse orthogonal transform unit 503.

逆直交変換部503は、逆量子化部502からの出力信号の復号ブロックに対して逆直交変換処理を行い、残差信号を生成する。残差信号は復号画像生成部508に出力される。   The inverse orthogonal transform unit 503 performs an inverse orthogonal transform process on the decoded block of the output signal from the inverse quantization unit 502 to generate a residual signal. The residual signal is output to the decoded image generation unit 508.

イントラ予測部504は、後述するフィルター制御部510から通知されるフィルターを用いて、復号画像記憶部511から取得する既に復号化された周辺画素から予測画像を生成する。   The intra prediction unit 504 generates a predicted image from the already decoded peripheral pixels acquired from the decoded image storage unit 511 using a filter notified from the filter control unit 510 described later.

インター予測部506は、復号画像記憶部511から取得した参照画像のデータを動きベクトルを用いて動き補償する。これにより、動き補償された参照画像としてのブロックデータが生成される。   The inter prediction unit 506 performs motion compensation on the reference image data acquired from the decoded image storage unit 511 using a motion vector. Thereby, block data as a motion-compensated reference image is generated.

予測画像選択部507は、イントラ予測画像、又はインター予測画像どちらか一方の予測画像を選択する。選択されたブロックデータは、復号画像生成部508に出力される。   The predicted image selection unit 507 selects either one of the intra predicted image and the inter predicted image. The selected block data is output to the decoded image generation unit 508.

復号画像生成部508は、予測画像選択部507から出力される予測画像と、逆直交変換部503から出力される残差信号とを加算し、復号画像を生成する。生成された復号画像は復号画像記憶部511に出力される。   The decoded image generation unit 508 adds the predicted image output from the predicted image selection unit 507 and the residual signal output from the inverse orthogonal transform unit 503 to generate a decoded image. The generated decoded image is output to the decoded image storage unit 511.

復号画像記憶部511は、参照画像となる復号画像などを記憶する。   The decoded image storage unit 511 stores a decoded image that serves as a reference image.

フィルター制御部510は、実施例1における画像符号化装置で符号化されたストリームが復号される場合、エントロピー復号部501で復号されたフィルターの情報を用いてフィルターを制御し、このフィルターの情報をイントラ予測部504に通知する。フィルターの情報は、フィルター種類、フィルターサイズ、走査順のうち少なくとも1つを含む。また、フィルター制御部501は、実施例1で説明したフィルター制御部109aの処理と同様にして、フィルターのサイズや走査順を決定できる場合は、決定したフィルターのサイズや走査順をイントラ予測部504に通知してもよい。   When the stream encoded by the image encoding apparatus in the first embodiment is decoded, the filter control unit 510 controls the filter using the filter information decoded by the entropy decoding unit 501, and the filter information The intra prediction unit 504 is notified. The filter information includes at least one of filter type, filter size, and scanning order. Further, when the filter control unit 501 can determine the filter size and scanning order in the same manner as the processing of the filter control unit 109a described in the first embodiment, the intra prediction unit 504 determines the determined filter size and scanning order. May be notified.

また、フィルター制御部510は、実施例2における画像符号化装置で符号化されたストリームが復号された場合、面内予測フィルターの組み合わせを示す情報を取得し、その情報が示す面内予測フィルターの組み合わせをイントラ予測部504に通知する。   In addition, when the stream encoded by the image encoding apparatus in the second embodiment is decoded, the filter control unit 510 acquires information indicating a combination of the intra prediction filters, and the information of the intra prediction filter indicated by the information is acquired. The combination is notified to the intra prediction unit 504.

以上、実施例3によれば、実施例1や実施例2で符号化されたストリームを適切に復号することができる。   As described above, according to the third embodiment, it is possible to appropriately decode the stream encoded in the first or second embodiment.

[実施例4]
次に、実施例4における画像処理装置について説明する。画像処理装置は、画像符号化装置及び画像復号装置をまとめて画像処理装置と呼ぶ。実施例4では、上述した実施例の各処理をソフトウェアで実装した場合について説明する。
[Example 4]
Next, an image processing apparatus according to the fourth embodiment will be described. The image processing apparatus collectively refers to the image encoding apparatus and the image decoding apparatus as an image processing apparatus. In the fourth embodiment, a case where each process of the above-described embodiment is implemented by software will be described.

図16は、実施例4における画像処理装置60の構成の一例を示す図である。図16に示す画像処理装置60は、制御部601と、主記憶部602と、補助記憶部603と、通信部604と、記録媒体I/F部605とを少なくとも有する。各部は、バスを介して相互にデータ送受信可能に接続されている。   FIG. 16 is a diagram illustrating an example of the configuration of the image processing device 60 according to the fourth embodiment. An image processing device 60 illustrated in FIG. 16 includes at least a control unit 601, a main storage unit 602, an auxiliary storage unit 603, a communication unit 604, and a recording medium I / F unit 605. Each unit is connected via a bus so that data can be transmitted / received to / from each other.

制御部601は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部601は、主記憶部602や補助記憶部603に記憶されたプログラムを実行する演算装置であり、通信部604や各記憶部からデータを受け取り、演算、加工した上で、出力部や各記憶部に出力する。   The control unit 601 is a CPU (Central Processing Unit) that controls each device, calculates data, and processes in a computer. The control unit 601 is an arithmetic device that executes programs stored in the main storage unit 602 and the auxiliary storage unit 603. The control unit 601 receives data from the communication unit 604 and each storage unit, calculates, processes, and outputs the data. And output to each storage unit.

また、制御部601は、例えば補助記憶部603に記憶される上記実施例のいずれかの処理を行うプログラムを実行することで、上述した処理を実行することができる。   In addition, the control unit 601 can execute the above-described processing by executing a program for performing any of the processing of the above-described embodiment stored in the auxiliary storage unit 603, for example.

主記憶部602は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部601が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 602 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and a storage device that stores or temporarily stores programs and data such as an OS and application software that are basic software executed by the control unit 601. It is.

補助記憶部603は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。また、補助記憶部603は、記録媒体606などから取得されたプログラムを記憶しておいてもよい。   The auxiliary storage unit 603 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software or the like. The auxiliary storage unit 603 may store a program acquired from the recording medium 606 or the like.

通信部604は、有線又は無線で通信を行う。通信部604は、例えばサーバなどから送信されたプログラムを補助記憶部603に記憶するようにしてもよい。   The communication unit 604 performs wired or wireless communication. For example, the communication unit 604 may store a program transmitted from a server or the like in the auxiliary storage unit 603.

記録媒体I/F(インターフェース)部605は、USB(Universal Serial Bus)などのデータ伝送路を介して接続された記録媒体606(例えば、フラッシュメモリなど)と画像処理装置60とのインターフェースである。   A recording medium I / F (interface) unit 605 is an interface between the image processing apparatus 60 and a recording medium 606 (for example, a flash memory) connected via a data transmission path such as a USB (Universal Serial Bus).

また、記録媒体606に、所定のプログラムを格納し、この記録媒体606に格納されたプログラムは記録媒体I/F部605を介して画像処理装置60にインストールされる。インストールされた所定のプログラムは、画像処理装置60により実行可能となる。   A predetermined program is stored in the recording medium 606, and the program stored in the recording medium 606 is installed in the image processing apparatus 60 via the recording medium I / F unit 605. The installed predetermined program can be executed by the image processing apparatus 60.

例えば、図3に示す復号画像記憶部110、及び図15に示す復号画像記憶部511は、例えば、主記憶部602又は補助記憶部603などにより実現されうる。図3や図15に示す各記憶部以外の各部は、例えば制御部601及びワーキングメモリとしての主記憶部602により実現されうる。   For example, the decoded image storage unit 110 illustrated in FIG. 3 and the decoded image storage unit 511 illustrated in FIG. 15 can be realized by the main storage unit 602 or the auxiliary storage unit 603, for example. Each unit other than the storage units shown in FIGS. 3 and 15 can be realized by, for example, the control unit 601 and the main storage unit 602 as a working memory.

また、このプログラムを記録媒体606に記録し、このプログラムが記録された記録媒体606をコンピュータや携帯端末に読み取らせて、前述した処理を実現させることも可能である。   It is also possible to record the program on the recording medium 606 and cause the computer or portable terminal to read the recording medium 606 on which the program is recorded to realize the above-described processing.

なお、記録媒体606は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。また、上述した各実施例で説明した処理は、1つ又は複数の集積回路に実装してもよい。   The recording medium 606 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, flexible disk, magneto-optical disk, etc., and information is electrically stored, such as a ROM or flash memory. Various types of recording media such as a semiconductor memory for recording can be used. Further, the processes described in the above embodiments may be implemented in one or a plurality of integrated circuits.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Each embodiment has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modification are possible within the scope described in the claims. .

10 画像符号化装置
50 画像復号装置
60 画像処理装置
109 フィルター制御部
111 イントラ予測部
201 取得部
202 予測部
203 バッファ
301 特徴算出部
302 サイズ決定部
303 走査順決定部
401 選択部
405 予測誤差生成部
406 結果記憶部
407 決定部
504 イントラ予測部
510 フィルター制御部
601 制御部
602 主記憶部
DESCRIPTION OF SYMBOLS 10 Image coding apparatus 50 Image decoding apparatus 60 Image processing apparatus 109 Filter control part 111 Intra prediction part 201 Acquisition part 202 Prediction part 203 Buffer 301 Feature calculation part 302 Size determination part 303 Scan order determination part 401 Selection part 405 Prediction error generation part 406 Result storage unit 407 Determination unit 504 Intra prediction unit 510 Filter control unit 601 Control unit 602 Main storage unit

Claims (7)

画像の画面内予測を行う画像符号化装置であって、
予測対象ブロックに隣接する符号化済みブロック内の複数の画素値を取得する取得部と、
前記予測対象ブロック内の予測対象画素から所定範囲内にある前記取得された符号化済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測部と、
を備える画像符号化装置。
An image encoding device that performs intra prediction of an image,
An acquisition unit that acquires a plurality of pixel values in an encoded block adjacent to the prediction target block;
Prediction of the prediction target pixel using the pixel value of the acquired encoded block and / or the predicted pixel value in the prediction target block that are within a predetermined range from the prediction target pixel in the prediction target block An intra prediction unit that sequentially performs filter processing to generate values;
An image encoding device comprising:
前記予測値を生成するフィルターを制御するフィルター制御部をさらに備え、
前記フィルター制御部は、
前記符号化済みの画素値及び/又は前記予測済みの画素値の水平方向及び垂直方向の相関係数、分散値、周辺画素との画素値の差分、エッジ量、又はテクスチャー特徴量のいずれかの特徴量を算出する特徴算出部と、
前記特徴算出部により算出された水平方向及び垂直方向の特徴量に基づき前記フィルターのサイズを決定するサイズ決定部と、を備える請求項1記載の画像符号化装置。
A filter control unit for controlling a filter that generates the predicted value;
The filter control unit
One of the encoded pixel value and / or the predicted pixel value in the horizontal and vertical correlation coefficients, the variance value, the difference of the pixel value from the surrounding pixels, the edge amount, or the texture feature amount A feature calculation unit for calculating a feature amount;
The image encoding device according to claim 1, further comprising: a size determining unit that determines a size of the filter based on a feature amount in the horizontal direction and the vertical direction calculated by the feature calculating unit.
前記予測値を生成するフィルターを制御するフィルター制御部をさらに備え、
前記フィルター制御部は、
それぞれ異なる複数のフィルターを有し、前記予測部で各フィルターにより予測値を生成させ、各フィルターの予測誤差に基づいて、使用するフィルターを決定する請求項1記載の画像符号化装置。
A filter control unit for controlling a filter that generates the predicted value;
The filter control unit
The image coding apparatus according to claim 1, further comprising: a plurality of different filters, wherein a prediction value is generated by each filter in the prediction unit, and a filter to be used is determined based on a prediction error of each filter.
前記イントラ予測部は、
前記フィルターを用いて予測値を生成するモードと、複数の予測方向を用いて符号化済みの画素値から予測値を生成する各モードとを有し、予測誤差、発生符号量、又はR−D特性に基づいてモードを決定する請求項1乃至3いずれか一項に記載の画像符号化装置。
The intra prediction unit
A mode in which a prediction value is generated using the filter and a mode in which a prediction value is generated from pixel values that have been encoded using a plurality of prediction directions, and a prediction error, a generated code amount, or RD The image coding apparatus according to any one of claims 1 to 3, wherein a mode is determined based on characteristics.
請求項1に記載の画像符号化装置により符号化されたストリームを復号する画像復号装置であって、
前記ストリームをエントロピー復号する復号部と、
画面内予測の予測対象ブロックに隣接する復号済みブロック内の画素値のうち、前記予測対象ブロック内の予測対象画素から所定範囲内にある前記復号済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測部と、
を備える画像復号装置。
An image decoding device for decoding a stream encoded by the image encoding device according to claim 1,
A decoding unit for entropy decoding the stream;
Among the pixel values in the decoded block adjacent to the prediction target block for intra prediction, the pixel value of the decoded block and / or in the prediction target block within a predetermined range from the prediction target pixel in the prediction target block An intra prediction unit that sequentially performs a filtering process for generating a predicted value of the prediction target pixel using the predicted pixel value of
An image decoding apparatus comprising:
コンピュータに、
予測対象ブロックに隣接する符号化済みブロック内の複数の画素値を取得する取得ステップと、
前記予測対象ブロック内の予測対象画素から所定範囲内にある前記取得された符号化済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測ステップと、
を実行させるための画像符号化プログラム。
On the computer,
An obtaining step for obtaining a plurality of pixel values in an encoded block adjacent to the prediction target block;
Prediction of the prediction target pixel using the pixel value of the acquired encoded block and / or the predicted pixel value in the prediction target block that are within a predetermined range from the prediction target pixel in the prediction target block An intra-prediction step that sequentially performs filtering to generate values;
An image encoding program for executing
コンピュータに、
画像符号化されたストリームをエントロピー復号する復号ステップと、
画面内予測の予測対象ブロックに隣接する復号済みブロック内の画素値のうち、前記予測対象ブロック内の予測対象画素から所定範囲内にある前記復号済みブロックの画素値及び/又は前記予測対象ブロック内の予測済みの画素値を用いて、前記予測対象画素の予測値を生成するフィルター処理を逐次的に行うイントラ予測ステップと、
を実行させるための画像復号プログラム。
On the computer,
A decoding step for entropy decoding the image encoded stream;
Among the pixel values in the decoded block adjacent to the prediction target block for intra prediction, the pixel value of the decoded block and / or in the prediction target block within a predetermined range from the prediction target pixel in the prediction target block An intra prediction step that sequentially performs a filter process for generating a predicted value of the prediction target pixel using the predicted pixel value of
An image decoding program for executing
JP2012094238A 2012-04-17 2012-04-17 Image encoding device, image decoding device, image encoding program, and image decoding program Pending JP2013223149A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012094238A JP2013223149A (en) 2012-04-17 2012-04-17 Image encoding device, image decoding device, image encoding program, and image decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012094238A JP2013223149A (en) 2012-04-17 2012-04-17 Image encoding device, image decoding device, image encoding program, and image decoding program

Publications (1)

Publication Number Publication Date
JP2013223149A true JP2013223149A (en) 2013-10-28

Family

ID=49593825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012094238A Pending JP2013223149A (en) 2012-04-17 2012-04-17 Image encoding device, image decoding device, image encoding program, and image decoding program

Country Status (1)

Country Link
JP (1) JP2013223149A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116527887A (en) * 2016-08-01 2023-08-01 韩国电子通信研究院 Image encoding/decoding method and apparatus, and recording medium storing bit stream
CN120355582A (en) * 2025-06-19 2025-07-22 马栏山音视频实验室 Image filtering processing method, system, storage medium and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004129260A (en) * 2002-09-30 2004-04-22 Samsung Electronics Co Ltd Video coding and decoding method and apparatus using spatial prediction coding of hue
JP2004200991A (en) * 2002-12-18 2004-07-15 Nippon Telegr & Teleph Corp <Ntt> Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium recording image encoding program, and recording medium recording image decoding program
WO2007063808A1 (en) * 2005-11-30 2007-06-07 Kabushiki Kaisha Toshiba Image encoding/image decoding method and image encoding/image decoding apparatus
JP2009527169A (en) * 2006-02-17 2009-07-23 トムソン ライセンシング Image coding method using intra prediction mode
JP2010529802A (en) * 2007-06-14 2010-08-26 サムスン エレクトロニクス カンパニー リミテッド Intra prediction encoding and decoding method and apparatus using video restoration

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004129260A (en) * 2002-09-30 2004-04-22 Samsung Electronics Co Ltd Video coding and decoding method and apparatus using spatial prediction coding of hue
JP2004200991A (en) * 2002-12-18 2004-07-15 Nippon Telegr & Teleph Corp <Ntt> Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium recording image encoding program, and recording medium recording image decoding program
WO2007063808A1 (en) * 2005-11-30 2007-06-07 Kabushiki Kaisha Toshiba Image encoding/image decoding method and image encoding/image decoding apparatus
JP2009527169A (en) * 2006-02-17 2009-07-23 トムソン ライセンシング Image coding method using intra prediction mode
JP2010529802A (en) * 2007-06-14 2010-08-26 サムスン エレクトロニクス カンパニー リミテッド Intra prediction encoding and decoding method and apparatus using video restoration

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116527887A (en) * 2016-08-01 2023-08-01 韩国电子通信研究院 Image encoding/decoding method and apparatus, and recording medium storing bit stream
CN116527888A (en) * 2016-08-01 2023-08-01 韩国电子通信研究院 Image encoding/decoding method and apparatus, and recording medium storing bit stream
CN120355582A (en) * 2025-06-19 2025-07-22 马栏山音视频实验室 Image filtering processing method, system, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
KR101769937B1 (en) Apparatus and method for image coding and decoding
CN108886621B (en) Non-local self-adaptive loop filtering method
KR102429449B1 (en) Method and device for bit-width control for bidirectional light flow
US20150063452A1 (en) High efficiency video coding (hevc) intra prediction encoding apparatus and method
KR102359415B1 (en) Interpolation filter for inter prediction apparatus and method for video coding
CN106688238B (en) Improved Reference Pixel Selection and Filtering for Intra-frame Coding of Depth Maps
KR20170093833A (en) Coding of intra modes
CN113068027B (en) Image encoding/decoding method and apparatus using intra prediction
CN110036637A (en) In conjunction with multiple denoising technologies and the non local adaptability loop filter of parallel grouping image patch
CN113508586A (en) Codec of Transform Coefficients in Video Codec
US11202082B2 (en) Image processing apparatus and method
KR20190140820A (en) A method and an apparatus for processing a video signal based on reference between components
JP2013223149A (en) Image encoding device, image decoding device, image encoding program, and image decoding program
WO2014084674A2 (en) Intra prediction method and intra prediction apparatus using residual transform
CN119452644A (en) Method and apparatus for chroma motion compensation using adaptive cross-component filtering
JP5937926B2 (en) Image encoding device, image decoding device, image encoding program, and image decoding program
CN116114246A (en) Intra prediction smoothing filter system and method
CN114175659B (en) Apparatus and method for bit depth control of bidirectional optical flow
JP6200220B2 (en) Image processing apparatus, encoding apparatus, decoding apparatus, and program
WO2013145174A1 (en) Video encoding method, video decoding method, video encoding device, and video decoding device
KR20200004348A (en) Method and apparatus for processing video signal through target region correction
JP6248648B2 (en) Information processing apparatus, coding unit selection method, and program
JP2006191287A (en) Image coding apparatus, image coding method, and image coding program
CN120642330A (en) Method and apparatus for adaptive motion compensation filtering
KR20250143781A (en) Video encoding/decoding method and device, and recording medium storing bitstream

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160517