[go: up one dir, main page]

JP2012178713A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2012178713A
JP2012178713A JP2011040512A JP2011040512A JP2012178713A JP 2012178713 A JP2012178713 A JP 2012178713A JP 2011040512 A JP2011040512 A JP 2011040512A JP 2011040512 A JP2011040512 A JP 2011040512A JP 2012178713 A JP2012178713 A JP 2012178713A
Authority
JP
Japan
Prior art keywords
image
frame
picture
slice
filter processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011040512A
Other languages
Japanese (ja)
Inventor
Yasuhiko Teranishi
康彦 寺西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011040512A priority Critical patent/JP2012178713A/en
Publication of JP2012178713A publication Critical patent/JP2012178713A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system generating a still image of high image quality with less noise deterioration from a moving image encoded and recorded by image information compression using a correlation between frames and to provide an image processing method and a program.SOLUTION: An imaging apparatus 1 includes: an image processing section 126 functioning as a decoding section decoding compressed data which is compression-processed; a frame selecting section which selects two or more frame images as a selected frame image from a frame image string outputted from the image processing section 126, on the basis of an instruction from outside or automatically; and a filter processing section generating one frame image by filtering the selected frame image which the frame selecting section selects. The filter processing section performs a filter processing using a different weighting coefficient on the basis of a size of noise caused in a compression processing.

Description

本発明は、動画像から静止画を取得するための画像処理装置、画像処理方法、及びプログラムに関し、特に、複数枚のフレーム画像から静止画を取得するための画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a program for acquiring a still image from a moving image, and in particular, an image processing device, an image processing method, and a program for acquiring a still image from a plurality of frame images. Regarding the program.

近年のデジタルビデオカメラでは、撮像系を通して入力される、時系列に連続する複数のフレーム画像データ(あるいはフィールド画像データ)を、MPEG(Moving Picture Experts Group)−2やH.264/AVCなどのフレーム間の相関を用いた画像情報圧縮処理の符号化を行って記録媒体に記録している。   In recent digital video cameras, a plurality of time-sequential frame image data (or field image data) input through an imaging system is converted into MPEG (Moving Picture Experts Group) -2 or H.264. H.264 / AVC or the like is used for encoding image information compression processing using correlation between frames, and recording is performed on a recording medium.

MPEG−2の動画像データは、フレーム内のみの相関を利用してフレーム内圧縮を行ったIピクチャ(Intra Picture:フレーム内符号化画像)と、時間的に前のピクチャとの間で動き補償フレーム間予測を行って、フレーム間の相関を利用した圧縮を行ったPピクチャ(Predictive coded:フレーム間順方向予測符号化画像)と、さらに複数のピクチャとの間で動き補償フレーム間予測を行って、フレーム間の相関を利用した圧縮を行ったBピクチャ(Bi-directionally predictive coded:双方向予測符号化画像)とで構成される。さらに、H.264/AVCでは、Bピクチャは、双予測ピクチャ(Bi-predictive Picture)とされ、MPEG−2の場合は、前と後のピクチャを参照するのに対して、H.264/AVCの場合は、前と後でもよく、前と前でもよく、後と後でもよいというように自由度を高めている   MPEG-2 moving image data is compensated for motion between an I picture (Intra Picture) obtained by intra-frame compression using correlation only within a frame and a temporally previous picture. Perform motion-compensated inter-frame prediction between P pictures (Predictive coded: inter-frame forward-predictive coded images) that have been compressed using inter-frame correlation and inter-frame prediction, and multiple pictures. And a B picture (Bi-directionally predictive coded) that is compressed using correlation between frames. Further, in H.264 / AVC, the B picture is a bi-predictive picture, and in the case of MPEG-2, the previous and subsequent pictures are referred to, whereas H.264 / AVC. In the case of, the degree of freedom is increased, such as before and after, before and after, and after and after.

図5は、MPEG−2におけるフレーム構造を示す図である。図5に示すように、時系列に連続する複数のフレームのそれぞれがI、P、Bピクチャとして扱われる。図中の矢印は動き補償フレーム間予測の方向を示したもので、Pピクチャは時間的に前のPピクチャ又はIピクチャから予測される。Bピクチャは、時間的に前と後ろのPピクチャ又はIピクチャから動き補償フレーム間予測される。一般に、Iピクチャは最も細かい量子化ステップで量子化され、Pピクチャはより粗く、Bピクチャはさらに粗い量子化ステップで量子化されることが多い。   FIG. 5 is a diagram showing a frame structure in MPEG-2. As shown in FIG. 5, each of a plurality of frames that are continuous in time series is treated as an I, P, or B picture. The arrows in the figure indicate the direction of motion compensation interframe prediction, and a P picture is predicted from a temporally preceding P picture or I picture. A B picture is predicted between motion compensated frames from a P picture or an I picture before and behind in time. In general, an I picture is quantized in the finest quantization step, a P picture is coarser, and a B picture is often quantized in a coarser quantization step.

また、H.264/AVCでは、Iピクチャ、Pピクチャ、Bピクチャの構造に加えて、1枚のフレーム画像を複数の領域(スライスと呼ぶ)に分割して、スライス単位でIスライス、Pスライス、Bスライスとすることができる。この場合も、一般にIスライスは最も細かい量子化ステップで量子化され、Pスライスはより粗く、Bスライスはさらに粗い量子化ステップで量子化されることが多い。   H. In H.264 / AVC, in addition to the structure of I picture, P picture, and B picture, one frame image is divided into a plurality of regions (called slices), and I slice, P slice, B slice can do. Also in this case, in general, the I slice is quantized by the finest quantization step, the P slice is coarser, and the B slice is often quantized by the coarser quantization step.

なお、量子化ステップはマクロブロックと呼ばれる画素ブロック単位で異なる値とされる。したがって、1つのピクチャ内でも比較的細かい量子化ステップで量子化されたマクロブロックと、比較的荒い量子化ステップで量子化されたマクロブロックとが混在する。   Note that the quantization step has different values for each pixel block called a macroblock. Accordingly, macroblocks quantized in a relatively fine quantization step and macroblocks quantized in a relatively rough quantization step are mixed in one picture.

ところで、従来から、動画用に記録された信号やデジタルデータの一部を抽出して、別途静止画を生成するビデオカメラレコーダーが製品化されている。このような装置においては、記録された動画像データを再生しながら、ユーザによって選択された1枚のフレーム画像を選択し、静止画として抽出することが考えられる。   By the way, video camera recorders that extract a part of signals and digital data recorded for moving images and generate a still image have been commercialized. In such an apparatus, it is conceivable to select one frame image selected by the user while reproducing the recorded moving image data and extract it as a still image.

これに対し、動画像から静止画像を取得する際に、複数枚のフレーム画像を抽出し、その複数枚のフレーム画像から静止画像を得る装置が従来提案されている。例えば、特許文献1には、動画像の表示中にユーザから入力される一時停止指示操作が検出されると、動画像に代えて、複数の静止画像のうち少なくとも2以上の静止画像を合成した一時停止表示用合成画像を表示モニタに表示させる一時停止表示制御手段を有する撮像装置が開示されている。
これは、通常の静止画像の鑑賞では像流れのない鮮明な画像が好まれる一方で、動画像再生中に一時停止して静止画像を観賞する場合は、像流れのある画像の方が動きに流れが生じるので好ましいことがあるため、そのような静止画を取得することを目的としたものである。
On the other hand, when acquiring a still image from a moving image, a device for extracting a plurality of frame images and obtaining a still image from the plurality of frame images has been conventionally proposed. For example, in Patent Document 1, when a pause instruction operation input from a user is detected while a moving image is displayed, at least two or more still images of a plurality of still images are combined instead of the moving image. An imaging apparatus having a pause display control means for displaying a pause display composite image on a display monitor is disclosed.
This is because a clear image with no image flow is preferred for normal still image viewing, but when viewing a still image by pausing during playback of a moving image, an image with an image flow is more likely to move. Since it may be preferable because a flow occurs, it is intended to acquire such a still image.

さらに、特許文献1においては、動画再生に用いる合成画像の生成時に加算するフレーム数を「3」に設定した場合、中心のフレームを基準画像とし、基準画像に対して時間軸方向で前(過去)と後(未来)との1フレーム分ずつを補間画像に設定し、画像の加算比率を「0.25:0.5:0.25」に設定する。この特許文献1に記載の撮像装置のおいては、動きベクトルの大きさ(換言すれば被写体の動き量)に応じて、合成画像を生成する際の加算枚数や加算比率を制御している。これにより、画像ファイルを動画再生するときには、加算フレーム数及び加算比率のデータを参照することで、動画再生に適した合成画像を容易に生成することが可能となる。   Further, in Patent Document 1, when the number of frames to be added at the time of generating a composite image used for moving image reproduction is set to “3”, the center frame is set as a reference image, and the previous image in the time axis direction (past ) And after (future) one frame at a time are set as interpolation images, and the addition ratio of the images is set to “0.25: 0.5: 0.25”. In the imaging apparatus described in Patent Document 1, the number of additions and the addition ratio when generating a composite image are controlled according to the magnitude of a motion vector (in other words, the amount of motion of a subject). As a result, when an image file is reproduced as a moving image, a composite image suitable for moving image reproduction can be easily generated by referring to the data of the number of added frames and the addition ratio.

特開2010−045619号公報JP 2010-045619 A 特開2008−003674号公報JP 2008-003674 A

大久保 榮監修「改訂版H.264/AVC教科書(インプレス標準教科書シリーズ)」、インプレス社(2006年)Supervised by Satoshi Okubo, “Revised H.264 / AVC Textbook (Impress Standard Textbook Series)”, Impress (2006)

ところで、動画像中から1つのフレーム画像を静止画として取り出すと、撮像素子によるノイズ成分が動画像より目立ちやすいという問題点がある。これは、動画像では人間の時間軸方向の視覚が鈍感であるため、つまり動画像ではフレーム間の補間を行っているため、動画像の方が1フレーム中のノイズ成分が見えにくくなるためと考えられる。特に、撮影環境が暗かった場合には、各フレーム画像のノイズ成分が大きくなる。これは、撮像素子の各セルに入射する光量が少ないために、光電変換の出力が小さく、ノイズに埋もれてしまうためである。   By the way, when one frame image is taken out from a moving image as a still image, there is a problem that a noise component due to the image sensor is more conspicuous than a moving image. This is because in the moving image, human vision in the time axis direction is insensitive, that is, since the moving image is interpolated between frames, the noise component in the moving image is less visible. Conceivable. In particular, when the shooting environment is dark, the noise component of each frame image increases. This is because the amount of light incident on each cell of the image sensor is small, so that the output of photoelectric conversion is small and buried in noise.

更に、ユーザが選択したフレーム画像がBピクチャであった場合、他のピクチャよりも粗い量子化ステップで量子化しているため、量子化によるノイズ成分による劣化も目だってしまう。   Further, when the frame image selected by the user is a B picture, since the quantization is performed in a coarser quantization step than other pictures, deterioration due to a noise component due to the quantization is conspicuous.

また、H.264/AVCでは、デブロッキング・フィルタ処理が行われる場合がある。これは、ブロック歪みと呼ばれるノイズを緩和するために、ブロック境界に平滑化フィルタをかけるものである。このデブロッキング・フィルタは、ブロック歪みを緩和する一方で、本来の画像データの高域成分を減衰させてしまうという弊害を起こすこともある。デブロッキング・フィルタの強度はスライス単位で可変であり、個々のブロック境界の画素にフィルタ処理が行われるか否かは、周辺ブロックを含めたブロックの属性で決定される。   H. In H.264 / AVC, deblocking filter processing may be performed. In this method, a smoothing filter is applied to block boundaries in order to mitigate noise called block distortion. While this deblocking filter alleviates block distortion, it may cause a harmful effect of attenuating the high frequency components of the original image data. The strength of the deblocking filter is variable in units of slices, and whether or not the filtering process is performed on the pixels at the individual block boundaries is determined by the attributes of the blocks including the peripheral blocks.

特許文献1の目的とは異なるが、特許文献1に記載の撮像装置のように、複数枚の静止画像を合成することで、上述の画像に含まれるノイズ成分を相殺することができる。しかしながら、量子化によるノイズ成分や、デブロッキング・フィルタによるブロック歪は、単に複数のフレーム画像を単純に合成したのみでは、取り除くことができない。   Although different from the purpose of Patent Document 1, it is possible to cancel out noise components included in the above-described image by combining a plurality of still images as in the imaging device described in Patent Document 1. However, noise components due to quantization and block distortion due to a deblocking filter cannot be removed by simply synthesizing a plurality of frame images.

本発明は、このような問題点を解決するためになされたものであり、フレーム間の相関を用いた画像情報圧縮によって符号化されて記録された動画から、ノイズ劣化の少ない高画質の静止画を生成することができる画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve such problems, and from a moving image encoded and recorded by image information compression using correlation between frames, a high-quality still image with little noise deterioration is provided. An object of the present invention is to provide an image processing apparatus, an image processing method, and a program.

本発明に係る画像処理装置は、圧縮処理された圧縮データを復号する復号部と、外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択部と、前記フレーム選択部が選択した選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理部とを有し、前記フィルタ処理部は、前記圧縮処理で生じたノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施することを特徴とするものである。   An image processing apparatus according to the present invention includes a decoding unit that decodes compressed compressed data, and two or more frames from a frame image sequence output from the decoding unit based on an external instruction or automatically. A frame selecting unit that selects an image as a selected frame image; and a filter processing unit that generates one frame image by filtering the selected frame image selected by the frame selecting unit, the filter processing unit including: Filtering processing using different weighting factors is performed based on the magnitude of noise generated by the compression processing.

本発明においては、動画像から複数フレームを選択して1枚の静止画像を生成するに当たり、例えば、量子化ノイズ及びデブロッキング・フィルタによる減衰ノイズ等の圧縮処理で生じたノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施することにより、撮像素子に基づくノイズと共に、圧縮時のノイズを低減することができる。   In the present invention, when a single still image is generated by selecting a plurality of frames from a moving image, for example, based on the magnitude of noise generated by compression processing such as quantization noise and attenuation noise by a deblocking filter. By performing the filter processing using different weighting factors, noise at the time of compression can be reduced together with noise based on the image sensor.

また、前記復号部は、異なる量子化ステップを使用して圧縮処理された圧縮データを復号するものであって、前記フィルタ処理部は、前記選択フレーム画像の圧縮時の量子化ステップに基づき、異なる重み係数を使用したフィルタ処理を実施することができる。これにより、量子化ノイズを低減することができる。   The decoding unit decodes compressed data that has been compressed using different quantization steps, and the filter processing unit is different based on a quantization step at the time of compression of the selected frame image. Filtering using a weighting factor can be performed. Thereby, quantization noise can be reduced.

さらに、前記フィルタ処理部は、デブロッキング・フィルタ処理で使用するFIR(Finite Impulse Response Filter)フィルタ処理の有無に応じて異なる重み係数を使用することができ、これにより、撮像素子によるノイズと共に減衰ノイズを低減することができる。   Further, the filter processing unit can use different weighting factors depending on the presence or absence of FIR (Finite Impulse Response Filter) filter processing used in the deblocking filter processing. Can be reduced.

本発明に係る他の画像処理装置は、圧縮処理された圧縮データを復号する復号部と、外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択部と、前記フレーム選択部が選択した選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理部とを有し、記フィルタ処理部は、前記選択フレーム画像が、Iピクチャ若しくはスライス(Intra Picture or slice:フレーム内符号化画像)、Pピクチャ若しくはスライス(Predictive coded Picture or slice:フレーム間順方向予測符号化画像)又はBピクチャ若しくはスライス(双方向予測ピクチャ Bi-directional Predictive Picture or slice若しくは双予測ピクチャ Bi-predictive Picture or slice)のいずれであるかを示すピクチャタイプ若しくはスライスタイプに応じて異なる重み係数を使用したフィルタ処理を実施することを特徴とするものである。   Another image processing apparatus according to the present invention includes a decoding unit that decodes compressed data that has undergone compression processing, and two or more frames from a frame image sequence that is output from the decoding unit based on an external instruction or automatically. A frame selecting unit that selects a frame image of the selected frame image as a selected frame image, and a filter processing unit that generates a single frame image by filtering the selected frame image selected by the frame selecting unit. The selected frame image is an I picture or slice (Intra Picture or slice), a P picture or slice (Predictive coded Picture or slice), or a B picture or slice. (Bi-predictive picture or slice or bi-predictive picture or slice ), A filtering process using different weighting factors is performed according to the picture type or the slice type indicating any of the above.

また、前記Iピクチャ若しくはスライス、前記Pピクチャ若しくはスライス及び前記Bピクチャ若しくはスライスの重み係数をそれぞれKi、Kp、Kbとした場合、Ki、Kp、Kbは下記を満たすものとすることができる。つまり、Iピクチャ又はスライスは画質が最もよいため、重み係数を最も大きくし、Bピクチャ又はスライスは画質が最も悪いので、重み係数を最も小さいものとすることで、より効率よく量子化ノイズを低減する。
Ki≧Kp≧Kb
かつ
Ki=Kp=Kbを含まない
Further, when the weight coefficients of the I picture or slice, the P picture or slice, and the B picture or slice are Ki, Kp, and Kb, Ki, Kp, and Kb can satisfy the following. In other words, because the I picture or slice has the best image quality, the weighting coefficient is the largest, and the B picture or slice has the worst image quality. By making the weighting coefficient the smallest, the quantization noise can be reduced more efficiently. To do.
Ki ≧ Kp ≧ Kb
And Ki = Kp = Kb is not included

また、前記フィルタ処理部は、画像圧縮時の圧縮率に応じて前記重み係数Ki、Kp、Kbを異ならせるものであって、前記圧縮率が高い場合は、各重み係数の比率が1から離れる値とし、前記圧縮率が低い場合は、各重み係数の比率が1に近くなる値となるよう設定することができる。ピクチャ毎に重み係数を異ならせると共に、圧縮率に応じて、同じピクチャ内でも異なる重み係数を採用することで、より効率よく量子化ノイズを低減することができる。   The filter processing unit varies the weighting factors Ki, Kp, and Kb according to the compression rate at the time of image compression. When the compression rate is high, the ratio of each weighting factor is different from 1. When the compression ratio is low, the ratio of each weight coefficient can be set to a value close to 1. By varying the weighting factor for each picture and adopting different weighting factors within the same picture according to the compression rate, quantization noise can be reduced more efficiently.

具体的には、前記フィルタ処理部は、前記デブロッキング・フィルタ処理で使用するFIRフィルタのタップ数に基づき、前記選択フレーム毎に予め定められた異なる重み係数を使用したり、前記デブロッキング・フィルタ処理で使用するFIRフィルタ処理前後の画素値の差分の絶対値の大きさに基づいて異なる重み係数を使用したりすることができる。   Specifically, the filter processing unit uses a different weighting factor predetermined for each selected frame based on the number of taps of the FIR filter used in the deblocking filter processing, or uses the deblocking filter Different weighting factors can be used based on the absolute value of the difference between the pixel values before and after the FIR filter processing used in the processing.

また、前記フィルタ処理部は、デブロッキング・フィルタ処理を行なわない、ブロック境界以外の画素については、マクロブロックの量子化ステップに基づき、前記選択フレーム毎に予め定められた重み係数を使用し、前記デブロッキング・フィルタ処理を実施する画素については量子化ステップ及び当該デブロッキング・フィルタ処理で使用するFIRフィルタ処理前後の画素値の差分の絶対値の大きさに応じて異なる重み係数を使用することができ、撮像素子によるノイズ、減衰ノイズ、及び量子化ノイズの各種のノイズを低減することができる。   In addition, the filter processing unit does not perform deblocking filter processing, and for pixels other than the block boundary, based on the quantization step of the macroblock, uses a weighting factor determined in advance for each selected frame, and For pixels that perform deblocking filter processing, different weighting factors may be used depending on the magnitude of the absolute value of the difference between pixel values before and after the quantization step and FIR filter processing used in the deblocking filter processing. In addition, various noises such as noise, attenuation noise, and quantization noise due to the image sensor can be reduced.

本発明に係る画像処理方法は、圧縮処理された圧縮データを復号する復号工程と、外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択工程と、前記フレーム選択工程にて選択された選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理工程とを有し、前記フィルタ処理工程では、前記選択フレーム画像が、Iピクチャ若しくはスライス(Intra Picture or slice:フレーム内符号化画像)、Pピクチャ若しくはスライス(Predictive coded Picture or slice:フレーム間順方向予測符号化画像)又はBピクチャ若しくはスライス(双方向予測ピクチャ Bi-directional Predictive Picture or slice若しくは双予測ピクチャ Bi-predictive Picture or slice)のいずれであるかを示すピクチャタイプ若しくはスライスタイプに応じて異なる重み係数を使用したフィルタ処理を実施することを特徴とするものである。   An image processing method according to the present invention includes a decoding step for decoding compressed compressed data, and two or more frames from a frame image sequence output from the decoding unit based on an instruction from the outside or automatically. A frame selecting step for selecting an image as a selected frame image; and a filter processing step for generating a single frame image by filtering the selected frame image selected in the frame selecting step. Then, the selected frame image is an I picture or slice (Intra Picture or slice), a P picture or slice (Predictive coded Picture or slice), a B picture or slice (Bi-directional Predictive Picture or slice or Bi-predictive picture Bi-predic Filtering using different weighting factors is performed according to the picture type or slice type indicating which one is tive picture or slice).

本発明に係るプログラムは、圧縮処理された圧縮データを復号する復号処理と、外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択処理と、前記フレーム選択処理にて選択された選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理とを実行させ、前記フィルタ処理では、前記選択フレーム画像が、Iピクチャ若しくはスライス(Intra Picture or slice:フレーム内符号化画像)、Pピクチャ若しくはスライス(Predictive coded Picture or slice:フレーム間順方向予測符号化画像)又はBピクチャ若しくはスライス(双方向予測ピクチャ Bi-directional Predictive Picture or slice若しくは双予測ピクチャ Bi-predictive Picture or slice)のいずれであるかを示すピクチャタイプ又はスライスタイプに応じて異なる重み係数を使用したフィルタ処理を実行させることを特徴とするものである。   The program according to the present invention is configured to decode two or more frame images from a decoding process for decoding compressed compressed data and a frame image sequence output from the decoding unit based on an instruction from the outside or automatically. A frame selection process for selecting as a selected frame image, and a filter process for generating one frame image by filtering the selected frame image selected in the frame selection process. A frame picture is an I picture or slice (Intra Picture or slice), a P picture or slice (Predictive coded Picture or slice), or a B picture or slice (bidirectional prediction). Bi-directional Predictive Picture or slice or Bi-predictive Pict The filter processing using different weighting coefficients is executed in accordance with the picture type or slice type indicating which one is ure or slice).

本発明によれば、フレーム間の相関を用いた画像情報圧縮によって符号化されて記録された動画から、ノイズ劣化の少ない高画質の静止画を生成することができる画像処理装置、画像処理方法、及びプログラムを提供することができる。   According to the present invention, an image processing device, an image processing method, and an image processing method capable of generating a high-quality still image with little noise degradation from a moving image encoded and recorded by image information compression using correlation between frames, And programs can be provided.

本発明の第1の実施形態にかかる撮像装置の一例を示した外観図である1 is an external view illustrating an example of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態にかかる撮像装置を示すブロック図である。1 is a block diagram illustrating an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態にかかる撮像装置における静止画像データ生成手順を示すフローチャートである。It is a flowchart which shows the still image data production | generation procedure in the imaging device concerning the 1st Embodiment of this invention. MPEG−2におけるフレーム構造を示す図である。It is a figure which shows the frame structure in MPEG-2. (b)はユーザによって選択されたフレーム画面を示す図であり、(b)はその前後のフレーム画面のうちの1つを示す図である。(B) is a figure which shows the frame screen selected by the user, (b) is a figure which shows one of the frame screen before and behind that. 本発明の第1の実施形態の第3の変形例における撮像装置を示すブロック図である。It is a block diagram which shows the imaging device in the 3rd modification of the 1st Embodiment of this invention. 1つのフレームが2つのスライスに分割されている例を示す図である。It is a figure which shows the example in which one frame is divided | segmented into two slices. 本発明の第2の実施形態おける撮像装置を示す図である。It is a figure which shows the imaging device in the 2nd Embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

この実施の形態は、本発明を、動画像から複数枚のフレーム画像を選択して1枚の静止画像を生成する際に、圧縮処理で生じたノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施する画像処理装置に適用したものである。   In this embodiment, the present invention uses different weighting factors based on the magnitude of noise generated in compression processing when selecting a plurality of frame images from a moving image and generating one still image. The present invention is applied to an image processing apparatus that performs the filtering process.

上述したように、本願発明者は、鋭意実験研究し、複数枚のフレーム画像を単純に平均化処理しても撮像素子に基づくランダムなノイズを除去することはできても、量子化ノイズやブロック歪みを取り除けないことを知見し、圧縮処理によるノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施することで、動画像に生じている撮像素子によるノイズを除去すると共に圧縮処理によるノイズをも取り除くことができる方法を見出した。   As described above, the inventor of the present application has earnestly studied and can quantize noise and block even if a plurality of frame images can be simply averaged to remove random noise based on the image sensor. Knowing that distortion cannot be removed and performing filter processing using different weighting factors based on the magnitude of noise due to compression processing, removes noise due to the image sensor generated in the moving image and by compression processing I found a way to remove noise.

具体的に圧縮処理で生じたノイズとは、例えば、量子化ノイズやデブロッキング・フィルタによる減衰ノイズである。ここで、量子化ノイズを取り除くためには、複数のフレーム画像に対し、圧縮時の量子化ステップに基づき、異なる重み係数を使用したフィルタ処理を実施する。この場合、各選択フレーム画像について、フレーム毎、フレームに含まれるスライス毎、又はフレームに含まれるマクロブロック毎に、異なる重み係数を使用してフィルタ処理を実施することも可能である。フィルタ処理とは、例えば、量子化ステップに応じた重み係数を使用した加重平均フィルタによるものである。さらに、選択した複数のフレーム画像が、Iピクチャ、Pピクチャ、又はBピクチャのいずれかであるかを示すピクチャタイプに応じて異なる重み係数を使用することも可能である。   Specifically, the noise generated by the compression processing is, for example, quantization noise or attenuation noise due to a deblocking filter. Here, in order to remove quantization noise, filter processing using different weighting factors is performed on a plurality of frame images based on a quantization step at the time of compression. In this case, for each selected frame image, it is also possible to perform a filtering process using different weighting factors for each frame, for each slice included in the frame, or for each macroblock included in the frame. The filtering process is, for example, based on a weighted average filter using a weighting factor corresponding to the quantization step. Furthermore, it is also possible to use different weighting factors depending on the picture type indicating whether the selected plurality of frame images are I pictures, P pictures, or B pictures.

また、デブロッキング・フィルタの減衰ノイズを取り除くためには、複数のフレーム画像を合成する際に、デブロッキング・フィルタ処理で使用するFIR(Finite Impulse Response Filter)フィルタ処理の有無に応じて異なる重み係数を使用することができる。また、デブロッキング・フィルタ処理で使用するFIRフィルタのタップ数に応じて異なる重み係数を使用したり、デブロッキング・フィルタ処理で使用するFIRフィルタ処理前後の画素値の差分の絶対値の大きさに応じて異なる重み係数を使用することも可能である。以下、本発明の実施形態について詳細に説明する。   Also, in order to remove the attenuation noise of the deblocking filter, different weighting factors are used depending on the presence or absence of the FIR (Finite Impulse Response Filter) filter processing used in the deblocking filter processing when combining a plurality of frame images. Can be used. Also, a different weighting factor is used according to the number of taps of the FIR filter used in the deblocking filter process, or the absolute value of the difference between the pixel values before and after the FIR filter process used in the deblocking filter process is set. It is possible to use different weighting factors accordingly. Hereinafter, embodiments of the present invention will be described in detail.

<1>本発明の第1の実施形態
本実施の形態においては、復号されたフレーム画像列から、ユーザからの指示に基づき、又は自動的に2以上のフレーム画像を選択し、これらのフレーム画像がIピクチャ、Pピクチャ、Bピクチャのいずれかであるかによって、重み係数を変えてフィルタ処理を行うことで、ノイズ劣化の少ない高画質の静止画を生成する。
<1> First Embodiment of the Present Invention In the present embodiment, two or more frame images are selected from a decoded frame image sequence based on an instruction from a user or automatically, and these frame images are selected. Depending on whether the picture is an I picture, P picture, or B picture, a weighting factor is changed to perform filter processing, thereby generating a high-quality still picture with little noise degradation.

<1−1>撮像装置
先ず、本第1の実施形態にかかる撮像装置について説明する。図1は、第1の実施形態にかかる撮像装置100の一例を示した外観図である。撮像装置100は、携帯性を有し、本体102と、撮像レンズ104と、複数の操作部106と、モニタとしての液晶モニタ108とを有する。
<1-1> Imaging Device First, the imaging device according to the first embodiment will be described. FIG. 1 is an external view illustrating an example of an imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 has portability, and includes a main body 102, an imaging lens 104, a plurality of operation units 106, and a liquid crystal monitor 108 as a monitor.

本体102は、撮像レンズ104を通じて撮像された画像データを再視聴可能に記録すると共に、操作部106へのユーザ入力に応じてその記録タイミングや画角を調整する。   The main body 102 records the image data captured through the imaging lens 104 so as to be re-viewable, and adjusts the recording timing and the angle of view according to the user input to the operation unit 106.

また、操作部106へのユーザ入力に応じて、記録した動画像データの再生や、フレーム画像の選択、及び静止画の生成が行われる。再生した動画像は、外部出力されるとともに液晶モニタ108に表示される。   In addition, in accordance with user input to the operation unit 106, playback of recorded moving image data, selection of a frame image, and generation of a still image are performed. The reproduced moving image is output to the outside and displayed on the liquid crystal monitor 108.

図2は、第1の実施形態にかかる撮像装置100を示すブロック図である。撮像装置100は、撮像部120と、信号処理部122と、画像記憶部124と、画像処理部126と、記録I/F(インターフェース)部128と、画像出力部130と、撮像記録再生制御部132とメイン記憶部134とを有する。なお、操作部106、信号処理部122、画像記憶部124、画像処理部126、記録I/F部128、画像出力部130、メイン記憶部134、駆動制御部154及び撮像記録再生制御部132はシステムバス136を介して接続されている。   FIG. 2 is a block diagram illustrating the imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 includes an imaging unit 120, a signal processing unit 122, an image storage unit 124, an image processing unit 126, a recording I / F (interface) unit 128, an image output unit 130, and an imaging recording / playback control unit. 132 and a main storage unit 134. The operation unit 106, the signal processing unit 122, the image storage unit 124, the image processing unit 126, the recording I / F unit 128, the image output unit 130, the main storage unit 134, the drive control unit 154, and the imaging recording / playback control unit 132 They are connected via a system bus 136.

撮像部120は、撮像レンズ104を通じて被写体を撮像し画像データを生成する。撮像部120は、具体的に、近赤外光を遮るIR(infrared:赤外線)カットフィルタ140、ズーム機能を実現するためのズームレンズ142、焦点調整に用いられるフォーカスレンズ144、露光調整に用いられる絞り146、撮像レンズ104を通じて入射する被写体像等の光を光電変換し画像信号を生成するCCD(Charge Coupled Devices)等で構成される撮像素子(撮像回路)148、撮像素子148からの画像信号を増幅する増幅器150、増幅された画像信号をデジタルの画像データに変換するA/D(アナログディジタル)変換器152、ズームレンズ142、フォーカスレンズ144及び絞り146の駆動を制御する駆動制御部154、及びその駆動回路156を有する。   The imaging unit 120 captures a subject through the imaging lens 104 and generates image data. Specifically, the imaging unit 120 is used for an IR (infrared) cut filter 140 that blocks near-infrared light, a zoom lens 142 for realizing a zoom function, a focus lens 144 used for focus adjustment, and exposure adjustment. An image sensor (imaging circuit) 148 composed of a CCD (Charge Coupled Devices) that photoelectrically converts light such as a subject image incident through the aperture 146 and the imaging lens 104 to generate an image signal, and image signals from the imaging element 148 An amplifier 150 that amplifies, an A / D (analog / digital) converter 152 that converts the amplified image signal into digital image data, a drive control unit 154 that controls driving of the zoom lens 142, the focus lens 144, and the aperture 146, and The driver circuit 156 is included.

信号処理部122は、入力された信号に対して輝度信号や色信号を形成するなどの信号処理を行ってカラー映像信号を形成し、画像記憶部124に伝達する。また、画面の平均輝度を求めるなどして、その結果を撮像記録再生制御部132へ出力する。   The signal processing unit 122 performs signal processing such as forming a luminance signal and a color signal on the input signal to form a color video signal, and transmits the color video signal to the image storage unit 124. Further, the average brightness of the screen is obtained, and the result is output to the imaging recording / playback control unit 132.

画像記憶部124は、SDRAM(Synchronous-DRAM)等のバッファメモリで構成され、画像データを一時的に記憶し、画像処理部126等にその画像データを参照させることができる。   The image storage unit 124 includes a buffer memory such as an SDRAM (Synchronous-DRAM), temporarily stores image data, and allows the image processing unit 126 and the like to refer to the image data.

画像処理部126は、画像記憶部124からの動画像データをMPEG−2、MPEG−4、H.264/AVC等の形式で圧縮して記録用のデータを生成する。また、画像処理部126は、画像記憶部124からの静止画像をJPEG(Joint Photographic Experts Group)等の形式で圧縮して記録用のデータを生成する。さらに、画像処理部126は、撮像記録再生制御部132の指示により画像データを縮小して表示用画像(ビュー画像)を生成する。一方、記録したデータを再生する際には、画像処理部126は、圧縮された記憶用データを伸長復元する処理を実行する。   The image processing unit 126 converts the moving image data from the image storage unit 124 into MPEG-2, MPEG-4, H.264. Data for recording is generated by compression in a format such as H.264 / AVC. Further, the image processing unit 126 compresses the still image from the image storage unit 124 in a format such as JPEG (Joint Photographic Experts Group) and generates data for recording. Further, the image processing unit 126 generates a display image (view image) by reducing the image data in accordance with an instruction from the imaging recording / playback control unit 132. On the other hand, when reproducing the recorded data, the image processing unit 126 executes a process of decompressing and restoring the compressed storage data.

記録I/F部128は、符号化処理を通じ画像データを符号化して記録信号(データストリーム)を生成し、その記憶信号を任意の記録媒体160に記録する。任意の記録媒体160としては、DVDやBDといった電源不要な媒体や、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等の電源を要する媒体を適用することができる。また、SDカードなどの外部から接続可能な別体の記録媒体を用いることもできる。   The recording I / F unit 128 encodes image data through an encoding process to generate a recording signal (data stream), and records the storage signal on an arbitrary recording medium 160. As the arbitrary recording medium 160, a medium that does not require a power source such as a DVD or a BD, or a medium that requires a power source such as a RAM, an EEPROM, a nonvolatile RAM, a flash memory, or an HDD can be applied. Also, a separate recording medium that can be connected from the outside, such as an SD card, can be used.

駆動制御部154は、撮像記録再生制御部132からの指示を受けて、ズームレンズ142、フォーカスレンズ144及び絞り146の駆動を制御する。   The drive control unit 154 controls the driving of the zoom lens 142, the focus lens 144, and the diaphragm 146 in response to an instruction from the imaging recording / playback control unit 132.

メイン記憶部134は、撮像記録再生制御部132で処理されるプログラムなどを記憶する。   The main storage unit 134 stores programs processed by the imaging recording / playback control unit 132.

撮像記録再生制御部132は、半導体集積回路により撮像装置100全体を管理及び制御し、撮像などに必要となる各種演算を実行する。また、撮像記録再生制御部132は、静止画像生成部133としても機能する。   The imaging recording / playback control unit 132 manages and controls the entire imaging apparatus 100 using a semiconductor integrated circuit, and executes various calculations necessary for imaging and the like. The imaging recording / playback control unit 132 also functions as the still image generation unit 133.

記録された動画像データから静止画像を生成する場合、記録媒体160にある動画像データを記録I/F部128経由で読み出して、画像処理部126で圧縮データの伸張復元を行って、その結果のフレーム画像を画像記憶部124に格納する。ユーザ操作に基づいて選択された、あるフレーム画像とその前後の複数のフレーム画像が画像記憶部124に格納される。また、各フレーム画像がI、P、Bピクチャのいずれのピクチャタイプで符号化されていたかという情報も格納される。   When a still image is generated from the recorded moving image data, the moving image data in the recording medium 160 is read out via the recording I / F unit 128, the compressed data is decompressed and restored by the image processing unit 126, and the result Are stored in the image storage unit 124. A frame image selected based on the user operation and a plurality of frame images before and after the frame image are stored in the image storage unit 124. In addition, information indicating whether each frame image has been encoded with an I, P, or B picture type is also stored.

静止画像生成部133は、フレーム選択部201及びフィルタ処理部202を有し、画像記憶部124に格納されている複数のフレーム画像に対して、フィルタ処理の一種である動き補償重み付き平均処理を行って静止画データを生成する。   The still image generation unit 133 includes a frame selection unit 201 and a filter processing unit 202, and performs a motion compensation weighted average process, which is a type of filter processing, on a plurality of frame images stored in the image storage unit 124. Go to generate still image data.

<1−2>静止画像生成部の構成
次に、静止画像生成部133の詳細について説明する。図2に示すように、静止画像生成部133は、フレーム選択部201及びフィルタ処理部202を有する。フレーム選択部201は、外部からの指示に基づき、又は自動的に、圧縮処理された圧縮データを復号する復号部として機能する画像処理部126から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択する。この選択フレーム画像は、時間軸に対して連続するフレーム画像であっても、不連続のフレーム画像であってもよい。フィルタ処理部202は、フレーム選択部201が選択した選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成する処理部である。このフィルタ処理部202は、圧縮処理で生じたノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施する。具体的には、フレーム選択部201が選択した複数のフレーム画像のそれぞれが、Iピクチャ、Pピクチャ、Bピクチャのいずれかであるかによって、重み係数を変えて加重平均フィルタにより静止画像データを生成する。
<1-2> Configuration of Still Image Generating Unit Next, details of the still image generating unit 133 will be described. As illustrated in FIG. 2, the still image generation unit 133 includes a frame selection unit 201 and a filter processing unit 202. The frame selection unit 201 receives two or more frame images from the frame image sequence output from the image processing unit 126 functioning as a decoding unit that decodes the compressed data that has been compressed based on an instruction from the outside or automatically Is selected as the selected frame image. The selected frame image may be a continuous frame image or a discontinuous frame image with respect to the time axis. The filter processing unit 202 is a processing unit that generates one frame image by filtering the selected frame image selected by the frame selection unit 201. The filter processing unit 202 performs filter processing using different weighting factors based on the magnitude of noise generated by the compression processing. Specifically, depending on whether each of the plurality of frame images selected by the frame selection unit 201 is an I picture, a P picture, or a B picture, the still image data is generated by the weighted average filter by changing the weighting factor. To do.

<1−3>静止画像データ生成動作
次に、静止画像データ生成手順について説明する。図3は、静止画像データ生成手順を示すフローチャートである。操作部106に対するユーザ操作によって、撮像装置100は静止画データ生成モードになり、画像処理を開始する。
<1-3> Still Image Data Generation Operation Next, a still image data generation procedure will be described. FIG. 3 is a flowchart showing a still image data generation procedure. By the user operation on the operation unit 106, the imaging apparatus 100 enters the still image data generation mode and starts image processing.

図3に示すように、画像処理を開始すると、ユーザ操作に基づくフレーム画像の選択が行われる。フレーム画像の選択は、動画像をスロー再生やコマ送り再生しながら、ユーザが操作部106を操作することで行われる(ステップS200)。   As shown in FIG. 3, when image processing is started, a frame image is selected based on a user operation. The selection of the frame image is performed by the user operating the operation unit 106 while performing slow playback or frame advance playback of the moving image (step S200).

フレーム画像が選択されると、そのフレーム画像は、画像記憶部124に記憶される。また、そのフレーム画像の時系列で直前の2枚と直後の2枚のフレーム画像が伸張復元されて、画像記憶部124に記憶される。また、これら計5枚のフレーム画像のピクチャタイプ情報が選択されて画像記憶部124に記憶される(ステップS201)。   When a frame image is selected, the frame image is stored in the image storage unit 124. Also, the immediately preceding two frame images and the immediately following two frame images are decompressed and restored in the time series of the frame images and stored in the image storage unit 124. Further, the picture type information of these five frame images is selected and stored in the image storage unit 124 (step S201).

図4は、MPEG−2におけるフレーム構造を示す図である。ここで、ユーザ操作に基づいて選択されたフレーム画像が、図4の矢印で示したフレーム画像であるとする。ここでは、B(2)で表す。直前の2枚はIピクチャとBピクチャであり、I(1)とB(1)で表す。直後の2枚はPピクチャとBピクチャであり、P(1)とB(3)で表す。   FIG. 4 is a diagram showing a frame structure in MPEG-2. Here, it is assumed that the frame image selected based on the user operation is the frame image indicated by the arrow in FIG. Here, it is represented by B (2). The last two pictures are an I picture and a B picture, which are represented by I (1) and B (1). The next two pictures are a P picture and a B picture, which are represented by P (1) and B (3).

Iピクチャに対する重み係数をKi、Pピクチャに対する重み係数をKp、Bピクチャに対する重み係数をKbとする。ここで、Ki≧Kp≧Kbで、Ki=Kp=Kb ではない数値である。   Assume that the weight coefficient for the I picture is Ki, the weight coefficient for the P picture is Kp, and the weight coefficient for the B picture is Kb. Here, Ki ≧ Kp ≧ Kb and Ki = Kp = Kb is not set.

各フレームの画素を、pI(1)、pB(1)、pB(2)、pP(1)、pB(3)で表す。5枚のピクチャを通じて被写体が静止していると見なされた場合には、フレーム画像の各画素について、次のように以下の式(1)に基づき重み付き平均化処理を行って静止画の各画素pSを算出する。
pS=(Ki×pI(1)+Kb×pB(1)+Kb×pB(2)+Kp×pP(1)+Kb×pB(3))/(Ki+Kb+Kb+Kp+Kb)・・・(1)
The pixels of each frame are represented by pI (1), pB (1), pB (2), pP (1), and pB (3). When the subject is considered to be stationary through five pictures, each pixel of the frame image is subjected to a weighted averaging process based on the following equation (1) as follows. Pixel pS is calculated.
pS = (Ki × pI (1) + Kb × pB (1) + Kb × pB (2) + Kp × pP (1) + Kb × pB (3)) / (Ki + Kb + Kb + Kp + Kb) (1)

<1−4>動き補償の重み付き平均化処理
次に、被写体に動きがあると見なされた場合の処理について、図5を参照して説明する。図5(b)はユーザによって選択されたフレーム画面303であり、図5(a)に示すフレーム画像301はフレーム画像303の前後のフレーム画面のうちの1つである。図5(a)の画面左上にある四角形の灰色物体302が、図5(b)では少し右側に移動している(304)。灰色物体302を除いた背景は静止しているものとする。図5(a)と図5(b)のフレーム画面301、303から灰色物体302の動きベクトルVが算出される。動きベクトルVの算出は、勾配法やマッチング法などの公知の方法で行われる(例えば特許文献2)。
<1-4> Weighted Averaging Processing for Motion Compensation Next, processing when it is considered that a subject has motion will be described with reference to FIG. FIG. 5B shows a frame screen 303 selected by the user, and a frame image 301 shown in FIG. 5A is one of the frame screens before and after the frame image 303. The square gray object 302 at the upper left of the screen in FIG. 5A has moved slightly to the right in FIG. 5B (304). The background excluding the gray object 302 is assumed to be stationary. The motion vector V of the gray object 302 is calculated from the frame screens 301 and 303 in FIGS. 5 (a) and 5 (b). The motion vector V is calculated by a known method such as a gradient method or a matching method (for example, Patent Document 2).

上記(1)式の重み付き平均化処理を行うに当たって、灰色物体302に属する画素については、図5(b)のフレーム画像304の画素に対して、図5(a)では動きベクトルVだけ移動した画素302を用いて演算を行う。つまり、灰色物体302については、フレーム画像301内の灰色物体302と、フレーム画像303内の物体304とで、上記(1)式の演算を実施する。一方、静止している背景に属する画素については、画面内の同じ位置の画素を用いて演算を行う。また、図5(b)で、灰色物体302が移動したことにより新たに出現した領域Gは、図5(a)には相当する画素が存在しないので、図5(a)のフレーム画像301に相当する重み係数を0として、上記(1)式の演算を行う。演算結果の静止画は、画像記憶部124に格納する(ステップS220)。画像記憶部124に格納された静止画は、画像処理部126で読み出されて、JPEG符号化され、記録媒体160に記録される(ステップS230)。以上で静止画データ生成手順が終了する。   In performing the weighted averaging process of the above equation (1), the pixel belonging to the gray object 302 is moved by the motion vector V in FIG. 5A with respect to the pixel of the frame image 304 in FIG. An operation is performed using the pixel 302 that has been selected. That is, for the gray object 302, the calculation of the above equation (1) is performed on the gray object 302 in the frame image 301 and the object 304 in the frame image 303. On the other hand, for pixels belonging to a stationary background, calculation is performed using pixels at the same position in the screen. Also, in FIG. 5B, the region G newly appearing due to the movement of the gray object 302 does not have a pixel corresponding to FIG. 5A, so that the frame image 301 in FIG. The calculation of the above equation (1) is performed with the corresponding weighting factor being 0. The calculated still image is stored in the image storage unit 124 (step S220). The still image stored in the image storage unit 124 is read by the image processing unit 126, JPEG encoded, and recorded on the recording medium 160 (step S230). This completes the still image data generation procedure.

本実施の形態においては、複数枚のフレーム画像から1枚の静止画を生成するため、撮像素子に基づくノイズを低減できると共に、Iピクチャ、Pピクチャ、Bピクチャの各ピクチャタイプに応じて異なる重み係数を使用したフィルタ処理を実施することにより、量子化によって生じる量子化ノイズを低減することができる。   In this embodiment, since one still image is generated from a plurality of frame images, noise based on the image sensor can be reduced, and different weights can be used depending on the picture types of I picture, P picture, and B picture. By performing the filter processing using the coefficients, it is possible to reduce quantization noise caused by quantization.

<1−5>第1の変形例
次に、第1の実施形態の第2の変形例について説明する。上記の第1の実施形態においては、動き補償の重み付き平均化処理について説明したが、動き適応の重み付き平均化処理としてもよい。動き適応の場合、静止していないと見なされる部分の画素について、演算対象から除外する。図5の例では、例えば、図5(b)のフレーム画像303をユーザが選択したフレーム画像とすると、図5(a)のフレーム画像301と図5(b)のフレーム画像303で動きのある領域(G、304)に属する図5(a)のフレーム画像301の画素については、重み係数を0として上記(1)式の演算を行う。その他の画素については、画面内の同じ位置の画素を用いて演算を行う。画質の点では、動き補償を行った方がよいが、動き適応の方が処理手段である回路の規模を小さくできるという利点がある。
<1-5> First Modification Next, a second modification of the first embodiment will be described. In the first embodiment, the weighted averaging process for motion compensation has been described. However, the weighted averaging process for motion adaptation may be used. In the case of motion adaptation, a part of pixels considered not stationary is excluded from the calculation target. In the example of FIG. 5, for example, if the frame image 303 in FIG. 5B is a frame image selected by the user, the frame image 301 in FIG. 5A and the frame image 303 in FIG. For the pixels of the frame image 301 in FIG. 5A that belong to the region (G, 304), the weighting coefficient is set to 0 and the calculation of the above equation (1) is performed. For other pixels, calculation is performed using pixels at the same position in the screen. In terms of image quality, it is better to perform motion compensation, but motion adaptation has the advantage that the scale of the circuit that is the processing means can be reduced.

<1−6>第2の変形例
次に、第1の実施形態の第2の変形例について説明する。フレーム選択部201は、所定速度以上のズーム操作又はパンチルト操作が行われたフレーム画像については、選択フレーム画像から除外するようにすることができる。すなわち、動画の撮影中に比較的動きの速いズーム操作やパンチルト操作が行われた場合に、それらのフレーム画像を除外する。これは、比較的動きの速いズーム操作やパンチルト操作が行われていた場合、動き補償が適正に行われなくなるからである。
<1-6> Second Modification Next, a second modification of the first embodiment will be described. The frame selection unit 201 can exclude a frame image on which a zoom operation or a pan / tilt operation at a predetermined speed or more has been performed from the selected frame image. That is, when a zoom operation or a pan / tilt operation with relatively fast movement is performed during moving image shooting, those frame images are excluded. This is because when a zoom operation or a pan / tilt operation with relatively fast motion is performed, motion compensation is not performed properly.

例えば、図4において、例えば5枚のフレーム画像を選択する場合、ユーザ操作に基づいて選択されたフレーム画像よりも後ろのフレーム画像において、比較的動きの速いズーム操作やパンチルト操作が行われていた場合には、前2枚+後ろ2枚の代わりに、前4枚とする。比較的動きの速いズーム操作やパンチルト操作が行われていたか否かの判定は、フレーム選択部201は、フレーム画像全体の動きベクトルの平均値が所定値以上であるフレーム画像については、選択フレーム画像から除外するようにしてもよいし、フレーム画像に基づいて動きベクトルを算出して判断してもよいし、撮影時の操作情報を動画ストリームに格納し、再生時に選択するようにしてもよい。   For example, in FIG. 4, for example, when five frame images are selected, a zoom operation or a pan / tilt operation with relatively fast movement is performed on a frame image behind the frame image selected based on the user operation. In this case, instead of the front 2 sheets + the back 2 sheets, the front 4 sheets are used. In determining whether or not a zoom operation or a pan / tilt operation with relatively fast movement has been performed, the frame selection unit 201 selects a selected frame image for a frame image in which the average value of motion vectors of the entire frame image is equal to or greater than a predetermined value. May be determined by calculating a motion vector based on a frame image, or operation information at the time of shooting may be stored in a moving image stream and selected at the time of reproduction.

<1−7>第3の変形例
次に、第3の変形例について説明する。図6は、第1の実施形態の第3の変形例における撮像装置100aを示すブロック図である。図6に示すように、静止画像生成部133は、図2の構成に加えて、対象物検出部203を有する。この対象物検出部203は、圧縮処理された圧縮データを復号する復号部として機能する画像処理部126から出力されるフレーム画像列に含まれる2以上のフレーム画像に特定の対象物画像が含まれるか否かを検出する。そして、フレーム選択部201は、対象物検出部203の検出結果に基づき、対象物が含まれる2以上のフレームを選択フレーム画像として選択する。
<1-7> Third Modification Next, a third modification will be described. FIG. 6 is a block diagram illustrating an imaging apparatus 100a according to a third modification of the first embodiment. As shown in FIG. 6, the still image generation unit 133 includes an object detection unit 203 in addition to the configuration of FIG. 2. The target object detection unit 203 includes a specific target image in two or more frame images included in the frame image sequence output from the image processing unit 126 functioning as a decoding unit that decodes the compressed compressed data. Whether or not is detected. Then, based on the detection result of the object detection unit 203, the frame selection unit 201 selects two or more frames including the object as selected frame images.

たとえば、対象物検出部203は、動画内のユーザの笑顔を自動検出し、ユーザの笑顔が含まれているフレーム画像を選択することができる。また、笑顔以外でも、ユーザの設定に応じて、他の対象物を含んでいる場合に自動的にフレーム選択するようにしてもよい。これにより、ユーザは、所望の静止画を動画像からユーザの選択ではなく、自動で取得することができ、より操作性が向上する。   For example, the object detection unit 203 can automatically detect a user's smile in the video and select a frame image that includes the user's smile. In addition to a smile, a frame may be automatically selected when another object is included according to a user setting. Accordingly, the user can automatically acquire a desired still image from the moving image instead of the user's selection, and the operability is further improved.

<1−8>その他の変形例
次に、選択フレームが5枚のフレーム画像からなる場合について説明する。先ず、フレーム選択部201は、選択フレーム画像に1以上のIピクチャが含まれるように選択することができる。つまり、5枚のフレーム画像の中に必ずIピクチャが含まれるように、フレーム画像選択を限定する。例えば、図4において、ユーザの指示により、1番目のPピクチャが選択された場合には、フレーム選択部201は、前3枚、後ろ1枚のピクチャを選択フレーム画像とすることにより、選択フレーム画像にIピクチャを含めることができる。
<1-8> Other Modifications Next, a case where the selected frame is composed of five frame images will be described. First, the frame selection unit 201 can select so that one or more I pictures are included in the selected frame image. That is, frame image selection is limited so that the I picture is always included in the five frame images. For example, in FIG. 4, when the first P picture is selected by the user's instruction, the frame selection unit 201 sets the selected frame image by using the front three pictures and the rear one picture as the selected frame images. An I picture can be included in the image.

選択フレーム画像にIピクチャを含めることにより、画質的にはIピクチャが最もよいため、静止画の画質を向上することができる。同様に、Bピクチャの画質は、Iピクチャ又はPピクチャの画質より劣るため、フレーム選択部201におけるフレーム画像選択では、I又はPピクチャに限定して選択するようし、Bピクチャについては重み付き平均化処理から除外することで、生成する静止画の画質を向上することができる。なお、本例では、静止画像生成部133が、5枚の選択フレームを使用して重み付き平均化処理を行うものとしたが、選択フレームは、5枚以外の枚数でもよいことは言うまでもない。   By including the I picture in the selected frame image, since the I picture is the best in terms of image quality, the image quality of the still image can be improved. Similarly, since the picture quality of a B picture is inferior to that of an I picture or P picture, in the frame image selection in the frame selection unit 201, selection is limited to an I or P picture, and a weighted average is used for a B picture. By excluding from the conversion processing, the image quality of the still image to be generated can be improved. In this example, the still image generation unit 133 performs weighted averaging using five selected frames, but it goes without saying that the number of selected frames may be other than five.

また、上記第1の実施形態及び変形例では、フレーム画像を例にとって説明したが、インターレス走査の映像データの場合には、フィールド画像としてもよい。その場合、フレーム画像の場合と同様の処理を行ってもよい。又は、奇数フィールドは奇数フィールドのみで動き補償の重み付き平均化処理を行って画像を作成し、偶数フィールドは偶数フィールドのみで動き補償の重み付き平均化処理を行って画像を作成して、最後にIP変換して静止画像を生成するようにしてもよい。   In the first embodiment and the modification, the frame image has been described as an example. However, in the case of interlaced scanning video data, a field image may be used. In that case, the same processing as in the case of the frame image may be performed. Or, the odd field is an odd field only and the motion compensation weighted averaging process is performed to create an image, and the even field is the even field only and the motion compensation weighted averaging process is performed to create an image. Alternatively, the still image may be generated by IP conversion.

さらに、フィルタ処理部201は、画像圧縮時の圧縮率に応じて重み係数Ki、Kp、Kbを異ならせる、すなわち、値の比率を異ならせることができる。この場合、圧縮率が高い場合は、各重み係数の比率が1から離れる値とし、圧縮率が低い場合は、各重み係数の比率が1に近くなる値となるよう設定することができる。   Furthermore, the filter processing unit 201 can vary the weighting factors Ki, Kp, and Kb according to the compression rate at the time of image compression, that is, the value ratio can be varied. In this case, when the compression rate is high, the ratio of each weighting factor can be set to a value away from 1, and when the compression rate is low, the ratio of each weighting factor can be set to a value close to 1.

すなわち、圧縮率が比較的小さい場合に、Ki、Kp、Kbが比較的近い値になるようにする。例えば、{1、0.9、0.8}等である。一方、圧縮率が比較的大きい場合には、Ki、Kp、Kbの値の比率に差がつくようにする。例えば、{1、0.7、0.3}等である。圧縮率が比較的小さい場合には、Pピクチャ、及びBピクチャの量子化ノイズの量が比較的小さいため、Pピクチャ、Bピクチャの画素の値の混合比率を大きくしても、量子化ノイズの影響を受けにくいからである。   That is, when the compression rate is relatively small, Ki, Kp, and Kb are set to relatively close values. For example, {1, 0.9, 0.8}. On the other hand, when the compression ratio is relatively large, the ratios of the values of Ki, Kp, and Kb are made different. For example, {1, 0.7, 0.3}. When the compression ratio is relatively small, the amount of quantization noise of the P picture and B picture is relatively small. Therefore, even if the mixing ratio of the pixel values of the P picture and B picture is increased, the quantization noise is reduced. This is because it is not easily affected.

<2>本発明の第2の実施形態
次に、本発明の第2の実施形態について説明する。本実施形態は、本発明を、H.264/AVC規格で規格化されているIスライス、Pスライス、Bスライスからなる動画像から静止画像を生成する撮像装置に適用したものである。
<2> Second Embodiment of the Present Invention Next, a second embodiment of the present invention will be described. This embodiment is an embodiment of the present invention. The present invention is applied to an imaging apparatus that generates a still image from a moving image composed of an I slice, a P slice, and a B slice standardized by the H.264 / AVC standard.

図7は、1つのフレームが2つのスライスに分割されている例を示す図である。この場合、第1の実施形態においてピクチャとしたものを、本実施形態においては、スライスとする。   FIG. 7 is a diagram illustrating an example in which one frame is divided into two slices. In this case, a picture in the first embodiment is a slice in the present embodiment.

本実施形態においては、撮像装置の構成は、図2に示す第1の実施形態にかかる撮像装置の構成と同様であって、図3に示す静止画生成部においては、フレーム選択部をスライス選択部とする。図8は、本第2の実施形態における撮像装置100bを示す図である。図8に示すように、図2に示すフレーム選択部201の代わりに、スライス選択部204を有している。スライス選択部204は、外部からの指示に基づき、又は自動的に、圧縮処理された圧縮データを復号する復号部として機能する画像処理部126から出力されるフレーム画像列から、2以上のスライス画像、好ましくは4以上のスライス画像を選択スライス画像として選択する。フィルタ処理部202は、スライス選択部204が選択した選択スライス画像をフィルタ処理することにより一のフレーム画像を生成する処理部である。このフィルタ処理部202は、圧縮処理で生じたノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施する。具体的には、スライス選択部204が選択した複数のスライス画像のそれぞれが、Iスライス、Pスライス、Bスライスのいずれかであるかによって、重み係数を変えて加重平均フィルタにより静止画像データを生成する。   In the present embodiment, the configuration of the imaging device is the same as that of the imaging device according to the first embodiment shown in FIG. 2, and the frame selection unit is slice-selected in the still image generation unit shown in FIG. Part. FIG. 8 is a diagram illustrating the imaging device 100b according to the second embodiment. As shown in FIG. 8, a slice selection unit 204 is provided instead of the frame selection unit 201 shown in FIG. The slice selection unit 204, based on an instruction from the outside, or automatically, two or more slice images from the frame image sequence output from the image processing unit 126 that functions as a decoding unit that decodes the compressed compressed data. Preferably, four or more slice images are selected as selected slice images. The filter processing unit 202 is a processing unit that generates one frame image by filtering the selected slice image selected by the slice selection unit 204. The filter processing unit 202 performs filter processing using different weighting factors based on the magnitude of noise generated by the compression processing. Specifically, depending on whether each of the plurality of slice images selected by the slice selection unit 204 is an I slice, a P slice, or a B slice, the still image data is generated by the weighted average filter by changing the weighting factor. To do.

本第2の実施形態においても、上記第1の実施形態と同様の効果を奏する。さらに、上述の第1乃至第3の変形例並びにその他の変形例についても、本実施の形態で適用可能である。   In the second embodiment, the same effects as in the first embodiment are obtained. Furthermore, the first to third modifications described above and other modifications can also be applied in the present embodiment.

<3>本発明の第3の実施形態
次に、本発明の第3の実施形態について説明する。第1の実施形態では、I、P、Bの各ピクチャタイプに画質が依存するものとしたが、より詳細には、画質は、各マクロブロックの量子化ステップの大きさに依存している。
<3> Third Embodiment of the Present Invention Next, a third embodiment of the present invention will be described. In the first embodiment, the image quality depends on the I, P, and B picture types, but more specifically, the image quality depends on the size of the quantization step of each macroblock.

そこで、記録した動画像データを再生して伸張復元する際に、各フレーム画像の全マクロブロックの量子化ステップを抽出して、図2に示す画像記憶部124に格納する。量子化ステップの値に対応して、重み係数Kを決めておく。量子化ステップが大きくなるほど、重み係数Kが小さくなるように決める。そして、第1の実施形態においては、ピクチャタイプに応じた重み係数を使用したのに対し、本実施形態においては、マクロブロックの量子化ステップに応じた重み係数を使用するものとする。   Therefore, when the recorded moving image data is reproduced and decompressed and restored, the quantization steps of all macroblocks of each frame image are extracted and stored in the image storage unit 124 shown in FIG. A weighting factor K is determined corresponding to the value of the quantization step. The weighting factor K is determined to be smaller as the quantization step is larger. In the first embodiment, the weighting factor corresponding to the picture type is used, whereas in this embodiment, the weighting factor corresponding to the macroblock quantization step is used.

本実施形態においては、撮像装置の構成は、図2に示す第1の実施形態にかかる撮像装置の構成と同様であって、静止画生成部の構成も、図2に示す静止画生成部と同様である。ここで、フィルタ処理部202は、フレーム選択部201が選択した選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成する処理部であるが、本実施形態におけるフィルタ処理部202は、フレーム選択部201が選択した選択フレーム画像において、マクロブロックの量子化ステップに応じた重み係数を使用して、加重平均フィルタにより静止画像データを生成する。   In the present embodiment, the configuration of the imaging device is the same as the configuration of the imaging device according to the first embodiment shown in FIG. 2, and the configuration of the still image generation unit is the same as that of the still image generation unit shown in FIG. It is the same. Here, the filter processing unit 202 is a processing unit that generates one frame image by filtering the selected frame image selected by the frame selection unit 201, but the filter processing unit 202 in the present embodiment is a frame selection unit. In the selected frame image selected by the unit 201, still image data is generated by a weighted average filter using a weighting factor corresponding to the quantization step of the macroblock.

また、各マクロブロックの量子化ステップの代わりに、ピクチャ毎の量子化ステップの平均値を算出し、その平均値に対応してピクチャ毎の重み係数Kを決めるようにしてもよい。その場合は、フィルタ処理部202は、ピクチャタイプ毎ではなく、各ピクチャ毎に決定された重み係数を使用してフィルタ演算すればよい。   Further, instead of the quantization step of each macroblock, an average value of quantization steps for each picture may be calculated, and a weighting factor K for each picture may be determined corresponding to the average value. In that case, the filter processing unit 202 may perform a filter operation using a weighting factor determined for each picture, not for each picture type.

本第3の実施形態においても、上記第1の実施形態と同様の効果を奏する。さらに、上述の第1乃至第3の変形例並びにその他の変形例についても、本実施の形態で適用可能である。   The third embodiment also has the same effect as the first embodiment. Furthermore, the first to third modifications described above and other modifications can also be applied in the present embodiment.

<4>本発明の第4の実施形態
次に、本発明の第4の実施形態について説明する。なお、本実施の形態にかかる撮像装置及び静止画生成部の構成は、図2に示す実施の形態1にかかる撮像装置及び静止画生成部の構成と同様である。上述したように、H.264/AVCのデブロッキング・フィルタ処理は、スライス毎の設定パラメータに応じて、特定のブロック境界の画素について、3乃至5タップのFIRフィルタを施すものである。FIRフィルタ処理により、量子化に伴うブロック歪が軽減される。一方、FIRフィルタ処理により本来の信号の空間周波数高域成分が失われることがある。
<4> Fourth Embodiment of the Present Invention Next, a fourth embodiment of the present invention will be described. The configurations of the imaging device and the still image generation unit according to the present embodiment are the same as the configurations of the imaging device and the still image generation unit according to the first embodiment shown in FIG. As mentioned above, H.M. In the H.264 / AVC deblocking filter processing, a 3 to 5 tap FIR filter is applied to pixels at a specific block boundary in accordance with a setting parameter for each slice. Block distortion due to quantization is reduced by the FIR filter processing. On the other hand, the spatial frequency high frequency component of the original signal may be lost by the FIR filter processing.

記録した動画像データを再生して伸張復元する際に、各フレーム画像の全ブロックの境界の画素について、どのようなFIRフィルタをかけたかの情報を抽出して、画像記憶部124に格納しておく。そして、フィルタ処理部201は、デブロッキング・フィルタ処理で使用するFIRフィルタ処理の有無に応じて異なる重み係数を使用するものとする。すなわち、どのようなFIRフィルタをかけたかに対応して、重み係数Kを決めておく。この場合、例えば、フィルタのタップ数が大きいほど、重み係数Kが小さくなるように決める。フィルタをかけていない画素の重み係数が最も大きくなるようにする。   When the recorded moving image data is reproduced and decompressed and restored, information on what FIR filter is applied to the pixels at the boundaries of all blocks of each frame image is extracted and stored in the image storage unit 124. . And the filter process part 201 shall use a different weighting coefficient according to the presence or absence of the FIR filter process used by a deblocking filter process. That is, the weighting coefficient K is determined in accordance with what kind of FIR filter is applied. In this case, for example, the weight coefficient K is determined to be smaller as the number of filter taps is larger. The weight coefficient of the unfiltered pixel is maximized.

又は、どのようなFIRフィルタをかけたかの情報の代わりに、FIRフィルタをかける前の画素値とかけた後の画素値との差分の絶対の情報を抽出するようにしてもよい。差分の絶対値が大きいほど、重み係数Kが小さくなるように決定することができる。   Alternatively, instead of information on what kind of FIR filter is applied, absolute information of a difference between a pixel value before being applied and a pixel value after being applied may be extracted. The larger the absolute value of the difference, the smaller the weighting factor K can be determined.

なお、どのようなFIRフィルタをかけたか、又はFIRフィルタをかける前後の差分の絶対値と、上述の第3の実施形態におけるマクロブロックの量子化ステップとの組み合わせに応じて重み係数Kを決めるようにしてもよい。すなわち、ブロック境界以外の画素についてはマクロブロックの量子化ステップに応じて重み係数Kを決める。ブロック境界については、量子化ステップに加えて、FIRフィルタをかける前後の差分の絶対値を加味して重み係数Kを決める。ブロック境界以外の画素や差分が0の画素については量子化ステップに応じた重み係数Kとし、差分が0でない画素については、その差分の絶対値に応じてさらに重み係数Kを小さくする。   It should be noted that the weighting factor K is determined in accordance with what kind of FIR filter is applied, or the combination of the absolute value of the difference before and after applying the FIR filter and the macroblock quantization step in the third embodiment. It may be. That is, for pixels other than the block boundary, the weighting factor K is determined according to the quantization step of the macroblock. For the block boundary, in addition to the quantization step, the weight coefficient K is determined by taking into account the absolute value of the difference before and after applying the FIR filter. A pixel other than the block boundary or a pixel with a difference of 0 is set to a weighting coefficient K corresponding to the quantization step, and a pixel with a difference of not 0 is further reduced according to the absolute value of the difference.

本実施の形態においては、複数枚のフレーム画像から1枚の静止画を生成するため、撮像素子に基づくノイズを低減できると共に、FIRフィルタ処理の有無に応じて異なる重み係数を使用することで、H.264/AVCのデブロッキング・フィルタ処理で生じた圧縮処理時のノイズ(デブロッキング・フィルタによる減衰ノイズ)を低減することができる。さらに、合わせて量子化ステップに応じた重み係数を使用すれば、量子化ノイズを低減することも可能となる。   In the present embodiment, since one still image is generated from a plurality of frame images, noise based on the image sensor can be reduced, and different weighting factors can be used depending on the presence or absence of FIR filter processing. H. It is possible to reduce noise during compression processing (attenuation noise caused by the deblocking filter) caused by the H.264 / AVC deblocking filter processing. Furthermore, if a weighting factor corresponding to the quantization step is used, it is possible to reduce quantization noise.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   For example, in the above-described embodiment, the hardware configuration has been described. However, the present invention is not limited to this, and arbitrary processing may be realized by causing a CPU (Central Processing Unit) to execute a computer program. Is possible. In this case, the computer program can be stored using various types of non-transitory computer readable media and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

100 撮像装置
102 本体
104 撮像レンズ
106 操作部
108 液晶モニタ
120 撮像部
122 信号処理部
124 画像記憶部
126 画像処理部
128 部
130 画像出力部
132 撮像記録再生制御部
133 静止画像生成部
134 メイン記憶部
136 システムバス
140 カットフィルタ
142 ズームレンズ
144 フォーカスレンズ
148 撮像素子
150 増幅器
152 変換器
154 駆動制御部
156 駆動回路I/F 記録
201 フレーム選択部
202 フィルタ処理部
203 対象物検出部
204 スライス選択部
DESCRIPTION OF SYMBOLS 100 Imaging device 102 Main body 104 Imaging lens 106 Operation part 108 Liquid crystal monitor 120 Imaging part 122 Signal processing part 124 Image storage part 126 Image processing part 128 part 130 Image output part 132 Imaging recording / reproduction control part 133 Still image generation part 134 Main storage part 136 System Bus 140 Cut Filter 142 Zoom Lens 144 Focus Lens 148 Image Sensor 150 Amplifier 152 Converter 154 Drive Control Unit 156 Drive Circuit I / F Recording 201 Frame Selection Unit 202 Filter Processing Unit 203 Object Detection Unit 204 Slice Selection Unit

Claims (12)

圧縮処理された圧縮データを復号する復号部と、
外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択部と、
前記フレーム選択部が選択した選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理部とを有し、
前記フィルタ処理部は、前記圧縮処理で生じたノイズの大きさに基づき、異なる重み係数を使用したフィルタ処理を実施することを特徴とする画像処理装置。
A decoding unit that decodes the compressed data that has been compressed;
A frame selection unit that selects two or more frame images as selection frame images from a frame image sequence output from the decoding unit based on an instruction from the outside or automatically;
A filter processing unit that generates one frame image by filtering the selected frame image selected by the frame selection unit;
The image processing apparatus, wherein the filter processing unit performs filter processing using different weighting factors based on the magnitude of noise generated in the compression processing.
前記復号部は、異なる量子化ステップを使用して圧縮処理された圧縮データを復号し、
前記フィルタ処理部は、前記選択フレーム画像の圧縮時の量子化ステップに基づき、異なる重み係数を使用したフィルタ処理を実施することを特徴とする請求項1記載の画像処理装置。
The decoding unit decodes compressed data compressed using different quantization steps,
The image processing apparatus according to claim 1, wherein the filter processing unit performs filter processing using different weighting factors based on a quantization step when the selected frame image is compressed.
前記フィルタ処理部は、デブロッキング・フィルタ処理で使用するFIRフィルタ処理に応じて異なる重み係数を使用することを特徴とする請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter processing unit uses different weighting factors according to FIR filter processing used in deblocking filter processing. 圧縮処理された圧縮データを復号する復号部と、
外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択部と、
前記フレーム選択部が選択した選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理部とを有し、
前記フィルタ処理部は、前記選択フレーム画像が、Iピクチャ若しくはスライス、Pピクチャ若しくはスライス又はBピクチャ若しくはスライスのいずれであるかを示すピクチャタイプ若しくはスライスタイプに応じて異なる重み係数を使用したフィルタ処理を実施することを特徴とする画像処理装置。
A decoding unit that decodes the compressed data that has been compressed;
A frame selection unit that selects two or more frame images as selection frame images from a frame image sequence output from the decoding unit based on an instruction from the outside or automatically;
A filter processing unit that generates one frame image by filtering the selected frame image selected by the frame selection unit;
The filter processing unit performs a filter process using different weighting factors depending on a picture type or a slice type indicating whether the selected frame image is an I picture or a slice, a P picture or a slice, or a B picture or a slice. An image processing apparatus to be implemented.
前記Iピクチャ若しくはスライス、前記Pピクチャ若しくはスライス及び前記Bピクチャ若しくはスライスの重み係数をそれぞれKi、Kp、Kbとした場合、Ki、Kp、Kbは下記を満たすことを特徴とする請求項4記載の画像処理装置。
Ki≧Kp≧Kb
かつ
Ki=Kp=Kbを含まない
The Ki, Kp, and Kb satisfy the following conditions when the weight coefficients of the I picture or slice, the P picture or slice, and the B picture or slice are Ki, Kp, and Kb, respectively. Image processing device.
Ki ≧ Kp ≧ Kb
And Ki = Kp = Kb is not included
前記フィルタ処理部は、画像圧縮時の圧縮率に応じて前記重み係数Ki、Kp、Kbを異ならせるものであって、前記圧縮率が高い場合は、各重み係数の比率が1から離れる値とし、前記圧縮率が低い場合は、各重み係数の比率が1に近くなる値となるよう設定ことを特徴とする請求項4又は5記載の画像処理装置。   The filter processing unit varies the weighting factors Ki, Kp, and Kb according to the compression rate at the time of image compression, and when the compression rate is high, the ratio of each weighting factor is a value that deviates from 1. 6. The image processing apparatus according to claim 4, wherein when the compression rate is low, the ratio of each weight coefficient is set to a value close to 1. 前記フィルタ処理部は、前記選択フレーム画像を動き適応又は動き補償の重み付き平均化処理することにより前記一のフレーム画像を生成することを特徴とする請求項1〜請求項6のいずれか1項記載の画像処理装置。   The said filter process part produces | generates said one frame image by carrying out the weighting averaging process of the said selection frame image for motion adaptation or motion compensation, The any one of Claims 1-6 characterized by the above-mentioned. The image processing apparatus described. 前記フィルタ処理部は、前記デブロッキング・フィルタ処理で使用するFIRフィルタのタップ数に基づき、前記選択フレーム毎に予め定められた異なる重み係数を使用することを特徴とする請求項3記載の画像処理装置。   4. The image processing according to claim 3, wherein the filter processing unit uses a different weighting factor predetermined for each of the selected frames based on the number of taps of the FIR filter used in the deblocking filter processing. apparatus. 前記フィルタ処理部は、前記デブロッキング・フィルタ処理で使用するFIRフィルタ処理前後の画素値の差分の絶対値の大きさに基づき、前記選択フレーム毎に予め定められた重み係数を使用することを特徴とする請求項3記載の画像処理装置。   The filter processing unit uses a weighting factor determined in advance for each selected frame based on a magnitude of an absolute value of a difference between pixel values before and after the FIR filter process used in the deblocking filter process. The image processing apparatus according to claim 3. 前記フィルタ処理部は、デブロッキング・フィルタ処理を行なわない、ブロック境界以外の画素については、マクロブロックの量子化ステップに基づき、前記選択フレーム毎に予め定められた重み係数を使用し、前記デブロッキング・フィルタ処理を実施する画素については量子化ステップ及び当該デブロッキング・フィルタ処理で使用するFIRフィルタ処理前後の画素値の差分の絶対値の大きさから選択される1以上に応じて異なる重み係数を使用することを特徴とする請求項3、8、及び9のいずれか1項記載の画像処理装置。   The filter processing unit does not perform deblocking filter processing, and for pixels other than the block boundary, based on a macroblock quantization step, uses a weighting factor predetermined for each selected frame, and performs the deblocking -For a pixel to be subjected to filter processing, a weighting factor that differs depending on one or more selected from the magnitude of the absolute value of the difference between the pixel values before and after the quantization step and the FIR filter processing used in the deblocking filter processing The image processing apparatus according to claim 3, wherein the image processing apparatus is used. 圧縮処理された圧縮データを復号する復号工程と、
外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択工程と、
前記フレーム選択工程にて選択された選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理工程とを有し、
前記フィルタ処理工程では、前記選択フレーム画像が、Iピクチャ若しくはスライス、Pピクチャ若しくはスライス又はBピクチャ若しくはスライスのいずれであるかを示すピクチャタイプ若しくはスライスタイプに応じて異なる重み係数を使用したフィルタ処理を実施することを特徴とする画像処理方法。
A decoding step of decoding the compressed data that has been compressed;
A frame selection step of selecting two or more frame images as selection frame images from a frame image sequence output from the decoding unit based on an instruction from the outside or automatically;
A filter processing step of generating one frame image by filtering the selected frame image selected in the frame selection step,
In the filtering process step, a filtering process using different weighting factors depending on a picture type or a slice type indicating whether the selected frame image is an I picture or a slice, a P picture or a slice, or a B picture or a slice. An image processing method characterized by being implemented.
圧縮処理された圧縮データを復号する復号処理と、
外部からの指示に基づき、又は自動的に、前記復号部から出力されるフレーム画像列から、2以上のフレーム画像を選択フレーム画像として選択するフレーム選択処理と、
前記フレーム選択処理にて選択された選択フレーム画像をフィルタ処理することにより一のフレーム画像を生成するフィルタ処理とを実行させ、
前記フィルタ処理では、前記選択フレーム画像が、Iピクチャ若しくはスライス、Pピクチャ若しくはスライス又はBピクチャ若しくはスライスのいずれであるかを示すピクチャタイプ又はスライスタイプに応じて異なる重み係数を使用したフィルタ処理を実行させることを特徴とするプログラム。
A decoding process for decoding the compressed compressed data;
A frame selection process for selecting two or more frame images as selection frame images from a frame image sequence output from the decoding unit based on an instruction from the outside or automatically;
Filtering the selected frame image selected in the frame selection process to generate a single frame image, and
In the filtering process, a filtering process using a weighting factor that differs depending on a picture type or a slice type indicating whether the selected frame image is an I picture or a slice, a P picture or a slice, or a B picture or a slice is executed. A program characterized by letting
JP2011040512A 2011-02-25 2011-02-25 Image processing system, image processing method, and program Pending JP2012178713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011040512A JP2012178713A (en) 2011-02-25 2011-02-25 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011040512A JP2012178713A (en) 2011-02-25 2011-02-25 Image processing system, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2012178713A true JP2012178713A (en) 2012-09-13

Family

ID=46980275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040512A Pending JP2012178713A (en) 2011-02-25 2011-02-25 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2012178713A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07236140A (en) * 1994-02-22 1995-09-05 Kokusai Denshin Denwa Co Ltd <Kdd> Noise reduction device for video decoding
JP2002238049A (en) * 2000-11-27 2002-08-23 Sony Internatl Europ Gmbh Method for coding artifact reduction
JP2007129369A (en) * 2005-11-01 2007-05-24 Matsushita Electric Ind Co Ltd Image reproducing apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07236140A (en) * 1994-02-22 1995-09-05 Kokusai Denshin Denwa Co Ltd <Kdd> Noise reduction device for video decoding
JP2002238049A (en) * 2000-11-27 2002-08-23 Sony Internatl Europ Gmbh Method for coding artifact reduction
JP2007129369A (en) * 2005-11-01 2007-05-24 Matsushita Electric Ind Co Ltd Image reproducing apparatus and method

Similar Documents

Publication Publication Date Title
WO2010095207A1 (en) Video image pickup device
WO2017094298A1 (en) Image processing apparatus, image processing method, and program
JP5156704B2 (en) Image coding apparatus, image coding method, integrated circuit, and camera
WO2009139123A1 (en) Image processor and imaging device using the same
WO2017060951A1 (en) Image compression apparatus, image decoding apparatus, and image processing method
JP2010035133A (en) Moving image encoding apparatus and moving image encoding method
US9438925B2 (en) Video encoder with block merging and methods for use therewith
JP4794987B2 (en) Video signal processing device
US9654775B2 (en) Video encoder with weighted prediction and methods for use therewith
WO2013073328A1 (en) Image processing apparatus and image processing method
US20150208082A1 (en) Video encoder with reference picture prediction and methods for use therewith
WO2016171006A1 (en) Encoding device and encoding method, and decoding device and decoding method
JP6070424B2 (en) Imaging apparatus, imaging method, and imaging program
JP2009218965A (en) Image processor, imaging device mounted with the same and image reproduction device
JP5165084B2 (en) Image encoding device
JP2011015092A (en) Imaging device
US8953055B2 (en) Image pickup apparatus
JP6313614B2 (en) Video encoding apparatus and control method thereof
JP2012178713A (en) Image processing system, image processing method, and program
JP2004180345A (en) Photographed image recording apparatus
JPH09261530A (en) Video recorder
JP4700992B2 (en) Image processing device
JP2014131136A (en) Video compression apparatus, video decoder and program
JPWO2012060030A1 (en) Moving picture coding method and moving picture coding apparatus
JP2009278473A (en) Image processing device, imaging apparatus mounting the same, and image reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141209