JP2007251611A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2007251611A JP2007251611A JP2006072423A JP2006072423A JP2007251611A JP 2007251611 A JP2007251611 A JP 2007251611A JP 2006072423 A JP2006072423 A JP 2006072423A JP 2006072423 A JP2006072423 A JP 2006072423A JP 2007251611 A JP2007251611 A JP 2007251611A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- image signal
- flicker
- signal
- correction value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置に関し、特に、動画撮影中に静止画を同時撮影することができる撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital still camera or a digital video camera, and more particularly to an imaging apparatus capable of simultaneously capturing still images during moving image shooting.
商用交流電源によって直接点灯される蛍光灯の照明下で、XYアドレス型の撮像素子を備えた撮像装置を用いて動画撮影を行った場合、いわゆる蛍光灯フリッカが生じうる。これを排除するために、動画撮影が可能な撮像装置は、通常、電源起動時などに照明の輝度変化の周期を測定することによって動画撮影時の露光時間を決定する。 When moving image shooting is performed using an image pickup apparatus including an XY address type image pickup device under illumination of a fluorescent lamp that is directly turned on by a commercial AC power supply, so-called fluorescent lamp flicker may occur. In order to eliminate this, an imaging apparatus capable of shooting a moving image normally determines an exposure time during moving image shooting by measuring the period of change in luminance of the illumination when the power is turned on.
例えば、商用交流電源の周波数が50Hz(ヘルツ)の場合において、非インバータ式の蛍光灯の照明下で動画撮影を行う場合を考える。この場合、照明の輝度変化の周期は1/100秒となる。そして、NTSC(National Television Standards Committee)方式に従い、動画の1フレーム期間が1/60秒である場合を考える(垂直同期周波数が60Hz)。 For example, when the frequency of a commercial AC power supply is 50 Hz (Hertz), consider a case where moving image shooting is performed under illumination of a non-inverter fluorescent lamp. In this case, the period of the luminance change of illumination is 1/100 second. Then, consider a case where one frame period of a moving image is 1/60 second in accordance with the NTSC (National Television Standards Committee) method (vertical synchronization frequency is 60 Hz).
仮に、図12に示す如く、各画素の露光時間を1/100秒未満とすると、同一の水平ライン上の画素に対する露光量がフレーム間で変動すると共に、同一のフレームにおいても異なる水平ライン間で露光量が相違する。この結果、図12の最下段に示すような、帯状のフリッカ(ラインフリッカ)を含んだ画像が得られてしまう。 As shown in FIG. 12, if the exposure time of each pixel is less than 1/100 second, the exposure amount for the pixels on the same horizontal line varies between frames, and even between different horizontal lines in the same frame. The exposure amount is different. As a result, an image including band-like flicker (line flicker) as shown in the lowermost stage of FIG. 12 is obtained.
そこで、各画素の露光時間は、照明の輝度変化の周期の整数倍、例えば、図13に示す如く1/100秒とされる。XYアドレス型の撮像素子では、水平ラインごとに露光タイミングが異なるが、各画素の露光時間を、例えば1/100秒とすることにより、露光タイミングに拘らず露光量が一定となるため、蛍光灯フリッカが生じない。 Therefore, the exposure time of each pixel is set to an integral multiple of the period of the luminance change of illumination, for example, 1/100 second as shown in FIG. In the XY address type image pickup device, the exposure timing differs for each horizontal line, but by setting the exposure time of each pixel to 1/100 seconds, for example, the exposure amount becomes constant regardless of the exposure timing. Flicker does not occur.
尚、同一の水平ラインにおいても、各画素の露光タイミングは順次ずれるが、蛍光灯の輝度変化の周期と比べてそのタイミング差は十分に短いため、同一の水平ライン上の隣接する画素の露光タイミングは同じとみなすことができる。 Even in the same horizontal line, the exposure timing of each pixel is sequentially shifted, but since the timing difference is sufficiently short compared to the period of the luminance change of the fluorescent lamp, the exposure timing of adjacent pixels on the same horizontal line. Can be considered the same.
動画撮影では、動いているものの動きを滑らかに表現するために、比較的長い露光時間(例えば1/100秒)が設定される。そのような比較的長い露光時間によって撮影された画像の例として、図14の画像60を示す。露光時間を長くすると、露光時間が被写体の動きに対して長くなって被写体ぶれ(動体ぶれ)が大きくなり、動きを滑らかに表現することができる。この際、照明の輝度変化の周期に応じて露光時間を適切に設定することにより、動画撮影によって得られる画像から蛍光灯フリッカを排除することができる。 In moving image shooting, a relatively long exposure time (for example, 1/100 second) is set in order to smoothly express the movement of a moving object. As an example of an image taken with such a relatively long exposure time, an image 60 in FIG. 14 is shown. If the exposure time is lengthened, the exposure time becomes longer with respect to the movement of the subject and the subject blur (moving subject blur) becomes larger, so that the motion can be expressed smoothly. At this time, the fluorescent lamp flicker can be eliminated from the image obtained by moving image shooting by appropriately setting the exposure time according to the cycle of the luminance change of the illumination.
ところで、デジタルビデオカメラ等には、動画だけでなく静止画も撮影する機能が搭載されることが多い。静止画を撮影する際には、露光時間を比較的短く設定することにより(例えば、1/250秒)、動く被写体の一瞬の状態を表す鮮明な画像を取得する。そのような比較的短い露光時間によって撮影された画像の例として、図14の画像61を示す。 By the way, digital video cameras and the like are often equipped with a function of taking not only moving images but also still images. When shooting a still image, by setting the exposure time to be relatively short (for example, 1/250 seconds), a clear image representing the instantaneous state of the moving subject is acquired. As an example of an image taken with such a relatively short exposure time, an image 61 in FIG. 14 is shown.
動画と静止画を時間的に完全に分離して撮影する場合には問題は生じないが、近年、デジタルビデオカメラ等では、動画撮影中に、ユーザの操作に応じて静止画を同時撮影する機能が求められている。 There is no problem when shooting moving images and still images completely separated in time, but in recent years, digital video cameras, etc. have a function to simultaneously record still images according to user operations during moving image shooting. Is required.
動画撮影中に、動画撮影を止めることなく静止画を撮影する際(同時撮影する際)、鮮明な静止画を得るべく、動画撮影用に設定された比較的長い露光時間は、例えば、一時的に静止画撮影用の比較的短い露光時間に変更される。この場合、動画撮影用の露光時間(例えば1/100秒)よりも短い露光時間で撮影されたフレームの画像には、図15に示す如く、フリッカが表れてしまう。 When shooting a still image without stopping the movie shooting (when shooting simultaneously) during movie shooting, the relatively long exposure time set for movie shooting is, for example, temporarily to obtain a clear still image. The exposure time is changed to a relatively short exposure time for still image shooting. In this case, flicker appears in an image of a frame shot with an exposure time shorter than the exposure time for moving image shooting (for example, 1/100 second), as shown in FIG.
従来技術として、フリッカの発生周期を検出し、検出した発生周期に基づいてフリッカを補正するというものがある。しかしながら、このような手法を用いる場合、補正の効果を得るために数フレーム分の画像を取得する必要があり、全てのフレームのフリッカを補正するためには、それらの画像(画像信号)を全てフレームメモリ等に貯めておく必要がある。このため、回路規模が増大してしまうという問題を抱えていた。 As a conventional technique, there is a technique of detecting a flicker generation period and correcting the flicker based on the detected generation period. However, when such a method is used, it is necessary to acquire several frames of images in order to obtain a correction effect, and in order to correct flicker of all the frames, all of those images (image signals) must be acquired. It must be stored in a frame memory or the like. For this reason, there was a problem that the circuit scale would increase.
上述の如く、動画撮影中に静止画の撮影を行う場合、フリッカが生じうる。このフリッカの補正を、小規模な回路構成にて実現する手法が切望されている。 As described above, flicker may occur when a still image is shot during moving image shooting. A method for realizing the flicker correction with a small circuit configuration is desired.
そこで本発明は、動画撮影中の静止画撮影において生じうるフリッカを、小規模な回路構成にて補正することができる撮像装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide an imaging apparatus capable of correcting flicker that may occur in still image shooting during moving image shooting with a small circuit configuration.
上記目的を達成するために本発明に係る撮像装置は、異なる水平ライン間で露光タイミングを異ならせつつ、撮影を行うための撮像素子と、前記撮像素子を用いた撮影によって得られる画像信号を処理する信号処理部と、を備え、動画と静止画を撮影可能な撮像装置において、動画撮影中に静止画を撮影する際、1又は2以上のフレームから成る静止画撮影用フレームの間、動画撮影用の露光時間と異なる露光時間を採用して撮影を行い、
前記信号処理部は、その静止画の撮影前における前記動画撮影用の露光時間を採用した撮影によって得られる画像信号である基準画像信号と、前記静止画撮影用フレームの撮影によって得られる画像信号である補正対象画像信号と、の比較に基づいて、前記動画撮影用の露光時間と異なる前記露光時間を採用したことに起因して前記補正対象画像信号に含まれることになったフリッカ成分に応じたフリッカ補正値を算出するフリッカ補正値算出手段と、前記フリッカ補正値を用いて、前記フリッカ成分を低減する方向に前記補正対象画像信号を補正するフリッカ補正手段と、を備える。
ことを特徴とする
In order to achieve the above object, an image pickup apparatus according to the present invention processes an image pickup element for taking an image and an image signal obtained by taking an image using the image pickup element while varying exposure timing between different horizontal lines. A signal processing unit for capturing a moving image and a still image. When capturing a still image during moving image shooting, a moving image is captured between one or more frames for capturing a still image. Taking an exposure time different from the exposure time for
The signal processing unit includes a reference image signal which is an image signal obtained by photographing using the exposure time for moving image photographing before photographing the still image, and an image signal obtained by photographing the still image photographing frame. Based on a comparison with a certain correction target image signal, according to the flicker component that is included in the correction target image signal due to the adoption of the exposure time different from the exposure time for moving image shooting Flicker correction value calculating means for calculating a flicker correction value, and flicker correction means for correcting the correction target image signal in the direction of reducing the flicker component using the flicker correction value.
It is characterized by
基準画像信号と補正対象画像信号とを比較すれば、補正対象画像信号に含まれているフリッカ成分を検出することができ、そのフリッカ成分に応じて補正対象画像信号を補正することにより、フリッカ成分を低減することが可能である。フリッカの発生周期を検出するといった回路規模の増大を招く手法を用いるのではなく、基準画像信号と補正対象画像信号とを比較するという処理を介してフリッカを低減させるため、フリッカ補正のための回路の小規模化が期待できる。 By comparing the reference image signal and the correction target image signal, the flicker component included in the correction target image signal can be detected, and by correcting the correction target image signal according to the flicker component, the flicker component can be detected. Can be reduced. A circuit for correcting flicker is used in order to reduce flicker through a process of comparing a reference image signal and a correction target image signal, instead of using a technique that increases the circuit scale such as detecting a flicker occurrence period. Can be expected to be smaller.
具体的には例えば、前記静止画撮影用フレームが、第1、第2、・・・、及び第nフレーム(nは2以上の整数)から成り、前記補正対象画像信号が、第1、第2、・・・、及び第nフレームに対応する第1、第2、・・・、及び第n補正対象画像信号から成る場合、前記フリッカ補正値算出手段は、前記基準画像信号と前記第1補正対象画像信号との比較から前記フリッカ補正値として第1フリッカ補正値を算出し、前記フリッカ補正手段は、前記第1フリッカ補正値を用いて前記第1補正対象画像信号を補正し、前記フリッカ補正値算出手段は、補正後の前記第1補正対象画像信号と前記第2補正対象画像信号との比較から前記フリッカ補正値として第2フリッカ補正値を算出し、前記フリッカ補正手段は、前記第2フリッカ補正値を用いて前記第2補正対象画像信号を補正し、・・・、前記フリッカ補正値算出手段は、補正後の前記第(n−1)補正対象画像信号と前記第n補正対象画像信号との比較から前記フリッカ補正値として第nフリッカ補正値を算出し、前記フリッカ補正手段は、前記第nフリッカ補正値を用いて前記第n補正対象画像信号を補正する。 Specifically, for example, the still image shooting frame includes first, second,..., And nth frames (n is an integer equal to or greater than 2), and the correction target image signal includes first, second, and second frames. .., And the nth correction target image signal corresponding to the nth frame, the flicker correction value calculating means includes the reference image signal and the first image signal. A first flicker correction value is calculated as the flicker correction value from the comparison with the correction target image signal, and the flicker correction means corrects the first correction target image signal using the first flicker correction value, and the flicker. The correction value calculation means calculates a second flicker correction value as the flicker correction value from the comparison between the corrected first image signal and the second correction target image signal, and the flicker correction means 2 Use flicker correction value The flicker correction value calculation means is configured to compare the corrected (n-1) th correction target image signal with the nth correction target image signal. An nth flicker correction value is calculated as the flicker correction value, and the flicker correction means corrects the nth correction target image signal using the nth flicker correction value.
まず、「含まれるフリッカ成分が十分に少ない、動画撮影用の露光時間を用いた基準画像信号」と「フリッカ成分を含む第1補正対象画像信号」との比較から、第1補正対象信号を補正する。そして、次は、「フリッカ成分が低減された補正後の第1補正対象画像信号」と「フリッカ成分を含む第2補正対象画像信号」との比較から、第2補正対象信号を補正する。このように、補正の基準となる画像信号を順次変更していくことにより、フリッカ補正用のメモリ領域を非常に小さく抑えることが可能となる。 First, the first correction target signal is corrected based on a comparison between “a reference image signal using an exposure time for moving image shooting with sufficiently small flicker components included” and “first correction target image signal including flicker components”. To do. Next, the second correction target signal is corrected based on a comparison between the “first corrected target image signal after the flicker component is reduced” and the “second corrected target image signal including the flicker component”. In this way, by sequentially changing the image signal serving as a correction reference, it is possible to keep the memory area for flicker correction very small.
更に具体的には例えば、前記撮像素子の撮像領域に複数の検出領域を設け、各検出領域は互いに異なる水平ライン上の画素を含み、前記第1フリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の第1要素補正値から成り、前記第2フリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の第2要素補正値から成り、・・・、前記第nフリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の第n要素補正値から成り、前記フリッカ補正値算出手段は、前記基準画像信号中の各検出領域に対応する信号と前記第1補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記第1補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各第1要素補正値を算出し、補正後の前記第1補正対象画像信号中の各検出領域に対応する信号と前記第2補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記第2補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各第2要素補正値を算出し、・・・、補正後の前記第(n−1)補正対象画像信号中の各検出領域に対応する信号と前記第n補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記第n補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各第n要素補正値を算出する。 More specifically, for example, a plurality of detection areas are provided in the imaging area of the imaging device, each detection area includes pixels on different horizontal lines, and each of the first flicker correction values is 1 or 2 or more The second flicker correction value is composed of a plurality of second element correction values each corresponding to one or more horizontal lines,..., The nth flicker correction value is composed of a plurality of nth element correction values each corresponding to one or more horizontal lines, and the flicker correction value calculation means is a signal corresponding to each detection area in the reference image signal. And a signal corresponding to each detection region in the first correction target image signal, by detecting the flicker component included in the first correction target image signal for each detection region, each first element correction The value From the comparison between the signal corresponding to each detection region in the first correction target image signal after being output and corrected and the signal corresponding to each detection region in the second correction target image signal, the second signal is detected for each detection region. By detecting the flicker component included in the correction target image signal, each second element correction value is calculated,... In each detection region in the corrected (n-1) correction target image signal. By comparing the corresponding signal and the signal corresponding to each detection area in the n-th correction target image signal, the flicker component included in the n-th correction target image signal is detected for each detection area, thereby An n element correction value is calculated.
また具体的には例えば、前記第1、第2、・・・、及び第nフリッカ補正値を算出するために必要な情報を記録する記録手段を備え、前記記録手段には、前記第1フリッカ補正値を算出するための情報、前記第2フリッカ補正値を算出するための情報、・・・、及び、第nフリッカ補正値を算出するための情報が、順次更新されつつ記録される。 More specifically, for example, a recording unit that records information necessary for calculating the first, second,..., And nth flicker correction values is provided, and the recording unit includes the first flicker. Information for calculating the correction value, information for calculating the second flicker correction value,..., And information for calculating the nth flicker correction value are recorded while being sequentially updated.
また具体的には例えば、前記第1、第2、・・・、及び第nフリッカ補正値を算出するために必要な情報を記録する記録手段を備え、前記フリッカ補正値算出手段は、前記基準画像信号から算出される比較対象値と前記第1補正対象画像信号から算出される比較対象値との比較から第1フリッカ補正値を算出し、補正後の前記第1補正対象画像信号から算出される比較対象値と前記第2補正対象画像信号から算出される比較対象値との比較から第2フリッカ補正値を算出し、・・・、補正後の前記第(n−1)補正対象画像信号から算出される比較対象値と前記第n補正対象画像信号から算出される比較対象値との比較から前記第nフリッカ補正値を算出し、前記記録手段には、前記基準画像信号から算出される比較対象値、補正後の前記第1補正対象画像信号から算出される比較対象値、・・・、及び、補正後の前記第(n−1)補正対象画像信号から算出される比較対象値が、前記情報として順次更新されつつ記録される。 More specifically, for example, it comprises recording means for recording information necessary for calculating the first, second,..., And nth flicker correction values, and the flicker correction value calculating means includes the reference A first flicker correction value is calculated from a comparison between the comparison target value calculated from the image signal and the comparison target value calculated from the first correction target image signal, and is calculated from the corrected first correction target image signal. The second flicker correction value is calculated from the comparison between the comparison target value and the comparison target value calculated from the second correction target image signal, and the corrected (n-1) th correction target image signal. The n th flicker correction value is calculated from a comparison between the comparison target value calculated from the above and the comparison target value calculated from the n th correction target image signal, and the recording means calculates from the reference image signal. Comparison target value, corrected first The comparison target value calculated from the correction target image signal, and the comparison target value calculated from the corrected (n-1) th correction target image signal are recorded while being sequentially updated as the information. The
これにより、フリッカ補正のために必要なメモリ領域を大幅に小さくすることが可能となる。尚、後述する実施形態では、AVE_PRE[m:n]が比較対象値に対応している。 As a result, the memory area required for flicker correction can be greatly reduced. In the embodiment described later, AVE_PRE [m: n] corresponds to the comparison target value.
また例えば、前記静止画撮影用フレームが、第1、第2、・・・、及び第nフレーム(nは2以上の整数)から成り、前記補正対象画像信号が、第1、第2、・・・、及び第nフレームに対応する第1、第2、・・・、及び第n補正対象画像信号から成る場合、前記フリッカ補正値算出手段は、前記基準画像信号と前記第1、第2、・・・、及び第n補正対象画像信号との比較から、夫々、前記フリッカ補正値として第1、第2、・・・、及び第nフリッカ補正値を算出し、前記フリッカ補正手段は、第1、第2、・・・、及び第nフリッカ補正値を用いて、夫々、前記第1、第2、・・・、及び第n補正対象画像信号を補正する。 Further, for example, the still image shooting frame includes first, second,..., And nth frames (n is an integer of 2 or more), and the correction target image signal is the first, second,. When the image signal includes first, second,..., And nth correction target image signals corresponding to the nth frame, the flicker correction value calculation means is configured to output the reference image signal and the first and second image signals. ,..., And the nth correction target image signal, the first, second,..., And nth flicker correction values are calculated as the flicker correction values, respectively. The first, second,..., And nth flicker correction values are corrected using the first, second,..., And nth flicker correction values, respectively.
また例えば、前記静止画撮影用フレームが1つのフレームから成る場合、前記フリッカ補正値算出手段は、前記基準画像信号と前記補正対象画像信号との比較から前記フリッカ補正値を算出する。 Further, for example, when the still image shooting frame is composed of one frame, the flicker correction value calculation means calculates the flicker correction value from a comparison between the reference image signal and the correction target image signal.
そして例えば、前記撮像素子の撮像領域に複数の検出領域を設け、各検出領域は互いに異なる水平ライン上の画素を含み、前記フリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の要素補正値から成り、前記フリッカ補正値算出手段は、前記基準画像信号中の各検出領域に対応する信号と前記補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各要素補正値を算出する。 For example, a plurality of detection areas are provided in the image pickup area of the image pickup element, each detection area includes pixels on different horizontal lines, and the flicker correction value is a plurality corresponding to one or more horizontal lines. The flicker correction value calculation means comprises a detection region based on a comparison between a signal corresponding to each detection region in the reference image signal and a signal corresponding to each detection region in the correction target image signal. Each element correction value is calculated by detecting the flicker component included in the correction target image signal every time.
また具体的には例えば、前記撮像素子は、XYアドレス走査型の撮像素子である。 More specifically, for example, the image sensor is an XY address scanning type image sensor.
上述した通り、本発明によれば、動画撮影中の静止画撮影において生じうるフリッカを、小規模な回路構成にて補正することが可能となる。例えば、フリッカ補正用のフレームメモリ使用量を削減することが可能となる、或いは、フレームメモリを用いることなくフリッカ補正をすることも可能となる。 As described above, according to the present invention, flicker that may occur in still image shooting during moving image shooting can be corrected with a small circuit configuration. For example, it is possible to reduce the amount of frame memory used for flicker correction, or it is possible to perform flicker correction without using a frame memory.
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一のものには同一の符号を付す。図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラなどである。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In the drawings to be referred to, the same components are denoted by the same reference numerals. FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is, for example, a digital still camera or a digital video camera.
撮像装置1は、光学系11と、絞り12と、撮像素子13と、前処理部14と、ドライバ17と、タイミングジェネレータ18と、主制御部19と、信号処理部20と、フレームメモリバッファ40と、外部記録媒体41と、操作部42と、を有して構成される。撮像装置1は、動画と静止画の双方を同時に撮影可能な撮像装置である。 The imaging apparatus 1 includes an optical system 11, an aperture 12, an imaging device 13, a preprocessing unit 14, a driver 17, a timing generator 18, a main control unit 19, a signal processing unit 20, and a frame memory buffer 40. And an external recording medium 41 and an operation unit 42. The imaging device 1 is an imaging device that can simultaneously capture both moving images and still images.
光学系11は、例えば複数枚のレンズから構成され、撮像対象からの入射光は該レンズ及び絞り12を介して撮像素子13に入射する。ドライバ17は、主制御部19からの制御信号に基づいて光学系11を制御し、光学系11のズーム倍率や焦点距離を制御する。また、ドライバ17は、主制御部19からの制御信号に基づいて絞り12の開口量(開口部の大きさ)を制御する。光学系11に入射する光学像が同じである場合、絞り12の開口量が大きくなるに従って、撮像素子13への単位時間当たりの入射光量は増大する。 The optical system 11 is composed of, for example, a plurality of lenses, and incident light from an imaging target is incident on the image sensor 13 via the lens and the diaphragm 12. The driver 17 controls the optical system 11 based on a control signal from the main control unit 19 and controls the zoom magnification and focal length of the optical system 11. The driver 17 controls the opening amount (size of the opening) of the diaphragm 12 based on a control signal from the main control unit 19. When the optical images incident on the optical system 11 are the same, the amount of incident light per unit time on the image sensor 13 increases as the aperture of the diaphragm 12 increases.
撮像素子13は、XYアドレス走査型の撮像素子であり、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。CMOSを形成可能な半導体基板上に、マトリクス状に二次元配列された複数の画素と、垂直走査回路、水平走査回路及び映像信号出力回路と、を形成することによって、撮像素子13の例としてのCMOSイメージセンサが形成される。各画素は、フォトダイオード、転送ゲート、選択ゲート、増幅トランジスタ及びリセットゲートなどを有する。 The imaging device 13 is an XY address scanning type imaging device, and is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor. By forming a plurality of pixels arranged in a two-dimensional matrix, a vertical scanning circuit, a horizontal scanning circuit, and a video signal output circuit on a semiconductor substrate capable of forming a CMOS, an example of the image sensor 13 is provided. A CMOS image sensor is formed. Each pixel includes a photodiode, a transfer gate, a selection gate, an amplification transistor, a reset gate, and the like.
撮像素子13は、光学系11及び絞り12を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号を前処理部14に出力する。より具体的には、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。各画素は、蓄えた信号電荷の電荷量に比例した大きさを有する電気信号を後段の前処理部14に順次出力する。光学系11に入射する光学像が同じであり且つ絞り12の開口量が同じである場合、撮像素子13(各画素)からの電気信号の大きさ(強度)は上記露光時間に比例して増大する。 The image sensor 13 photoelectrically converts an optical image incident through the optical system 11 and the diaphragm 12 and outputs an electrical signal obtained by the photoelectric conversion to the preprocessing unit 14. More specifically, in each shooting, each pixel stores a signal charge having a charge amount corresponding to the exposure time. Each pixel sequentially outputs an electrical signal having a magnitude proportional to the amount of stored signal charge to the pre-processing unit 14 at the subsequent stage. When the optical images incident on the optical system 11 are the same and the aperture amount of the diaphragm 12 is the same, the magnitude (intensity) of the electrical signal from the image sensor 13 (each pixel) increases in proportion to the exposure time. To do.
撮像素子13は、カラー撮影の可能な、単板式の撮像素子となっている。撮像素子13を構成する各画素には、例えば、赤(R)、緑(G)及び青(B)の何れかのカラーフィルタ(不図示)が設けられている。尚、撮像素子13として、3板式の撮像素子を採用することも可能である。 The image sensor 13 is a single-plate image sensor capable of color photography. Each pixel constituting the image sensor 13 is provided with, for example, one of red (R), green (G), and blue (B) color filters (not shown). Note that a three-plate image sensor can be adopted as the image sensor 13.
撮像素子13には、電子シャッタ機能が備えられており、上記露光時間は、タイミングジェネレータ18からの電子シャッタ制御信号によって制御される。主制御部19は、タイミングジェネレータ18の動作を制御するものであるため、主制御部19とタイミングジェネレータ18は、上記露光時間を制御する露光時間制御部として機能する。上記露光時間によって、電子シャッタ制御におけるシャッタスピードが特定される。同一のフレームにおいて、撮像素子13を構成する各画素に対する露光時間(露光時間の長さ)は同じである。 The image sensor 13 has an electronic shutter function, and the exposure time is controlled by an electronic shutter control signal from the timing generator 18. Since the main control unit 19 controls the operation of the timing generator 18, the main control unit 19 and the timing generator 18 function as an exposure time control unit that controls the exposure time. The shutter speed in the electronic shutter control is specified by the exposure time. In the same frame, the exposure time (length of exposure time) for each pixel constituting the image sensor 13 is the same.
前処理部14は、増幅回路15とA/D変換器(アナログ−デジタル変換器)16等から構成される。増幅回路15は、撮像素子13の出力信号であるアナログ信号を指定された増幅度で増幅して出力する。A/D変換器16は、タイミングジェネレータ18からの信号に従って増幅回路15の出力信号をデジタル信号に変換する。前処理部14は、このデジタル信号に必要に応じて更に適切な処理を施し、撮影した画像を表す画像信号を出力する。前処理部14が出力する画像信号は信号処理部20に与えられる。 The preprocessing unit 14 includes an amplifier circuit 15 and an A / D converter (analog-digital converter) 16. The amplifier circuit 15 amplifies an analog signal, which is an output signal of the image sensor 13, with a specified amplification level and outputs the amplified signal. The A / D converter 16 converts the output signal of the amplifier circuit 15 into a digital signal according to the signal from the timing generator 18. The preprocessing unit 14 performs further appropriate processing on the digital signal as necessary, and outputs an image signal representing the captured image. The image signal output from the preprocessing unit 14 is given to the signal processing unit 20.
タイミングジェネレータ18は、撮影のタイミングに従って、撮像素子13及び前処理部14の各動作のタイミングを制御する。具体的には、例えば、撮像素子13からの出力信号を読み出すタイミング(撮像素子13からの出力信号を前処理部14に与えるタイミング)や、前処理部14からの信号の出力タイミングを制御する。 The timing generator 18 controls the timing of each operation of the image sensor 13 and the preprocessing unit 14 in accordance with the shooting timing. Specifically, for example, the timing for reading the output signal from the image sensor 13 (the timing for giving the output signal from the image sensor 13 to the preprocessing unit 14) and the output timing of the signal from the preprocessing unit 14 are controlled.
信号処理部20は、画素数変換部21と、動き検出部22と、動画処理部23と、動画圧縮部24と、静止画処理部25と、静止画圧縮部26と、フリッカ検出部(フリッカ補正値算出部)27と、フリッカ補正部28と、を有して構成される。前処理部14が出力する画像信号は、フリッカ検出部27及びフリッカ補正部28に与えられると共に、フリッカ補正部28を介して画素数変換部21、動き検出部22及び静止画処理部25に与えられる。以下、前処理部14が出力する画像信号(デジタルの画像データ)を、特に原画像信号と呼ぶ。 The signal processing unit 20 includes a pixel number conversion unit 21, a motion detection unit 22, a moving image processing unit 23, a moving image compression unit 24, a still image processing unit 25, a still image compression unit 26, and a flicker detection unit (flicker detection unit). A correction value calculation unit) 27 and a flicker correction unit 28. The image signal output from the preprocessing unit 14 is supplied to the flicker detection unit 27 and the flicker correction unit 28, and is also supplied to the pixel number conversion unit 21, the motion detection unit 22, and the still image processing unit 25 via the flicker correction unit 28. It is done. Hereinafter, the image signal (digital image data) output from the preprocessing unit 14 is particularly referred to as an original image signal.
フリッカ検出部27及びフリッカ補正部28は、動画撮影中に静止画を同時撮影する際に有効に機能する部位であり、フリッカ補正部28は、原画像信号を補正することによって得られる画像信号を、画素数変換部21、動き検出部22及び静止画処理部25に与える。連続して動画を撮影している最中、或いは、静止画のみを撮影する場合は、フリッカ補正部28の入出力信号は同じである。 The flicker detection unit 27 and the flicker correction unit 28 are parts that function effectively when a still image is simultaneously shot during moving image shooting, and the flicker correction unit 28 outputs an image signal obtained by correcting the original image signal. To the pixel number conversion unit 21, the motion detection unit 22, and the still image processing unit 25. The input / output signals of the flicker correction unit 28 are the same during continuous movie shooting or when shooting still images only.
画素数変換部21は、フリッカ補正部28から送られてきた画像信号に対して、切り出し処理、フィルタ処理や間引き処理等を施すことにより、画像信号の画像サイズを縮小する。この縮小によって得られた画像信号は、動画処理部23に与えられる。動画処理部23は、画素数変換部21からの画像信号に必要な映像処理を施す。この映像処理には、例えば、輝度信号及び色差信号の生成、ガンマ補正、輪郭強調処理等が含まれる。動画処理部23は、この映像処理を経て得られた画像信号を動画圧縮部24に出力する。動画圧縮部24は、動画処理部23からの画像信号にMPEG(Moving Picture Experts Group)等の所定の圧縮方式を用いた圧縮を施し、その圧縮後の画像信号を外部記録媒体41に出力する。 The pixel number conversion unit 21 reduces the image size of the image signal by subjecting the image signal sent from the flicker correction unit 28 to cutout processing, filter processing, thinning-out processing, and the like. The image signal obtained by this reduction is given to the moving image processing unit 23. The moving image processing unit 23 performs necessary video processing on the image signal from the pixel number conversion unit 21. This video processing includes, for example, generation of luminance signals and color difference signals, gamma correction, contour enhancement processing, and the like. The moving image processing unit 23 outputs the image signal obtained through this video processing to the moving image compression unit 24. The moving image compression unit 24 compresses the image signal from the moving image processing unit 23 using a predetermined compression method such as MPEG (Moving Picture Experts Group) and outputs the compressed image signal to the external recording medium 41.
静止画処理部25は、フリッカ補正部28から送られてきた画像信号に対して必要な映像処理を施す。この映像処理には、例えば、輝度信号及び色差信号の生成、ガンマ補正、輪郭強調処理等が含まれる。静止画処理部25は、この映像処理を経て得られた画像信号を静止画圧縮部26に出力する。静止画圧縮部26は、静止画処理部25からの画像信号にJPEG(Joint Photographic Experts Group)等の所定の圧縮方式を用いた圧縮を施し、その圧縮後の画像信号を外部記録媒体41に出力する。 The still image processing unit 25 performs necessary video processing on the image signal sent from the flicker correction unit 28. This video processing includes, for example, generation of luminance signals and color difference signals, gamma correction, contour enhancement processing, and the like. The still image processing unit 25 outputs an image signal obtained through this video processing to the still image compression unit 26. The still image compression unit 26 compresses the image signal from the still image processing unit 25 using a predetermined compression method such as JPEG (Joint Photographic Experts Group), and outputs the compressed image signal to the external recording medium 41. To do.
動き検出部22は、動画撮影中に次々と送られてくる画像信号に基づき、周知の代表点マッチング法等を用いて被写体の動きベクトルを検出する。動画撮影中において、画素数変換部21や動画処理部23は、動き検出部22が検出した動きベクトルを参照し、必要な処理(例えば、所謂手ぶれ補正)を行う。 The motion detection unit 22 detects a motion vector of the subject using a known representative point matching method or the like based on image signals sequentially transmitted during moving image shooting. During moving image shooting, the pixel number conversion unit 21 and the moving image processing unit 23 refer to the motion vector detected by the motion detection unit 22 and perform necessary processing (for example, so-called camera shake correction).
フレームメモリバッファ40は、DRAM(Dynamic Random Access Memory)等の半導体メモリから成り、データの読み書きが可能となっている。信号処理部20を構成する各部位は、一時的に記録しておくべきデータをフレームメモリバッファ40に書き込むとともに参照すべきデータをフレームメモリバッファ40から読み出す。外部記録媒体41は、1または複数の記録媒体から構成され、各記録媒体は、例えば、半導体メモリ、メモリカード、磁気テープ等である。 The frame memory buffer 40 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and can read and write data. Each part constituting the signal processing unit 20 writes data to be temporarily recorded in the frame memory buffer 40 and reads data to be referred to from the frame memory buffer 40. The external recording medium 41 is composed of one or a plurality of recording media, and each recording medium is, for example, a semiconductor memory, a memory card, a magnetic tape, or the like.
主制御部19は、CPU(Central Processing Unit)等から成り、撮像装置1内の各部位の動作を統括的に制御する。入力キー(不図示)等から構成された操作部42をユーザが操作することにより、その操作内容を表す信号が主制御部19に伝達される。その信号に応じて主制御部19がドライバ17、タイミングジェネレータ18及び信号処理部20等を制御することにより、静止画の撮影及び記録や動画の撮影及び記録が行われる。 The main control unit 19 includes a CPU (Central Processing Unit) and the like, and comprehensively controls the operation of each part in the imaging apparatus 1. When the user operates the operation unit 42 composed of input keys (not shown) or the like, a signal representing the operation content is transmitted to the main control unit 19. The main control unit 19 controls the driver 17, the timing generator 18, the signal processing unit 20, and the like in accordance with the signal, so that still image shooting and recording and moving image shooting and recording are performed.
操作部42への操作に応じて動画撮影を行う場合、主制御部19は、ドライバ17及びタイミングジェネレータ18を制御して撮像素子13の露光設定(撮像装置1の露光設定)を動画撮影用のそれにする。動画撮影用の露光設定は、動画の撮影に適した露光設定となっている。動画撮影中、所定のフレームレートで(即ち、所定の間隔をおいて)次々と原画像信号が前処理部14から出力される。撮影した動画を表すこれらの原画像信号は、画素数変換部21、動画処理部23及び動画圧縮部24の所定の処理を経つつ、次々と外部記録媒体41に送られ、外部記録媒体41に記録される。これにより、動画の撮影及び撮影した動画の記録が行われる。 When performing moving image shooting in response to an operation on the operation unit 42, the main control unit 19 controls the driver 17 and the timing generator 18 to set the exposure setting of the image sensor 13 (exposure setting of the imaging device 1) for moving image shooting. Make it. The exposure setting for moving image shooting is an exposure setting suitable for moving image shooting. During moving image shooting, original image signals are output from the preprocessing unit 14 one after another at a predetermined frame rate (that is, at predetermined intervals). These original image signals representing the captured moving image are sequentially sent to the external recording medium 41 through the predetermined processing of the pixel number conversion unit 21, the moving image processing unit 23, and the moving image compression unit 24, and are sent to the external recording medium 41. To be recorded. As a result, the moving image is shot and the shot moving image is recorded.
操作部42への操作に応じて静止画撮影を行う場合、主制御部19は、ドライバ17及びタイミングジェネレータ18を制御して撮像素子13の露光設定(撮像装置1の露光設定)を静止画撮影用のそれにする。静止画撮影用の露光設定は、静止画の撮影に適した露光設定となっている。静止画の撮影によって得られた原画像信号は、静止画処理部25及び静止画圧縮部26の所定の処理を経て外部記録媒体41に送られ、外部記録媒体41に記録される。これにより、静止画の撮影及び撮影した静止画の記録が行われる。 When taking a still image in response to an operation on the operation unit 42, the main control unit 19 controls the driver 17 and the timing generator 18 to set the exposure setting of the image sensor 13 (exposure setting of the imaging device 1). Make it for. The exposure setting for still image shooting is an exposure setting suitable for still image shooting. The original image signal obtained by shooting the still image is sent to the external recording medium 41 through predetermined processing of the still image processing unit 25 and the still image compression unit 26 and is recorded on the external recording medium 41. As a result, a still image is shot and a recorded still image is recorded.
上記の「露光設定」には、絞り12の開口量及び露光時間(露光時間の長さ)などの設定が含まれる。 The “exposure setting” includes settings such as the aperture amount of the diaphragm 12 and the exposure time (length of exposure time).
今、商用交流電源の周波数が50Hz(ヘルツ)の場合において、非インバータ式の蛍光灯の照明下で動画撮影を行う場合を考える。この場合、照明の輝度変化の周期は1/100秒となる。そして、NTSC(National Television Standards Committee)方式に従い、動画の1フレーム期間が1/60秒である場合を考える(垂直同期周波数が60Hz)。 Consider a case where moving image shooting is performed under illumination of a non-inverter type fluorescent lamp when the frequency of a commercial AC power supply is 50 Hz (Hertz). In this case, the period of the luminance change of illumination is 1/100 second. Then, consider a case where one frame period of a moving image is 1/60 second in accordance with the NTSC (National Television Standards Committee) method (vertical synchronization frequency is 60 Hz).
撮像素子13は、XYアドレス走査型の撮像素子であるため、異なる水平ライン間における露光タイミングは異なる。従って、図12を参照して説明したように、各画素の露光時間を1/100秒未満とすると、同一の水平ライン上の画素に対する露光量がフレーム間で変動すると共に、同一のフレームにおいても異なる水平ライン間で露光量が相違する。 Since the image sensor 13 is an XY address scanning type image sensor, the exposure timing between different horizontal lines is different. Therefore, as described with reference to FIG. 12, when the exposure time of each pixel is less than 1/100 second, the exposure amount for pixels on the same horizontal line varies between frames, and even in the same frame. The amount of exposure differs between different horizontal lines.
このため、動画撮影用の露光時間は、照明の輝度変化の周期の整数倍に設定される。これにより、動画連続撮影中の蛍光灯フリッカが排除される。尚、同一の水平ラインにおいても、各画素の露光タイミングは順次ずれるが、蛍光灯の輝度変化の周期と比べてそのタイミング差は十分に短いため、同一の水平ライン上の隣接する画素の露光タイミングは同じとみなすことができる(つまり、同一フレームの同一水平ラインにおける蛍光灯フリッカを無視する)。また、周知の技術を用いて、撮像装置1の電源起動時などに照明の輝度変化の周期が測定されており、その測定結果に基づいて動画撮影用の露光時間が事前に定められているものとする。 For this reason, the exposure time for moving image shooting is set to an integral multiple of the cycle of the luminance change of illumination. This eliminates the fluorescent flicker during continuous moving image shooting. Even in the same horizontal line, the exposure timing of each pixel is sequentially shifted, but since the timing difference is sufficiently short compared to the period of the luminance change of the fluorescent lamp, the exposure timing of adjacent pixels on the same horizontal line. Can be considered the same (ie, ignoring fluorescent flicker on the same horizontal line of the same frame). Further, the period of change in luminance of illumination is measured using a known technique when the power of the imaging apparatus 1 is turned on, and the exposure time for moving image shooting is determined in advance based on the measurement result. And
動画撮影においては、被写体の動きを滑らかに再現するために露光時間を比較的長くして撮影を行うことが望ましい。一方、静止画撮影用の露光時間は、鮮明な静止画を得るべく比較的短く設定される。露光時間が被写体の動きに対して十分に短い場合は、図14の画像61に示す如く、所謂「被写体ぶれ」(動体ぶれ)のない鮮明な画像が得られる。 In moving image shooting, it is desirable to perform shooting with a relatively long exposure time in order to smoothly reproduce the movement of the subject. On the other hand, the exposure time for still image shooting is set to be relatively short so as to obtain a clear still image. When the exposure time is sufficiently short relative to the movement of the subject, a clear image without so-called “subject blur” (moving subject blur) can be obtained as shown in an image 61 of FIG.
以下、動画撮影用の露光時間及び静止画撮影用の露光時間を、それぞれ、「TA」及び「TB」と表記し、露光時間TA及びTBが、それぞれ、1/100秒及び1/250秒であるものとする。 Hereinafter, the exposure time for the moving image photographing and the exposure time for still image shooting, respectively, indicated by "T A" and "T B", the exposure time T A and T B, respectively, 1/100 seconds and 1 / 250 seconds.
図2を参照して、動画撮影及び記録中に静止画を同時に撮影及び記録する場合の概要動作について説明する。動画撮影は、フレームFL1、FL2、FL3、FL4、FL5、FL6、・・・の順番で行われるものとする。 With reference to FIG. 2, an outline operation in the case where a still image is simultaneously shot and recorded during moving image shooting and recording will be described. Movie shooting is performed in the order of frames FL1, FL2, FL3, FL4, FL5, FL6,.
動画撮影中において、操作部42に対する静止画撮影の操作に応じてフレームFL4に相当する期間に1枚の静止画の撮影を行う場合を想定する。そして、この静止画の撮影のために、3つのフレームFL3、FL4及びFL5における露光時間をTAと異ならせる場合を想定する。その前後のフレームFL1、FL2及びFL6、・・・における露光時間はTAとされる。 Assume that during moving image shooting, one still image is shot during a period corresponding to the frame FL4 in response to a still image shooting operation on the operation unit 42. Then, assume that the exposure times in the three frames FL3, FL4, and FL5 are different from T A for photographing this still image. Before and after the frame FL1, FL2 and FL6, exposure time in ... is the T A.
静止画撮影を行う際は、露光時間を比較的短いTBとする一方で、露光時間の短縮による露光不足を補償すべく絞り12の開口量を動画撮影用のそれよりも大きくするが、絞り12の開口量の変化は機械的な動作を伴うため、或る程度の時間が必要である。このため、フレームFL3及びFL5における露光時間もTAと異なっている。 When performing still image shooting, while a relatively short T B of exposure time, the opening amount of the order diaphragm 12 to compensate for the lack of exposure by shortening the exposure time will be greater than that for the moving image, the diaphragm Since the change in the opening amount of 12 is accompanied by a mechanical operation, a certain amount of time is required. Therefore, different from the T A also exposure time in the frame FL3 and FL5.
具体的には、フレームFL1、FL2及びFL6の開口量を動画撮影用のDAとし、フレームFL4の開口量を静止画撮影用のDBとし、フレームFL3及びFL5の開口量をそれぞれDC1及びDC2とした場合、DA<DC1<DB且つDA<DC2<DBが成立する。DC1とDC2の同一性は問わない。また、フレームFL4の露光時間はTBとされる。そして、フレームFL3及びFL5の露光時間をそれぞれTC1及びTC2とした場合、TA>TC1>TB且つTA>TC2>TBが成立する。TC1とTC2の同一性は問わない。 Specifically, the opening amounts of the frames FL1, FL2, and FL6 are D A for moving image shooting, the opening amount of the frame FL4 is D B for still image shooting, and the opening amounts of the frames FL3 and FL5 are D C1 and When D C2 is satisfied, D A <D C1 <D B and D A <D C2 <D B are satisfied. The identity of D C1 and D C2 does not matter. The exposure time for the frame FL4 is T B. When the exposure times of the frames FL3 and FL5 are T C1 and T C2 , T A > T C1 > T B and T A > T C2 > T B are satisfied. The identity of T C1 and T C2 does not matter.
上記のような、露光時間と絞り12の開口量の調整によって、FL1〜FL6における画像の明るさ(例えば画面全体の輝度平均)は、均一化される。尚、絞り12の開口量の調整を行う代わりに増幅回路15の増幅度を調整し、これによってFL1〜FL6における画像の明るさを均一化してもよい。また、露光時間、絞り12の開口量及び増幅回路15の増幅度の調整を全て行い、これによってフレームFL1〜FL6における画像の明るさを均一化してもよい。 By adjusting the exposure time and the opening amount of the diaphragm 12 as described above, the brightness of the images in FL1 to FL6 (for example, the average luminance of the entire screen) is made uniform. Instead of adjusting the aperture amount of the diaphragm 12, the amplification degree of the amplifier circuit 15 may be adjusted, thereby making the image brightness in the FL1 to FL6 uniform. Further, the exposure time, the opening amount of the diaphragm 12 and the amplification degree of the amplifier circuit 15 may all be adjusted, thereby making the image brightness in the frames FL1 to FL6 uniform.
フレームFL1〜FL6における撮影によって得られた各原画像信号は、順次、フリッカ検出部27及びフリッカ補正部28に送られる。フレームFL1、FL2、FL3、FL4、FL5及びFL6における撮影によって得られた原画像信号を、それぞれ、IO1、IO2、IO3、IO4、IO5及びIO6とする。原画像信号IO1、IO2及びIO6によって表される画像にはフリッカが表れないが、TAより短い露光時間を採用したことに起因して原画像信号IO3、IO4及びIO5によって表される画像にはフリッカが表れる。 Each original image signal obtained by photographing in the frames FL1 to FL6 is sequentially sent to the flicker detection unit 27 and the flicker correction unit 28. The original image signals obtained by photographing in the frames FL1, FL2, FL3, FL4, FL5 and FL6 are assumed to be I O1 , I O2 , I O3 , I O4 , I O5 and I O6 , respectively. Flicker does not appear in the images represented by the original image signals I O1 , I O2 and I O6 , but due to the adoption of an exposure time shorter than T A , the original image signals I O3 , I O4 and I O5 Flicker appears in the displayed image.
フリッカ検出部27は、原画像信号IO3、IO4及びIO5に含まれているフリッカ成分を検出し、該フリッカ成分を打ち消すためのフリッカ補正値を算出する。フリッカ補正部28は、算出されたフリッカ補正値を用いて、原画像信号IO3、IO4及びIO5を補正することにより、それぞれ補正画像信号IR3、IR4及びIR5を生成して出力する。補正画像信号IR3、IR4及びIR5によって表される画像のフリッカは低減されている(理想的には完全に排除される)。尚、原画像信号IO1、IO2及びIO6については、そのまま後段(画素数変換部21等)に出力される。 The flicker detection unit 27 detects flicker components included in the original image signals I O3 , I O4 and I O5 , and calculates a flicker correction value for canceling the flicker components. The flicker correction unit 28 corrects the original image signals I O3 , I O4, and I O5 using the calculated flicker correction values to generate and output corrected image signals I R3 , I R4, and I R5 , respectively. To do. The flicker of the image represented by the corrected image signals I R3 , I R4 and I R5 is reduced (ideally completely eliminated). Note that the original image signals I O1 , I O2, and I O6 are output to the subsequent stage (the pixel number conversion unit 21 and the like) as they are.
フレームFL1、FL2及びFL6に対応する原画像信号IO1、IO2及びIO6と、フレームFL3、FL4及びFL5に対応する補正画像信号IR3、IR4及びIR5は、画素数変換部21及び静止画処理部25(並びに動き検出部22)に送られる。それら(IO1、IO2及びIO6とIR3、IR4及びIR5)は、動画処理部23及び動画圧縮部24による所定の処理を経て、動画を表す画像信号(画像データ)として外部記録媒体41に記録される。一方、補正画像信号IR4は、静止画処理部25及び静止画圧縮部26のよる所定の処理を経て、静止画を表す画像信号(画像データ)として外部記録媒体41に記録される。 The original image signals I O1 , I O2 and I O6 corresponding to the frames FL1, FL2 and FL6 and the corrected image signals I R3 , I R4 and I R5 corresponding to the frames FL3, FL4 and FL5 The image is sent to the still image processing unit 25 (and the motion detection unit 22). These (I O1 , I O2 and I O6 and I R3 , I R4 and I R5 ) are subjected to predetermined processing by the moving image processing unit 23 and the moving image compression unit 24 and are externally recorded as image signals (image data) representing moving images. Recorded on the medium 41. On the other hand, the corrected image signal I R4 is recorded on the external recording medium 41 as an image signal (image data) representing a still image through predetermined processing by the still image processing unit 25 and the still image compression unit 26.
次に、フリッカ検出部27によるフリッカ補正値の算出手法、及び、それを用いたフリッカ補正部28によるフリッカ補正について詳細に説明する。 Next, a method for calculating a flicker correction value by the flicker detection unit 27 and flicker correction by the flicker correction unit 28 using the same will be described in detail.
図3は、撮像素子13の撮像領域の模式図である。図3に示す如く、撮像素子13の撮像領域を、垂直方向にM分割、水平方向にN分割して考える。これによって、撮像素子13の撮像領域は、M×N個の領域に分割される。M及びNは、それぞれ2以上の整数である。 FIG. 3 is a schematic diagram of an imaging region of the imaging device 13. As shown in FIG. 3, the imaging region of the imaging device 13 is considered to be divided into M in the vertical direction and N in the horizontal direction. Thereby, the imaging area of the imaging device 13 is divided into M × N areas. M and N are each an integer of 2 or more.
M×N個に分割された領域をM行N列の行列として捉える。撮像素子13の撮像領域の原点Xを基準にして考えた場合、
1行目には、領域AR[1:1]、AR[1:2]、・・・、AR[1:N−1]及びAR[1:N]が含まれ、2行目には、領域AR[2:1]、AR[2:2]、・・・、AR[2:N−1]及びAR[2:N]が含まれ、・・・、(M−1)行目には、領域AR[M−1:1]、AR[M−1:2]、・・・、AR[M−1:N−1]及びAR[M−1:N]が含まれ、M行目には、領域AR[M:1]、AR[M:2]、・・・、AR[M:N−1]及びAR[M:N]が含まれる。
The region divided into M × N is regarded as a matrix of M rows and N columns. When considering the origin X of the imaging region of the imaging device 13 as a reference,
The first line includes regions AR [1: 1], AR [1: 2],..., AR [1: N−1] and AR [1: N]. The areas AR [2: 1], AR [2: 2],..., AR [2: N-1] and AR [2: N] are included, and the (M-1) th line. Includes areas AR [M-1: 1], AR [M-1: 2], ..., AR [M-1: N-1] and AR [M-1: N], and M rows The eye includes regions AR [M: 1], AR [M: 2],..., AR [M: N−1] and AR [M: N].
また、1列目には、領域AR[1:1]、AR[2:1]、・・・、AR[M−1:1]及びAR[M:1]が含まれ、2列目には、領域AR[1:2]、AR[2:2]、・・・、AR[M−1:2]及びAR[M:2]が含まれ、・・・、(N−1)列目には、領域AR[1:N−1]、AR[2:N−1]、・・・、AR[M−1:N−1]及びAR[M:N−1]が含まれ、N列目には、領域AR[1:N]、AR[2:N]、・・・、AR[M−1:N]及びAR[M:N]が含まれる。 The first column includes areas AR [1: 1], AR [2: 1],..., AR [M−1: 1] and AR [M: 1]. Includes areas AR [1: 2], AR [2: 2], ..., AR [M-1: 2] and AR [M: 2], ..., (N-1) columns The eye includes regions AR [1: N-1], AR [2: N-1], ..., AR [M-1: N-1] and AR [M: N-1], The Nth column includes areas AR [1: N], AR [2: N],..., AR [M−1: N], and AR [M: N].
同一の行に属する領域同士は、同一の水平ライン上の画素を含む。異なる行に属する領域同士は、互いに異なる水平ライン上の画素を含む。同一の列に属する領域同士は、同一の垂直ライン上の画素を含む。異なる列に属する領域同士は、互いに異なる垂直ライン上の画素を含む。 Regions belonging to the same row include pixels on the same horizontal line. Regions belonging to different rows include pixels on different horizontal lines. Regions belonging to the same column include pixels on the same vertical line. Regions belonging to different columns include pixels on different vertical lines.
例えば、領域AR[1:1]は、第1〜第5の水平ライン上にあって且つ第1〜第6垂直ライン上にある画素(この場合、合計30画素)から構成され、領域AR[1:2]は、第1〜第5の水平ライン上にあって且つ第7〜第12垂直ライン上にある画素(この場合、合計30画素)から構成され、領域AR[2:1]は、第6〜第10の水平ライン上にあって且つ第1〜第6垂直ライン上にある画素(この場合、合計30画素)から構成される。 For example, the area AR [1: 1] is composed of pixels (in this case, 30 pixels in total) on the first to fifth horizontal lines and on the first to sixth vertical lines, and the area AR [ 1: 2] is composed of pixels (in this case, 30 pixels in total) on the first to fifth horizontal lines and on the seventh to twelfth vertical lines, and the area AR [2: 1] , Pixels on the sixth to tenth horizontal lines and on the first to sixth vertical lines (in this case, 30 pixels in total).
尚、隣接する領域が同一の画素を含むようにしても構わない。例えば、領域AR[1:1]が、第1〜第5の水平ライン上にあって且つ第1〜第6垂直ライン上にある画素(この場合、合計30画素)から構成され、領域AR[1:2]が、第1〜第5の水平ライン上にあって且つ第5〜第9垂直ライン上にある画素(この場合、合計30画素)から構成され、領域AR[2:1]が、第4〜第8の水平ライン上にあって且つ第1〜第6垂直ライン上にある画素(この場合、合計30画素)から構成されるようにしても構わない。 In addition, you may make it an adjacent area | region contain the same pixel. For example, the area AR [1: 1] includes pixels (in this case, a total of 30 pixels) on the first to fifth horizontal lines and on the first to sixth vertical lines, and the area AR [ 1: 2] is composed of pixels (in this case, 30 pixels in total) on the first to fifth horizontal lines and on the fifth to ninth vertical lines, and the area AR [2: 1] The pixels may be composed of pixels on the fourth to eighth horizontal lines and on the first to sixth vertical lines (in this case, 30 pixels in total).
フリッカ検出部27及びフリッカ補正部28は、以下のような想定の下でフリッカ補正を行う。
第1に、隣接するフレーム間において、被写体の動きやそれに伴う輝度変化などは軽微である(或いは無視できる)。
第2に、フリッカ補正部28による補正後の画像信号には(殆ど)フリッカ成分が含まれていない。
The flicker detection unit 27 and the flicker correction unit 28 perform flicker correction under the following assumptions.
First, between adjacent frames, the movement of the subject and the accompanying luminance change are slight (or can be ignored).
Second, the image signal after correction by the flicker correction unit 28 (almost) contains no flicker component.
上記の想定の下、図4に示す如く、フリッカ検出部27は、まず、フリッカ成分が含まれていない原画像信号IO2を補正の基準である第1画像信号とし、フリッカ成分が含まれている原画像信号IO3を補正の対象である第2画像信号とし、第1画像信号(IO2)と第2画像信号(IO3)との比較から第2画像信号(IO3)に対するフリッカ補正値αを算出する。そして、フリッカ補正部28は、フリッカ補正値αを用いて、第2画像信号としての原画像信号IO3を補正し、補正画像信号IR3を生成する。 Under the above assumption, as shown in FIG. 4, the flicker detection unit 27 first uses the original image signal I O2 that does not include the flicker component as the first image signal that is the correction reference, and includes the flicker component. the original image signal I O3 which have a second image signal which is the target of correction, flicker correction on the second image signal from the comparison of the first image signal (I O2) and the second image signal (I O3) (I O3) The value α is calculated. Then, the flicker correction unit 28 corrects the original image signal I O3 as the second image signal using the flicker correction value α, and generates a corrected image signal I R3 .
次に、フリッカ検出部27は、フリッカ成分が除去された補正画像信号IR3を第1画像信号とし、フリッカ成分が含まれている原画像信号IO4を第2画像信号とし、第1画像信号(IR3)と第2画像信号(IO4)との比較から第2画像信号(IO4)に対するフリッカ補正値βを算出する。そして、フリッカ補正部28は、フリッカ補正値βを用いて、第2画像信号としての原画像信号IO4を補正し、補正画像信号IR4を生成する。 Next, the flicker detection unit 27 uses the corrected image signal I R3 from which the flicker component is removed as the first image signal, the original image signal I O4 including the flicker component as the second image signal, and the first image signal. A flicker correction value β for the second image signal (I O4 ) is calculated from a comparison between (I R3 ) and the second image signal (I O4 ). Then, the flicker correction unit 28 corrects the original image signal I O4 as the second image signal using the flicker correction value β, and generates a corrected image signal I R4 .
更に次に、フリッカ検出部27は、フリッカ成分が除去された補正画像信号IR4を第1画像信号とし、フリッカ成分が含まれている原画像信号IO5を第2画像信号とし、第1画像信号(IR4)と第2画像信号(IO5)との比較から第2画像信号(IO5)に対するフリッカ補正値γを算出する。そして、フリッカ補正部28は、フリッカ補正値γを用いて、第2画像信号としての原画像信号IO5を補正し、補正画像信号IR5を生成する。 Next, the flicker detection unit 27 uses the corrected image signal I R4 from which the flicker component is removed as the first image signal, the original image signal I O5 including the flicker component as the second image signal, and the first image. A flicker correction value γ for the second image signal (I O5 ) is calculated from a comparison between the signal (I R4 ) and the second image signal (I O5 ). Then, the flicker correction unit 28 corrects the original image signal I O5 as the second image signal using the flicker correction value γ to generate a corrected image signal I R5 .
上記の流れに沿ったフリッカ補正手法の例として、第1補正手法及び第2補正手法を例示する。 As an example of the flicker correction method along the above flow, a first correction method and a second correction method are illustrated.
[第1補正手法]
まず、第1補正手法について説明する。図5は、この第1補正手法を説明するためのフローチャートである。
[First correction method]
First, the first correction method will be described. FIG. 5 is a flowchart for explaining the first correction method.
ステップS1において、まず、フリッカ検出部27は、第1画像信号と第2画像信号を参照する。第1及び第2画像信号は、上記の如く特定される。今、説明の具体化のため、例として、第1及び第2画像信号が、それぞれ原画像信号IO2及びIO3であるとする。 In step S1, first, the flicker detection unit 27 refers to the first image signal and the second image signal. The first and second image signals are specified as described above. For the sake of concreteness of explanation, assume that the first and second image signals are the original image signals I O2 and I O3 , respectively, as an example.
そして、前フレーム(前回のフレーム)の画像信号である第1画像信号における、各領域内の信号レベルの平均値を算出する。具体的には、第1画像信号(IO2)に着目し、領域AR[m:n]ごとに、領域AR[m:n]を構成する画素の信号レベルの平均値を算出する(ステップS1)。合計M×N個の平均値が算出される。第1画像信号の領域AR[m:n]について算出された、該平均値をAVE_PRE[m:n]と表記する。mは1〜Mの任意の整数であり、nは1〜Nの任意の整数である。 And the average value of the signal level in each area | region in the 1st image signal which is an image signal of the previous frame (previous frame) is calculated. Specifically, focusing on the first image signal (I O2 ), the average value of the signal levels of the pixels constituting the area AR [m: n] is calculated for each area AR [m: n] (step S1). ). A total of M × N average values is calculated. The average value calculated for the area AR [m: n] of the first image signal is denoted as AVE_PRE [m: n]. m is an arbitrary integer of 1 to M, and n is an arbitrary integer of 1 to N.
例えば、信号レベルとは輝度を表す輝度信号の値である。この場合、原画像信号には、各画素の輝度を表す輝度信号が含まれる。例えば、領域AR[1:1]が30個の画素から構成される場合、AVE_PRE[1:1]は、30個の輝度信号の値の平均値となり、それは領域AR[1:1]内の画素の平均的な輝度を表す。尚、或る画素についての輝度信号は、周知の如く、例えば、その画素の周辺の画素値を考慮して算出される。 For example, the signal level is a value of a luminance signal representing luminance. In this case, the original image signal includes a luminance signal representing the luminance of each pixel. For example, when the area AR [1: 1] is composed of 30 pixels, AVE_PRE [1: 1] is an average value of 30 luminance signal values, which is within the area AR [1: 1]. Represents the average luminance of a pixel. As is well known, for example, the luminance signal for a certain pixel is calculated in consideration of pixel values around that pixel.
同様に、今フレーム(今回のフレーム)の画像信号である第2画像信号における、各領域内の信号レベルの平均値を算出する。具体的には、第2画像信号(IO3)に着目し、領域AR[m:n]ごとに、領域AR[m:n]を構成する画素の信号レベルの平均値を算出する(ステップS1)。合計M×N個の平均値が算出される。第2画像信号の領域AR[m:n]について算出された、該平均値をAVE_NOW[m:n]と表記する。 Similarly, the average value of the signal levels in each region in the second image signal that is the image signal of the current frame (current frame) is calculated. Specifically, focusing on the second image signal (I O3 ), the average value of the signal levels of the pixels constituting the area AR [m: n] is calculated for each area AR [m: n] (step S1). ). A total of M × N average values is calculated. The average value calculated for the area AR [m: n] of the second image signal is denoted as AVE_NOW [m: n].
ステップS1に続くステップS2では、前フレームと今フレームの間で、領域ごとに、ステップS1で求めた平均値の比(RATIO[m:n]と表記する)を算出する。具体的には、下記式(1)に基づいて、各比RATIO[m:n]を算出する。合計M×N個の比が算出される。
RATIO[m:n]=AVE_PRE[m:n]/AVE_NOW[m:n]
・・・(1)
In step S2 following step S1, the ratio of the average value obtained in step S1 (expressed as RATIO [m: n]) is calculated for each region between the previous frame and the current frame. Specifically, each ratio RATIO [m: n] is calculated based on the following formula (1). A total of M × N ratios are calculated.
RATIO [m: n] = AVE_PRE [m: n] / AVE_NOW [m: n]
... (1)
ステップS2に続くステップS3では、ステップS2で求めた比の行ごとの平均値を求める。m行目についての比(RATIO[m:1]〜RATIO[m:n])の平均値を、AVE_RATIO[m]と表記する。具体的には、下記式(2)に基づいて、各平均値AVE_RATIO[m]を算出する。合計M個の平均値が算出される。 In step S3 following step S2, an average value for each row of the ratio obtained in step S2 is obtained. The average value of the ratios (RATIO [m: 1] to RATIO [m: n]) for the m-th row is expressed as AVE_RATIO [m]. Specifically, each average value AVE_RATIO [m] is calculated based on the following formula (2). A total of M average values is calculated.
前フレームと今フレームで撮像素子13に入射する光学像が変化していないと仮定すると、例えば、AVE_RATIO[1]は、1行目に属する領域[1:n]の中央に位置する水平ライン(図6の符号70)についての、フリッカ成分に起因するフレーム間の信号レベル比を表している。フリッカ成分が含まれている第2画像信号(IO3)において、その中央に位置する水平ライン(図6の符号70)上の画素の信号レベルに、AVE_RATIO[1]を乗じれば、フリッカ成分を打ち消すことができる。 Assuming that the optical image incident on the image sensor 13 is not changed between the previous frame and the current frame, for example, AVE_RATIO [1] is a horizontal line (in the center of the area [1: n] belonging to the first row ( FIG. 6 shows a signal level ratio between frames due to the flicker component with respect to 70) in FIG. In the second image signal (I O3 ) containing the flicker component, the flicker component is obtained by multiplying the signal level of the pixel on the horizontal line (reference numeral 70 in FIG. 6) located at the center by AVE_RATIO [1]. Can be countered.
ステップS3に続くステップS4では、ステップS3で求められたAVE_RATIO[m]を基に、水平ラインごとに、補正ゲイン(信号レベル補正ゲイン)を算出する。 In step S4 following step S3, a correction gain (signal level correction gain) is calculated for each horizontal line based on AVE_RATIO [m] obtained in step S3.
図7に、AVE_RATIO[m]をプロットした様子を示す。各領域AR[m:n]が複数の水平ライン上の画素を含む場合を考える。この場合、各領域において、中央に位置する水平ラインに対して採用すべき補正ゲインと、中央に位置しない水平ラインに採用すべき補正ゲインとは、異なる。 FIG. 7 shows a plot of AVE_RATIO [m]. Consider a case where each area AR [m: n] includes pixels on a plurality of horizontal lines. In this case, in each region, the correction gain to be adopted for the horizontal line located at the center is different from the correction gain to be adopted for the horizontal line not located at the center.
そこで、例えば、AVE_RATIO[m]を垂直ライン方向に線形補間することにより、撮像素子13の各水平ラインに対する補正ゲイン(要素補正値)を算出する。 Therefore, for example, the correction gain (element correction value) for each horizontal line of the image sensor 13 is calculated by linearly interpolating AVE_RATIO [m] in the vertical line direction.
具体的には、まず、AVE_RATIO[m]を、m行目に属する領域AR[m:n]の中央に位置する水平ラインに対する補正ゲインとする。例えば、AVE_RATIO[1]を、1行目に属する領域AR[1:n]の中央に位置する水平ライン(以下、水平ラインL1という)に対する補正ゲイン(以下、補正ゲインG1という)とする。AVE_RATIO[2]を、2行目に属する領域AR[2:n]の中央に位置する水平ライン(以下、水平ラインL2という)に対する補正ゲイン(以下、補正ゲインG2という)とする。 Specifically, first, AVE_RATIO [m] is set as a correction gain for a horizontal line located at the center of the area AR [m: n] belonging to the m-th row. For example, AVE_RATIO [1] is a correction gain (hereinafter referred to as correction gain G1) for a horizontal line (hereinafter referred to as horizontal line L1) located in the center of the area AR [1: n] belonging to the first row. Let AVE_RATIO [2] be a correction gain (hereinafter referred to as correction gain G2) for a horizontal line (hereinafter referred to as horizontal line L2) located in the center of the area AR [2: n] belonging to the second row.
そして、水平ラインL1とL2の間の水平ラインについての各補正ゲインを、補正ゲインG1とG2とを垂直ライン方向に線形補間することによって算出する。例えば、水平ラインL1とL2の間の水平ラインが、水平ラインL1AとL2Aの2本であって且つ水平ラインL1Aが水平ラインL1に隣接し、水平ラインL2Aが水平ラインL2に隣接する場合、水平ラインL1Aについての補正ゲインは「(G2―G1)/3+G1」とされ、水平ラインL2Aについての補正ゲインは「2(G2―G1)/3+G1」とされる。 Then, each correction gain for the horizontal line between the horizontal lines L1 and L2 is calculated by linearly interpolating the correction gains G1 and G2 in the vertical line direction. For example, horizontal lines between the horizontal lines L1 and L2, adjacent to the horizontal line L1 A and L2 A two A with and horizontal lines L1 A horizontal line L1, the horizontal line L2 A adjacent to the horizontal line L2 If you, the correction gain in the horizontal lines L1 a is a "(G2-G1) / 3 + G1 ", the correction gain in the horizontal line L2 a is set to "2 (G2-G1) / 3 + G1 ".
他の水平ラインについての補正ゲインも同様に算出される。図7において、符号71が付された曲線は、この線形補間を用いて算出された各補正ゲインを表す曲線である。 Correction gains for other horizontal lines are calculated in the same manner. In FIG. 7, the curve denoted by reference numeral 71 is a curve representing each correction gain calculated using this linear interpolation.
尚、AVE_RATIO[m]を線形補間することによって、水平ラインごとに補正ゲインを算出する例を示したが、補間の手法として、線形補間以外の様々な補間手法を採用することも可能である。例えば、領域AR[m:n]の中央に位置する水平ラインと領域AR[m+1:n]の中央に位置する水平ラインとの間の水平ラインについての補正ゲインを補間によって算出する際、AVE_RATIO[m]及びAVE_RATIO[m+1]だけでなく、更にAVE_RATIO[m−1]及びAVE_RATIO[m+2]などを用い、近似曲線による補間を使ってもよい。 In addition, although the example which calculates a correction gain for every horizontal line by linearly interpolating AVE_RATIO [m] was shown, it is also possible to employ | adopt various interpolation methods other than linear interpolation as an interpolation method. For example, when calculating a correction gain for a horizontal line between a horizontal line located at the center of the area AR [m: n] and a horizontal line located at the center of the area AR [m + 1: n] by interpolation, AVE_RATIO [ In addition to m] and AVE_RATIO [m + 1], AVE_RATIO [m-1], AVE_RATIO [m + 2], and the like may be used, and interpolation using an approximate curve may be used.
ステップS1〜S4の処理は、フリッカ検出部27によって行われる。上述の如く、水平ラインごとに算出された合計k個の補正ゲイン(要素補正値)は、第2画像信号(IO3)に対するフリッカ補正値(α)を構成する。但し、kは、撮像素子13の水平ラインの本数を表している。 The processing in steps S1 to S4 is performed by the flicker detection unit 27. As described above, the total k correction gains (element correction values) calculated for each horizontal line constitute a flicker correction value (α) for the second image signal (I O3 ). However, k represents the number of horizontal lines of the image sensor 13.
ステップS4に続くステップS5において、フリッカ補正部28は、ステップS4にて算出された各補正ゲインを用いて第2画像信号(IO3)を補正する。具体的には、第2画像信号(IO3)における、第1、第2、・・・、第(k−1)、第k番目の水平ライン上の画素についての各信号レベル(例えば、輝度信号の値)に、それぞれ、ステップS4で算出した、第1、第2、・・・、第(k−1)、第k番目の水平ラインに対応する補正ゲインを乗じる。これによって、第2画像信号(IO3)からフリッカ成分が排除された補正画像信号(IR3)が生成される。 In step S5 following step S4, the flicker correction unit 28 corrects the second image signal (I O3 ) using each correction gain calculated in step S4. Specifically, in the second image signal (I O3 ), each signal level (for example, luminance) for the pixels on the first, second,..., (K−1) th and kth horizontal lines. Signal value) is multiplied by correction gains corresponding to the first, second,..., (K−1) th, and kth horizontal lines, respectively, calculated in step S4. As a result, a corrected image signal (I R3 ) in which the flicker component is excluded from the second image signal (I O3 ) is generated.
図4を参照して説明したように第1及び第2画像信号を順次入れ替えつつ、ステップS1〜S5の処理を繰り返すことにより、補正画像信号IR4及びIR5も生成される。 As described with reference to FIG. 4, the corrected image signals I R4 and I R5 are also generated by repeating the processes of steps S1 to S5 while sequentially exchanging the first and second image signals.
尚、水平ラインごとに補正ゲイン(合計k個の補正ゲイン)を算出する例を示したが、複数の水平ラインに対して1つの補正ゲインを割り当てるようにしても構わない。例えば、2本の水平ラインごとに、同一の1つの補正ゲインを割り当てる。この場合、ステップS4にて算出される補正ゲインの個数は合計k/2個となり、k/2個の補正ゲイン(要素補正値)によってフリッカ補正値(α)が構成されることになる。 Although an example in which correction gains (a total of k correction gains) are calculated for each horizontal line has been shown, one correction gain may be assigned to a plurality of horizontal lines. For example, the same correction gain is assigned to every two horizontal lines. In this case, the total number of correction gains calculated in step S4 is k / 2, and the flicker correction value (α) is configured by k / 2 correction gains (element correction values).
そして、この場合、ステップS5において、第1及び第2番目の水平ライン上の画素についての各信号レベル(例えば、輝度信号の値)に、第1及び第2番目の水平ラインに対応する同一の補正ゲインを乗じる。他の水平ラインについても同様にし、補正画像信号(IR3)を生成するようにする。 In this case, in step S5, the same signal level (for example, the value of the luminance signal) for the pixels on the first and second horizontal lines corresponds to the first and second horizontal lines. Multiply by the correction gain. The same applies to the other horizontal lines, and the corrected image signal (I R3 ) is generated.
また、「複数の水平ラインに対して1つの補正ゲインを割り当てる」という手法に含まれる内容であるが、各領域AR[m:n]に含まれる水平ラインの本数が十分に小さい場合は、ステップS4における補間処理を省略することも可能である。この場合、AVE_RATIO[m]を、領域AR[m:n]に含まれる全ての水平ラインに対する補正ゲインとする。 Further, although the contents are included in the technique of “assigning one correction gain to a plurality of horizontal lines”, if the number of horizontal lines included in each area AR [m: n] is sufficiently small, the step is performed. It is also possible to omit the interpolation process in S4. In this case, AVE_RATIO [m] is set as a correction gain for all horizontal lines included in the area AR [m: n].
また、各領域AR[m:n]が複数の水平ライン上の画素を含む場合を上述したが、各領域AR[m:n]が1つの水平ライン上の画素しか含まない場合、即ち、撮像素子13の水平ラインの本数がM本である場合、AVE_RATIO[m]そのものを、第m番目の水平ラインに対応する補正ゲインとすることができる(領域AR[m:n]は、第m番目の水平ライン上の画素のみから構成される)。この場合、各補正ゲインを算出する際に補間処理は必要なくなる。しかしながら、ノイズ等の影響を受けやすくなるため、AVE_RATIO[m]から構成される数値群を、垂直ライン方向に空間的にフィルタリングしたものを、各補正ゲインとして最終的に採用するようにするとよい。 Further, although the case where each area AR [m: n] includes pixels on a plurality of horizontal lines has been described above, the case where each area AR [m: n] includes only pixels on one horizontal line, that is, imaging. When the number of horizontal lines of the element 13 is M, AVE_RATIO [m] itself can be a correction gain corresponding to the mth horizontal line (the area AR [m: n] is the mth). Only consist of pixels on the horizontal line). In this case, no interpolation process is required when calculating each correction gain. However, in order to be easily affected by noise or the like, it is preferable to finally adopt a numerical value group composed of AVE_RATIO [m] spatially filtered in the vertical line direction as each correction gain.
上述したフリッカ補正の手法は、隣接するフレーム間において、被写体の動きやそれに伴う輝度変化などが軽微であるとの想定の下で提案されるものであり、実際の画像は、その想定から外れる場合もある。これを考慮し、例えば、ステップS3にて、ステップS2で求めたRATIO[m:n]の行ごとの平均値AVE_RATIO[m]を求める際、所定の規則に則って、RATIO[m:n]の有効または無効を判断し、無効と判断したRATIO[m:n]を平均値の算出に当たって無視するようにしても構わない。 The above-described flicker correction method is proposed under the assumption that the movement of the subject and the accompanying luminance change are slight between adjacent frames, and the actual image is not within the assumption. There is also. Considering this, for example, when determining the average value AVE_RATIO [m] for each row of RATIO [m: n] obtained in step S2 in step S3, RATIO [m: n] is determined according to a predetermined rule. RATIO [m: n] determined to be invalid may be ignored in calculating the average value.
例えば、m=1の行についてのみ着目し、これを説明する。N=8と仮定する。この場合、ステップS2で8つの比(RATIO[1:1]〜RATIO[1:8])が算出される。この8つの比を、それぞれ、R1、R1、R3、R4、R5、R6、R7及びR8とする。 For example, only the row with m = 1 will be noted and described. Assume N = 8. In this case, eight ratios (RATIO [1: 1] to RATIO [1: 8]) are calculated in step S2. These eight ratios are R1, R1, R3, R4, R5, R6, R7 and R8, respectively.
そして、例えば、R1〜R8の分散を考慮し、8つの比(R1〜R8)の平均値から所定の閾値以上乖離した比を、ノイズ等の影響が大きいと判断して無効とする。例えば、R1とR2を無効と判断した場合、AVE_RATIO[1]=(RATIO[1:3]+RATIO[1:4]+RATIO[1:5]+RATIO[1:6]+RATIO[1:7]+RATIO[1:8])/6、によって、AVE_RATIO[1]を算出する。 Then, for example, considering the variance of R1 to R8, a ratio that deviates more than a predetermined threshold from the average value of the eight ratios (R1 to R8) is determined to be largely influenced by noise and is invalidated. For example, when it is determined that R1 and R2 are invalid, AVE_RATIO [1] = (RATIO [1: 3] + RATIO [1: 4] + RATIO [1: 5] + RATIO [1: 6] + RATIO [1: 7] + RATIO [1: 7] 1: 8]) / 6 to calculate AVE_RATIO [1].
また、N=1とすることも可能である。この場合、撮像素子13の撮像領域は、図8に示す如く、水平ライン方向に合計M個の領域で分割されることになる。また、図9に示す如く、撮像素子13の撮像領域を垂直方向に2分割し、分割によって得られた一方の撮像領域を、水平ライン方向に合計M個の領域で分割するようにしてもよい。但し、上述した、RATIO[m:n]の有効/無効判断に基づく処理の利点を考慮すると、Nを2以上に設定することが望ましい。 It is also possible to set N = 1. In this case, the imaging area of the imaging element 13 is divided into a total of M areas in the horizontal line direction, as shown in FIG. Further, as shown in FIG. 9, the imaging area of the imaging device 13 may be divided into two in the vertical direction, and one imaging area obtained by the division may be divided into a total of M areas in the horizontal line direction. . However, in consideration of the advantages of the above-described processing based on the validity / invalidity determination of RATIO [m: n], it is desirable to set N to 2 or more.
[第2補正手法]
次に、フリッカ補正手法の第2補正手法について説明する。尚、第1補正手法にて説明した事項は、適宜、第2補正手法にも適用可能である。図10は、この第2補正手法を説明するためのフローチャートである。図10のステップS11〜S14の処理はフリッカ検出部27によって行われ、ステップS15の処理はフリッカ補正部28によって行われる。
[Second correction method]
Next, the second correction method of the flicker correction method will be described. Note that the items described in the first correction method can be applied to the second correction method as appropriate. FIG. 10 is a flowchart for explaining the second correction method. The processing of steps S11 to S14 in FIG. 10 is performed by the flicker detection unit 27, and the processing of step S15 is performed by the flicker correction unit 28.
第2補正手法では、画素に設けられるカラーフィルタの色ごとに、第1補正手法と同様の処理を行う。撮像素子13を構成する各画素に、赤(R)、緑(G)及び青(B)の何れかのカラーフィルタ(不図示)が、所謂ベイヤー配列にて配列されている場合を例として考える。図11に、或る1つの領域AR[m:n]における、カラーフィルタの配列を示す。各領域AR[m:n]には、赤のカラーフィルタが設けられた複数の画素(以下、R画素という)と、緑のカラーフィルタが設けられた複数の画素(以下、G画素という)と、青のカラーフィルタが設けられた複数の画素(以下、B画素という)と、が含まれる。 In the second correction method, the same processing as in the first correction method is performed for each color of the color filter provided in the pixel. As an example, a case where any one of red (R), green (G), and blue (B) color filters (not shown) is arranged in a so-called Bayer array in each pixel constituting the image sensor 13 is considered. . FIG. 11 shows the arrangement of color filters in a certain area AR [m: n]. Each area AR [m: n] includes a plurality of pixels provided with a red color filter (hereinafter referred to as R pixels), and a plurality of pixels provided with a green color filter (hereinafter referred to as G pixels). And a plurality of pixels (hereinafter referred to as B pixels) provided with a blue color filter.
そして、信号処理部20に与えられる原画像信号には、R画素に蓄えられた信号電荷に比例するR信号値(R信号レベル)と、G画素に蓄えられた信号電荷に比例するG信号値(G信号レベル)と、B画素に蓄えられた信号電荷に比例するB信号値(B信号レベル)と、が含まれているものとする。 The original image signal supplied to the signal processing unit 20 includes an R signal value (R signal level) proportional to the signal charge stored in the R pixel and a G signal value proportional to the signal charge stored in the G pixel. (G signal level) and B signal value (B signal level) proportional to the signal charge stored in the B pixel are included.
まず、ステップS11(図10参照)において、フリッカ検出部27は、第1画像信号と第2画像信号を参照する。今、説明の具体化のため、例として、第1及び第2画像信号が、それぞれ原画像信号IO2及びIO3であるとする。 First, in step S11 (see FIG. 10), the flicker detection unit 27 refers to the first image signal and the second image signal. For the sake of concreteness of explanation, assume that the first and second image signals are the original image signals I O2 and I O3 , respectively, as an example.
そして、第1画像信号において、領域AR[m:n]ごとに、R信号値の平均値、G信号値の平均値及びB信号値の平均値を算出する(ステップS11)。具体的には、第1画像信号(IO2)に着目し、領域AR[m:n]ごとに、領域AR[m:n]を構成するR画素のR信号値の平均値AVE_PRE_R[m:n]、領域AR[m:n]を構成するG画素のG信号値の平均値AVE_PRE_G[m:n]、及び、領域AR[m:n]を構成するB画素のB信号値の平均値AVE_PRE_B[m:n]を算出する。 Then, in the first image signal, an average value of R signal values, an average value of G signal values, and an average value of B signal values are calculated for each region AR [m: n] (step S11). Specifically, focusing on the first image signal (I O2 ), for each area AR [m: n], the average value AVE_PRE_R [m: R signal value of R pixels constituting the area AR [m: n]. n], average value AVE_PRE_G [m: n] of G signal values of G pixels constituting the area AR [m: n], and average value of B signal values of the B pixels constituting the area AR [m: n] AVE_PRE_B [m: n] is calculated.
同様に、第2画像信号において、領域AR[m:n]ごとに、R信号値の平均値、G信号値の平均値及びB信号値の平均値を算出する(ステップS11)。具体的には、第2画像信号(IO3)に着目し、領域AR[m:n]ごとに、領域AR[m:n]を構成するR画素のR信号値の平均値AVE_NOW_R[m:n]、領域AR[m:n]を構成するG画素のG信号値の平均値AVE_NOW_G[m:n]、及び、領域AR[m:n]を構成するB画素のB信号値の平均値AVE_NOW_B[m:n]を算出する。 Similarly, in the second image signal, an average value of R signal values, an average value of G signal values, and an average value of B signal values are calculated for each area AR [m: n] (step S11). Specifically, focusing on the second image signal (I O3 ), an average value AVE_NOW_R [m: R signal value of R pixels constituting the area AR [m: n] for each area AR [m: n]. n], average value AVE_NOW_G [m: n] of G signal values of G pixels constituting the area AR [m: n], and average value of B signal values of B pixels constituting the area AR [m: n] AVE_NOW_B [m: n] is calculated.
ステップS11に続くステップS12では、領域ごとに且つ色ごとに、ステップS11で求めた平均値の比を算出する。具体的には、下記式(3R)、(3G)及び(3B)に基づいて、RATIO_R[m:n]、RATIO_G[m:n]及びRATIO_B[m:n]を算出する。
RATIO_R[m:n]
=AVE_PRE_R[m:n]/AVE_NOW_R[m:n] ・・・(3R)
RATIO_G[m:n]
=AVE_PRE_G[m:n]/AVE_NOW_G[m:n] ・・・(3G)
RATIO_B[m:n]
=AVE_PRE_B[m:n]/AVE_NOW_B[m:n] ・・・(3B)
In step S12 following step S11, the ratio of the average values obtained in step S11 is calculated for each region and for each color. Specifically, RATIO_R [m: n], RATIO_G [m: n], and RATIO_B [m: n] are calculated based on the following formulas (3R), (3G), and (3B).
RATIO_R [m: n]
= AVE_PRE_R [m: n] / AVE_NOW_R [m: n] (3R)
RATIO_G [m: n]
= AVE_PRE_G [m: n] / AVE_NOW_G [m: n] (3G)
RATIO_B [m: n]
= AVE_PRE_B [m: n] / AVE_NOW_B [m: n] (3B)
ステップS12に続くステップS13では、ステップS12で求めた比を用い、下記式(4R)、(4G)及び(4B)に基づいて、平均値AVE_RATIO_R[m]、AVE_RATIO_G[m]及びAVE_RATIO_B[m]を算出する。 In step S13 following step S12, the average values AVE_RATIO_R [m], AVE_RATIO_G [m], and AVE_RATIO_B [m] are calculated based on the following formulas (4R), (4G), and (4B) using the ratio obtained in step S12. Is calculated.
ステップS13に続くステップS14では、図5のステップS4の処理に準じた処理を行う。つまり、ステップS14では、ステップS13で求められた平均値AVE_RATIO_R[m]等に基づき、線形補間などを用いて、水平ラインごとに且つ色ごとに、補正ゲイン(信号レベル補正ゲイン)を算出する。 In step S14 following step S13, processing similar to that in step S4 in FIG. 5 is performed. That is, in step S14, a correction gain (signal level correction gain) is calculated for each horizontal line and for each color using linear interpolation based on the average value AVE_RATIO_R [m] obtained in step S13.
AVE_RATIO_R[m]は、m行目に属する領域AR[m:n]の中央に位置する水平ラインに対するR補正ゲインとされる。そして、AVE_RATIO_R[m]を垂直ライン方向に線形補間することにより、撮像素子13の各水平ラインに対するR補正ゲイン(要素補正値)を算出する。この線形補間の手法は、図5のステップS4におけるそれと同様である。 AVE_RATIO_R [m] is an R correction gain for a horizontal line located at the center of the area AR [m: n] belonging to the m-th row. Then, R correction gain (element correction value) for each horizontal line of the image sensor 13 is calculated by linearly interpolating AVE_RATIO_R [m] in the vertical line direction. This linear interpolation method is the same as that in step S4 of FIG.
同様に、AVE_RATIO_G[m]は、m行目に属する領域AR[m:n]の中央に位置する水平ラインに対するG補正ゲインとされる。そして、AVE_RATIO_G[m]を垂直ライン方向に線形補間することにより、撮像素子13の各水平ラインに対するG補正ゲイン(要素補正値)を算出する。 Similarly, AVE_RATIO_G [m] is a G correction gain for a horizontal line located at the center of the area AR [m: n] belonging to the m-th row. Then, G correction gain (element correction value) for each horizontal line of the image sensor 13 is calculated by linearly interpolating AVE_RATIO_G [m] in the vertical line direction.
同様に、AVE_RATIO_B[m]は、m行目に属する領域AR[m:n]の中央に位置する水平ラインに対するB補正ゲインとされる。そして、AVE_RATIO_G[m]を垂直ライン方向に線形補間することにより、撮像素子13の各水平ラインに対するB補正ゲイン(要素補正値)を算出する。 Similarly, AVE_RATIO_B [m] is a B correction gain for the horizontal line located at the center of the area AR [m: n] belonging to the m-th row. Then, B correction gain (element correction value) for each horizontal line of the image sensor 13 is calculated by linearly interpolating AVE_RATIO_G [m] in the vertical line direction.
但し、ベイヤー配列の場合、1つの水平ラインには2色のカラーフィルタしか存在しないため、対応する色画素が存在しない水平ラインについての補正ゲインの算出は省略される。例えば、R画素とG画素しか存在しない水平ラインについての、B補正ゲインの算出は省略される。今、R画素が奇数番目の水平ライン上にのみ存在し、B画素が偶数番目の水平ライン上にのみ存在するものとする。また、水平ラインの本数kを、偶数とする。 However, in the case of the Bayer array, since only two color filters exist in one horizontal line, the calculation of the correction gain for the horizontal line in which no corresponding color pixel exists is omitted. For example, the calculation of the B correction gain for a horizontal line in which only R and G pixels exist is omitted. It is assumed that the R pixel exists only on the odd-numbered horizontal line and the B pixel exists only on the even-numbered horizontal line. The number k of horizontal lines is an even number.
ステップS14に続くステップS15において、フリッカ補正部28は、ステップS14にて算出された各補正ゲインを用いて、色ごとに第2画像信号(IO3)を補正する。 In step S15 subsequent to step S14, the flicker correction unit 28 corrects the second image signal (I O3 ) for each color using each correction gain calculated in step S14.
具体的には、第2画像信号(IO3)における、第1、第3、・・・、第(k−3)、第(k−1)番目の水平ライン上のR画素についての各R信号値に、それぞれ、ステップS14で算出した、第1、第3、・・・、第(k−3)、第(k−1)の水平ラインに対応するR補正ゲインを乗じる。
第2画像信号(IO3)における、第1、第2、・・・、第(k−1)、第k番目の水平ライン上のG画素についての各G信号値に、それぞれ、ステップS14で算出した、第1、第2、・・・、第(k−1)、第k番目の水平ラインに対応するG補正ゲインを乗じる。
第2画像信号(IO3)における、第2、第4、・・・、第(k−2)、第k番目の水平ライン上のB画素についての各B信号値に、それぞれ、ステップS14で算出した、第2、第4、・・・、第(k−2)、第k番目の水平ラインに対応するB補正ゲインを乗じる。
Specifically, each R for R pixels on the first, third,..., (K-3), (k-1) th horizontal lines in the second image signal (I O3 ). The signal value is multiplied by the R correction gain corresponding to the first, third,..., (K-3) th, and (k-1) th horizontal lines calculated in step S14.
In the second image signal (I O3 ), the G signal values for the G pixels on the first, second,..., (K−1) th and kth horizontal lines are respectively set in step S14. The calculated G correction gains corresponding to the first, second,..., (K−1) th, and kth horizontal lines are multiplied.
In the second image signal (I O3 ), the B signal values for the B pixels on the second, fourth,..., (K−2), and k-th horizontal lines are respectively set in step S14. The calculated B correction gains corresponding to the second, fourth,..., (K−2), and k-th horizontal lines are multiplied.
これによって、第2画像信号(IO3)からフリッカ成分が排除された補正画像信号(IR3)が生成される。図4を参照して説明したように第1及び第2画像信号を順次入れ替えつつ、ステップS11〜S15の処理を繰り返すことにより、補正画像信号IR4及びIR5も生成される。 As a result, a corrected image signal (I R3 ) in which the flicker component is excluded from the second image signal (I O3 ) is generated. As described with reference to FIG. 4, the corrected image signals I R4 and I R5 are also generated by repeating the processes of steps S11 to S15 while sequentially exchanging the first and second image signals.
通常、蛍光灯の照明光におけるR、G、Bの構成比は、照明の輝度に応じて多少変化する。このため、フレームFL3〜FL5において、画像の色相変化(色フリッカ)も生じる可能があるが、第2補正手法を採用することにより、この色相変化をも補正することが可能となる。 Usually, the composition ratio of R, G, and B in the illumination light of the fluorescent lamp varies somewhat depending on the luminance of the illumination. For this reason, the hue change (color flicker) of the image may occur in the frames FL3 to FL5, but this hue change can also be corrected by adopting the second correction method.
尚、第1補正手法を説明する際にも述べたように、複数の水平ラインに対して1つのR補正ゲイン、1つのG補正ゲイン及び1つのB補正ゲインを割り当てるようにしても構わない。この際、ステップS14の補間処理を省略することも可能である。 As described in the description of the first correction method, one R correction gain, one G correction gain, and one B correction gain may be assigned to a plurality of horizontal lines. At this time, the interpolation processing in step S14 can be omitted.
また、第1補正手法を説明する際にも述べたように、各領域AR[m:n]が1つの水平ライン上の画素しか含まないようにすることも可能である。この場合、対応する色画素が存在しない水平ラインについての各種の値の算出は省略される。例えば、R画素とG画素しか存在しない領域(或いは行)に対応する、AVE_PRE_B[m:n]、AVE_NOW_B[m:n]、RATIO_B[m:n]、AVE_RATIO_B[m]及びB補正値の算出は省略される。 Further, as described in the description of the first correction method, each area AR [m: n] can include only pixels on one horizontal line. In this case, calculation of various values for a horizontal line for which no corresponding color pixel exists is omitted. For example, calculation of AVE_PRE_B [m: n], AVE_NOW_B [m: n], RATIO_B [m: n], AVE_RATIO_B [m], and B correction value corresponding to a region (or row) where only R pixels and G pixels exist Is omitted.
また、第1補正手法を説明する際にも述べたように、ステップS13にて、平均値(AVE_RATIO_R[m]等)を算出する際、所定の規則に則って、RATIO_R[m:n]等の有効または無効を判断し、無効と判断したRATIO_R[m:n]等を平均値の算出に当たって無視するようにしても構わない。 Further, as described in the description of the first correction method, when the average value (AVE_RATIO_R [m] or the like) is calculated in step S13, RATIO_R [m: n] or the like according to a predetermined rule. RATIO_R [m: n] or the like determined to be invalid may be ignored in calculating the average value.
[メモリ使用状況]
次に、上述の第1または第2補正手法によるフリッカ補正を行うために必要なメモリの使用方法について説明する。撮像装置1が採用可能な、第1及び第2のメモリ使用方法を例示する。
[Memory usage]
Next, a method of using a memory necessary for performing flicker correction using the first or second correction method described above will be described. The first and second memory usage methods that can be employed by the imaging apparatus 1 will be exemplified.
まず、第1メモリ使用方法について説明する。第1メモリ使用方法では、フレームメモリ40内の所定サイズを有するメモリ領域が用いられる。このメモリ領域を、第1補正用メモリ領域(記録手段に対応)とよぶ。上記の所定サイズは、例えば、1つのフレームの画像信号を過不足なく格納することができるメモリサイズである。 First, the first memory usage method will be described. In the first memory usage method, a memory area having a predetermined size in the frame memory 40 is used. This memory area is called a first correction memory area (corresponding to the recording means). The predetermined size is, for example, a memory size that can store an image signal of one frame without excess or deficiency.
第1メモリ使用方法を採用する際、図4の最下段に対応する「原画像信号IO2、補正画像信号IR3、IR4(、IR5)」が、この順番で、第1補正用メモリ領域に順次更新されつつ格納される。 When the first memory usage method is adopted, the “original image signal I O2 , corrected image signals I R3 , I R4 (, I R5 )” corresponding to the lowermost stage in FIG. It is stored in the area while being updated sequentially.
つまり、まず、フリッカ補正値αを算出するために必要となる原画像信号IO2を第1補正用メモリ領域に格納する。そして、第1補正用メモリ領域に格納された原画像信号IO2と前処理部14から送られてきた原画像信号IO3とを用いてフリッカ補正値αの算出及び補正画像信号IR3の生成を行う。生成された補正画像信号IR3は、画素数変換部21等に送られると共に第1補正用メモリ領域に格納される(第1補正用メモリ領域内の原画像信号IO2は上書きされる)。 That is, first, the original image signal I O2 necessary for calculating the flicker correction value α is stored in the first correction memory area. The flicker correction value α is calculated and the corrected image signal I R3 is generated using the original image signal I O2 stored in the first correction memory area and the original image signal I O3 sent from the preprocessing unit 14. I do. The generated corrected image signal I R3 is sent to the pixel number conversion unit 21 and the like and stored in the first correction memory area (the original image signal I O2 in the first correction memory area is overwritten).
次のフレームでは、第1補正用メモリ領域に格納された補正画像信号IR3と前処理部14から送られてきた原画像信号IO4とを用いて、フリッカ補正値βの算出及び補正画像信号IR4の生成を行う。生成された補正画像信号IR4は、画素数変換部21等に送られると共に第1補正用メモリ領域に格納される(第1補正用メモリ領域内の補正画像信号IR3は上書きされる)。 In the next frame, the flicker correction value β is calculated and the corrected image signal using the corrected image signal I R3 stored in the first correction memory area and the original image signal I O4 sent from the preprocessing unit 14. I R4 is generated. The generated corrected image signal I R4 is sent to the pixel number conversion unit 21 and the like and is stored in the first correction memory area (the corrected image signal I R3 in the first correction memory area is overwritten).
上記のような、第1補正用メモリ領域内の画像信号の更新は、静止画撮影用フレーム(上記の例ではFL3〜FL5)の間、継続される。この手法を採用することにより、フリッカ補正に必要なメモリ領域を小さく抑えることができる。 The update of the image signal in the first correction memory area as described above is continued during the still image shooting frame (FL3 to FL5 in the above example). By adopting this method, the memory area required for flicker correction can be kept small.
次に、第2メモリ使用方法について説明する。第2メモリ使用方法では、第2補正用メモリ領域(記録手段に対応)を用いる。第2補正用メモリ領域は、フレームメモリ40以外のメモリ(例えば、信号処理部20の内部レジスタ;不図示)内に設けられる。但し、それをフレームメモリ40内に設けるようにしても構わない。 Next, the second memory usage method will be described. In the second memory usage method, the second correction memory area (corresponding to the recording means) is used. The second correction memory area is provided in a memory other than the frame memory 40 (for example, an internal register of the signal processing unit 20; not shown). However, it may be provided in the frame memory 40.
第2メモリ使用方法を採用する際において、図5に示す第1補正手法を用いる場合、図5のステップS1にて算出されるAVE_PRE[m:n](比較対象値に対応)が、第2補正用メモリ領域に順次更新されつつ格納される。第2メモリ使用方法を採用する際において、図10に示す第2補正手法を用いる場合、図10のステップS11にて算出されるAVE_PRE_R[m:n]、AVE_PRE_G[m:n]及びAVE_PRE_B[m:n]が、第2補正用メモリ領域に順次更新されつつ格納される。図5に示す第1補正手法を用いる場合を例にして、より具体的に説明する。 When the second memory usage method is employed, when the first correction method shown in FIG. 5 is used, AVE_PRE [m: n] (corresponding to the comparison target value) calculated in step S1 of FIG. The correction memory area is sequentially updated and stored. When employing the second memory usage method, when the second correction method shown in FIG. 10 is used, AVE_PRE_R [m: n], AVE_PRE_G [m: n], and AVE_PRE_B [m] calculated in step S11 of FIG. : N] are sequentially updated and stored in the second correction memory area. This will be described more specifically by taking the case of using the first correction method shown in FIG. 5 as an example.
まず、原画像信号IO2を補正の基準となる第1画像信号と捉えた状態で、フリッカ補正値αを算出するために必要となるAVE_PRE[m:n]を算出し、算出したAVE_PRE[m:n]を第2補正用メモリ領域に格納する。そして、第2補正用メモリ領域に格納されたAVE_PRE[m:n]と前処理部14から送られてきた原画像信号IO3とを用いてフリッカ補正値αの算出及び補正画像信号IR3の生成を行う。 First, AVE_PRE [m: n] necessary for calculating the flicker correction value α is calculated in a state where the original image signal I O2 is regarded as the first image signal that is a reference for correction, and the calculated AVE_PRE [m : N] is stored in the second correction memory area. The flicker correction value α is calculated and the corrected image signal I R3 is calculated using AVE_PRE [m: n] stored in the second correction memory area and the original image signal I O3 sent from the preprocessing unit 14. Generate.
補正画像信号IR3の生成を行った後、今度は補正画像信号IR3を第1画像信号と捉えた状態で、フリッカ補正値βを算出するために必要となるAVE_PRE[m:n]を新たに算出し、新たに算出したAVE_PRE[m:n]を第2補正用メモリ領域に格納する。この際、原画像信号IO2を第1画像信号と捉えた状態で算出された、第2補正用メモリ領域内のAVE_PRE[m:n]は上書き更新される。そして、第2補正用メモリ領域に格納されたAVE_PRE[m:n]と前処理部14から送られてきた原画像信号IO4とを用いてフリッカ補正値βの算出及び補正画像信号IR4の生成を行う。 After generating the corrected image signals I R3, now in a state where the corrected image signal I R3 captures a first image signal, AVE_PRE needed to calculate the flicker correction value β [m: n] a new And the newly calculated AVE_PRE [m: n] is stored in the second correction memory area. At this time, AVE_PRE [m: n] in the second correction memory area calculated in a state where the original image signal I O2 is regarded as the first image signal is overwritten and updated. Then, flicker correction value β is calculated and corrected image signal I R4 is calculated using AVE_PRE [m: n] stored in the second correction memory area and original image signal I O4 sent from preprocessing unit 14. Generate.
補正画像信号IR4の生成を行った後、今度は補正画像信号IR4を第1画像信号と捉えた状態で、フリッカ補正値γを算出するために必要となるAVE_PRE[m:n]を新たに算出し、新たに算出したAVE_PRE[m:n]を第2補正用メモリ領域に格納する。この際、補正画像信号IR3を第1画像信号と捉えた状態で算出された、第2補正用メモリ領域内のAVE_PRE[m:n]は上書き更新される。 After generating the corrected image signals I R4, while now that captures the correction image signal I R4 and the first image signal, AVE_PRE needed to calculate the flicker correction value γ [m: n] a new And the newly calculated AVE_PRE [m: n] is stored in the second correction memory area. At this time, AVE_PRE [m: n] in the second correction memory area calculated in a state where the corrected image signal I R3 is regarded as the first image signal is overwritten and updated.
上記のような、第2補正用メモリ領域内のAVE_PRE[m:n]の更新は、静止画撮影用フレーム(上記の例ではFL3〜FL5)の間、継続される。この手法を採用することによっても、フリッカ補正に必要なメモリ領域を小さく抑えることができる。また、必要なメモリ領域は、上記の第1メモリ使用方法と比べても極めて小さくて済み、フレームメモリ40を使用する必要もない。 The update of AVE_PRE [m: n] in the second correction memory area as described above is continued during the still image shooting frame (FL3 to FL5 in the above example). By adopting this method, the memory area required for flicker correction can be reduced. Further, the necessary memory area is very small as compared with the first memory usage method, and the frame memory 40 need not be used.
[変形等]
尚、補正の基準となる第1画像信号を、順次変更(IO2→IR3→IR4)としていく例を示したが、補正の基準となる第1画像信号を原画像信号IO2に固定するという手法も採用可能である。この場合も、上記の第1または第2補正手法を採用可能である。
[Deformation etc.]
Although the example in which the first image signal serving as the correction reference is sequentially changed (I O2 → I R3 → I R4 ) has been shown, the first image signal serving as the correction reference is fixed to the original image signal I O2 . It is also possible to adopt the technique of doing. Also in this case, the first or second correction method described above can be employed.
この場合、第2画像信号を原画像信号IO3と捉え、第1画像信号(IO2)と第2画像信号(IO3)との対比から、原画像信号IO3に含まれるフリッカ成分を打ち消すためのフリッカ補正値(上記フリッカ補正値αと同じ)を算出し、該フリッカ補正値を用いて原画像信号IO3の補正を行う。また、第2画像信号を原画像信号IO4と捉え、第1画像信号(IO2)と第2画像信号(IO4)との対比から、原画像信号IO4に含まれるフリッカ成分を打ち消すためのフリッカ補正値(上記フリッカ補正値βに対応)を算出し、該フリッカ補正値を用いて原画像信号IO4の補正を行う。また、第2画像信号を原画像信号IO5と捉え、第1画像信号(IO2)と第2画像信号(IO5)との対比から、原画像信号IO5に含まれるフリッカ成分を打ち消すためのフリッカ補正値(上記フリッカ補正値γに対応)を算出し、該フリッカ補正値を用いて原画像信号IO5の補正を行う。 In this case, the second image signal captured the original image signal I O3, from comparison between the first image signal (I O2) and the second image signal (I O3), canceling the flicker component contained in the original image signal I O3 Flicker correction value (same as the above flicker correction value α) is calculated, and the original image signal I O3 is corrected using the flicker correction value. Also, the second image signal captured the original image signal I O4, from comparison between the first image signal (I O2) and the second image signal (I O4), for canceling the flicker component contained in the original image signal I O4 Flicker correction value (corresponding to the flicker correction value β) is calculated, and the original image signal I O4 is corrected using the flicker correction value. Also, the second image signal captured the original image signal I O5, from comparison between the first image signal (I O2) and the second image signal (I O5), for canceling the flicker component contained in the original image signal I O5 Flicker correction value (corresponding to the flicker correction value γ) is calculated, and the original image signal I O5 is corrected using the flicker correction value.
但し、補正の基準となる第1画像信号を原画像信号IO2に固定した場合、被写体が動くことを考慮するとフリッカ補正の精度が悪化する。このため、上述してきたように、補正の基準となる第1画像信号を、順次変更していくことが望ましい。 However, the case of fixing the first image signal as a reference of correction to the original image signal I O2, the accuracy of the consideration of flicker correction that object moves deteriorated. For this reason, as described above, it is desirable to sequentially change the first image signal serving as a correction reference.
1枚の静止画の撮影を行うために3つのフレームFL3〜FL5を使用する場合を例示したが、絞り12の開口量の変化が十分に短時間で終了する場合、静止画撮影用フレームを1つのフレームとすることが可能である。例えば、フレームFL3のみが静止画撮影用フレームとなる。この場合、フレームFL1、FL2及びFL4〜FL6における露光時間及び絞り12の開口量は動画撮影用のTA及びDAとされ、フレームFL3における露光時間及び絞り12の開口量は静止画撮影用のTB及びDBとされる(図2参照)。 The case where the three frames FL3 to FL5 are used to shoot one still image is illustrated. However, when the change of the aperture amount of the diaphragm 12 is completed in a sufficiently short time, the still image shooting frame is set to 1 It is possible to have two frames. For example, only the frame FL3 is a still image shooting frame. In this case, the opening amount of the exposure time and the aperture 12 in the frame FL1, FL2 and FL4~FL6 are the T A and D A for moving image shooting, the opening amount of the exposure time and the aperture 12 in the frame FL3 is for still image shooting T B and D B (see FIG. 2).
静止画撮影用フレームが1つのフレームFL3から構成される場合の動作も、上述してきた動作と同様となる。単に、フレームFL4及びFL5に対応する原画像信号IO4及びIO5のフリッカ補正を行う必要がないだけである。勿論、複数枚の静止画を連続撮影する場合は、絞り12の開口量の変化速度に関係なく、連続する複数のフレームを静止画撮影用フレームとすることも可能である。 The operation when the still image shooting frame is composed of one frame FL3 is the same as the above-described operation. It is merely unnecessary to perform flicker correction of the original image signals I O4 and I O5 corresponding to the frames FL4 and FL5. Of course, when a plurality of still images are continuously photographed, a plurality of consecutive frames can be used as a still image photographing frame regardless of the changing speed of the aperture amount of the diaphragm 12.
また、図3において、M行N列の行列の1行目に属する領域AR[1:1]〜AR[1:N]は1つの検出領域を構成する。同様に、m行目に属する領域AR[m:1]〜AR[m:N]も1つの検出領域を構成する(ここにおけるmは、2〜Mの範囲内の何れかの整数)。各検出領域は、互いに異なる水平ライン上の画素を含む。また、図8または図9において、1行目に属する領域AR[1:1]は、1つの検出領域を構成する。同様に、m行目に属する領域AR[m:1]も1つの検出領域を構成する(ここにおけるmは、2〜Mの範囲内の何れかの整数)。 In FIG. 3, the areas AR [1: 1] to AR [1: N] belonging to the first row of the M rows and N columns matrix constitute one detection region. Similarly, the areas AR [m: 1] to AR [m: N] belonging to the mth row also constitute one detection area (where m is an integer in the range of 2 to M). Each detection area includes pixels on different horizontal lines. In FIG. 8 or FIG. 9, the area AR [1: 1] belonging to the first row constitutes one detection area. Similarly, the area AR [m: 1] belonging to the m-th row also constitutes one detection area (here, m is any integer in the range of 2 to M).
尚、上記の記載の「平均値」は、勿論、「積算値」であってもかまわない。 The “average value” described above may of course be an “integrated value”.
1 撮像装置
11 光学系
12 絞り
13 撮像素子
14 前処理部
17 ドライバ
18 タイミングジェネレータ
19 主制御部
20 信号処理部
21 画素数変換部
22 動き検出部
23 動画処理部
24 動画圧縮部
25 静止画処理部
26 静止画圧縮部
27 フリッカ検出部
28 フリッカ補正部
40 フレームメモリバッファ
41 外部記録媒体
42 操作部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Optical system 12 Aperture 13 Imaging element 14 Preprocessing part 17 Driver 18 Timing generator 19 Main control part 20 Signal processing part 21 Pixel number conversion part 22 Motion detection part 23 Movie processing part 24 Movie compression part 25 Still picture processing part 25 26 still image compression unit 27 flicker detection unit 28 flicker correction unit 40 frame memory buffer 41 external recording medium 42 operation unit
Claims (9)
動画撮影中に静止画を撮影する際、1又は2以上のフレームから成る静止画撮影用フレームの間、動画撮影用の露光時間と異なる露光時間を採用して撮影を行い、
前記信号処理部は、
その静止画の撮影前における前記動画撮影用の露光時間を採用した撮影によって得られる画像信号である基準画像信号と、前記静止画撮影用フレームの撮影によって得られる画像信号である補正対象画像信号と、の比較に基づいて、前記動画撮影用の露光時間と異なる前記露光時間を採用したことに起因して前記補正対象画像信号に含まれることになったフリッカ成分に応じたフリッカ補正値を算出するフリッカ補正値算出手段と、
前記フリッカ補正値を用いて、前記フリッカ成分を低減する方向に前記補正対象画像信号を補正するフリッカ補正手段と、を備える
ことを特徴とする撮像装置。 An image sensor for taking a picture and a signal processing unit for processing an image signal obtained by taking a picture using the image sensor while taking different exposure timings between different horizontal lines, and taking a video and a still picture In a possible imaging device,
When shooting a still image during movie shooting, an exposure time different from the exposure time for movie shooting is taken between still image shooting frames consisting of one or more frames,
The signal processing unit
A reference image signal that is an image signal obtained by photographing using the exposure time for moving image photographing before photographing the still image, and a correction target image signal that is an image signal obtained by photographing the still image photographing frame; Based on the comparison, the flicker correction value corresponding to the flicker component that is included in the correction target image signal due to the use of the exposure time different from the exposure time for moving image shooting is calculated. Flicker correction value calculation means;
An image pickup apparatus comprising: flicker correction means for correcting the correction target image signal in a direction of reducing the flicker component using the flicker correction value.
前記フリッカ補正値算出手段は、前記基準画像信号と前記第1補正対象画像信号との比較から前記フリッカ補正値として第1フリッカ補正値を算出し、前記フリッカ補正手段は、前記第1フリッカ補正値を用いて前記第1補正対象画像信号を補正し、
前記フリッカ補正値算出手段は、補正後の前記第1補正対象画像信号と前記第2補正対象画像信号との比較から前記フリッカ補正値として第2フリッカ補正値を算出し、前記フリッカ補正手段は、前記第2フリッカ補正値を用いて前記第2補正対象画像信号を補正し、・・・、
前記フリッカ補正値算出手段は、補正後の前記第(n−1)補正対象画像信号と前記第n補正対象画像信号との比較から前記フリッカ補正値として第nフリッカ補正値を算出し、前記フリッカ補正手段は、前記第nフリッカ補正値を用いて前記第n補正対象画像信号を補正する
ことを特徴とする請求項1に記載の撮像装置。 The still image shooting frame is composed of first, second,..., And nth frames (n is an integer of 2 or more), and the correction target image signal is first, second,. And the first, second,..., And nth correction target image signals corresponding to the nth frame,
The flicker correction value calculation means calculates a first flicker correction value as the flicker correction value from a comparison between the reference image signal and the first correction target image signal, and the flicker correction means calculates the first flicker correction value. The first correction target image signal is corrected using
The flicker correction value calculating means calculates a second flicker correction value as the flicker correction value from a comparison between the corrected first image signal and the second correction target image signal, and the flicker correction means Correcting the second correction target image signal using the second flicker correction value;
The flicker correction value calculating means calculates an nth flicker correction value as the flicker correction value from a comparison between the corrected (n−1) th correction target image signal and the nth correction target image signal, and the flicker The imaging apparatus according to claim 1, wherein the correction unit corrects the n-th correction target image signal using the n-th flicker correction value.
前記第1フリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の第1要素補正値から成り、前記第2フリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の第2要素補正値から成り、・・・、前記第nフリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の第n要素補正値から成り、
前記フリッカ補正値算出手段は、前記基準画像信号中の各検出領域に対応する信号と前記第1補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記第1補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各第1要素補正値を算出し、
補正後の前記第1補正対象画像信号中の各検出領域に対応する信号と前記第2補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記第2補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各第2要素補正値を算出し、・・・、
補正後の前記第(n−1)補正対象画像信号中の各検出領域に対応する信号と前記第n補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記第n補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各第n要素補正値を算出する
ことを特徴とする請求項2に記載の撮像装置。 A plurality of detection areas are provided in the imaging area of the imaging element, each detection area includes pixels on different horizontal lines,
The first flicker correction value includes a plurality of first element correction values each corresponding to one or more horizontal lines, and the second flicker correction value corresponds to one or more horizontal lines. The nth flicker correction value is composed of a plurality of nth element correction values each corresponding to one or more horizontal lines,
The flicker correction value calculating means compares the first signal for each detection region based on a comparison between a signal corresponding to each detection region in the reference image signal and a signal corresponding to each detection region in the first correction target image signal. By detecting the flicker component included in the correction target image signal, each first element correction value is calculated,
From the comparison between the signal corresponding to each detection region in the first correction target image signal after correction and the signal corresponding to each detection region in the second correction target image signal, the second correction target is detected for each detection region. By detecting the flicker component included in the image signal, each second element correction value is calculated,
From the comparison between the signal corresponding to each detection region in the (n−1) th correction target image signal after correction and the signal corresponding to each detection region in the nth correction target image signal, The imaging apparatus according to claim 2, wherein each n-th element correction value is calculated by detecting the flicker component included in the n-th correction target image signal.
前記記録手段には、前記第1フリッカ補正値を算出するための情報、前記第2フリッカ補正値を算出するための情報、・・・、及び、第nフリッカ補正値を算出するための情報が、順次更新されつつ記録される
ことを特徴とする請求項2または請求項3に記載の撮像装置。 Recording means for recording information necessary to calculate the first, second,..., And nth flicker correction values;
The recording means includes information for calculating the first flicker correction value, information for calculating the second flicker correction value,..., And information for calculating the nth flicker correction value. The image pickup apparatus according to claim 2, wherein the image pickup apparatus is recorded while being sequentially updated.
前記フリッカ補正値算出手段は、
前記基準画像信号から算出される比較対象値と前記第1補正対象画像信号から算出される比較対象値との比較から第1フリッカ補正値を算出し、
補正後の前記第1補正対象画像信号から算出される比較対象値と前記第2補正対象画像信号から算出される比較対象値との比較から第2フリッカ補正値を算出し、・・・、
補正後の前記第(n−1)補正対象画像信号から算出される比較対象値と前記第n補正対象画像信号から算出される比較対象値との比較から前記第nフリッカ補正値を算出し、
前記記録手段には、前記基準画像信号から算出される比較対象値、補正後の前記第1補正対象画像信号から算出される比較対象値、・・・、及び、補正後の前記第(n−1)補正対象画像信号から算出される比較対象値が、前記情報として順次更新されつつ記録される
ことを特徴とする請求項2または請求項3に記載の撮像装置。 Recording means for recording information necessary to calculate the first, second,..., And nth flicker correction values;
The flicker correction value calculating means includes
Calculating a first flicker correction value from a comparison between a comparison target value calculated from the reference image signal and a comparison target value calculated from the first correction target image signal;
A second flicker correction value is calculated from a comparison between the comparison target value calculated from the first correction target image signal after correction and the comparison target value calculated from the second correction target image signal;
Calculating the nth flicker correction value from a comparison between the comparison target value calculated from the corrected (n-1) th correction target image signal and the comparison target value calculated from the nth correction target image signal;
The recording means includes a comparison target value calculated from the reference image signal, a comparison target value calculated from the corrected first correction target image signal, and the corrected (n− 1) The imaging apparatus according to claim 2, wherein the comparison target value calculated from the correction target image signal is recorded while being sequentially updated as the information.
前記フリッカ補正値算出手段は、前記基準画像信号と前記第1、第2、・・・、及び第n補正対象画像信号との比較から、夫々、前記フリッカ補正値として第1、第2、・・・、及び第nフリッカ補正値を算出し、前記フリッカ補正手段は、第1、第2、・・・、及び第nフリッカ補正値を用いて、夫々、前記第1、第2、・・・、及び第n補正対象画像信号を補正する
ことを特徴とする請求項1に記載の撮像装置。 The still image shooting frame is composed of first, second,..., And nth frames (n is an integer of 2 or more), and the correction target image signal is first, second,. And the first, second,..., And nth correction target image signals corresponding to the nth frame,
The flicker correction value calculating means compares the reference image signal with the first, second,..., And nth correction target image signals, respectively, as the flicker correction value. And the nth flicker correction value is calculated, and the flicker correction means uses the first, second,..., And nth flicker correction values, respectively, for the first, second,. The imaging apparatus according to claim 1, wherein the n-th correction target image signal is corrected.
前記フリッカ補正値算出手段は、前記基準画像信号と前記補正対象画像信号との比較から前記フリッカ補正値を算出する
ことを特徴とする請求項1に記載の撮像装置。 When the still image shooting frame consists of one frame,
The imaging apparatus according to claim 1, wherein the flicker correction value calculating unit calculates the flicker correction value from a comparison between the reference image signal and the correction target image signal.
前記フリッカ補正値は、各々が1または2以上の水平ラインに対応する複数の要素補正値から成り、
前記フリッカ補正値算出手段は、前記基準画像信号中の各検出領域に対応する信号と前記補正対象画像信号中の各検出領域に対応する信号との比較から、検出領域ごとに前記補正対象画像信号に含まれる前記フリッカ成分を検出することにより、各要素補正値を算出する
ことを特徴とする請求項7に記載の撮像装置。 A plurality of detection areas are provided in the imaging area of the imaging element, each detection area includes pixels on different horizontal lines,
The flicker correction value includes a plurality of element correction values each corresponding to one or more horizontal lines,
The flicker correction value calculation means calculates the correction target image signal for each detection region based on a comparison between a signal corresponding to each detection region in the reference image signal and a signal corresponding to each detection region in the correction target image signal. The image pickup apparatus according to claim 7, wherein each element correction value is calculated by detecting the flicker component included in the image pickup apparatus.
ことを特徴とする請求項1〜請求項8の何れかに記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the image pickup element is an XY address scanning type image pickup element.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006072423A JP4739998B2 (en) | 2006-03-16 | 2006-03-16 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006072423A JP4739998B2 (en) | 2006-03-16 | 2006-03-16 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007251611A true JP2007251611A (en) | 2007-09-27 |
JP4739998B2 JP4739998B2 (en) | 2011-08-03 |
Family
ID=38595441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006072423A Expired - Fee Related JP4739998B2 (en) | 2006-03-16 | 2006-03-16 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4739998B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194770A (en) * | 2008-02-15 | 2009-08-27 | Casio Comput Co Ltd | IMAGING DEVICE, MOVIE REPRODUCTION DEVICE, AND PROGRAM THEREOF |
JP2010056685A (en) * | 2008-08-26 | 2010-03-11 | Sony Corp | Image capturing apparatus, correcting circuit, and correction method |
US8018497B2 (en) | 2007-10-26 | 2011-09-13 | Casio Computer Co., Ltd. | Image pick-up apparatus having still image advancing/retreating manipulation function, and method and non-transitory computer readable medium therefor |
US8094203B2 (en) | 2007-02-02 | 2012-01-10 | Casio Computer Co., Ltd. | Imaging apparatus having moving image shooting function |
JP2012160785A (en) * | 2011-01-28 | 2012-08-23 | Canon Inc | Image-capturing apparatus and control method therefor |
JP2015228616A (en) * | 2014-06-02 | 2015-12-17 | 株式会社リコー | Imaging apparatus, image correction program, and image processor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001016508A (en) * | 1999-06-30 | 2001-01-19 | Toshiba Corp | Solid-state image pickup device |
JP2006050031A (en) * | 2004-08-02 | 2006-02-16 | Hitachi Ltd | Imaging device |
-
2006
- 2006-03-16 JP JP2006072423A patent/JP4739998B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001016508A (en) * | 1999-06-30 | 2001-01-19 | Toshiba Corp | Solid-state image pickup device |
JP2006050031A (en) * | 2004-08-02 | 2006-02-16 | Hitachi Ltd | Imaging device |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8094203B2 (en) | 2007-02-02 | 2012-01-10 | Casio Computer Co., Ltd. | Imaging apparatus having moving image shooting function |
US8018497B2 (en) | 2007-10-26 | 2011-09-13 | Casio Computer Co., Ltd. | Image pick-up apparatus having still image advancing/retreating manipulation function, and method and non-transitory computer readable medium therefor |
JP2009194770A (en) * | 2008-02-15 | 2009-08-27 | Casio Comput Co Ltd | IMAGING DEVICE, MOVIE REPRODUCTION DEVICE, AND PROGRAM THEREOF |
JP4556195B2 (en) * | 2008-02-15 | 2010-10-06 | カシオ計算機株式会社 | Imaging device, moving image playback device, and program |
US7995104B2 (en) | 2008-02-15 | 2011-08-09 | Casio Computer Co., Ltd. | Image pick-up apparatus, image data processing apparatus, and recording medium |
JP2010056685A (en) * | 2008-08-26 | 2010-03-11 | Sony Corp | Image capturing apparatus, correcting circuit, and correction method |
JP4626689B2 (en) * | 2008-08-26 | 2011-02-09 | ソニー株式会社 | Imaging apparatus, correction circuit, and correction method |
US8218029B2 (en) | 2008-08-26 | 2012-07-10 | Sony Corporation | Image taking apparatus, correction circuit and correction method |
JP2012160785A (en) * | 2011-01-28 | 2012-08-23 | Canon Inc | Image-capturing apparatus and control method therefor |
US8970716B2 (en) | 2011-01-28 | 2015-03-03 | Canon Kabushiki Kaisha | Image-capturing apparatus and control method of the image-capturing apparatus |
JP2015228616A (en) * | 2014-06-02 | 2015-12-17 | 株式会社リコー | Imaging apparatus, image correction program, and image processor |
Also Published As
Publication number | Publication date |
---|---|
JP4739998B2 (en) | 2011-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5161706B2 (en) | Imaging apparatus and control method thereof | |
JP2009268073A (en) | Imaging apparatus, and signal processing method thereof | |
JP2000341577A (en) | Device and method for correcting camera shake | |
JP4646655B2 (en) | Solid-state imaging device, driving method thereof, and imaging system | |
CN102857700B (en) | Image capturing apparatus and method for controlling the image capturing apparatus | |
JP4404823B2 (en) | Imaging device | |
JP4739998B2 (en) | Imaging device | |
JP2003319240A (en) | Image pickup device | |
JP5199736B2 (en) | Imaging device | |
JP2018207413A (en) | Imaging apparatus | |
JP5829122B2 (en) | Imaging apparatus and evaluation value generation apparatus | |
JP2006148550A (en) | Image processor and imaging device | |
JP2007082044A (en) | Imaging method and imaging apparatus | |
US20070269133A1 (en) | Image-data noise reduction apparatus and method of controlling same | |
JPH1175105A (en) | Still image camera | |
JP2009135792A (en) | Imaging device and image signal processing method | |
JP6108854B2 (en) | Imaging apparatus and control method thereof | |
JP2007214772A (en) | Image signal processing apparatus | |
JP2014207503A (en) | Imaging apparatus and method for controlling the same | |
JP2006121165A (en) | Imaging apparatus and image forming method | |
JP2007228152A (en) | Solid-state image pick up device and method | |
JP2009118430A (en) | Imaging apparatus, method of driving the imaging apparatus, image generating apparatus and image generating method | |
JPH1175106A (en) | Still image camera | |
JP2000165752A (en) | Signal processing method for solid-state image pickup device, and solid-state image pickup device | |
JP2006279144A (en) | Distortion correction device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110428 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |