[go: up one dir, main page]

JP2014007622A - Image pick-up device and program - Google Patents

Image pick-up device and program Download PDF

Info

Publication number
JP2014007622A
JP2014007622A JP2012142688A JP2012142688A JP2014007622A JP 2014007622 A JP2014007622 A JP 2014007622A JP 2012142688 A JP2012142688 A JP 2012142688A JP 2012142688 A JP2012142688 A JP 2012142688A JP 2014007622 A JP2014007622 A JP 2014007622A
Authority
JP
Japan
Prior art keywords
imaging
image data
unit
recording
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012142688A
Other languages
Japanese (ja)
Inventor
Takeharu Takeuchi
丈晴 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012142688A priority Critical patent/JP2014007622A/en
Publication of JP2014007622A publication Critical patent/JP2014007622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】記録フレームレートと比較して撮影環境の変化の速度が速い場合でも、追従して撮影条件を更新することができるようにする。
【解決手段】間引きフレームにおける最初のフレームf12、f22...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、自動露出調整処理(AE)を行う。また、この処理と並行して、間引きフレームにおける次のフレームf13、f23...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、自動ホワイトバランス調整処理(AWB)を行う。更に、この処理と並行して、間引きフレームにおける最後のフレームf14、f24...〜に含まれるフレーム画像より検出された被写体の鮮明度(コントラスト)を基準として、AF処理を行う。
【選択図】図3
An imaging condition can be updated following a change in shooting environment faster than a recording frame rate.
First frames f12, f22. . . The automatic exposure adjustment processing (AE) is performed based on the image data (YUV data) of the luminance color difference signal of the frame image included in. In parallel with this processing, the next frames f13, f23. . . The automatic white balance adjustment process (AWB) is performed based on the image data (YUV data) of the luminance color difference signal of the frame image included in. Further, in parallel with this processing, the last frames f14, f24. . . AF processing is performed based on the sharpness (contrast) of the subject detected from the frame images included in.
[Selection] Figure 3

Description

本発明は、撮像装置、及びプログラムに関する。   The present invention relates to an imaging apparatus and a program.

従来より、通常のフレームレートでの記録と、これよりも高速なフレームレートでの記録とが可能な画像記録装置が知られている。この画像記録装置は、予め通常のフレームレート用、及び、高速なフレームレート用のプログラム線図を備え、対応するフレームレートで記録する場合には、そのモードに対応するプログラム線図を読み出し撮影条件を設定する(例えば、特許文献1参照)。   Conventionally, an image recording apparatus capable of recording at a normal frame rate and recording at a higher frame rate is known. This image recording apparatus is provided with a program diagram for a normal frame rate and a high frame rate in advance, and when recording at a corresponding frame rate, the program diagram corresponding to the mode is read and the photographing conditions Is set (see, for example, Patent Document 1).

特開2008−278316号公報JP 2008-278316 A

しかしながら、上記の技術を採用しても、通常のフレームレートでの撮影の場合、記録するフレーム画像において比較的大きな時間間隔が空くので、撮影環境の変化が激しい場合、その変化に合わせて撮影条件を更新する処理が追いつかなくなる問題があった。   However, even when the above technique is adopted, when shooting at a normal frame rate, a relatively large time interval is left in the frame image to be recorded. There was a problem that the process of updating could not catch up.

本発明はこのような問題点に鑑みて成されたものであり、記録フレームレートと比較して撮影環境の変化の速度が速い場合でも、追従して撮影条件を更新することができるようにすることを目的とする。   The present invention has been made in view of such a problem, and enables the shooting conditions to be updated following even when the shooting environment changes faster than the recording frame rate. For the purpose.

上記課題を解決するため、本発明の撮像装置は、
撮像手段と、この撮像手段を所定のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、を備えることを特徴とする。
In order to solve the above problems, an imaging apparatus according to the present invention provides:
Imaging means; output means for driving the imaging means at a predetermined frame rate to sequentially output frame image data; and frame image data output by the output means is regularly thinned to obtain frame image data for recording. An acquisition means for acquiring, and a setting means for setting a shooting condition for the next frame image data for recording using the thinned frame image data.

また、本発明のプログラムは、
撮像部を備える装置が有するコンピュータを、前記撮像部を第1のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、として機能させることを特徴とする。
The program of the present invention is
An apparatus having an imaging unit includes: an output unit that drives the imaging unit at a first frame rate and sequentially outputs frame image data; and the frame image data output by the output unit is regularly thinned out. An acquisition unit that acquires recording frame image data, and a setting unit that sets shooting conditions of the next recording frame image data using the thinned frame image data. To do.

本発明によれば、記録フレームレートと比較して撮影環境の変化の速度が速い場合でも、追従して撮影条件を更新することができるようにすることができる。   According to the present invention, it is possible to follow and update the shooting conditions even when the change rate of the shooting environment is faster than the recording frame rate.

本発明を適用した実施形態1及び2の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 and 2 to which this invention is applied. 実施形態1における図1の撮像装置による撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an imaging process performed by the imaging apparatus in FIG. 1 according to the first embodiment. 図2の撮像処理を説明するための図である。It is a figure for demonstrating the imaging process of FIG. 実施形態2における図1の撮像装置による撮像処理に係る動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation related to an imaging process performed by the imaging apparatus in FIG. 1 according to the second embodiment. 図4の撮像処理を説明するための図である。It is a figure for demonstrating the imaging process of FIG.

以下、本発明の実施形態について説明する。
[実施形態1]
図1は、本発明を適用した実施形態1及び実施形態2に共通する撮像装置100の概略構成を示すブロック図である。
実施形態1の撮像装置100は、被写体の動画像を1つの連続した動画像データとして記録中に、撮像される被写体の状態変化に合わせて当該被写体の撮像条件を調整し、動画像データの記録中に、動画像を記録する際のフレームレートが高速記録フレームレートからこれよりも低速の通常記録フレームレートに切り替えられた場合には、この通常記録フレームレートでの記録中における撮像条件を調整する。
Hereinafter, embodiments of the present invention will be described.
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus 100 common to Embodiments 1 and 2 to which the present invention is applied.
While the moving image of the subject is recorded as one continuous moving image data, the imaging apparatus 100 according to the first embodiment adjusts the imaging condition of the subject in accordance with a change in the state of the captured image, and records the moving image data. If the frame rate for recording a moving image is switched from a high-speed recording frame rate to a lower normal recording frame rate, the imaging conditions during recording at the normal recording frame rate are adjusted. .

具体的には、図1に示すように、撮像装置100は、レンズ部1、電子撮像部2、ユニット回路部3、画像生成部4、被写体検出部5、撮像制御部6、画像処理部7、表示制御部8、表示部9、記録媒体制御部10、操作入力部11、バッファメモリ12、プログラ
ムメモリ13、中央制御部14等を備えている。
画像生成部4、被写体検出部5、撮像制御部6、画像処理部7、表示制御部8、記録媒体制御部10、バッファメモリ12、プログラムメモリ13、中央制御部14は、バスライン15を介して接続されている。
Specifically, as illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 1, an electronic imaging unit 2, a unit circuit unit 3, an image generation unit 4, a subject detection unit 5, an imaging control unit 6, and an image processing unit 7. A display control unit 8, a display unit 9, a recording medium control unit 10, an operation input unit 11, a buffer memory 12, a program memory 13, a central control unit 14, and the like.
The image generation unit 4, the subject detection unit 5, the imaging control unit 6, the image processing unit 7, the display control unit 8, the recording medium control unit 10, the buffer memory 12, the program memory 13, and the central control unit 14 are connected via a bus line 15. Connected.

レンズ部1は、図示は省略するが、ズームレンズ、フォーカスレンズ、絞り等を備え、これらレンズを通過した被写体の光学像を結像するものである。   Although not shown, the lens unit 1 includes a zoom lens, a focus lens, a diaphragm, and the like, and forms an optical image of a subject that has passed through these lenses.

電子撮像部2は、レンズ部1の光軸上に配置されている。また、電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を撮像フレームレートに応じた所定の周期毎に二次元の画像信号(RGB画像データ)に変換して、ユニット回路部3に出力する。   The electronic imaging unit 2 is disposed on the optical axis of the lens unit 1. The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and an optical image that has passed through various lenses of the lens unit 1 according to the imaging frame rate. Then, it is converted into a two-dimensional image signal (RGB image data) every predetermined period and output to the unit circuit unit 3.

ユニット回路部3は、図示は省略するが、CDS(Correlated Double Sampling:相関二重サンプリング回路)、AGC(Auto Gain Control:ゲイン調整アンプ)、ADC(Analog to Digital Converter:アナログ/デジタル変換器)等を具備している。このユニット回路部3は、電子撮像部2から出力されて入力される被写体の光学像に応じたアナログの画像信号を記録フレームレートに応じた所定の周期毎にCDSにより保持し、当該画像信号をAGCにより増幅した後、増幅された画像信号をADCによりデジタルの画像信号に変換する。また、ユニット回路部3は、デジタルの画像信号を画像生成部4に送信する。   Although not shown, the unit circuit unit 3 includes a CDS (Correlated Double Sampling), an AGC (Auto Gain Control), an ADC (Analog to Digital Converter), and the like. It has. The unit circuit unit 3 holds an analog image signal corresponding to the optical image of the subject output from the electronic image pickup unit 2 and input by the CDS at a predetermined period corresponding to the recording frame rate, and stores the image signal. After amplification by AGC, the amplified image signal is converted into a digital image signal by ADC. The unit circuit unit 3 transmits a digital image signal to the image generation unit 4.

このように、レンズ部1、電子撮像部2及びユニット回路部3は、被写体を撮像してフレーム画像データを順次出力する出力手段を構成している。   As described above, the lens unit 1, the electronic imaging unit 2, and the unit circuit unit 3 constitute output means for imaging a subject and sequentially outputting frame image data.

画像生成部4は、ユニット回路部3から送られてきたデジタルの画像信号からデジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
具体的には、画像生成部4は、所定の周期毎にユニット回路部3から送られてきた各フレーム画像のデジタルの画像データに対して、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理をそれぞれ行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
The image generation unit 4 generates a digital luminance signal Y and color difference signals Cb, Cr (YUV data) from the digital image signal sent from the unit circuit unit 3.
Specifically, the image generation unit 4 performs pixel interpolation processing and γ on the digital image data of each frame image sent from the unit circuit unit 3 at predetermined intervals by a color process circuit (not shown). After performing color process processing including correction processing, a digital luminance signal Y and color difference signals Cb and Cr (YUV data) are generated.

ここで、撮像装置100が、動画像を撮像して動画像データとして記録する処理を行う際のフレームレートには、電子撮像部2が動画像を撮像するフレームレートを示す撮像フレームレート、撮像条件調整部6cが撮像条件を調整するフレームレートを示す調整フレームレート、および画像生成部が各フレームの画像を生成して動画像データとして記録媒体Mに記録するフレームレートを示す記録フレームレートなどがある。この実施形態1においては、撮像フレームレートを120fpsに固定し、調整に用いるフレームや記録に用いるフレームを間引くことで、調整フレームレートや記録フレームレートを30fps変化させるものとする。
このような動作を行うことで、調整フレームレートや記録フレームレートを切り替える際のフレームのずれなどが発生せず、容易に素早く調整フレームレートや記録フレームレートの切り替えを行うことが可能となる。
Here, the frame rate when the imaging apparatus 100 performs processing for capturing a moving image and recording it as moving image data includes an imaging frame rate indicating a frame rate at which the electronic imaging unit 2 captures a moving image, and imaging conditions. There are an adjustment frame rate indicating a frame rate at which the adjustment unit 6c adjusts an imaging condition, a recording frame rate indicating a frame rate at which the image generation unit generates an image of each frame and records it as moving image data on the recording medium M, and the like. . In the first embodiment, the imaging frame rate is fixed to 120 fps, and the adjustment frame rate and the recording frame rate are changed by 30 fps by thinning out the frame used for adjustment and the frame used for recording.
By performing such an operation, it is possible to easily and quickly switch the adjustment frame rate and the recording frame rate without causing a frame shift or the like when switching the adjustment frame rate or the recording frame rate.

上記記録フレームレートは、通常の動画撮影に対応するフレームレート(上記通常記録フレームレート)と、当該通常の動画撮影よりも高速の動画撮影に対応するフレームレート(上記高速記録フレームレート)がある。本実施形態では、通常動画撮影に対応する通常記録フレームレートは30fpsであり、高速動画撮影に対応する高速記録フレームレートは、その4倍にあたる120fpsとする。しかし、これら一例であってこれらに限られるものではなく、適宜任意に変更可能である。
そして、画像生成部4は、生成された輝度色差信号の画像データを、被写体検出部5、撮像制御部6及び画像処理部7に出力する。
The recording frame rate includes a frame rate corresponding to normal moving image shooting (the normal recording frame rate) and a frame rate corresponding to moving image shooting at a higher speed than the normal moving image shooting (the high speed recording frame rate). In this embodiment, the normal recording frame rate corresponding to normal moving image shooting is 30 fps, and the high speed recording frame rate corresponding to high speed moving image shooting is 120 fps, which is four times that. However, these are examples and are not limited to these, and can be arbitrarily changed as appropriate.
Then, the image generation unit 4 outputs the generated image data of the luminance color difference signal to the subject detection unit 5, the imaging control unit 6, and the image processing unit 7.

被写体検出部5は、画像生成部4から出力された各フレーム画像の輝度色差信号の画像データから特定の被写体を検出する。   The subject detection unit 5 detects a specific subject from the image data of the luminance color difference signal of each frame image output from the image generation unit 4.

すなわち、被写体検出部5は、各フレーム画像の画像データ(YUVデータ)を取得して、当該画像データに対して、例えば、顔検出処理、エッジ検出処理、特徴抽出処理等の各種画像処理を行って特定の被写体が含まれる領域(例えば、顔領域等)を検出する。具体的には、被写体検出部5は、例えば、顔検出処理、エッジ検出処理、特徴抽出処理等の各種画像処理によって特定の被写体の候補となる候補領域を抽出し、抽出された候補領域の中で所定の識別条件を満たすものを特定の被写体として検出する。   That is, the subject detection unit 5 acquires image data (YUV data) of each frame image, and performs various image processing such as face detection processing, edge detection processing, and feature extraction processing on the image data. Then, an area including a specific subject (for example, a face area) is detected. Specifically, the subject detection unit 5 extracts candidate regions that are candidates for a specific subject by various image processing such as face detection processing, edge detection processing, and feature extraction processing, and the like. Then, those satisfying a predetermined identification condition are detected as specific subjects.

なお、所定の識別条件としては、例えば、「ヒトの顔」や「動物」などの形状を基準とするものや、画角全体の画像に対する割合(例えば、半分以上であるか)などの大きさを基準とするものや、明度や彩度が高く鮮やかな(派手な)色合いであるか否かや肌色であるか否かなどの色調を基準とするもの等が挙げられる。
また、顔検出処理やエッジ検出処理や特徴抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The predetermined identification conditions include, for example, a size based on a shape such as “human face” or “animal”, or a ratio (for example, half or more) of the entire angle of view with respect to the image. On the basis of color, and on the basis of color tone such as whether the color is bright or bright with high brightness and saturation or whether it is a skin color.
Further, the face detection process, the edge detection process, and the feature extraction process are known techniques, and thus detailed description thereof is omitted here.

撮像制御部6は、レンズ部1、電子撮像部2、ユニット回路部3等の動作を制御する。
すなわち、撮像制御部6は、例えば、モータ等の駆動源と、この駆動源を駆動するドライバ等(何れも図示略)を備え、レンズ部1のズームレンズやフォーカスレンズを光軸方向に駆動させる。また、撮像制御部6は、例えば、レンズ部1の絞りの拡径や縮径を行う絞り駆動部(図示略)を備え、撮像条件調整部6c(後述)により調整された露出調整条件に応じて絞りの拡径や縮径を行う。
The imaging control unit 6 controls operations of the lens unit 1, the electronic imaging unit 2, the unit circuit unit 3, and the like.
In other words, the imaging control unit 6 includes, for example, a drive source such as a motor and a driver (not shown) for driving the drive source, and drives the zoom lens and the focus lens of the lens unit 1 in the optical axis direction. . In addition, the imaging control unit 6 includes, for example, a diaphragm driving unit (not shown) that expands and contracts the aperture of the lens unit 1 and responds to the exposure adjustment condition adjusted by the imaging condition adjustment unit 6c (described later). To increase or decrease the diameter of the diaphragm.

また、撮像制御部6は、例えば、TG(Timing Generator)、電子撮像部2を駆動するドライバ等(何れも図示略)を備え、撮像フレームレートや撮像条件調整部6cにより調整された撮像条件(例えば、露光時間等)に従ってTG及びドライバを介して電子撮像部2の動作タイミングを制御する。また、撮像制御部6は、記録フレームレートに従ってユニット回路部3の動作タイミングを制御する。   The imaging control unit 6 includes, for example, a TG (Timing Generator), a driver for driving the electronic imaging unit 2, and the like (both not shown), and the imaging conditions adjusted by the imaging frame rate and the imaging condition adjustment unit 6c ( For example, the operation timing of the electronic imaging unit 2 is controlled via the TG and the driver according to the exposure time and the like. Further, the imaging control unit 6 controls the operation timing of the unit circuit unit 3 in accordance with the recording frame rate.

すなわち、撮像制御部6は、電子撮像部2を撮像フレームレートや撮像条件(例えば、露光時間等)に従った所定のタイミングで動作させて被写体の光学像をアナログの画像信号に変換させ、ユニット回路部3を所定の記録フレームレート(通常動画撮影に対応する通常記録フレームレート)に従った所定のタイミングで動作させて、電子撮像部2から出力されて入力される被写体の光学像に応じたアナログの画像信号をデジタルの画像信号(フレーム画像)に変換させる。   That is, the imaging control unit 6 operates the electronic imaging unit 2 at a predetermined timing according to the imaging frame rate and imaging conditions (for example, exposure time, etc.) to convert the optical image of the subject into an analog image signal. The circuit unit 3 is operated at a predetermined timing in accordance with a predetermined recording frame rate (a normal recording frame rate corresponding to normal moving image shooting), and according to an optical image of a subject output and input from the electronic imaging unit 2 An analog image signal is converted into a digital image signal (frame image).

このとき、ユーザによる操作入力部11の所定操作に基づいて記録フレームレートの切替指示が入力されると、撮像制御部6は、記録フレームレート設定部6a(後述)により切替えて設定された記録フレームレート(高速動画撮影に対応する高速記録フレームレート)に応じた所定の周期毎に、電子撮像部2から出力されて入力される被写体の光学像に応じたアナログの画像信号をユニット回路部3によりデジタルの画像信号(フレーム画像)に変換させる。   At this time, when a recording frame rate switching instruction is input based on a predetermined operation of the operation input unit 11 by the user, the imaging control unit 6 switches the recording frame set by a recording frame rate setting unit 6a (described later). The unit circuit unit 3 outputs an analog image signal corresponding to the optical image of the subject output and input from the electronic imaging unit 2 at a predetermined period corresponding to the rate (high-speed recording frame rate corresponding to high-speed moving image shooting). It is converted into a digital image signal (frame image).

また、撮像制御部6は、記録フレームレート設定部6aと、状態検出部6bと、撮像条件調整部6cを具備している。   The imaging control unit 6 includes a recording frame rate setting unit 6a, a state detection unit 6b, and an imaging condition adjustment unit 6c.

記録フレームレート設定部6aは、記録フレームレートを設定する。
すなわち、記録フレームレート設定部6aは、ユニット回路部3の駆動周期に係る記録フレームレートをユーザによる操作入力部11の所定操作に基づいて設定する。具体的には、通常動画撮影及び高速動画撮影の各々に対応する記録フレームレートのうち、ユーザによる操作入力部11の選択決定用ボタン11bの所定操作に基づいて指定された記録フレームレートの設定信号を中央制御部14に出力する。中央制御部14は、操作入力部11から出力され入力された設定信号を撮像制御部6に出力し、撮像制御部6の記録フレームレート設定部6aは、入力された設定信号に応じた記録フレームレートを設定する。つまり、1つの連続した動画像データの記録中に、ユーザによって選択決定用ボタン11bが所定操作されることで、記録フレームレート設定部6aは、記録フレームレートを通常記録フレームレートと高速記録フレームレートとに切り替えて設定する。
The recording frame rate setting unit 6a sets a recording frame rate.
That is, the recording frame rate setting unit 6 a sets the recording frame rate related to the driving cycle of the unit circuit unit 3 based on a predetermined operation of the operation input unit 11 by the user. Specifically, among the recording frame rates corresponding to each of the normal moving image shooting and the high-speed moving image shooting, a recording frame rate setting signal designated based on a predetermined operation of the selection determination button 11b of the operation input unit 11 by the user. Is output to the central control unit 14. The central control unit 14 outputs the input setting signal output from the operation input unit 11 to the imaging control unit 6, and the recording frame rate setting unit 6a of the imaging control unit 6 records frames corresponding to the input setting signal. Set the rate. That is, the recording frame rate setting unit 6a causes the recording frame rate to be set to the normal recording frame rate and the high-speed recording frame rate by a predetermined operation of the selection decision button 11b by the user during recording of one continuous moving image data. Switch to and set.

状態検出部6bは、被写体の撮像により生成された動画像を構成する複数のフレーム画像に基づいて、被写体の状態を検出する。すなわち、状態検出部6bは、画像生成部4から出力された各フレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、各フレーム画像の明るさや色合いを検出する。
具体的には、例えば、フレーム画像の明るさを検出する場合、状態検出部6bは、所定の測光方法(例えば、中央重点測光方法、スポット測光方法、平均測光方法、多分割測光方法等)に応じて各フレーム画像の輝度信号(Y)に基づいて当該フレーム画像の明るさを検出する。また、例えば、フレーム画像の色合いを検出する場合、状態検出部6bは、各フレーム画像のYUVデータをHSV色空間の画像データに変換した後、彩度S及び明度Vのヒストグラムから光源(例えば、太陽光、蛍光灯、晴天、曇天等)の色温度に応じたグレー画素推定条件を算出する。そして、状態検出部6bは、グレー画素推定条件に基づいて各フレーム画像に含まれるグレー成分を推定する。
The state detection unit 6b detects the state of the subject based on a plurality of frame images constituting a moving image generated by capturing the subject. That is, the state detection unit 6b detects the brightness and hue of each frame image based on the image data (YUV data) of the luminance / color difference signal of each frame image output from the image generation unit 4.
Specifically, for example, when detecting the brightness of a frame image, the state detection unit 6b uses a predetermined photometry method (for example, center-weighted photometry method, spot photometry method, average photometry method, multi-division photometry method, etc.). Accordingly, the brightness of the frame image is detected based on the luminance signal (Y) of each frame image. For example, when detecting the hue of a frame image, the state detection unit 6b converts the YUV data of each frame image into image data in the HSV color space, and then uses a light source (for example, a saturation S and brightness V histogram). The gray pixel estimation condition corresponding to the color temperature of sunlight, fluorescent light, clear sky, cloudy sky, etc.) is calculated. And the state detection part 6b estimates the gray component contained in each frame image based on a gray pixel estimation condition.

このとき、状態検出部6bは、各フレーム画像から被写体検出部5により検出された特定の被写体(例えば、人の顔領域等)を基準として各フレーム画像の明るさや色合いの検出を行っても良い。
なお、中央重点測光方法とは、フレーム画像の中央部に重点をおいて測光する測光方法であり、スポット測光方法とは、フレーム画像の所定領域に限定して測光する測光方法であり、平均測光方法とは、フレーム画像全面で測光してその平均値をとる測光方法であり、多分割測光方法とは、フレーム画像を複数の領域に分けてそれぞれ独立して測光する測光方法である。
At this time, the state detection unit 6b may detect the brightness and hue of each frame image based on a specific subject (for example, a human face area) detected by the subject detection unit 5 from each frame image. .
Note that the center-weighted metering method is a metering method that focuses on the center of the frame image, and the spot metering method is a metering method that performs metering only on a predetermined area of the frame image. The method is a photometry method in which photometry is performed on the entire surface of the frame image and an average value thereof is obtained. The multi-division photometry method is a photometry method in which the frame image is divided into a plurality of areas and independently metered.

さらに、状態検出部6bは、被写体の撮像により生成された動画像を構成する複数のフレーム画像に基づいて、被写体の鮮明度や、被写体の大きさ検出する。   Further, the state detection unit 6b detects the sharpness of the subject and the size of the subject based on a plurality of frame images constituting a moving image generated by imaging the subject.

撮像条件調整部6cは、後述する間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段を構成するものであって、間引かれたフレーム画像データにおける被写体の状態変化に合わせて、撮像制御部6により設定される当該被写体の撮像条件を調整する。すなわち、撮像条件調整部6cは、状態検出部6bにより検出された被写体の状態に基づいて各種撮影条件を調整する。
この撮影条件とは、例えば、撮像制御部6による自動露出調整処理(AE)、自動ホワイトバランス調整処理(AWB)に係る露出調整条件やホワイトバランス調整条件、オートフォーカス調整処理(AF)、ズーム処理(ZOOM)に係るフォーカス調整条件やズーム調整条件である。
The imaging condition adjusting unit 6c constitutes setting means for setting shooting conditions of the next recording frame image data using the thinned frame image data described later, and the thinned frame image The imaging condition of the subject set by the imaging control unit 6 is adjusted in accordance with the change in the state of the subject in the data. In other words, the imaging condition adjustment unit 6c adjusts various imaging conditions based on the state of the subject detected by the state detection unit 6b.
The photographing conditions include, for example, automatic exposure adjustment processing (AE) by the imaging control unit 6, exposure adjustment conditions and white balance adjustment conditions related to automatic white balance adjustment processing (AWB), auto focus adjustment processing (AF), and zoom processing. This is a focus adjustment condition or zoom adjustment condition related to (ZOOM).

具体的には、自動露出調整処理(AE)に係る露出調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体の明るさを基準として、所定のプログラム線図に基づいて、レンズ部1における絞りの絞り値、電子撮像部2のシャッター速度やユニット回路のAGCの信号増幅率(ISO感度)等を調整する。自動ホワイトバランス調整処理(AWB)に係るホワイトバランス調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体のグレー成分の色(色合い)を基準として、フレーム画像の各画素のRGBの各色成分のゲイン量を調整する。   Specifically, when adjusting the exposure adjustment condition related to the automatic exposure adjustment process (AE), the imaging condition adjustment unit 6c uses a predetermined program diagram based on the brightness of the subject detected by the state detection unit 6b. The aperture value of the diaphragm in the lens unit 1, the shutter speed of the electronic imaging unit 2, the AGC signal amplification factor (ISO sensitivity) of the unit circuit, and the like are adjusted. When adjusting the white balance adjustment condition related to the automatic white balance adjustment process (AWB), the imaging condition adjustment unit 6c uses the gray component color (hue) of the subject detected by the state detection unit 6b as a reference. The gain amount of each color component of RGB of each pixel is adjusted.

ここで、撮像条件調整部6cは、被写体検出部5により検出された特定の被写体(例えば、人の顔領域等)を基準として、露出調整条件及びホワイトバランス調整条件の少なくとも一方を調整しても良い。すなわち、撮像条件調整部6cは、例えば、被写体検出部5により検出された人の顔領域の明るさを基準として露出調整条件を調整しても良いし、顔領域の色合いを基準としてホワイトバランス調整条件を調整しても良い。   Here, the imaging condition adjustment unit 6c may adjust at least one of the exposure adjustment condition and the white balance adjustment condition with reference to a specific subject (for example, a human face area) detected by the subject detection unit 5. good. That is, for example, the imaging condition adjustment unit 6c may adjust the exposure adjustment condition based on the brightness of the human face area detected by the subject detection unit 5, or adjust the white balance based on the hue of the face area. Conditions may be adjusted.

また、オートフォーカス調整処理(AF)に係るフォーカス調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体の鮮明度を基準として、所定のプログラム線図に基づいて、レンズ部1におけるフォーカスモータを駆動する。ズーム処理(ZOOM)に係るフォーカス調整条件やズーム調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体の大きさに基づいて、レンズ部1におけるズームモータを駆動する。   Further, when adjusting the focus adjustment condition related to the autofocus adjustment process (AF), the imaging condition adjustment unit 6c is based on a predetermined program diagram with reference to the sharpness of the subject detected by the state detection unit 6b. The focus motor in the lens unit 1 is driven. When adjusting the focus adjustment condition or zoom adjustment condition related to zoom processing (ZOOM), the imaging condition adjustment unit 6c drives the zoom motor in the lens unit 1 based on the size of the subject detected by the state detection unit 6b. To do.

また、撮像制御部6は、記録フレームレートに応じて撮像条件調整部6cによる撮像条件の調整を制限する。具体的には、撮像制御部6は、通常記録フレームレートで動画像を記録する際に、被写体の撮像条件を被写体の状態変化に追従させるように撮像条件調整部6cにより逐次調整させる。すなわち、撮像制御部6は、通常動画撮影に対応する記録フレームレートに応じた周期で撮像されるフレーム画像に対して、撮像条件調整部6cにより露出調整条件やホワイトバランス調整条件等の被写体の撮像条件を被写体の状態変化に追従させるように逐次調整させる。   Further, the imaging control unit 6 limits the adjustment of the imaging condition by the imaging condition adjustment unit 6c according to the recording frame rate. Specifically, when recording a moving image at the normal recording frame rate, the imaging control unit 6 sequentially adjusts the imaging condition of the subject by the imaging condition adjustment unit 6c so as to follow the state change of the subject. That is, the imaging control unit 6 captures an object such as an exposure adjustment condition and a white balance adjustment condition by the imaging condition adjustment unit 6c with respect to a frame image captured at a period corresponding to a recording frame rate corresponding to normal moving image shooting. The condition is sequentially adjusted so as to follow the state change of the subject.

画像処理部7は、画像生成部4により生成された画像データ(YUVデータ)を所定の符号化方式(例えば、Motion−JPEG方式等)により圧縮・符号化する符号化部(図示略)や、記録媒体制御部10から読み出された符号化された画像データを当該符号化方式に対応する復号化方式で復号化する復号化部等(何れも図示略)を具備している。   The image processing unit 7 includes an encoding unit (not shown) that compresses and encodes image data (YUV data) generated by the image generation unit 4 using a predetermined encoding method (for example, Motion-JPEG method), A decoding unit (not shown) for decoding the encoded image data read from the recording medium control unit 10 using a decoding method corresponding to the encoding method is provided.

表示制御部8は、バッファメモリ12に一時的に記憶されている表示用の画像データを読み出して表示部9に表示させる制御を行う。
具体的には、表示制御部8は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、バッファメモリ12から読み出されてVRAM(図示略)に記憶されている動画像を構成する複数のフレーム画像の輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレートで読み出して、これらのデータを元にビデオ信号を発生して表示部9に出力する。
The display control unit 8 performs control to read display image data temporarily stored in the buffer memory 12 and display the read image data on the display unit 9.
Specifically, the display control unit 8 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder receives the luminance signal Y and the color difference signals Cb and Cr of the plurality of frame images constituting the moving image read from the buffer memory 12 and stored in the VRAM (not shown) via the VRAM controller. The data is read from the VRAM at a predetermined reproduction frame rate, and a video signal is generated based on these data and output to the display unit 9.

表示部9は、液晶表示パネルであり、表示制御部8からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部9は、静止画撮像モードや動画撮像モードにて、電子撮像部2及び撮像制御部6による被写体の撮像により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部9は、動画として記録中の複数のフレーム画像を表示したり、静止画として記録される画像(レックビュー画像)を表示する。   The display unit 9 is a liquid crystal display panel, and displays an image captured by the electronic imaging unit 2 on the display screen based on the video signal from the display control unit 8. Specifically, the display unit 9 sequentially updates a plurality of frame images generated by imaging the subject by the electronic imaging unit 2 and the imaging control unit 6 at a predetermined frame rate in the still image capturing mode and the moving image capturing mode. While displaying the live view image. Further, the display unit 9 displays a plurality of frame images being recorded as moving images, or displays an image (rec view image) recorded as a still image.

記録媒体制御部10は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。
具体的には、記録媒体制御部10は、画像処理部7の符号化部(図示略)により所定の圧縮形式(例えば、Motion−JPEG形式等)で符号化された記録用の画像データ、すなわち、レンズ部1、電子撮像部2及びユニット回路部3により逐次撮像される複数のフレーム画像から構成される被写体の動画像を1つの連続した動画像データとして記録媒体Mに記録させる。
なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The recording medium control unit 10 is configured such that the recording medium M is detachable, and controls reading of data from the loaded recording medium M and writing of data to the recording medium M.
Specifically, the recording medium control unit 10 records image data encoded in a predetermined compression format (for example, Motion-JPEG format) by an encoding unit (not shown) of the image processing unit 7, that is, Then, a moving image of a subject composed of a plurality of frame images sequentially captured by the lens unit 1, the electronic imaging unit 2, and the unit circuit unit 3 is recorded on the recording medium M as one continuous moving image data.
The recording medium M is composed of, for example, a non-volatile memory (flash memory) or the like. However, the recording medium M is an example and is not limited to this, and can be arbitrarily changed as appropriate.

操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係り、半押し及び全押し操作可能なシャッタボタン11a、撮像モードや機能等の選択指示に係る選択決定用ボタン11b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部14に出力する。   The operation input unit 11 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 11 is related to a subject shooting instruction, a shutter button 11a that can be half-pressed and fully pressed, a selection determination button 11b that is related to a selection instruction such as an imaging mode or a function, and a zoom amount adjustment. A zoom button (not shown) or the like according to instructions is provided, and a predetermined operation signal is output to the central control unit 14 in response to the operation of these buttons.

バッファメモリ12は、画像データ等を一時保存するバッファであるとともに、中央制御部14のワーキングメモリ等としても使用される。
プログラムメモリ13には、当該撮像装置100の機能に係る各種プログラムやデータが格納されている。
The buffer memory 12 is a buffer for temporarily storing image data and the like, and is also used as a working memory for the central control unit 14.
The program memory 13 stores various programs and data related to the functions of the imaging apparatus 100.

中央制御部14は、撮像装置100の各部を制御する。具体的には、中央制御部14は、撮像装置100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 14 controls each unit of the imaging device 100. Specifically, the central control unit 14 includes a CPU (not shown) that controls each unit of the imaging apparatus 100, and performs various control operations according to various processing programs (not shown).

次に、撮像装置100による撮像処理について、図2及び図3を参照して説明する。   Next, imaging processing by the imaging apparatus 100 will be described with reference to FIGS.

図2は、実施形態1における撮像処理に係る動作の一例を示すフローチャートである。また、図3は、撮像処理を説明するための図である。   FIG. 2 is a flowchart illustrating an example of an operation related to the imaging process in the first embodiment. FIG. 3 is a diagram for explaining the imaging process.

なお、図3において、1sは1秒の時間的長さを示し、120fpsにおける120個のフレームは、1s内において30個ずつのフレームで構成される各フレーム群f11〜f14に区分して示している。したがって、各フレーム群fの時間的長さは250msecであり、また、各フレーム群fはそれぞれ30枚のフレーム画像を含んでなる。   In FIG. 3, 1s indicates a time length of 1 second, and 120 frames at 120 fps are divided into frame groups f11 to f14 configured by 30 frames in 1s. Yes. Therefore, the time length of each frame group f is 250 msec, and each frame group f includes 30 frame images.

そして、以下の撮像処理は、ユーザによる操作入力部11の選択決定用ボタン11bの所定操作に基づいて、複数の撮像モードの中から動画像の撮像モードが選択指示された場合に実行される。また、撮像処理は、動画像の撮像指示が入力されると開始され、動画像の撮像の終了指示が入力されるまで、各ステップの処理を繰り返し実行する。   The following imaging processing is executed when a moving image imaging mode is selected from a plurality of imaging modes based on a predetermined operation of the selection determination button 11b of the operation input unit 11 by the user. The imaging process is started when a moving image imaging instruction is input, and the process of each step is repeatedly executed until a moving image imaging end instruction is input.

先ず、撮像制御部6は、電子撮像部2のイメージセンサを図2に示すように、所定の撮像フレームレート(120fps)で駆動させて、レンズ部1により結像された被写体の光学像を二次元の画像信号(RGB画像データ)に変換させることでフレーム画像の取り込みを行う(ステップS1)。   First, as shown in FIG. 2, the imaging control unit 6 drives the image sensor of the electronic imaging unit 2 at a predetermined imaging frame rate (120 fps) to generate two optical images of the subject imaged by the lens unit 1. A frame image is captured by converting it into a three-dimensional image signal (RGB image data) (step S1).

次に、撮像制御部6は、記録フレームレートに応じて処理を分岐させる(ステップS2)。具体的には、撮像制御部6は、記録フレームレートが通常記録フレームレート(30fps)である場合には(ステップS2;通常動画撮影フレームレート)、処理をステップS3に移行させる一方で、記録フレームレートが高速記録フレームレート(120fps)である場合には(ステップS2;高速動画撮影フレームレート)、処理をステップS9に移行させる。   Next, the imaging control unit 6 branches the process according to the recording frame rate (step S2). Specifically, when the recording frame rate is the normal recording frame rate (30 fps) (step S2; normal moving image shooting frame rate), the imaging control unit 6 shifts the processing to step S3 while recording frames. If the rate is the high-speed recording frame rate (120 fps) (step S2; high-speed moving image shooting frame rate), the process proceeds to step S9.

<通常動画撮影フレームレート>
ステップS2にて、通常動画撮影に対応する通常記録フレームレート(30fps)である場合(ステップS2;通常動画撮影フレームレート)には、撮像制御部6は、当該通常動画撮影の記録フレームレートに応じて処理対象となるフレーム画像を、所定の撮像フレームレート(本実施形態では120fps)で次々と取り込まれるフレーム画像の中から間引いて(この例の場合は、4フレーム群に対して3フレーム群の割合で選択して)実質的に通常記録フレームレートにする。撮像制御部6は、フレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段として動作する。
<Normal movie shooting frame rate>
If the normal recording frame rate (30 fps) corresponding to normal moving image shooting is set in step S2 (step S2; normal moving image shooting frame rate), the imaging control unit 6 responds to the recording frame rate of the normal moving image shooting. The frame image to be processed is thinned out from the frame images successively captured at a predetermined imaging frame rate (120 fps in this embodiment) (in this example, three frame groups are compared to four frame groups). (Select by percentage) to substantially the normal recording frame rate. The imaging control unit 6 operates as an acquisition unit that acquires frame image data for recording by regularly thinning out the frame image data.

電子撮像部2のイメージセンサは、図3に示すように固定的に120fpsの速度で動作しており、これによりイメージセンサから同速度で出力されるフレーム画像のうち、最初の30フレームからなるフレームf11、f21...〜を記録フレームとして特定する一方、次の3個のフレーム群f12、f22...〜、f13、f23...〜、f14、f24...〜を間引きフレームとして特定する。   As shown in FIG. 3, the image sensor of the electronic imaging unit 2 operates at a fixed speed of 120 fps, and thus, the frame composed of the first 30 frames among the frame images output from the image sensor at the same speed. f11, f21. . . Are specified as recording frames, while the following three frame groups f12, f22. . . To f13, f23. . . ~, F14, f24. . . Specify ~ as a decimation frame.

続けて、撮像制御部6の状態検出部6bは、画像生成部4から出力されて入力された間引きフレームにおける最初のフレームf12、f22...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、撮像制御部6による自動露出調整処理(AE)を行う(ステップS4)。   Subsequently, the state detection unit 6b of the imaging control unit 6 outputs the first frames f12, f22. . . Based on the image data (YUV data) of the luminance and color difference signals of the frame images included in ˜, an automatic exposure adjustment process (AE) by the imaging control unit 6 is performed (step S4).

また、このステップS4の処理と並行して、間引きフレームにおける次のフレームf13、f23...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、自動ホワイトバランス調整処理(AWB)を行う(ステップS5)。   In parallel with the processing of step S4, the next frames f13, f23. . . The automatic white balance adjustment processing (AWB) is performed based on the image data (YUV data) of the luminance color difference signals of the frame images included in (step S5).

更に、ステップS4、S5の処理と並行して、間引きフレームにおける最後のフレームf14、f24...〜に含まれるフレーム画像より検出された被写体の鮮明度(コントラスト)を基準として、AF処理を行う(ステップS6)。   Further, in parallel with the processing of steps S4 and S5, the last frames f14, f24. . . AF processing is performed based on the sharpness (contrast) of the subject detected from the frame images included in (step S6).

すなわち、図3において「撮影条件」の欄に記載したように、フレームf12、f22...〜に基づきAE処理が実行され、フレームf13、f23...〜に基づきAWB処理が実行され、フレームf14、f24...〜に基づきAF処理が実行されて、また更新される。   That is, as described in the “shooting condition” column in FIG. . . AE processing is executed based on the frames f13, f23. . . AWB processing is executed based on the frames f14, f24. . . The AF process is executed and updated based on.

なお、ステップS4〜S6における検出は、当該処理対象のフレーム画像よりも前に保存されるフレーム画像から検出された特定の被写体(例えば、顔領域等)を基準として行っても良い。   Note that the detection in steps S4 to S6 may be performed based on a specific subject (for example, a face area) detected from a frame image stored before the processing target frame image.

また、ステップS4〜S6の検出処理ほぼ並行処理されるので、処理順序を入れ替えても実質的に影響は無い、この場合には、一の処理対象のフレーム画像から検出された特定の被写体を基準として当該一の処理対象のフレーム画像の明るさや色合い等を検出しても良い。   In addition, since the detection processes in steps S4 to S6 are performed almost in parallel, there is substantially no influence even if the processing order is changed. In this case, a specific subject detected from one processing target frame image is used as a reference. As such, the brightness, hue, etc. of the one processing target frame image may be detected.

次に、撮像制御部6の撮像条件調整部6cは、ステップS4〜S6での処理によって状態検出部6bにより処理された結果に基づき、撮像条件の内容を更新する(ステ   Next, the imaging condition adjustment unit 6c of the imaging control unit 6 updates the contents of the imaging conditions based on the results processed by the state detection unit 6b by the processes in steps S4 to S6 (step S4).

これにより、当該処理対象の間引きフレーム群の直後に保存されるフレーム画像群(図3におけるフレームF21...)は、更新後の撮像条件が反映された状態で撮像されたフレーム画像となる。   Thus, the frame image group (frame F21... In FIG. 3) stored immediately after the thinned frame group to be processed is a frame image captured in a state where the updated imaging conditions are reflected.

つまり、本実施形態によれば、ステップS4〜S6での並行処理によりステップS7で更新して設定した撮影条件を、ステップS8で保存されるフレーム画像データの記録に、確実に反映させることができる。   That is, according to the present embodiment, the shooting conditions updated and set in step S7 by the parallel processing in steps S4 to S6 can be reliably reflected in the recording of the frame image data stored in step S8. .

次に、中央制御部14は、画像生成部4により生成された当該処理対象のフレーム画像を記録フレーム画像として、当該フレーム画像のYUVデータをバッファメモリ12に保存させる(ステップS8)。つまり、通常動画撮影フレームレートの場合、120fpsで次々と取り込まれるフレーム画像の中から1/4の割合で選択されたフレーム画像が、30fpsの記録フレームレートでバッファメモリ12に保存されることになる。   Next, the central control unit 14 stores the frame image to be processed generated by the image generation unit 4 as a recording frame image, and stores the YUV data of the frame image in the buffer memory 12 (step S8). That is, in the case of the normal moving image shooting frame rate, frame images selected at a rate of 1/4 from the frame images successively captured at 120 fps are stored in the buffer memory 12 at a recording frame rate of 30 fps. .

<高速動画撮影フレームレート>
一方、ステップS2にて、高速動画撮影に対応する記録フレームレート(120fps)である場合(ステップS2;高速動画撮影フレームレート)、撮像制御部6は、記録フレームが当該高速動画撮影に対応する記録フレームレートに切り替えられる以前の所定の撮像条件を保持するように撮像条件調整部6cにより調整させる(ステップS9)。具体的には、撮像制御部6は、記録フレームレートが高速動画撮影に対応する記録フレームレートに切り替えられる前に通常動画撮影に対応する記録フレームレートに応じた周期で撮像されたフレーム画像に対して撮像条件調整部6cにより逐次調整されて、所定の格納領域に格納されている露出調整条件やホワイトバランス調整条件等の被写体の撮像条件を保持する。
<High-speed movie shooting frame rate>
On the other hand, when the recording frame rate (120 fps) corresponding to high-speed moving image shooting is set in step S2 (step S2; high-speed moving image shooting frame rate), the imaging control unit 6 records the recording frame corresponding to the high-speed moving image shooting. The imaging condition adjustment unit 6c adjusts so as to maintain a predetermined imaging condition before switching to the frame rate (step S9). Specifically, the imaging control unit 6 applies the frame image captured at a period corresponding to the recording frame rate corresponding to normal moving image shooting before the recording frame rate is switched to the recording frame rate corresponding to high speed moving image shooting. Then, the imaging condition adjusting unit 6c sequentially adjusts and holds the imaging conditions of the subject such as the exposure adjustment condition and the white balance adjustment condition stored in the predetermined storage area.

その後、中央制御部14は、処理をステップS8に移行して、高速動画撮影に対応する記録フレームレートに応じた周期で撮像されて画像生成部4により生成されたフレーム画像を記録フレーム画像として、当該フレーム画像のYUVデータをバッファメモリ12に保存させる。つまり、高速動画撮影フレームレートの場合、120fpsで次々と取り込まれるフレーム画像を間引くことなく、そのまま120fpsの記録フレームレートでバッファメモリ12に保存されることになる。   Thereafter, the central control unit 14 shifts the processing to step S8, and uses the frame image that is captured at a cycle according to the recording frame rate corresponding to high-speed moving image shooting and generated by the image generation unit 4 as a recording frame image. The YUV data of the frame image is stored in the buffer memory 12. In other words, in the case of a high-speed moving image shooting frame rate, the frame images that are successively captured at 120 fps are not thinned out and are stored in the buffer memory 12 as they are at a recording frame rate of 120 fps.

上記の各処理は、動画像の撮像の終了指示が入力されるまで、繰り返し実行される。   Each of the above processes is repeatedly executed until a moving image capturing end instruction is input.

そして、動画像の撮像の終了指示が入力されると、記録媒体制御部10は、バッファメモリ12に保存された動画像データに対して、当該動画像データの記録開始時に設定された記録フレームレート(この例の場合には30fps)を記録フレームレート属性として付加して記録媒体Mに保存する。   When a moving image capturing end instruction is input, the recording medium control unit 10 records the moving image data stored in the buffer memory 12 at the recording frame rate set at the start of recording of the moving image data. (30 fps in this example) is added as a recording frame rate attribute and stored in the recording medium M.

以上のように、実施形態1の撮像装置100によれば、動画撮影全体を通しては、常に被写体の状態に適した露出やホワイトバランス、フォーカスが維持されるように、撮像条件を調整しながら撮影記録を行いつつ、撮影記録を行って動画像データを記録する。したがって、通常記録フレームレートで撮影を行い、その後これを再生したときに、動画撮影全体を通しては常に被写体の状況に合った適切な露出やホワイトバランス、フォーカスに調整された映像を見ることができる。   As described above, according to the imaging apparatus 100 of Embodiment 1, shooting and recording are performed while adjusting the imaging conditions so that the exposure, white balance, and focus suitable for the state of the subject are always maintained throughout the moving image shooting. In this way, shooting and recording are performed to record moving image data. Therefore, when shooting is performed at the normal recording frame rate and then played back, it is possible to always see an image adjusted to an appropriate exposure, white balance and focus suitable for the situation of the subject throughout the moving image shooting.

すなわち、例えば、フレーム画像全面の明るさを考慮する測光方法で撮像装置100をパーンさせながら撮像する場合など、主要被写体の状態は変化しないにも拘わらず背景が変化することにより主要被写体の明るさや色合いが変動することを防ぐことができ、その後、動画像を所定の再生フレームレートで再生した際に当該主要被写体の明るさや色合いを適正なものにすることができる。また、主要被写体の明るさを基準とする測光方法で回転する主要被写体を撮像する場合など、当該主要被写体の回転によって変化する光の反射度合いに応じて被写体の撮像条件を変動させないため、その後、動画像を所定の再生フレームレートで再生した際に当該主要被写体の光の反射度合いを適正なものにすることができる。また、主要被写体が動いた場合においても、当該主要被写体にフォーカスがあった適正なものにすることができる。   That is, for example, when imaging is performed while the imaging apparatus 100 is panned by a photometric method that takes into consideration the brightness of the entire frame image, the brightness of the main subject is changed by changing the background even though the state of the main subject is not changed. The hue can be prevented from fluctuating, and then the brightness and hue of the main subject can be made appropriate when the moving image is reproduced at a predetermined reproduction frame rate. In addition, when imaging a main subject that is rotated by a photometric method based on the brightness of the main subject, the imaging condition of the subject is not changed according to the degree of light reflection that changes due to the rotation of the main subject. When a moving image is reproduced at a predetermined reproduction frame rate, the light reflection degree of the main subject can be made appropriate. Further, even when the main subject moves, it is possible to make the main subject have an appropriate focus.

[実施形態2]
図4は、本発明を適用した実施形態2における撮像処理に係る動作の一例を示すフローチャートである。このフローチャートにおいて、ステップS14〜S16を除く、他のステップS11〜S13、S17〜S19は、図2に示した実施形態1のフローチャートにおけるステップS1〜S3、S7〜S9と同一のであるので、説明を省略する。
[Embodiment 2]
FIG. 4 is a flowchart showing an example of an operation related to an imaging process in the second embodiment to which the present invention is applied. In this flowchart, steps S11 to S13 and S17 to S19 other than steps S14 to S16 are the same as steps S1 to S3 and S7 to S9 in the flowchart of the first embodiment shown in FIG. Omitted.

そして、実施形態1のフローチャートとは異なるステップS14では、撮像制御部6の状態検出部6bは、画像生成部4から出力されて入力された間引きフレームにおける最初のフレームf12、f22...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、撮像制御部6による自動露出調整処理(AE)と自動ホワイトバランス調整処理(AWB)とを行う(ステップS14)。   In step S14, which is different from the flowchart of the first embodiment, the state detection unit 6b of the imaging control unit 6 outputs the first frames f12, f22. . . Are subjected to automatic exposure adjustment processing (AE) and automatic white balance adjustment processing (AWB) based on the image data (YUV data) of the luminance color difference signals of the frame images included in (step S14).

また、このステップS14の処理と並行して、間引きフレームにおける次のフレームf13、f23...〜に含まれるフレーム画像より検出された被写体の鮮明度(コントラスト)を基準として、AF処理を行う(ステップS15)。   In parallel with the processing of step S14, the next frames f13, f23. . . AF processing is performed with reference to the sharpness (contrast) of the subject detected from the frame images included in (step S15).

更に、ステップS14、S15の処理と並行して、間引きフレームにおける最後のフレームf14、f24...〜に含まれるフレーム画像から、状態検出部6bにより検出された被写体の大きさ等を認識し、レンズ部1におけるズームレンズ位置を変更する処理を行う。   Further, in parallel with the processing of steps S14 and S15, the last frames f14, f24. . . The size of the subject detected by the state detection unit 6b is recognized from the frame images included in, and processing for changing the zoom lens position in the lens unit 1 is performed.

すなわち、図5において「撮影条件」の欄に記載したように、フレームf12、f22...〜に基づきAE処理、AWB処理が実行され、フレームf13、f23...〜に基づきAF処理が実行され、フレームf14、f24...〜に基づきZOOM処理が実行されて、また更新される。   That is, as described in the “shooting condition” column in FIG. 5, the frames f12, f22. . . AE processing and AWB processing are executed based on the frames f13, f23. . . To execute the AF processing based on the frames f14, f24. . . The ZOOM process is executed and updated based on.

したがって、本実施形態によれば、ステップS14〜S16で検出し、ステップS17で更新して設定した撮影条件をステップS18で保存されるフレーム画像データの記録に、確実に反映させることができる。   Therefore, according to the present embodiment, it is possible to reliably reflect the shooting conditions detected in steps S14 to S16 and updated and set in step S17 in the recording of the frame image data stored in step S18.

以上のように、実施形態2の撮像装置100によれば、動画撮影全体を通しては、常に被写体の状態に適した露出やホワイトバランス、フォーカス、ズームが維持されるように、撮像条件を調整しながら撮影記録を行いつつ、撮影記録を行って動画像データを記録する。したがって、通常記録フレームレートで撮影を行い、その後これを再生したときに、動画撮影全体を通しては常に被写体の状況に合った適切な露出やホワイトバランス、フォーカスに調整された映像、主要被写体の大きさが適切な動画を見ることができる。   As described above, according to the imaging apparatus 100 of the second embodiment, while adjusting the imaging conditions so that the exposure, white balance, focus, and zoom suitable for the state of the subject are always maintained throughout the video recording. While performing shooting recording, shooting recording is performed to record moving image data. Therefore, when taking a picture at the normal recording frame rate and then playing it back, the video is adjusted to the appropriate exposure, white balance, focus, and the size of the main subject. Can watch appropriate videos.

なお、実施形態においては、ステップS4〜S6又はステップS14〜S16で撮影条件に係る処理のみを行い、ステップS7又はステップS17での更新により、検出した撮影条件を設定するようにした。しかし、ステップS7又はステップS17を別途設けることなく、ステップS4〜S6又はステップS14〜S16で撮影条件の検出のみならず、更新による設定を行うようにしてもよい。このようにすれば、更新処理の集中化を回避して分散化がなされ、次回のフレーム画像データの記録タイミングに設定内容について余裕をもって反映させることができる。   In the embodiment, only the process related to the shooting condition is performed in steps S4 to S6 or steps S14 to S16, and the detected shooting condition is set by updating in step S7 or step S17. However, without providing step S7 or step S17 separately, not only the detection of the shooting conditions but also the setting by updating may be performed in steps S4 to S6 or steps S14 to S16. In this way, decentralization is achieved by avoiding centralization of update processing, and the set contents can be reflected with sufficient margin in the recording timing of the next frame image data.

更に、実施形態においては、並行した処理とはいえ、最初のフレーム画像からAE処理、AWB処理、AF処理、ZOOM処理の順に行った。これはタイミング的に記録フレームに近い間引きフレームを採用して処理をした方が良いケースとその必然性が無いケースとで分けた結果でもあるが、処理に要する時間に基づいて、採用するフレームを変更しても良い。   Furthermore, in the embodiment, although it is parallel processing, the AE processing, AWB processing, AF processing, and ZOOM processing are performed in order from the first frame image. This is also the result of separating the case where it is better to use a thinned frame that is close to the recording frame in timing and the case where there is no necessity, but the frame used is changed based on the time required for processing. You may do it.

例えば、AE処理については記録フレームに近い方の間引きフレームを採用した方が良いとされるが、AWB処理については、特に記録フレームとの時間的距離に左右されにくいので、タイミング的にもっとも遠い間引きフレームを採用しても良い。   For example, for AE processing, it is better to use a thinned frame that is closer to the recording frame, but for AWB processing, it is difficult to be influenced by the time distance from the recording frame, so the thinning out that is farthest in timing is important. A frame may be adopted.

また、主要被写体の検出処理や認識処理に要する時間やレンズの移動位置の調整時間を考慮すると、AF処理、ZOOM処理については次の記録フレームの取得タイミングよりもできるだけ離れたタイミングの間引きフレームを採用する場合が良いケースもある。   Considering the time required for main subject detection processing and recognition processing and lens movement position adjustment time, a thinned frame is used for AF processing and ZOOM processing as far as possible from the next recording frame acquisition timing. There are cases where it is good to do.

したがって間引きフレームと処理対象となる撮影条件の関係については様々考えられるが何れのケースにおいても記録フレーム以外の間引きフレームを用いて行われる処理であることに変わりは無い。   Accordingly, there are various possible relationships between the thinned frame and the imaging condition to be processed, but in any case, the process is performed using a thinned frame other than the recording frame.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.

<請求項1>
撮像手段と、
この撮像手段を所定のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
を備えることを特徴とする撮像装置。
<Claim 1>
Imaging means;
Output means for driving the imaging means at a predetermined frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
An imaging apparatus comprising:

<請求項2>
前記取得手段は時間的に連続する複数のフレーム画像データを規則的に間引き、前記設定手段はこれらのフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定することを特徴とする請求項1記載の撮像装置。
<Claim 2>
The acquisition means regularly thins out a plurality of temporally continuous frame image data, and the setting means sets shooting conditions for the next frame image data for recording using these frame image data. The imaging apparatus according to claim 1.

<請求項3>
前記設定手段が設定する撮影条件は複数種であるとともに、これらのフレーム画像データの夫々を用いて、前記次の記録用のフレーム画像データの複数種の撮影条件を設定することを特徴とする請求項2記載の撮像装置。
<Claim 3>
There are a plurality of types of shooting conditions set by the setting unit, and a plurality of types of shooting conditions for the next frame image data for recording are set using each of the frame image data. Item 3. The imaging device according to Item 2.

<請求項4>
前記撮影条件には、露光時間が含まれることを特徴とする請求項3記載の撮像装置。
<Claim 4>
The imaging apparatus according to claim 3, wherein the photographing condition includes an exposure time.

<請求項5>
前記撮影条件には、色味調整が含まれることを特徴とする請求項3又は4記載の撮像装置。
<Claim 5>
The imaging apparatus according to claim 3 or 4, wherein the photographing condition includes color adjustment.

<請求項6>
前記撮影条件には、フォーカスレンズ位置が含まれることを特徴とする請求項3、4又は5記載の撮像装置。
<Claim 6>
The imaging apparatus according to claim 3, wherein the imaging condition includes a focus lens position.

<請求項7>
前記撮影条件には、ズームレンズ位置が含まれることを特徴とする請求項3から6にいずれか記載の撮像装置。
<Claim 7>
The imaging apparatus according to claim 3, wherein the photographing condition includes a zoom lens position.

<請求項8>
撮像部を備える装置が有するコンピュータを、
前記撮像部を第1のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
として機能させることを特徴とするプログラム。
<Claim 8>
A computer included in an apparatus including an imaging unit,
Output means for driving the imaging unit at a first frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
A program characterized by functioning as

100 撮像装置
1 レンズ部
2 電子撮像部
5 被写体検出部
6 撮像制御部
6a 記録フレームレート設定部
6b 状態検出部
6c 撮像条件調整部
8 表示制御部
9 表示部
11 操作入力部
14 中央制御部
16 動き検出部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Lens part 2 Electronic imaging part 5 Subject detection part 6 Imaging control part 6a Recording frame rate setting part 6b State detection part 6c Imaging condition adjustment part 8 Display control part 9 Display part 11 Operation input part 14 Central control part 16 Movement Detection unit

Claims (8)

撮像手段と、
この撮像手段を所定のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
を備えることを特徴とする撮像装置。
Imaging means;
Output means for driving the imaging means at a predetermined frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
An imaging apparatus comprising:
前記取得手段は時間的に連続する複数のフレーム画像データを規則的に間引き、前記設定手段はこれらのフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定することを特徴とする請求項1記載の撮像装置。   The acquisition means regularly thins out a plurality of temporally continuous frame image data, and the setting means sets shooting conditions for the next frame image data for recording using these frame image data. The imaging apparatus according to claim 1. 前記設定手段が設定する撮影条件は複数種であるとともに、これらのフレーム画像データの夫々を用いて、前記次の記録用のフレーム画像データの複数種の撮影条件を設定することを特徴とする請求項2記載の撮像装置。   There are a plurality of types of shooting conditions set by the setting unit, and a plurality of types of shooting conditions for the next frame image data for recording are set using each of the frame image data. Item 3. The imaging device according to Item 2. 前記撮影条件には、露光時間が含まれることを特徴とする請求項3記載の撮像装置。   The imaging apparatus according to claim 3, wherein the photographing condition includes an exposure time. 前記撮影条件には、色味調整が含まれることを特徴とする請求項3又は4記載の撮像装置。   The imaging apparatus according to claim 3 or 4, wherein the photographing condition includes color adjustment. 前記撮影条件には、フォーカスレンズ位置が含まれることを特徴とする請求項3、4又は5記載の撮像装置。   The imaging apparatus according to claim 3, wherein the imaging condition includes a focus lens position. 前記撮影条件には、ズームレンズ位置が含まれることを特徴とする請求項3から6にいずれか記載の撮像装置。   The imaging apparatus according to claim 3, wherein the photographing condition includes a zoom lens position. 撮像部を備える装置が有するコンピュータを、
前記撮像部を第1のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
として機能させることを特徴とするプログラム。
A computer included in an apparatus including an imaging unit,
Output means for driving the imaging unit at a first frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
A program characterized by functioning as
JP2012142688A 2012-06-26 2012-06-26 Image pick-up device and program Pending JP2014007622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012142688A JP2014007622A (en) 2012-06-26 2012-06-26 Image pick-up device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012142688A JP2014007622A (en) 2012-06-26 2012-06-26 Image pick-up device and program

Publications (1)

Publication Number Publication Date
JP2014007622A true JP2014007622A (en) 2014-01-16

Family

ID=50104981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012142688A Pending JP2014007622A (en) 2012-06-26 2012-06-26 Image pick-up device and program

Country Status (1)

Country Link
JP (1) JP2014007622A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058004A (en) * 2016-11-23 2018-05-31 한화지상방산 주식회사 Following apparatus and following system
WO2020158070A1 (en) * 2019-01-29 2020-08-06 富士フイルム株式会社 Imaging device, imaging method, and program
WO2020158069A1 (en) * 2019-01-29 2020-08-06 富士フイルム株式会社 Imaging device, imaging method, and program
US12249053B2 (en) 2019-12-27 2025-03-11 Socionext Inc. Image processing device and image processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058004A (en) * 2016-11-23 2018-05-31 한화지상방산 주식회사 Following apparatus and following system
KR102286006B1 (en) * 2016-11-23 2021-08-04 한화디펜스 주식회사 Following apparatus and following system
WO2020158070A1 (en) * 2019-01-29 2020-08-06 富士フイルム株式会社 Imaging device, imaging method, and program
WO2020158069A1 (en) * 2019-01-29 2020-08-06 富士フイルム株式会社 Imaging device, imaging method, and program
JPWO2020158069A1 (en) * 2019-01-29 2021-11-25 富士フイルム株式会社 Imaging device, imaging method, and program
JPWO2020158070A1 (en) * 2019-01-29 2021-11-25 富士フイルム株式会社 Imaging device, imaging method, and program
JP7110406B2 (en) 2019-01-29 2022-08-01 富士フイルム株式会社 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP7112529B2 (en) 2019-01-29 2022-08-03 富士フイルム株式会社 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
US11438521B2 (en) 2019-01-29 2022-09-06 Fujifilm Corporation Image capturing device, image capturing method, and program
US12249053B2 (en) 2019-12-27 2025-03-11 Socionext Inc. Image processing device and image processing method

Similar Documents

Publication Publication Date Title
JP5234119B2 (en) Imaging apparatus, imaging processing method, and program
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
US9398230B2 (en) Imaging device and imaging method
JP2008129554A (en) Imaging device and automatic focusing control method
JP2009219020A (en) Imaging apparatus, control method of imaging device, and control program of imaging device
JP5782813B2 (en) Imaging apparatus and image display method
JP2008109336A (en) Image processor and imaging apparatus
US10462353B2 (en) Imaging device, imaging method, and storage medium
JP2011182252A (en) Imaging device, and image imaging method
KR101690261B1 (en) Digital image processing apparatus and controlling method thereof
JP5909997B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014007622A (en) Image pick-up device and program
JP2007299339A (en) Image reproducing device, method and program
JP5146015B2 (en) Imaging apparatus and imaging method
JP4645413B2 (en) Imaging device
JP5045538B2 (en) Imaging apparatus and program
JP2008263478A (en) Imaging apparatus
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2008301161A (en) Image processing device, digital camera, and image processing method
JP2015019243A (en) Imaging apparatus, and control method and program thereof
JP2011223399A (en) Camera
JP6471843B2 (en) Imaging apparatus, control method, and program
JP5644180B2 (en) Imaging apparatus, imaging method, and program
US20150156408A1 (en) Imaging apparatus, method for controlling the same, and recording medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702