JP2014007622A - Image pick-up device and program - Google Patents
Image pick-up device and program Download PDFInfo
- Publication number
- JP2014007622A JP2014007622A JP2012142688A JP2012142688A JP2014007622A JP 2014007622 A JP2014007622 A JP 2014007622A JP 2012142688 A JP2012142688 A JP 2012142688A JP 2012142688 A JP2012142688 A JP 2012142688A JP 2014007622 A JP2014007622 A JP 2014007622A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image data
- unit
- recording
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 159
- 238000000034 method Methods 0.000 abstract description 49
- 238000001514 detection method Methods 0.000 description 36
- 230000000875 corresponding effect Effects 0.000 description 25
- 230000015654 memory Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 9
- 238000005375 photometry Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】記録フレームレートと比較して撮影環境の変化の速度が速い場合でも、追従して撮影条件を更新することができるようにする。
【解決手段】間引きフレームにおける最初のフレームf12、f22...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、自動露出調整処理(AE)を行う。また、この処理と並行して、間引きフレームにおける次のフレームf13、f23...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、自動ホワイトバランス調整処理(AWB)を行う。更に、この処理と並行して、間引きフレームにおける最後のフレームf14、f24...〜に含まれるフレーム画像より検出された被写体の鮮明度(コントラスト)を基準として、AF処理を行う。
【選択図】図3An imaging condition can be updated following a change in shooting environment faster than a recording frame rate.
First frames f12, f22. . . The automatic exposure adjustment processing (AE) is performed based on the image data (YUV data) of the luminance color difference signal of the frame image included in. In parallel with this processing, the next frames f13, f23. . . The automatic white balance adjustment process (AWB) is performed based on the image data (YUV data) of the luminance color difference signal of the frame image included in. Further, in parallel with this processing, the last frames f14, f24. . . AF processing is performed based on the sharpness (contrast) of the subject detected from the frame images included in.
[Selection] Figure 3
Description
本発明は、撮像装置、及びプログラムに関する。 The present invention relates to an imaging apparatus and a program.
従来より、通常のフレームレートでの記録と、これよりも高速なフレームレートでの記録とが可能な画像記録装置が知られている。この画像記録装置は、予め通常のフレームレート用、及び、高速なフレームレート用のプログラム線図を備え、対応するフレームレートで記録する場合には、そのモードに対応するプログラム線図を読み出し撮影条件を設定する(例えば、特許文献1参照)。 Conventionally, an image recording apparatus capable of recording at a normal frame rate and recording at a higher frame rate is known. This image recording apparatus is provided with a program diagram for a normal frame rate and a high frame rate in advance, and when recording at a corresponding frame rate, the program diagram corresponding to the mode is read and the photographing conditions Is set (see, for example, Patent Document 1).
しかしながら、上記の技術を採用しても、通常のフレームレートでの撮影の場合、記録するフレーム画像において比較的大きな時間間隔が空くので、撮影環境の変化が激しい場合、その変化に合わせて撮影条件を更新する処理が追いつかなくなる問題があった。 However, even when the above technique is adopted, when shooting at a normal frame rate, a relatively large time interval is left in the frame image to be recorded. There was a problem that the process of updating could not catch up.
本発明はこのような問題点に鑑みて成されたものであり、記録フレームレートと比較して撮影環境の変化の速度が速い場合でも、追従して撮影条件を更新することができるようにすることを目的とする。 The present invention has been made in view of such a problem, and enables the shooting conditions to be updated following even when the shooting environment changes faster than the recording frame rate. For the purpose.
上記課題を解決するため、本発明の撮像装置は、
撮像手段と、この撮像手段を所定のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、を備えることを特徴とする。
In order to solve the above problems, an imaging apparatus according to the present invention provides:
Imaging means; output means for driving the imaging means at a predetermined frame rate to sequentially output frame image data; and frame image data output by the output means is regularly thinned to obtain frame image data for recording. An acquisition means for acquiring, and a setting means for setting a shooting condition for the next frame image data for recording using the thinned frame image data.
また、本発明のプログラムは、
撮像部を備える装置が有するコンピュータを、前記撮像部を第1のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、として機能させることを特徴とする。
The program of the present invention is
An apparatus having an imaging unit includes: an output unit that drives the imaging unit at a first frame rate and sequentially outputs frame image data; and the frame image data output by the output unit is regularly thinned out. An acquisition unit that acquires recording frame image data, and a setting unit that sets shooting conditions of the next recording frame image data using the thinned frame image data. To do.
本発明によれば、記録フレームレートと比較して撮影環境の変化の速度が速い場合でも、追従して撮影条件を更新することができるようにすることができる。 According to the present invention, it is possible to follow and update the shooting conditions even when the change rate of the shooting environment is faster than the recording frame rate.
以下、本発明の実施形態について説明する。
[実施形態1]
図1は、本発明を適用した実施形態1及び実施形態2に共通する撮像装置100の概略構成を示すブロック図である。
実施形態1の撮像装置100は、被写体の動画像を1つの連続した動画像データとして記録中に、撮像される被写体の状態変化に合わせて当該被写体の撮像条件を調整し、動画像データの記録中に、動画像を記録する際のフレームレートが高速記録フレームレートからこれよりも低速の通常記録フレームレートに切り替えられた場合には、この通常記録フレームレートでの記録中における撮像条件を調整する。
Hereinafter, embodiments of the present invention will be described.
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of an
While the moving image of the subject is recorded as one continuous moving image data, the
具体的には、図1に示すように、撮像装置100は、レンズ部1、電子撮像部2、ユニット回路部3、画像生成部4、被写体検出部5、撮像制御部6、画像処理部7、表示制御部8、表示部9、記録媒体制御部10、操作入力部11、バッファメモリ12、プログラ
ムメモリ13、中央制御部14等を備えている。
画像生成部4、被写体検出部5、撮像制御部6、画像処理部7、表示制御部8、記録媒体制御部10、バッファメモリ12、プログラムメモリ13、中央制御部14は、バスライン15を介して接続されている。
Specifically, as illustrated in FIG. 1, the
The image generation unit 4, the
レンズ部1は、図示は省略するが、ズームレンズ、フォーカスレンズ、絞り等を備え、これらレンズを通過した被写体の光学像を結像するものである。 Although not shown, the lens unit 1 includes a zoom lens, a focus lens, a diaphragm, and the like, and forms an optical image of a subject that has passed through these lenses.
電子撮像部2は、レンズ部1の光軸上に配置されている。また、電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を撮像フレームレートに応じた所定の周期毎に二次元の画像信号(RGB画像データ)に変換して、ユニット回路部3に出力する。 The electronic imaging unit 2 is disposed on the optical axis of the lens unit 1. The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and an optical image that has passed through various lenses of the lens unit 1 according to the imaging frame rate. Then, it is converted into a two-dimensional image signal (RGB image data) every predetermined period and output to the unit circuit unit 3.
ユニット回路部3は、図示は省略するが、CDS(Correlated Double Sampling:相関二重サンプリング回路)、AGC(Auto Gain Control:ゲイン調整アンプ)、ADC(Analog to Digital Converter:アナログ/デジタル変換器)等を具備している。このユニット回路部3は、電子撮像部2から出力されて入力される被写体の光学像に応じたアナログの画像信号を記録フレームレートに応じた所定の周期毎にCDSにより保持し、当該画像信号をAGCにより増幅した後、増幅された画像信号をADCによりデジタルの画像信号に変換する。また、ユニット回路部3は、デジタルの画像信号を画像生成部4に送信する。 Although not shown, the unit circuit unit 3 includes a CDS (Correlated Double Sampling), an AGC (Auto Gain Control), an ADC (Analog to Digital Converter), and the like. It has. The unit circuit unit 3 holds an analog image signal corresponding to the optical image of the subject output from the electronic image pickup unit 2 and input by the CDS at a predetermined period corresponding to the recording frame rate, and stores the image signal. After amplification by AGC, the amplified image signal is converted into a digital image signal by ADC. The unit circuit unit 3 transmits a digital image signal to the image generation unit 4.
このように、レンズ部1、電子撮像部2及びユニット回路部3は、被写体を撮像してフレーム画像データを順次出力する出力手段を構成している。 As described above, the lens unit 1, the electronic imaging unit 2, and the unit circuit unit 3 constitute output means for imaging a subject and sequentially outputting frame image data.
画像生成部4は、ユニット回路部3から送られてきたデジタルの画像信号からデジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
具体的には、画像生成部4は、所定の周期毎にユニット回路部3から送られてきた各フレーム画像のデジタルの画像データに対して、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理をそれぞれ行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
The image generation unit 4 generates a digital luminance signal Y and color difference signals Cb, Cr (YUV data) from the digital image signal sent from the unit circuit unit 3.
Specifically, the image generation unit 4 performs pixel interpolation processing and γ on the digital image data of each frame image sent from the unit circuit unit 3 at predetermined intervals by a color process circuit (not shown). After performing color process processing including correction processing, a digital luminance signal Y and color difference signals Cb and Cr (YUV data) are generated.
ここで、撮像装置100が、動画像を撮像して動画像データとして記録する処理を行う際のフレームレートには、電子撮像部2が動画像を撮像するフレームレートを示す撮像フレームレート、撮像条件調整部6cが撮像条件を調整するフレームレートを示す調整フレームレート、および画像生成部が各フレームの画像を生成して動画像データとして記録媒体Mに記録するフレームレートを示す記録フレームレートなどがある。この実施形態1においては、撮像フレームレートを120fpsに固定し、調整に用いるフレームや記録に用いるフレームを間引くことで、調整フレームレートや記録フレームレートを30fps変化させるものとする。
このような動作を行うことで、調整フレームレートや記録フレームレートを切り替える際のフレームのずれなどが発生せず、容易に素早く調整フレームレートや記録フレームレートの切り替えを行うことが可能となる。
Here, the frame rate when the
By performing such an operation, it is possible to easily and quickly switch the adjustment frame rate and the recording frame rate without causing a frame shift or the like when switching the adjustment frame rate or the recording frame rate.
上記記録フレームレートは、通常の動画撮影に対応するフレームレート(上記通常記録フレームレート)と、当該通常の動画撮影よりも高速の動画撮影に対応するフレームレート(上記高速記録フレームレート)がある。本実施形態では、通常動画撮影に対応する通常記録フレームレートは30fpsであり、高速動画撮影に対応する高速記録フレームレートは、その4倍にあたる120fpsとする。しかし、これら一例であってこれらに限られるものではなく、適宜任意に変更可能である。
そして、画像生成部4は、生成された輝度色差信号の画像データを、被写体検出部5、撮像制御部6及び画像処理部7に出力する。
The recording frame rate includes a frame rate corresponding to normal moving image shooting (the normal recording frame rate) and a frame rate corresponding to moving image shooting at a higher speed than the normal moving image shooting (the high speed recording frame rate). In this embodiment, the normal recording frame rate corresponding to normal moving image shooting is 30 fps, and the high speed recording frame rate corresponding to high speed moving image shooting is 120 fps, which is four times that. However, these are examples and are not limited to these, and can be arbitrarily changed as appropriate.
Then, the image generation unit 4 outputs the generated image data of the luminance color difference signal to the
被写体検出部5は、画像生成部4から出力された各フレーム画像の輝度色差信号の画像データから特定の被写体を検出する。
The
すなわち、被写体検出部5は、各フレーム画像の画像データ(YUVデータ)を取得して、当該画像データに対して、例えば、顔検出処理、エッジ検出処理、特徴抽出処理等の各種画像処理を行って特定の被写体が含まれる領域(例えば、顔領域等)を検出する。具体的には、被写体検出部5は、例えば、顔検出処理、エッジ検出処理、特徴抽出処理等の各種画像処理によって特定の被写体の候補となる候補領域を抽出し、抽出された候補領域の中で所定の識別条件を満たすものを特定の被写体として検出する。
That is, the
なお、所定の識別条件としては、例えば、「ヒトの顔」や「動物」などの形状を基準とするものや、画角全体の画像に対する割合(例えば、半分以上であるか)などの大きさを基準とするものや、明度や彩度が高く鮮やかな(派手な)色合いであるか否かや肌色であるか否かなどの色調を基準とするもの等が挙げられる。
また、顔検出処理やエッジ検出処理や特徴抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The predetermined identification conditions include, for example, a size based on a shape such as “human face” or “animal”, or a ratio (for example, half or more) of the entire angle of view with respect to the image. On the basis of color, and on the basis of color tone such as whether the color is bright or bright with high brightness and saturation or whether it is a skin color.
Further, the face detection process, the edge detection process, and the feature extraction process are known techniques, and thus detailed description thereof is omitted here.
撮像制御部6は、レンズ部1、電子撮像部2、ユニット回路部3等の動作を制御する。
すなわち、撮像制御部6は、例えば、モータ等の駆動源と、この駆動源を駆動するドライバ等(何れも図示略)を備え、レンズ部1のズームレンズやフォーカスレンズを光軸方向に駆動させる。また、撮像制御部6は、例えば、レンズ部1の絞りの拡径や縮径を行う絞り駆動部(図示略)を備え、撮像条件調整部6c(後述)により調整された露出調整条件に応じて絞りの拡径や縮径を行う。
The
In other words, the
また、撮像制御部6は、例えば、TG(Timing Generator)、電子撮像部2を駆動するドライバ等(何れも図示略)を備え、撮像フレームレートや撮像条件調整部6cにより調整された撮像条件(例えば、露光時間等)に従ってTG及びドライバを介して電子撮像部2の動作タイミングを制御する。また、撮像制御部6は、記録フレームレートに従ってユニット回路部3の動作タイミングを制御する。
The
すなわち、撮像制御部6は、電子撮像部2を撮像フレームレートや撮像条件(例えば、露光時間等)に従った所定のタイミングで動作させて被写体の光学像をアナログの画像信号に変換させ、ユニット回路部3を所定の記録フレームレート(通常動画撮影に対応する通常記録フレームレート)に従った所定のタイミングで動作させて、電子撮像部2から出力されて入力される被写体の光学像に応じたアナログの画像信号をデジタルの画像信号(フレーム画像)に変換させる。
That is, the
このとき、ユーザによる操作入力部11の所定操作に基づいて記録フレームレートの切替指示が入力されると、撮像制御部6は、記録フレームレート設定部6a(後述)により切替えて設定された記録フレームレート(高速動画撮影に対応する高速記録フレームレート)に応じた所定の周期毎に、電子撮像部2から出力されて入力される被写体の光学像に応じたアナログの画像信号をユニット回路部3によりデジタルの画像信号(フレーム画像)に変換させる。
At this time, when a recording frame rate switching instruction is input based on a predetermined operation of the operation input unit 11 by the user, the
また、撮像制御部6は、記録フレームレート設定部6aと、状態検出部6bと、撮像条件調整部6cを具備している。
The
記録フレームレート設定部6aは、記録フレームレートを設定する。
すなわち、記録フレームレート設定部6aは、ユニット回路部3の駆動周期に係る記録フレームレートをユーザによる操作入力部11の所定操作に基づいて設定する。具体的には、通常動画撮影及び高速動画撮影の各々に対応する記録フレームレートのうち、ユーザによる操作入力部11の選択決定用ボタン11bの所定操作に基づいて指定された記録フレームレートの設定信号を中央制御部14に出力する。中央制御部14は、操作入力部11から出力され入力された設定信号を撮像制御部6に出力し、撮像制御部6の記録フレームレート設定部6aは、入力された設定信号に応じた記録フレームレートを設定する。つまり、1つの連続した動画像データの記録中に、ユーザによって選択決定用ボタン11bが所定操作されることで、記録フレームレート設定部6aは、記録フレームレートを通常記録フレームレートと高速記録フレームレートとに切り替えて設定する。
The recording frame
That is, the recording frame
状態検出部6bは、被写体の撮像により生成された動画像を構成する複数のフレーム画像に基づいて、被写体の状態を検出する。すなわち、状態検出部6bは、画像生成部4から出力された各フレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、各フレーム画像の明るさや色合いを検出する。
具体的には、例えば、フレーム画像の明るさを検出する場合、状態検出部6bは、所定の測光方法(例えば、中央重点測光方法、スポット測光方法、平均測光方法、多分割測光方法等)に応じて各フレーム画像の輝度信号(Y)に基づいて当該フレーム画像の明るさを検出する。また、例えば、フレーム画像の色合いを検出する場合、状態検出部6bは、各フレーム画像のYUVデータをHSV色空間の画像データに変換した後、彩度S及び明度Vのヒストグラムから光源(例えば、太陽光、蛍光灯、晴天、曇天等)の色温度に応じたグレー画素推定条件を算出する。そして、状態検出部6bは、グレー画素推定条件に基づいて各フレーム画像に含まれるグレー成分を推定する。
The
Specifically, for example, when detecting the brightness of a frame image, the
このとき、状態検出部6bは、各フレーム画像から被写体検出部5により検出された特定の被写体(例えば、人の顔領域等)を基準として各フレーム画像の明るさや色合いの検出を行っても良い。
なお、中央重点測光方法とは、フレーム画像の中央部に重点をおいて測光する測光方法であり、スポット測光方法とは、フレーム画像の所定領域に限定して測光する測光方法であり、平均測光方法とは、フレーム画像全面で測光してその平均値をとる測光方法であり、多分割測光方法とは、フレーム画像を複数の領域に分けてそれぞれ独立して測光する測光方法である。
At this time, the
Note that the center-weighted metering method is a metering method that focuses on the center of the frame image, and the spot metering method is a metering method that performs metering only on a predetermined area of the frame image. The method is a photometry method in which photometry is performed on the entire surface of the frame image and an average value thereof is obtained. The multi-division photometry method is a photometry method in which the frame image is divided into a plurality of areas and independently metered.
さらに、状態検出部6bは、被写体の撮像により生成された動画像を構成する複数のフレーム画像に基づいて、被写体の鮮明度や、被写体の大きさ検出する。
Further, the
撮像条件調整部6cは、後述する間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段を構成するものであって、間引かれたフレーム画像データにおける被写体の状態変化に合わせて、撮像制御部6により設定される当該被写体の撮像条件を調整する。すなわち、撮像条件調整部6cは、状態検出部6bにより検出された被写体の状態に基づいて各種撮影条件を調整する。
この撮影条件とは、例えば、撮像制御部6による自動露出調整処理(AE)、自動ホワイトバランス調整処理(AWB)に係る露出調整条件やホワイトバランス調整条件、オートフォーカス調整処理(AF)、ズーム処理(ZOOM)に係るフォーカス調整条件やズーム調整条件である。
The imaging condition adjusting unit 6c constitutes setting means for setting shooting conditions of the next recording frame image data using the thinned frame image data described later, and the thinned frame image The imaging condition of the subject set by the
The photographing conditions include, for example, automatic exposure adjustment processing (AE) by the
具体的には、自動露出調整処理(AE)に係る露出調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体の明るさを基準として、所定のプログラム線図に基づいて、レンズ部1における絞りの絞り値、電子撮像部2のシャッター速度やユニット回路のAGCの信号増幅率(ISO感度)等を調整する。自動ホワイトバランス調整処理(AWB)に係るホワイトバランス調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体のグレー成分の色(色合い)を基準として、フレーム画像の各画素のRGBの各色成分のゲイン量を調整する。
Specifically, when adjusting the exposure adjustment condition related to the automatic exposure adjustment process (AE), the imaging condition adjustment unit 6c uses a predetermined program diagram based on the brightness of the subject detected by the
ここで、撮像条件調整部6cは、被写体検出部5により検出された特定の被写体(例えば、人の顔領域等)を基準として、露出調整条件及びホワイトバランス調整条件の少なくとも一方を調整しても良い。すなわち、撮像条件調整部6cは、例えば、被写体検出部5により検出された人の顔領域の明るさを基準として露出調整条件を調整しても良いし、顔領域の色合いを基準としてホワイトバランス調整条件を調整しても良い。
Here, the imaging condition adjustment unit 6c may adjust at least one of the exposure adjustment condition and the white balance adjustment condition with reference to a specific subject (for example, a human face area) detected by the
また、オートフォーカス調整処理(AF)に係るフォーカス調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体の鮮明度を基準として、所定のプログラム線図に基づいて、レンズ部1におけるフォーカスモータを駆動する。ズーム処理(ZOOM)に係るフォーカス調整条件やズーム調整条件を調整する場合、撮像条件調整部6cは、状態検出部6bにより検出された被写体の大きさに基づいて、レンズ部1におけるズームモータを駆動する。
Further, when adjusting the focus adjustment condition related to the autofocus adjustment process (AF), the imaging condition adjustment unit 6c is based on a predetermined program diagram with reference to the sharpness of the subject detected by the
また、撮像制御部6は、記録フレームレートに応じて撮像条件調整部6cによる撮像条件の調整を制限する。具体的には、撮像制御部6は、通常記録フレームレートで動画像を記録する際に、被写体の撮像条件を被写体の状態変化に追従させるように撮像条件調整部6cにより逐次調整させる。すなわち、撮像制御部6は、通常動画撮影に対応する記録フレームレートに応じた周期で撮像されるフレーム画像に対して、撮像条件調整部6cにより露出調整条件やホワイトバランス調整条件等の被写体の撮像条件を被写体の状態変化に追従させるように逐次調整させる。
Further, the
画像処理部7は、画像生成部4により生成された画像データ(YUVデータ)を所定の符号化方式(例えば、Motion−JPEG方式等)により圧縮・符号化する符号化部(図示略)や、記録媒体制御部10から読み出された符号化された画像データを当該符号化方式に対応する復号化方式で復号化する復号化部等(何れも図示略)を具備している。
The image processing unit 7 includes an encoding unit (not shown) that compresses and encodes image data (YUV data) generated by the image generation unit 4 using a predetermined encoding method (for example, Motion-JPEG method), A decoding unit (not shown) for decoding the encoded image data read from the recording
表示制御部8は、バッファメモリ12に一時的に記憶されている表示用の画像データを読み出して表示部9に表示させる制御を行う。
具体的には、表示制御部8は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、バッファメモリ12から読み出されてVRAM(図示略)に記憶されている動画像を構成する複数のフレーム画像の輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレートで読み出して、これらのデータを元にビデオ信号を発生して表示部9に出力する。
The display control unit 8 performs control to read display image data temporarily stored in the
Specifically, the display control unit 8 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder receives the luminance signal Y and the color difference signals Cb and Cr of the plurality of frame images constituting the moving image read from the
表示部9は、液晶表示パネルであり、表示制御部8からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部9は、静止画撮像モードや動画撮像モードにて、電子撮像部2及び撮像制御部6による被写体の撮像により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部9は、動画として記録中の複数のフレーム画像を表示したり、静止画として記録される画像(レックビュー画像)を表示する。
The
記録媒体制御部10は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。
具体的には、記録媒体制御部10は、画像処理部7の符号化部(図示略)により所定の圧縮形式(例えば、Motion−JPEG形式等)で符号化された記録用の画像データ、すなわち、レンズ部1、電子撮像部2及びユニット回路部3により逐次撮像される複数のフレーム画像から構成される被写体の動画像を1つの連続した動画像データとして記録媒体Mに記録させる。
なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The recording
Specifically, the recording
The recording medium M is composed of, for example, a non-volatile memory (flash memory) or the like. However, the recording medium M is an example and is not limited to this, and can be arbitrarily changed as appropriate.
操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係り、半押し及び全押し操作可能なシャッタボタン11a、撮像モードや機能等の選択指示に係る選択決定用ボタン11b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部14に出力する。
The operation input unit 11 is for performing a predetermined operation of the
バッファメモリ12は、画像データ等を一時保存するバッファであるとともに、中央制御部14のワーキングメモリ等としても使用される。
プログラムメモリ13には、当該撮像装置100の機能に係る各種プログラムやデータが格納されている。
The
The
中央制御部14は、撮像装置100の各部を制御する。具体的には、中央制御部14は、撮像装置100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
次に、撮像装置100による撮像処理について、図2及び図3を参照して説明する。
Next, imaging processing by the
図2は、実施形態1における撮像処理に係る動作の一例を示すフローチャートである。また、図3は、撮像処理を説明するための図である。 FIG. 2 is a flowchart illustrating an example of an operation related to the imaging process in the first embodiment. FIG. 3 is a diagram for explaining the imaging process.
なお、図3において、1sは1秒の時間的長さを示し、120fpsにおける120個のフレームは、1s内において30個ずつのフレームで構成される各フレーム群f11〜f14に区分して示している。したがって、各フレーム群fの時間的長さは250msecであり、また、各フレーム群fはそれぞれ30枚のフレーム画像を含んでなる。 In FIG. 3, 1s indicates a time length of 1 second, and 120 frames at 120 fps are divided into frame groups f11 to f14 configured by 30 frames in 1s. Yes. Therefore, the time length of each frame group f is 250 msec, and each frame group f includes 30 frame images.
そして、以下の撮像処理は、ユーザによる操作入力部11の選択決定用ボタン11bの所定操作に基づいて、複数の撮像モードの中から動画像の撮像モードが選択指示された場合に実行される。また、撮像処理は、動画像の撮像指示が入力されると開始され、動画像の撮像の終了指示が入力されるまで、各ステップの処理を繰り返し実行する。
The following imaging processing is executed when a moving image imaging mode is selected from a plurality of imaging modes based on a predetermined operation of the
先ず、撮像制御部6は、電子撮像部2のイメージセンサを図2に示すように、所定の撮像フレームレート(120fps)で駆動させて、レンズ部1により結像された被写体の光学像を二次元の画像信号(RGB画像データ)に変換させることでフレーム画像の取り込みを行う(ステップS1)。
First, as shown in FIG. 2, the
次に、撮像制御部6は、記録フレームレートに応じて処理を分岐させる(ステップS2)。具体的には、撮像制御部6は、記録フレームレートが通常記録フレームレート(30fps)である場合には(ステップS2;通常動画撮影フレームレート)、処理をステップS3に移行させる一方で、記録フレームレートが高速記録フレームレート(120fps)である場合には(ステップS2;高速動画撮影フレームレート)、処理をステップS9に移行させる。
Next, the
<通常動画撮影フレームレート>
ステップS2にて、通常動画撮影に対応する通常記録フレームレート(30fps)である場合(ステップS2;通常動画撮影フレームレート)には、撮像制御部6は、当該通常動画撮影の記録フレームレートに応じて処理対象となるフレーム画像を、所定の撮像フレームレート(本実施形態では120fps)で次々と取り込まれるフレーム画像の中から間引いて(この例の場合は、4フレーム群に対して3フレーム群の割合で選択して)実質的に通常記録フレームレートにする。撮像制御部6は、フレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段として動作する。
<Normal movie shooting frame rate>
If the normal recording frame rate (30 fps) corresponding to normal moving image shooting is set in step S2 (step S2; normal moving image shooting frame rate), the
電子撮像部2のイメージセンサは、図3に示すように固定的に120fpsの速度で動作しており、これによりイメージセンサから同速度で出力されるフレーム画像のうち、最初の30フレームからなるフレームf11、f21...〜を記録フレームとして特定する一方、次の3個のフレーム群f12、f22...〜、f13、f23...〜、f14、f24...〜を間引きフレームとして特定する。 As shown in FIG. 3, the image sensor of the electronic imaging unit 2 operates at a fixed speed of 120 fps, and thus, the frame composed of the first 30 frames among the frame images output from the image sensor at the same speed. f11, f21. . . Are specified as recording frames, while the following three frame groups f12, f22. . . To f13, f23. . . ~, F14, f24. . . Specify ~ as a decimation frame.
続けて、撮像制御部6の状態検出部6bは、画像生成部4から出力されて入力された間引きフレームにおける最初のフレームf12、f22...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、撮像制御部6による自動露出調整処理(AE)を行う(ステップS4)。
Subsequently, the
また、このステップS4の処理と並行して、間引きフレームにおける次のフレームf13、f23...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、自動ホワイトバランス調整処理(AWB)を行う(ステップS5)。 In parallel with the processing of step S4, the next frames f13, f23. . . The automatic white balance adjustment processing (AWB) is performed based on the image data (YUV data) of the luminance color difference signals of the frame images included in (step S5).
更に、ステップS4、S5の処理と並行して、間引きフレームにおける最後のフレームf14、f24...〜に含まれるフレーム画像より検出された被写体の鮮明度(コントラスト)を基準として、AF処理を行う(ステップS6)。 Further, in parallel with the processing of steps S4 and S5, the last frames f14, f24. . . AF processing is performed based on the sharpness (contrast) of the subject detected from the frame images included in (step S6).
すなわち、図3において「撮影条件」の欄に記載したように、フレームf12、f22...〜に基づきAE処理が実行され、フレームf13、f23...〜に基づきAWB処理が実行され、フレームf14、f24...〜に基づきAF処理が実行されて、また更新される。 That is, as described in the “shooting condition” column in FIG. . . AE processing is executed based on the frames f13, f23. . . AWB processing is executed based on the frames f14, f24. . . The AF process is executed and updated based on.
なお、ステップS4〜S6における検出は、当該処理対象のフレーム画像よりも前に保存されるフレーム画像から検出された特定の被写体(例えば、顔領域等)を基準として行っても良い。 Note that the detection in steps S4 to S6 may be performed based on a specific subject (for example, a face area) detected from a frame image stored before the processing target frame image.
また、ステップS4〜S6の検出処理ほぼ並行処理されるので、処理順序を入れ替えても実質的に影響は無い、この場合には、一の処理対象のフレーム画像から検出された特定の被写体を基準として当該一の処理対象のフレーム画像の明るさや色合い等を検出しても良い。 In addition, since the detection processes in steps S4 to S6 are performed almost in parallel, there is substantially no influence even if the processing order is changed. In this case, a specific subject detected from one processing target frame image is used as a reference. As such, the brightness, hue, etc. of the one processing target frame image may be detected.
次に、撮像制御部6の撮像条件調整部6cは、ステップS4〜S6での処理によって状態検出部6bにより処理された結果に基づき、撮像条件の内容を更新する(ステ
Next, the imaging condition adjustment unit 6c of the
これにより、当該処理対象の間引きフレーム群の直後に保存されるフレーム画像群(図3におけるフレームF21...)は、更新後の撮像条件が反映された状態で撮像されたフレーム画像となる。 Thus, the frame image group (frame F21... In FIG. 3) stored immediately after the thinned frame group to be processed is a frame image captured in a state where the updated imaging conditions are reflected.
つまり、本実施形態によれば、ステップS4〜S6での並行処理によりステップS7で更新して設定した撮影条件を、ステップS8で保存されるフレーム画像データの記録に、確実に反映させることができる。 That is, according to the present embodiment, the shooting conditions updated and set in step S7 by the parallel processing in steps S4 to S6 can be reliably reflected in the recording of the frame image data stored in step S8. .
次に、中央制御部14は、画像生成部4により生成された当該処理対象のフレーム画像を記録フレーム画像として、当該フレーム画像のYUVデータをバッファメモリ12に保存させる(ステップS8)。つまり、通常動画撮影フレームレートの場合、120fpsで次々と取り込まれるフレーム画像の中から1/4の割合で選択されたフレーム画像が、30fpsの記録フレームレートでバッファメモリ12に保存されることになる。
Next, the
<高速動画撮影フレームレート>
一方、ステップS2にて、高速動画撮影に対応する記録フレームレート(120fps)である場合(ステップS2;高速動画撮影フレームレート)、撮像制御部6は、記録フレームが当該高速動画撮影に対応する記録フレームレートに切り替えられる以前の所定の撮像条件を保持するように撮像条件調整部6cにより調整させる(ステップS9)。具体的には、撮像制御部6は、記録フレームレートが高速動画撮影に対応する記録フレームレートに切り替えられる前に通常動画撮影に対応する記録フレームレートに応じた周期で撮像されたフレーム画像に対して撮像条件調整部6cにより逐次調整されて、所定の格納領域に格納されている露出調整条件やホワイトバランス調整条件等の被写体の撮像条件を保持する。
<High-speed movie shooting frame rate>
On the other hand, when the recording frame rate (120 fps) corresponding to high-speed moving image shooting is set in step S2 (step S2; high-speed moving image shooting frame rate), the
その後、中央制御部14は、処理をステップS8に移行して、高速動画撮影に対応する記録フレームレートに応じた周期で撮像されて画像生成部4により生成されたフレーム画像を記録フレーム画像として、当該フレーム画像のYUVデータをバッファメモリ12に保存させる。つまり、高速動画撮影フレームレートの場合、120fpsで次々と取り込まれるフレーム画像を間引くことなく、そのまま120fpsの記録フレームレートでバッファメモリ12に保存されることになる。
Thereafter, the
上記の各処理は、動画像の撮像の終了指示が入力されるまで、繰り返し実行される。 Each of the above processes is repeatedly executed until a moving image capturing end instruction is input.
そして、動画像の撮像の終了指示が入力されると、記録媒体制御部10は、バッファメモリ12に保存された動画像データに対して、当該動画像データの記録開始時に設定された記録フレームレート(この例の場合には30fps)を記録フレームレート属性として付加して記録媒体Mに保存する。
When a moving image capturing end instruction is input, the recording
以上のように、実施形態1の撮像装置100によれば、動画撮影全体を通しては、常に被写体の状態に適した露出やホワイトバランス、フォーカスが維持されるように、撮像条件を調整しながら撮影記録を行いつつ、撮影記録を行って動画像データを記録する。したがって、通常記録フレームレートで撮影を行い、その後これを再生したときに、動画撮影全体を通しては常に被写体の状況に合った適切な露出やホワイトバランス、フォーカスに調整された映像を見ることができる。
As described above, according to the
すなわち、例えば、フレーム画像全面の明るさを考慮する測光方法で撮像装置100をパーンさせながら撮像する場合など、主要被写体の状態は変化しないにも拘わらず背景が変化することにより主要被写体の明るさや色合いが変動することを防ぐことができ、その後、動画像を所定の再生フレームレートで再生した際に当該主要被写体の明るさや色合いを適正なものにすることができる。また、主要被写体の明るさを基準とする測光方法で回転する主要被写体を撮像する場合など、当該主要被写体の回転によって変化する光の反射度合いに応じて被写体の撮像条件を変動させないため、その後、動画像を所定の再生フレームレートで再生した際に当該主要被写体の光の反射度合いを適正なものにすることができる。また、主要被写体が動いた場合においても、当該主要被写体にフォーカスがあった適正なものにすることができる。
That is, for example, when imaging is performed while the
[実施形態2]
図4は、本発明を適用した実施形態2における撮像処理に係る動作の一例を示すフローチャートである。このフローチャートにおいて、ステップS14〜S16を除く、他のステップS11〜S13、S17〜S19は、図2に示した実施形態1のフローチャートにおけるステップS1〜S3、S7〜S9と同一のであるので、説明を省略する。
[Embodiment 2]
FIG. 4 is a flowchart showing an example of an operation related to an imaging process in the second embodiment to which the present invention is applied. In this flowchart, steps S11 to S13 and S17 to S19 other than steps S14 to S16 are the same as steps S1 to S3 and S7 to S9 in the flowchart of the first embodiment shown in FIG. Omitted.
そして、実施形態1のフローチャートとは異なるステップS14では、撮像制御部6の状態検出部6bは、画像生成部4から出力されて入力された間引きフレームにおける最初のフレームf12、f22...〜に含まれるフレーム画像の輝度色差信号の画像データ(YUVデータ)に基づいて、撮像制御部6による自動露出調整処理(AE)と自動ホワイトバランス調整処理(AWB)とを行う(ステップS14)。
In step S14, which is different from the flowchart of the first embodiment, the
また、このステップS14の処理と並行して、間引きフレームにおける次のフレームf13、f23...〜に含まれるフレーム画像より検出された被写体の鮮明度(コントラスト)を基準として、AF処理を行う(ステップS15)。 In parallel with the processing of step S14, the next frames f13, f23. . . AF processing is performed with reference to the sharpness (contrast) of the subject detected from the frame images included in (step S15).
更に、ステップS14、S15の処理と並行して、間引きフレームにおける最後のフレームf14、f24...〜に含まれるフレーム画像から、状態検出部6bにより検出された被写体の大きさ等を認識し、レンズ部1におけるズームレンズ位置を変更する処理を行う。
Further, in parallel with the processing of steps S14 and S15, the last frames f14, f24. . . The size of the subject detected by the
すなわち、図5において「撮影条件」の欄に記載したように、フレームf12、f22...〜に基づきAE処理、AWB処理が実行され、フレームf13、f23...〜に基づきAF処理が実行され、フレームf14、f24...〜に基づきZOOM処理が実行されて、また更新される。 That is, as described in the “shooting condition” column in FIG. 5, the frames f12, f22. . . AE processing and AWB processing are executed based on the frames f13, f23. . . To execute the AF processing based on the frames f14, f24. . . The ZOOM process is executed and updated based on.
したがって、本実施形態によれば、ステップS14〜S16で検出し、ステップS17で更新して設定した撮影条件をステップS18で保存されるフレーム画像データの記録に、確実に反映させることができる。 Therefore, according to the present embodiment, it is possible to reliably reflect the shooting conditions detected in steps S14 to S16 and updated and set in step S17 in the recording of the frame image data stored in step S18.
以上のように、実施形態2の撮像装置100によれば、動画撮影全体を通しては、常に被写体の状態に適した露出やホワイトバランス、フォーカス、ズームが維持されるように、撮像条件を調整しながら撮影記録を行いつつ、撮影記録を行って動画像データを記録する。したがって、通常記録フレームレートで撮影を行い、その後これを再生したときに、動画撮影全体を通しては常に被写体の状況に合った適切な露出やホワイトバランス、フォーカスに調整された映像、主要被写体の大きさが適切な動画を見ることができる。
As described above, according to the
なお、実施形態においては、ステップS4〜S6又はステップS14〜S16で撮影条件に係る処理のみを行い、ステップS7又はステップS17での更新により、検出した撮影条件を設定するようにした。しかし、ステップS7又はステップS17を別途設けることなく、ステップS4〜S6又はステップS14〜S16で撮影条件の検出のみならず、更新による設定を行うようにしてもよい。このようにすれば、更新処理の集中化を回避して分散化がなされ、次回のフレーム画像データの記録タイミングに設定内容について余裕をもって反映させることができる。 In the embodiment, only the process related to the shooting condition is performed in steps S4 to S6 or steps S14 to S16, and the detected shooting condition is set by updating in step S7 or step S17. However, without providing step S7 or step S17 separately, not only the detection of the shooting conditions but also the setting by updating may be performed in steps S4 to S6 or steps S14 to S16. In this way, decentralization is achieved by avoiding centralization of update processing, and the set contents can be reflected with sufficient margin in the recording timing of the next frame image data.
更に、実施形態においては、並行した処理とはいえ、最初のフレーム画像からAE処理、AWB処理、AF処理、ZOOM処理の順に行った。これはタイミング的に記録フレームに近い間引きフレームを採用して処理をした方が良いケースとその必然性が無いケースとで分けた結果でもあるが、処理に要する時間に基づいて、採用するフレームを変更しても良い。 Furthermore, in the embodiment, although it is parallel processing, the AE processing, AWB processing, AF processing, and ZOOM processing are performed in order from the first frame image. This is also the result of separating the case where it is better to use a thinned frame that is close to the recording frame in timing and the case where there is no necessity, but the frame used is changed based on the time required for processing. You may do it.
例えば、AE処理については記録フレームに近い方の間引きフレームを採用した方が良いとされるが、AWB処理については、特に記録フレームとの時間的距離に左右されにくいので、タイミング的にもっとも遠い間引きフレームを採用しても良い。 For example, for AE processing, it is better to use a thinned frame that is closer to the recording frame, but for AWB processing, it is difficult to be influenced by the time distance from the recording frame, so the thinning out that is farthest in timing is important. A frame may be adopted.
また、主要被写体の検出処理や認識処理に要する時間やレンズの移動位置の調整時間を考慮すると、AF処理、ZOOM処理については次の記録フレームの取得タイミングよりもできるだけ離れたタイミングの間引きフレームを採用する場合が良いケースもある。 Considering the time required for main subject detection processing and recognition processing and lens movement position adjustment time, a thinned frame is used for AF processing and ZOOM processing as far as possible from the next recording frame acquisition timing. There are cases where it is good to do.
したがって間引きフレームと処理対象となる撮影条件の関係については様々考えられるが何れのケースにおいても記録フレーム以外の間引きフレームを用いて行われる処理であることに変わりは無い。 Accordingly, there are various possible relationships between the thinned frame and the imaging condition to be processed, but in any case, the process is performed using a thinned frame other than the recording frame.
以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.
<請求項1>
撮像手段と、
この撮像手段を所定のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
を備えることを特徴とする撮像装置。
<Claim 1>
Imaging means;
Output means for driving the imaging means at a predetermined frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
An imaging apparatus comprising:
<請求項2>
前記取得手段は時間的に連続する複数のフレーム画像データを規則的に間引き、前記設定手段はこれらのフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定することを特徴とする請求項1記載の撮像装置。
<Claim 2>
The acquisition means regularly thins out a plurality of temporally continuous frame image data, and the setting means sets shooting conditions for the next frame image data for recording using these frame image data. The imaging apparatus according to claim 1.
<請求項3>
前記設定手段が設定する撮影条件は複数種であるとともに、これらのフレーム画像データの夫々を用いて、前記次の記録用のフレーム画像データの複数種の撮影条件を設定することを特徴とする請求項2記載の撮像装置。
<Claim 3>
There are a plurality of types of shooting conditions set by the setting unit, and a plurality of types of shooting conditions for the next frame image data for recording are set using each of the frame image data. Item 3. The imaging device according to Item 2.
<請求項4>
前記撮影条件には、露光時間が含まれることを特徴とする請求項3記載の撮像装置。
<Claim 4>
The imaging apparatus according to claim 3, wherein the photographing condition includes an exposure time.
<請求項5>
前記撮影条件には、色味調整が含まれることを特徴とする請求項3又は4記載の撮像装置。
<Claim 5>
The imaging apparatus according to claim 3 or 4, wherein the photographing condition includes color adjustment.
<請求項6>
前記撮影条件には、フォーカスレンズ位置が含まれることを特徴とする請求項3、4又は5記載の撮像装置。
<Claim 6>
The imaging apparatus according to claim 3, wherein the imaging condition includes a focus lens position.
<請求項7>
前記撮影条件には、ズームレンズ位置が含まれることを特徴とする請求項3から6にいずれか記載の撮像装置。
<Claim 7>
The imaging apparatus according to claim 3, wherein the photographing condition includes a zoom lens position.
<請求項8>
撮像部を備える装置が有するコンピュータを、
前記撮像部を第1のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
として機能させることを特徴とするプログラム。
<Claim 8>
A computer included in an apparatus including an imaging unit,
Output means for driving the imaging unit at a first frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
A program characterized by functioning as
100 撮像装置
1 レンズ部
2 電子撮像部
5 被写体検出部
6 撮像制御部
6a 記録フレームレート設定部
6b 状態検出部
6c 撮像条件調整部
8 表示制御部
9 表示部
11 操作入力部
14 中央制御部
16 動き検出部
DESCRIPTION OF
Claims (8)
この撮像手段を所定のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
を備えることを特徴とする撮像装置。 Imaging means;
Output means for driving the imaging means at a predetermined frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
An imaging apparatus comprising:
前記撮像部を第1のフレームレートで駆動させ、フレーム画像データを順次出力させる出力手段と、
この出力手段によって出力されたフレーム画像データを規則的に間引いて記録用のフレーム画像データを取得する取得手段と、
前記間引かれたフレーム画像データを用いて、次の記録用のフレーム画像データの撮影条件を設定する設定手段と、
として機能させることを特徴とするプログラム。 A computer included in an apparatus including an imaging unit,
Output means for driving the imaging unit at a first frame rate and sequentially outputting frame image data;
Acquisition means for regularly thinning out the frame image data output by the output means to acquire frame image data for recording;
Using the thinned frame image data, setting means for setting shooting conditions of the next frame image data for recording;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012142688A JP2014007622A (en) | 2012-06-26 | 2012-06-26 | Image pick-up device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012142688A JP2014007622A (en) | 2012-06-26 | 2012-06-26 | Image pick-up device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014007622A true JP2014007622A (en) | 2014-01-16 |
Family
ID=50104981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012142688A Pending JP2014007622A (en) | 2012-06-26 | 2012-06-26 | Image pick-up device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014007622A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180058004A (en) * | 2016-11-23 | 2018-05-31 | 한화지상방산 주식회사 | Following apparatus and following system |
WO2020158070A1 (en) * | 2019-01-29 | 2020-08-06 | 富士フイルム株式会社 | Imaging device, imaging method, and program |
WO2020158069A1 (en) * | 2019-01-29 | 2020-08-06 | 富士フイルム株式会社 | Imaging device, imaging method, and program |
US12249053B2 (en) | 2019-12-27 | 2025-03-11 | Socionext Inc. | Image processing device and image processing method |
-
2012
- 2012-06-26 JP JP2012142688A patent/JP2014007622A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180058004A (en) * | 2016-11-23 | 2018-05-31 | 한화지상방산 주식회사 | Following apparatus and following system |
KR102286006B1 (en) * | 2016-11-23 | 2021-08-04 | 한화디펜스 주식회사 | Following apparatus and following system |
WO2020158070A1 (en) * | 2019-01-29 | 2020-08-06 | 富士フイルム株式会社 | Imaging device, imaging method, and program |
WO2020158069A1 (en) * | 2019-01-29 | 2020-08-06 | 富士フイルム株式会社 | Imaging device, imaging method, and program |
JPWO2020158069A1 (en) * | 2019-01-29 | 2021-11-25 | 富士フイルム株式会社 | Imaging device, imaging method, and program |
JPWO2020158070A1 (en) * | 2019-01-29 | 2021-11-25 | 富士フイルム株式会社 | Imaging device, imaging method, and program |
JP7110406B2 (en) | 2019-01-29 | 2022-08-01 | 富士フイルム株式会社 | IMAGING DEVICE, IMAGING METHOD, AND PROGRAM |
JP7112529B2 (en) | 2019-01-29 | 2022-08-03 | 富士フイルム株式会社 | IMAGING DEVICE, IMAGING METHOD, AND PROGRAM |
US11438521B2 (en) | 2019-01-29 | 2022-09-06 | Fujifilm Corporation | Image capturing device, image capturing method, and program |
US12249053B2 (en) | 2019-12-27 | 2025-03-11 | Socionext Inc. | Image processing device and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5234119B2 (en) | Imaging apparatus, imaging processing method, and program | |
JP4980982B2 (en) | Imaging apparatus, imaging method, focus control method, and program | |
JP5186021B2 (en) | Imaging apparatus, image processing apparatus, and imaging method | |
US9398230B2 (en) | Imaging device and imaging method | |
JP2008129554A (en) | Imaging device and automatic focusing control method | |
JP2009219020A (en) | Imaging apparatus, control method of imaging device, and control program of imaging device | |
JP5782813B2 (en) | Imaging apparatus and image display method | |
JP2008109336A (en) | Image processor and imaging apparatus | |
US10462353B2 (en) | Imaging device, imaging method, and storage medium | |
JP2011182252A (en) | Imaging device, and image imaging method | |
KR101690261B1 (en) | Digital image processing apparatus and controlling method thereof | |
JP5909997B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2014007622A (en) | Image pick-up device and program | |
JP2007299339A (en) | Image reproducing device, method and program | |
JP5146015B2 (en) | Imaging apparatus and imaging method | |
JP4645413B2 (en) | Imaging device | |
JP5045538B2 (en) | Imaging apparatus and program | |
JP2008263478A (en) | Imaging apparatus | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2008301161A (en) | Image processing device, digital camera, and image processing method | |
JP2015019243A (en) | Imaging apparatus, and control method and program thereof | |
JP2011223399A (en) | Camera | |
JP6471843B2 (en) | Imaging apparatus, control method, and program | |
JP5644180B2 (en) | Imaging apparatus, imaging method, and program | |
US20150156408A1 (en) | Imaging apparatus, method for controlling the same, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140702 |