JP6170402B2 - Imaging apparatus and control method thereof - Google Patents
Imaging apparatus and control method thereof Download PDFInfo
- Publication number
- JP6170402B2 JP6170402B2 JP2013217862A JP2013217862A JP6170402B2 JP 6170402 B2 JP6170402 B2 JP 6170402B2 JP 2013217862 A JP2013217862 A JP 2013217862A JP 2013217862 A JP2013217862 A JP 2013217862A JP 6170402 B2 JP6170402 B2 JP 6170402B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- focus
- focus adjustment
- frame rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000003384 imaging method Methods 0.000 title claims description 28
- 238000011156 evaluation Methods 0.000 claims description 39
- 230000002194 synthesizing effect Effects 0.000 claims description 20
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000003786 synthesis reaction Methods 0.000 claims description 14
- 230000005484 gravity Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 43
- 239000000203 mixture Substances 0.000 description 21
- 238000001514 detection method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 230000010354 integration Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 101000860173 Myxococcus xanthus C-factor Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、動画像を記録及び再生する撮像装置及びその制御方法に関する。 The present invention relates to an imaging apparatus for recording and reproducing a moving image and a control method thereof.
近年のデジタルカメラなどの画像記録再生装置では、音声付き動画を撮影記録及び再生する様々な方式が採られる。従来通り、使用者が撮影記録の開始指示をしてから終了指示をするまで撮影し続ける方式や、撮影記録の開始指示から予め決められた時間だけ撮影記録する方式がある。 2. Description of the Related Art Recent image recording / playback apparatuses such as digital cameras employ various methods for shooting, recording, and playing back moving images with sound. As usual, there are a method in which shooting is performed until a user gives an instruction to start shooting and a shooting instruction is given, and a method of shooting and recording for a predetermined time from an instruction to start shooting and recording.
こうした中、背景と被写体の双方が適切である画質を得るため、ダイナミックレンジを拡大した動画が求められている。静止画においては適正露出画像に対し、高輝度部が適正露出な画像と低照度部が適正露出な画像を合成し、ダイナミックレンジを拡大した画像を合成処理することが知られている。同様に、動画においてもダイナミックレンジを拡大する処理が求められている。動画で画像合成を行うには、被写体の動きに応じた合成比率をランタイムに求める必要があり、被写体に対するレンズの焦点調節がなされ、背景とのコントラストがあるのが好ましい。しかし、焦点調節は、動画撮影記録と並行して、撮像素子の出力を利用したTTL方式の焦点調節を行うため、焦点調節期間においては、全ての画像が合焦状態にはない。 Under these circumstances, in order to obtain an image quality in which both the background and the subject are appropriate, a moving image with an expanded dynamic range is required. In a still image, it is known to combine an image with a high brightness portion and an appropriate exposure with a low illuminance portion, and an image with an expanded dynamic range, with a properly exposed image. Similarly, processing for expanding the dynamic range is also required for moving images. In order to perform image composition with a moving image, it is necessary to obtain a composition ratio corresponding to the movement of the subject at runtime, and it is preferable that the focus of the lens with respect to the subject is adjusted and there is contrast with the background. However, since the focus adjustment is performed in parallel with the moving image shooting and recording, the TTL focus adjustment using the output of the image sensor is performed, so that all images are not in focus during the focus adjustment period.
一方、CMOS型イメージセンサの画素部と画素部の駆動を担う回路部の積層化により、画素部と回路部とが重ねて配置されうる。これにより、画素部から動画記録に適した画像を読み出すと同時に、複数のAF用の画像を高速に読み出すことができるようになる。上記のような積層型のCMOSイメージセンサを用いた場合、動画を記録すると同時に高速にAF評価で被写体の動きに適した焦点調節が可能になるが、AF用画像全てが合焦状態にないことに変わりはない。 On the other hand, the pixel unit and the circuit unit can be arranged to overlap each other by stacking the pixel unit of the CMOS image sensor and the circuit unit responsible for driving the pixel unit. As a result, it is possible to read out images suitable for moving image recording from the pixel portion and simultaneously read out a plurality of images for AF. When the stacked CMOS image sensor as described above is used, it is possible to perform focus adjustment suitable for the movement of the subject by AF evaluation at the same time as recording a moving image, but all the AF images are not in focus. There is no change.
特許文献1は、ダイナミックレンジ拡大を行うための全ての合成用画像において撮像期間に共通の重複部分があるようにする技術を開示する。共通の重複部分は撮像基準が中央に位置する画像を含む。また、特許文献2は、位相差用画素と通常画素が混在し、位相差画素で撮影レンズのフォーカス量を算出して焦点調節制御後の通常画素と位相差画素を読み出し、記録用画像を生成する技術を開示する。 Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for causing a common overlapping portion in an imaging period in all the images for synthesis for performing dynamic range expansion. The common overlapping portion includes an image in which the imaging reference is located at the center. Japanese Patent Laid-Open No. 2004-259542 also includes a phase difference pixel and a normal pixel. The focus amount of the photographing lens is calculated using the phase difference pixel, and the normal pixel and the phase difference pixel after focus adjustment control are read to generate a recording image. The technology to do is disclosed.
積層型のCMOSセンサのように、撮像素子から動画記録用画像を読み出すと同時に複数のAF評価用の画像が得られる場合、動画記録用画像に対してAF評価用画像の蓄積時間は短くなる。回路構成の制約からAF評価用画像は動画記録用画像を1フレーム読み出す間に整数フレーム読み出すことになる。動画記録用画像とAF評価用画像が同時刻に得られ、それぞれの蓄積時間が異なるため、ダイナミックレンジの拡大に応用させることができる。 When a plurality of AF evaluation images are obtained at the same time as reading a moving image recording image from the image sensor like a stacked CMOS sensor, the accumulation time of the AF evaluation image is shorter than the moving image recording image. Due to the limitation of the circuit configuration, the AF evaluation image reads integer frames while reading one frame of the moving image recording image. Since the moving image recording image and the AF evaluation image are obtained at the same time, and the respective accumulation times are different, it can be applied to the expansion of the dynamic range.
一方、動画記録中には、焦点調節を行うためにフォーカスレンズを移動しながらAF評価値を取得する。フォーカスレンズが移動している期間に連続的に露光している動画記録用画像は、露光時間に対するレンズ移動期間が短いために合焦状態への影響が比較的少なく目立たない。しかし、高速に読み出される複数のAF評価用画像は、露光期間中のフォーカスレンズ位置に応じて画像毎の合焦状態に有意差が生じる。言い換えれば、フォーカスレンズ位置による評価値の有意差を持って焦点位置を検出するので、被写界深度に応じてAF評価用画像間には合焦状態の差が現れてしまう。そのため、合成する上での画像間の位置合わせや、合成画像の解像感を損なう可能性がある。 On the other hand, during moving image recording, an AF evaluation value is acquired while moving the focus lens to perform focus adjustment. A moving image recording image that is continuously exposed during a period in which the focus lens is moving has a relatively short influence on the in-focus state because the lens movement period with respect to the exposure time is relatively short, and is not noticeable. However, a plurality of AF evaluation images read out at high speed have a significant difference in the in-focus state for each image depending on the focus lens position during the exposure period. In other words, since the focus position is detected with a significant difference in evaluation value depending on the focus lens position, a difference in focus state appears between AF evaluation images according to the depth of field. For this reason, there is a possibility that the alignment between images and the sense of resolution of the synthesized image will be impaired.
本発明は、AF評価用画像を動画記録用画像と合成する場合、解像感を損なうことなく、正確に位置合わせをしてダイナミックレンジの広い画像が得られる撮像装置を提供する。 The present invention provides an imaging apparatus capable of accurately aligning and obtaining an image with a wide dynamic range without impairing the resolution when combining an AF evaluation image with a moving image recording image.
本発明の一側面によれば、撮影レンズを介して被写体像を撮像する撮像素子と、前記撮影レンズに含まれ、光軸方向に移動可能なフォーカスレンズと、前記撮像素子から、第1のフレームレートで第1の画像を取得するとともに、前記第1のフレームレートより高い第2のフレームレートで複数の第2の画像を取得する取得手段と、前記第1の画像及び前記複数の第2の画像の高周波成分に基づき前記フォーカスレンズの位置を制御して前記被写体像に対する焦点調節を行う焦点調節手段と、前記撮像素子から得られた複数の画像を合成してダイナミックレンジが拡大された画像を生成する合成手段とを有し、前記合成手段は、前記複数の第2の画像のうち合焦率の高い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする撮像装置が提供される。 According to an aspect of the present invention, an imaging device that captures a subject image via a photographing lens, a focus lens that is included in the photographing lens and is movable in an optical axis direction, and a first frame from the imaging device. to obtain the first image at a rate obtaining means for obtaining a plurality of second images at the first higher than the frame rate second frame rate, the first image and the plurality of second An image in which the dynamic range is expanded by synthesizing a plurality of images obtained from the imaging element, and a focus adjustment unit that performs focus adjustment on the subject image by controlling the position of the focus lens based on a high-frequency component of the image of Combining means for generating the image, wherein the combining means selects an image with a high focusing rate from the plurality of second images, and combines the selected image with the first image. Imaging device that is provided.
本発明によれば、動画撮影記録を行いながら焦点調節を行う場合に、合焦率の高い画像が選択的に合成される。これにより、合成時の位置合わせが正確に行えると同時に、解像感を失うことなくダイナミックレンジの広い画像を得ることができる。 According to the present invention, when focus adjustment is performed while performing moving image shooting and recording, an image with a high focusing rate is selectively combined. As a result, it is possible to accurately perform alignment at the time of synthesis, and to obtain an image with a wide dynamic range without losing a sense of resolution.
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following embodiment, It shows only the specific example advantageous for implementation of this invention. Moreover, not all combinations of features described in the following embodiments are indispensable for solving the problems of the present invention.
図1は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、ズームレンズ110と、カメラのブレを補正するシフトレンズ111と、焦点調節用のフォーカスレンズ112とを含む撮影レンズを備える。なお、撮影レンズは本体に対して着脱可能なものであってもよい。フォーカスレンズ112は、光軸方向に移動可能に構成されている。撮像装置100は更に、撮影レンズの後段への光束を遮断するメカニカルシャッタ113、後段への光束を調節する絞り114を有する。タイミング発生部116は、撮像素子115の駆動に必要なタイミングパルスを発生する。
FIG. 1 is a block diagram illustrating a configuration of an
画像処理部117は、撮像駆動用の同期信号を発生するSSG回路、前処理回路、AF評価値演算回路、輝度積分回路、信号処理回路、画像合成回路、縮小回路、ラスタブロック変換回路及び、圧縮回路を含む。SSG回路では、タイミング発生器から撮像駆動用のクロックを受けて、水平及び、垂直同期信号を発生し、タイミング発生器と撮像素子に出力する。前処理回路では、入力画像を行単位で輝度積分回路と信号処理回路とに分配する。また、撮像データに必要となるチャネル間のデータ補正等の処理を行う。AF評価値演算回路では、設定された複数の評価領域内に入力される画像信号の輝度成分について水平方向のフィルタ処理を施し、コントラストを表す所定周波数を抽出しながら最大値を選択し、垂直方向に積分演算を行う。輝度積分回路では、RGB信号から輝度成分を混合生成し、入力画像を複数領域に分割し、領域毎に輝度成分を生成する。信号処理回路では、撮像素子出力データに色キャリア除去、アパーチャー補正、ガンマ補正処理等を行って輝度信号を生成する。同時に、色補間、マトリックス変換、ガンマ処理、ゲイン調整等を施して色差信号を生成し、メモリ部123にYUV形式の画像データを形成する。また、信号処理回路では、生成するYUV形式の画像データの輝度信号(Y)をそのレベル毎に集計し、画像データ毎の輝度分布データを生成する。画像合成回路では、メモリ部123に形成された或いは、撮像素子出力データから直接的に信号処理回路で生成された複数のYUV形式の画像データを入力する。そして、入力されたYUV形式の画像データに画素単位で設定された係数を乗じて加算することにより合成画像を生成する。具体的な内容は後述する。縮小回路では、信号処理回路の出力を受けて、入力される画素データの切り出し、間引き及び、線形補間処理等を行い、水平垂直方向に画素データの縮小処理を施す。それを受けて、ラスタブロック変換回路では、縮小回路で変倍されたラスタスキャン画像データをブロックスキャン画像データに変換する。こうした一連の画像処理は、メモリ部123がバッファメモリとして用いられて実現される。圧縮回路は、バッファメモリでブロックスキャンデータに変換したYUV画像データを動画圧縮方式に従って圧縮して、動画ビットストリームを出力する。
The
露出制御部118は、メカニカルシャッタ113、絞り114を制御する。レンズ駆動部119は、ズームレンズ110、フォーカスレンズ112を光軸上に沿って移動させ、被写体像を撮像素子115上に結像させる。また、レンズ駆動部119は、角速度センサと加速度センサの出力に応じてシフトレンズを駆動し、画像記録再生装置の手ブレを光学的に補正する。撮影指示を行うためのレリーズスイッチ120は、例えばダブルアクションのスイッチで、第1のスイッチ(半押し)と第2のスイッチ(全押し)とで構成されている。
The
マイクロホン127は入力された音声を音声信号に変換する。A/D変換器128は、マイクロホンの音声出力をデジタル音声信号に変換する。音声処理部129は、デジタル音声データに所定の音声処理を施し、音声ビットストリームを出力する。
The
これら構成要素の制御は、CPUとそのインターフェイス回路、DMAC(Direct・Memory・Access・Controller)、バスアービター等で構成されるシステム制御回路121で行われる。CPUが実行するプログラムは、フラッシュメモリ122に記憶されている。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。メモリ部123には、システム制御回路121の動作用の定数、変数、フラッシュメモリ122から読み出したプログラム等を展開する。また、システム制御回路121はメモリ部123、再生回路150、モニタ151等を制御することにより表示制御も行う。
Control of these components is performed by a
接続端子130、141は、撮像装置100と電源である電池142とを係合させる。電池BOX140は、撮像装置100に電池142を保持させる。記録媒体133は画像データを記録する。接続端子125、132は、撮像装置100と記録媒体133とを係合させる。スイッチ134は、記録媒体の書き込み禁止スイッチを検知する。検出スイッチ126は記録媒体133の着脱を検出する。また、動画記録スイッチ180は動画記録を指示する。
The
再生回路150は、画像処理部117で生成され、メモリ部123に記憶された画像データを表示用画像に変換して表示装置であるモニタ151に転送する。再生回路150では、YUV形式の画像データを輝度成分信号Yと変調色差成分Cとに分離し、D/A変換を行ったアナログ化されたY信号にLPFを施す。また、D/A変換を行ったアナログC信号にBPFを施して変調色差成分の周波数成分のみを抽出する。こうして生成された信号成分とサブキャリア周波数に基づいて、Y信号とRGB信号に変換生成して、モニタ151に出力される。このように、撮像素子からの画像データを逐次処理して表示することによってEVFが実現される。EVF状態ではAF(自動焦点調節)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理が継続的に行われ、ファインダーとしての機能を果たす。
The
モードスイッチ190は、システム制御回路121の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モードスイッチ190で、静止画撮影モードに含まれるこれらのモードのいずれかに直接切り替えられる。或いは、モードスイッチ190で静止画撮影モードに一旦切り替えた後に、静止画撮影モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。レリーズスイッチ120の半押しで第1のスイッチがONになると第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理等の撮影準備動作を開始する。
The
また、レリーズスイッチ120の全押しで第2のスイッチがONになると第2シャッタースイッチ信号SW2を発生する。システム制御回路121は、第2シャッタースイッチ信号SW2により、AE処理結果とストロボ設定に応じて、EF(フラッシュプリ発光)処理を行い、本露光若しくは、ストロボ閃光を伴う本露光を行う。そして、撮像素子115からの信号読み出しから記録媒体133に画像データを書き込むまでの一連の撮影処理の動作を開始する。動画記録スイッチ180が押下されると、レリーズスイッチ120が一気に全押しされたように、AF、AE、AWBを強制的に行う。その後、撮像素子115から出力される画像から符号化に適した画像を生成し、順次符号化を行い記録媒体133に動画像データを書き込む動作を開始する。
When the second switch is turned on by fully pressing the
<実施形態1>
図2は撮像素子の駆動タイミングと撮像素子の出力タイミング及び、画像合成までのタイミングチャートである。撮像素子115は、画像処理部117内のSSGからの同期信号を受けてタイミング発生部116が発生する駆動信号を受けて、2種類のレートで2種類の画像を出力する。SSGからの垂直同期信号(VD)は、例えば記録フレームレートの整数倍(例えば8倍。)のレートで出力され、タイミング発生部116は、2種類の画素リセットパルスと、2種類の画素読み出しパルスを出力する。VD8周期を1期間として画素リセットパルスと読み出しパルスが出力される。これにより、動画の記録フレームレートと同じフレームレート(第1のフレームレート)で第1の画像が出力される。また、VD1周期を1期間として画素リセットパルスと読み出しパルスが出力される。これにより、第1のフレームレートよりも高いレート、例えば、動画の記録フレームレートの8倍のレート(第2のフレームレート)で、複数の第2の画像が出力される。本実施形態においては、第2の画像の出力レートを第1の画像の出力レートの8倍としたが、本発明はこれに限定されるものではない。
<
FIG. 2 is a timing chart of image sensor drive timing, image sensor output timing, and image synthesis. The
取得した第1の画像と複数の第2の画像はそれぞれ、画像処理部117のAF評価値演算回路に入力され、画像単位の評価値を出力する。AF評価値は第1の画像、第2の画像それぞれで評価され、自動焦点調節に用いられる。自動焦点調節の詳細は後述する。焦点調節の結果、焦点の合うフォーカスレンズの位置に基づき、第1の画像の出力周期に相当する8つの第2の画像のうち、焦点位置に最も近いフォーカスレンズ位置で露光した画像を選択する(図2中では(F)及び(N))。選択されたこれらの画像は、第1の画像との合成に使用される。
The acquired first image and the plurality of second images are respectively input to the AF evaluation value calculation circuit of the
図3は、画像合成のデータフローを示す図である。まず、撮像素子115から第1の画像(D301)と複数の第2の画像群(D302)が取り込まれる。第1の画像(D301)から、まず、画像処理部117の信号処理回路で合成に適した設定値で現像する合成画像生成処理を経て中間YUV画像A(D305)が生成される。また、第1の画像(D301)から、合成時の画像位置ずれ検出に適した設定値で現像する比率画像生成処理を経て位置ずれ基準画像(D306)を生成する。また同様に、第2の画像群(D302)から、合成画像生成処理を経て中間YUV画像B群(D303)と、比率画像生成処理を経て位置ずれ検出画像群(D304)を生成する。
FIG. 3 is a diagram illustrating a data flow of image composition. First, a first image (D301) and a plurality of second image groups (D302) are captured from the
中間YUV画像B群(D303)と位置ずれ検出画像群(D304)から焦点調節の結果に基づいて、画像選択処理を経て焦点位置に最も近いフォーカスレンズ位置で露光した画像を中間YUV画像B(D307)と位置ずれ検出画像(D308)を生成する。 Based on the focus adjustment result from the intermediate YUV image B group (D303) and the misregistration detection image group (D304), an image exposed at the focus lens position that is closest to the focal position through the image selection process is displayed as an intermediate YUV image B (D307). ) And a displacement detection image (D308).
位置ずれ基準画像(D306)と位置ずれ検出画像(D308)に基づいて、各画像を複数に分割した領域毎の輝度平均から領域毎の各画像の輝度合成比率(D309)を算出する。また、複数に分割した領域毎の移動平均フィルタ処理を行い、領域毎の輝度、色差それぞれの差分絶対値の平均から領域毎の各画像の動き合成比率(D310)を算出する。 Based on the positional deviation reference image (D306) and the positional deviation detection image (D308), the luminance synthesis ratio (D309) of each image for each area is calculated from the luminance average for each area obtained by dividing each image into a plurality of areas. In addition, a moving average filter process is performed for each of the divided areas, and the motion synthesis ratio (D310) of each image for each area is calculated from the average of the absolute differences of the luminance and color difference for each area.
画像処理部117の合成回路に輝度合成比率と動き合成比率の最大値を合成比率として設定し、中間YUV画像A(D305)と中間YUV画像B(D307)を入力し、加重加算処理を経て合成画像を生成する(D311)。
The maximum value of the luminance composition ratio and the motion composition ratio is set as a composition ratio in the composition circuit of the
図4は、焦点調節処理を示すフローチャートである。このフローチャートに対応するプログラムは例えばフラッシュメモリ122に含まれ、メモリ部123にロードされてシステム制御回路121によって実行される。自動焦点調節は、フォーカスレンズ位置3点において撮像素子115から得られる輝度信号の高周波成分が最大になるレンズ位置を連続して探索する山登り方式である。具体的に評価に用いる信号は、撮像素子115からの画像データをフィルタリングして高周波帯域の輝度成分を抽出し、設定された領域内における水平方向のピークを枠内の垂直方向に積分するなどして求めた焦点評価値である。
FIG. 4 is a flowchart showing the focus adjustment process. A program corresponding to this flowchart is included in, for example, the
まず、AF評価値演算回路を起動し、撮像素子115から得られる第1の画像を画像処理部117のAF評価値演算回路に入力する(S400)。合焦率が低いか判定し(S401)、合焦率が低い場合には現在のフォーカスレンズ位置での第1の画像の露光完了を待つ(S402)。第1の画像の露光が完了したら初期位置より至近側にフォーカスレンズを移動させると共に、第2の画像を画像処理部117のAF評価値演算回路に入力する(S403)。フォーカスレンズの移動が完了し(S404)、初期位置における第2の画像の評価値の積分が完了したら(S405)、レンズ位置と評価値を関連付けて記憶する(S406)。
First, the AF evaluation value calculation circuit is activated, and the first image obtained from the
次に、至近側にフォーカスレンズを移動中の第2の画像の露光が完了したら(S407)、至近側のフォーカスレンズ位置での第2の画像の露光が完了を待つ(S408)。その後、フォーカスレンズを初期位置より無限側にフォーカスレンズを移動させる(S409)。フォーカスレンズの移動が完了し(S410)、至近側位置の評価値の積分が完了したら(S411)、レンズ位置と評価値を関連付けて記憶する(S412)。次に、無限側にフォーカスレンズを移動中の第2の画像の露光が完了したら(S413)、無限側のフォーカスレンズ位置での第2の画像の露光完了を待つ(S414)。無限側位置の評価値の積分の完了を待ち(S415)、レンズ位置と評価値を関連付けて記憶する(S416)。3つの評価値から焦点位置を決定し(S417)、焦点位置にレンズを移動する(S418)。EVFが終了でなければ(S419)、S401の合焦判定に戻って処理を繰り返す。 Next, when the exposure of the second image while moving the focus lens to the close side is completed (S407), the exposure of the second image at the close focus lens position is awaited (S408). Thereafter, the focus lens is moved from the initial position to the infinite side (S409). When the movement of the focus lens is completed (S410) and the integration of the evaluation value at the closest position is completed (S411), the lens position and the evaluation value are stored in association with each other (S412). Next, when the exposure of the second image while moving the focus lens to the infinite side is completed (S413), the exposure of the second image at the infinite side focus lens position is waited for (S414). Waiting for completion of integration of the evaluation value at the infinite side position (S415), the lens position is associated with the evaluation value and stored (S416). The focal position is determined from the three evaluation values (S417), and the lens is moved to the focal position (S418). If the EVF is not finished (S419), the process returns to the focus determination in S401 and is repeated.
図5は、S417の3つの評価値から焦点位置を決定する処理の具体例を示すフローチャートである。まず、初期位置の評価値(焦点検出する前の現在の位置。以下、初期位置Cur。)が至近位置の評価値(以下、至近位置Mod。)の所定値X以上であるかを判定する(S420)。すなわち、Cur-Mod≧Xであるか否かを判定する。Cur-Mod≧Xである場合、初期位置Curと無限位置の評価値(以下、無限位置Inf。)とを比較する(S421)。初期位置Curが大きい場合には初期位置Curを焦点位置とし(S422)、そうでなければ、無限位置Infを焦点位置とする(S423)。 FIG. 5 is a flowchart showing a specific example of the process of determining the focal position from the three evaluation values in S417. First, it is determined whether or not the initial position evaluation value (current position before focus detection; hereinafter, initial position Cur.) Is equal to or greater than a predetermined value X of the close position evaluation value (hereinafter, close position Mod) ( S420). That is, it is determined whether or not Cur-Mod ≧ X. When Cur-Mod ≧ X, the initial position Cur is compared with the evaluation value of the infinite position (hereinafter, infinite position Inf) (S421). If the initial position Cur is large, the initial position Cur is set as the focal position (S422). Otherwise, the infinite position Inf is set as the focal position (S423).
また、S420でCur-Mod≧Xでない場合、至近位置Modが初期位置Curの所定値X以上であるかを判定する(S424)。すなわち、Mod-Cur≧Xであるか否かを判定する。Mod-Cur≧Xである場合、初期位置Curが無限位置Inf以上であるか判定する(S425)。初期位置Curが無限位置Inf以上である場合、至近位置Modを焦点位置とする(S426)。また、初期位置Curが無限位置Inf以上でない場合には、無限位置Infが至近位置Modの所定値X以上であるかを判定する(S427)。無限位置Infが至近位置Modの所定値X以上である場合、無限位置Infを焦点位置とし(S428)、それ以外の場合は焦点位置を不定と判定する(S429)。 If Cur-Mod ≧ X is not satisfied in S420, it is determined whether or not the closest position Mod is equal to or larger than a predetermined value X of the initial position Cur (S424). That is, it is determined whether Mod-Cur ≧ X. If Mod-Cur ≧ X, it is determined whether the initial position Cur is equal to or greater than the infinite position Inf (S425). If the initial position Cur is greater than or equal to the infinite position Inf, the closest position Mod is set as the focal position (S426). If the initial position Cur is not equal to or greater than the infinite position Inf, it is determined whether the infinite position Inf is equal to or greater than the predetermined value X of the closest position Mod (S427). If the infinite position Inf is greater than or equal to the predetermined value X of the closest position Mod, the infinite position Inf is set as the focal position (S428), otherwise the focal position is determined to be indefinite (S429).
更に、S424でMod-Cur≧Xでないと判定された場合は、無限位置Infが初期位置Curの所定値X以上であるかを判定する(S430)。すなわち、Inf-Cur≧Xであるかを判定する。Inf-Cur≧Xである場合、初期位置Curが至近位置Mod以上であるかを判定する(S431)。初期位置Curが至近位置Mod以上である場合、無限位置Infを焦点位置とする(S432)。そうでない場合は、至近位置Modが無限位置Infの所定値X以上であるかを判定する(S433)。至近位置Modが無限位置Infの所定値X以上である場合は、至近位置Modを焦点位置とし(S434)、それ以外の場合は焦点位置を不定とする(S435)。S430でInf-Cur≧Xでないと判定された場合も、S435で焦点位置を不定とする。なお、焦点位置決定方法については、図5の方法に限定されるものではない。 Further, if it is determined in S424 that Mod-Cur ≧ X is not satisfied, it is determined whether the infinite position Inf is equal to or greater than the predetermined value X of the initial position Cur (S430). That is, it is determined whether Inf-Cur ≧ X. If Inf-Cur ≧ X, it is determined whether the initial position Cur is equal to or greater than the closest position Mod (S431). When the initial position Cur is equal to or greater than the closest position Mod, the infinite position Inf is set as the focal position (S432). Otherwise, it is determined whether the closest position Mod is equal to or greater than a predetermined value X of the infinite position Inf (S433). When the close position Mod is equal to or greater than the predetermined value X of the infinite position Inf, the close position Mod is set as the focus position (S434), and otherwise, the focus position is set undefined (S435). Even when it is determined in S430 that Inf-Cur ≧ X is not satisfied, the focus position is made indefinite in S435. Note that the focal position determination method is not limited to the method of FIG.
図3の、中間YUV画像B群(D303)と位置ずれ検出画像群(D304)から中間YUV画像B(D307)と位置ずれ検出画像(D308)を抽出する処理では、図5の処理で決定した焦点位置で露光した画像から生成した画像が選択される。また、図5にて、焦点位置を不定と判定した場合には、初期位置Cur、至近位置Mod、無限位置Infの中で、第1の画像をAF評価値演算回路に入力して得られる評価値に最も近い画像が選択される。 The process of extracting the intermediate YUV image B (D307) and the misregistration detection image (D308) from the intermediate YUV image B group (D303) and the misregistration detection image group (D304) in FIG. 3 is determined by the process of FIG. An image generated from the image exposed at the focal position is selected. Also, in FIG. 5, when it is determined that the focal position is indefinite, an evaluation obtained by inputting the first image to the AF evaluation value calculation circuit among the initial position Cur, the closest position Mod, and the infinite position Inf. The image closest to the value is selected.
以上のように、動画撮影記録を行いながら焦点調節を行う場合、合焦率の高い画像を選択的に合成することにより、合成時の位置合わせを正確に行うことができる。これと同時に、解像感を失うことなくダイナミックレンジの広い画像を得ることができる。 As described above, when performing the focus adjustment while performing moving image shooting and recording, it is possible to accurately perform alignment at the time of synthesis by selectively synthesizing images with a high focusing rate. At the same time, an image with a wide dynamic range can be obtained without losing a sense of resolution.
<実施形態2>
実施形態1では、第1の画像の出力周期に相当する8つの第2の画像の内、焦点位置に最も近いフォーカスレンズ位置で露光した画像を選択したが、次のような構成としてもよい。すなわち、8つから合焦率の高い順に複数の画像を選択し、選択された画像を合成した第3の画像を生成する(図2中では(F)と(G)、並びに、(N)と(O))。その後、第3の画像を第1の画像と合成する。第2の画像を複数合成させることにより、第1の画像と合成する際の第2の画像のノイズレベルの低減に寄与し、より高画質でダイナミックレンジを拡大した画像が得られる。
<
In the first embodiment, the image exposed at the focus lens position closest to the focus position is selected from the eight second images corresponding to the output cycle of the first image. However, the following configuration may be used. That is, a plurality of images are selected in descending order of the focusing rate from eight, and a third image is generated by synthesizing the selected images ((F) and (G) and (N) in FIG. 2). And (O)). Thereafter, the third image is combined with the first image. By synthesizing a plurality of second images, it contributes to the reduction of the noise level of the second image when synthesizing with the first image, and an image with a higher image quality and an expanded dynamic range can be obtained.
図4(S418)で焦点位置にフォーカスレンズを移動した後に露光が開始され(図2中のt4、t5タイミング。)且つ、フォーカスレンズ移動後、最初の第1の画像の露光が完了(図2中のt2、t3タイミング。)するまでに出力される第2の画像が、合成する画像として選択される。 In FIG. 4 (S418), the exposure starts after the focus lens is moved to the focal position (timing t4 and t5 in FIG. 2), and after the focus lens is moved, the exposure of the first first image is completed (FIG. 2). The second image output until t2 and t3 are selected as the images to be combined.
図6は、図3の画像選択を複数にし、第2の画像を合成して中間YUV画像B(D307)と位置ずれ検出画像(D308)を生成するデータフローである。図3との差異は、中間YUV画像B群(D303)と位置ずれ検出画像群(D304)から上記条件を満たす2画像をそれぞれ選択する画像選択処理にある。中間YUV画像B群(D303)から画像選択処理を経て、中間YUV画像B1(D316)と中間YUV画像B2(D317)を選択する。また、位置ずれ検出画像群(D304)から画像選択処理を経て、位置ずれ検出画像1(D312)と位置ずれ検出画像2(D313)を選択する。 FIG. 6 is a data flow for generating the intermediate YUV image B (D307) and the misregistration detection image (D308) by combining the second image with multiple image selections in FIG. The difference from FIG. 3 lies in image selection processing for selecting two images that satisfy the above conditions from the intermediate YUV image B group (D303) and the misregistration detection image group (D304). An intermediate YUV image B1 (D316) and an intermediate YUV image B2 (D317) are selected through image selection processing from the intermediate YUV image B group (D303). Further, the position shift detection image 1 (D312) and the position shift detection image 2 (D313) are selected through image selection processing from the position shift detection image group (D304).
位置ずれ検出画像1(D312)と位置ずれ検出画像2(D313)に基づいて、各画像を複数に分割した領域毎の輝度平均から領域毎の各画像の輝度合成比率(D314)を算出する。また、複数に分割した領域毎の移動平均フィルタ処理を行い、領域毎の輝度、色差それぞれの差分絶対値の平均から領域毎の各画像の動き合成比率(D315)を算出する。 Based on the displacement detection image 1 (D312) and the displacement detection image 2 (D313), the luminance synthesis ratio (D314) of each image for each region is calculated from the luminance average for each region obtained by dividing each image into a plurality of regions. Further, a moving average filter process is performed for each of the divided areas, and a motion synthesis ratio (D315) of each image for each area is calculated from the average of the absolute differences of the luminance and color difference for each area.
画像処理部117の合成回路に輝度合成比率(D314)と動き合成比率(D315)の最大値を合成比率として設定する。そして、位置ずれ検出画像1(D312)と位置ずれ検出画像2(D313)を入力して加重加算処理を経て合成した位置ずれ検出画像(D308)を生成する。また同様にして、画像処理部117の合成回路に輝度合成比率(D314)と動き合成比率(D315)の最大値を合成比率として設定する。そして、中間YUV画像B1(D316)と中間YUV画像B2(D317)を入力して加重加算処理を経て合成した中間YUV画像B(D307)を生成する。これ以降のデータフローは図3aで説明したデータフローと同じである。
The maximum value of the luminance composition ratio (D314) and the motion composition ratio (D315) is set in the composition circuit of the
以上のように、動画撮影記録を行いながら焦点調節を行う場合、合焦率の高い画像を複数選択して合成する。これにより、合成時の位置合わせが正確に行えると同時に、解像感を失うことなく、更に、S/N比の高いダイナミックレンジの広い画像を得ることができる。 As described above, when performing the focus adjustment while performing moving image shooting and recording, a plurality of images with a high focusing rate are selected and combined. As a result, the alignment at the time of synthesis can be performed accurately, and at the same time, an image with a wide dynamic range with a high S / N ratio can be obtained without losing a sense of resolution.
<実施形態3>
図7は、自動焦点調節により露光期間中にフォーカスレンズを動かさない場合の撮像素子の駆動タイミングと撮像素子の出力タイミング及び、画像合成までのタイミングチャートである。実施形態1及び2においては、自動焦点調節を行ったことにより、第2の画像に焦点の有意差がある場合を想定した。これに対しここでは、焦点調節を行わない期間、即ち、図4で合焦率が低いと判定されない時(S401)を想定する。この場合、第1の画像の露光重心近傍の所定数の第2の画像を選択し、この選択された第2の画像を合成して第4の画像を生成する(図5では(A)と(B)、並びに、(H)と(I))。その後、第1の画像と合成する。これにより、合成する画像間の実時間上のずれが軽減される。そして、露光時間の短い第2の画像を複数合成した後に第1の画像と合成させることにより、ずれ量の少なく、ノイズレベルを低減させた、より高画質でダイナミックレンジを拡大した画像が得られる。
<
FIG. 7 is a timing chart of image sensor drive timing, image sensor output timing, and image synthesis when the focus lens is not moved during the exposure period by automatic focus adjustment. In the first and second embodiments, it is assumed that the second image has a significant difference in focus due to the automatic focus adjustment. On the other hand, here, a period in which focus adjustment is not performed, that is, a time when it is not determined that the focusing rate is low in FIG. 4 (S401) is assumed. In this case, a predetermined number of second images near the center of exposure of the first image are selected, and the selected second images are combined to generate a fourth image (in FIG. 5, (A) (B) and (H) and (I)). Then, it is combined with the first image. Thereby, the deviation in real time between the images to be combined is reduced. Then, by synthesizing a plurality of second images having a short exposure time and then synthesizing with the first image, an image with a small displacement and a reduced noise level and a higher dynamic range can be obtained. .
データフローとしては図6と同じであり、画像選択処理が上記で説明したように第1の画像の露光重心に最も近い第2の画像を選択するように変更した処理になる。露光重心は画像単位に以下のように求めることができる。 The data flow is the same as in FIG. 6, and the image selection processing is changed to select the second image closest to the exposure center of gravity of the first image as described above. The exposure center of gravity can be obtained for each image as follows.
図7において、記録フレームレートをF、第1の画像読み出し時間をR1、第2の画像読み出し時間をR2とする。また、第1の画像の最初の読み出しタイミングをV1、第1の画像の2番目の読み出しタイミングをV2、第1の画像の3番目の読み出しタイミングをV3とする。また、第1の画像の2番目の露光時間をE1、第1の画像の3番目の露光時間をE2、第2の画像の露光時間をE3とする。 In FIG. 7, the recording frame rate is F, the first image readout time is R1, and the second image readout time is R2. Further, the first read timing of the first image is V1, the second read timing of the first image is V2, and the third read timing of the first image is V3. Further, the second exposure time of the first image is E1, the third exposure time of the first image is E2, and the exposure time of the second image is E3.
V1からV2の期間に露光した第1の画像はV2から読み出しを始め、その露光重心は以下の(1)式で求められる。 The first image exposed during the period from V1 to V2 starts to be read from V2, and the center of exposure is obtained by the following equation (1).
露光重心=V2−E1/2+R1/2 ・・・(1)
V1からV2の期間に露光した第2の画像の露光重心は、以下の(2)式で求められる。
Exposure gravity center = V2-E1 / 2 + R1 / 2 (1)
The exposure center of gravity of the second image exposed during the period from V1 to V2 is obtained by the following equation (2).
露光重心2=V2−(F/m)×(m−n)−E2/2+R2/2 ・・・(2)
本実施形態では、m=8であり、V2直前のVD期間の第2の画像の場合n=8、V1直後のVD期間の第2の画像の場合n=1である。
V1、V2、V3、・・・以外の値は既知であり、第1の画像が読み出し開始されるタイミングで第1の画像の露光重心と第2の画像の露光重心が求められる。第1の画像が読み出されるのと並行して(1)式及び、(2)式により露光重心を求め、第1の露光重心の時刻に最も近い露光重心時刻の第2の画像と2番目に近い露光重心時刻の第2の画像が選択される。
Exposure center of
In this embodiment, m = 8, n = 8 in the case of the second image in the VD period immediately before V2, and n = 1 in the case of the second image in the VD period immediately after V1.
Values other than V1, V2, V3,... Are known, and the exposure centroid of the first image and the exposure centroid of the second image are obtained at the timing when the first image starts to be read. In parallel with the reading of the first image, the exposure centroid is obtained by the equations (1) and (2), and the second image at the exposure centroid time closest to the time of the first exposure centroid is second. The second image with the closest exposure centroid time is selected.
図7のV2では、t6が第1の画像の露光重心時刻であり、最も近い第2の画像(H)と2番目に近い第2の画像(I)が選択される。 In V2 of FIG. 7, t6 is the exposure center-of-gravity time of the first image, and the closest second image (H) and the second closest image (I) are selected.
以上のように、動画記録を行いながら焦点調節を行わない場合においても、動画記録用画像の露光重心に近いAF評価用の画像を複数選択して合成する。これにより、合成時の位置合わせが正確に行えると同時に、解像感を失うことなく、更に、S/N比の高いダイナミックレンジの広い画像を得ることができる。 As described above, even when moving image recording and focus adjustment is not performed, a plurality of AF evaluation images close to the center of exposure of the moving image recording image are selected and combined. As a result, the alignment at the time of synthesis can be performed accurately, and at the same time, an image with a wide dynamic range with a high S / N ratio can be obtained without losing a sense of resolution.
(他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
Claims (11)
前記撮影レンズに含まれ、光軸方向に移動可能なフォーカスレンズと、
前記撮像素子から、第1のフレームレートで第1の画像を取得するとともに、前記第1のフレームレートより高い第2のフレームレートで複数の第2の画像を取得する取得手段と、
前記第1の画像及び前記複数の第2の画像の高周波成分に基づき前記フォーカスレンズの位置を制御して前記被写体像に対する焦点調節を行う焦点調節手段と、
前記撮像素子から得られた複数の画像を合成してダイナミックレンジが拡大された画像を生成する合成手段と、
を有し、
前記合成手段は、前記複数の第2の画像のうち合焦率の高い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする撮像装置。 An image sensor that captures a subject image via a photographic lens;
A focus lens included in the photographing lens and movable in an optical axis direction;
From the imaging device, an acquisition unit to obtain the first image at a first frame rate, to obtain a plurality of second images at the first higher than the frame rate second frame rate,
Focus adjusting means for adjusting the focus of the subject image by controlling the position of the focus lens based on the high-frequency components of the first image and the plurality of second images;
A synthesizing unit that synthesizes a plurality of images obtained from the image sensor and generates an image having an expanded dynamic range;
Have
The image-capturing apparatus, wherein the synthesizing unit selects an image with a high focusing rate from the plurality of second images, and synthesizes the selected image with the first image.
前記合成手段は、前記複数の第2の画像に焦点の有意差がないと判定される場合、前記複数の第2の画像のうち前記第1の画像の前記評価値に最も近い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする請求項1又は2に記載の撮像装置。 The focus adjustment unit performs the focus adjustment based on an evaluation value obtained by integrating high-frequency components of the first image and the plurality of second images,
When it is determined that the plurality of second images have no significant difference in focus, the synthesizing unit selects an image closest to the evaluation value of the first image from the plurality of second images. The imaging apparatus according to claim 1, wherein the selected image is combined with the first image.
取得手段が、前記撮像素子から、第1のフレームレートで第1の画像を取得するとともに、前記第1のフレームレートより高い第2のフレームレートで複数の第2の画像を取得する取得ステップと、
焦点調節手段が、前記第1の画像及び前記複数の第2の画像の高周波成分に基づき前記フォーカスレンズの位置を制御して前記被写体像に対する焦点調節を行う焦点調節ステップと、
合成手段が、前記撮像素子から得られた複数の画像を合成してダイナミックレンジが拡大された画像を生成する合成ステップと、
を有し、
前記合成ステップにおいて、前記合成手段は、前記複数の第2の画像のうち合焦率の高い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus, comprising: an imaging element that captures a subject image via a photographing lens; and a focus lens that is included in the photographing lens and is movable in an optical axis direction.
Acquisition step acquiring unit, from the image pickup device, to obtain to obtain the first image at a first frame rate, a plurality of second images at the first higher than the frame rate second frame rate When,
A focus adjustment step in which focus adjustment means performs focus adjustment on the subject image by controlling a position of the focus lens based on high-frequency components of the first image and the plurality of second images;
Combining means comprises a combining step of generating an image whose dynamic range is expanded by combining a plurality of images obtained from the imaging element,
Have
In the synthesizing step, the synthesizing unit selects an image with a high focusing rate from the plurality of second images, and synthesizes the selected image with the first image. Control method.
前記合成ステップにおいて、前記合成手段は、前記複数の第2の画像に焦点の有意差がないと判定される場合、前記複数の第2の画像のうち前記第1の画像の前記評価値に最も近い画像を選択し、該選択した画像を前記第1の画像と合成する
ことを特徴とする請求項6又は7に記載の制御方法。 In the focus adjustment step, the focus adjustment means performs the focus adjustment based on an evaluation value obtained by integrating high-frequency components of the first image and the plurality of second images,
In the synthesizing step, when it is determined that the plurality of second images do not have a significant difference in focus, the synthesizing unit has the highest evaluation value of the first image among the plurality of second images. The control method according to claim 6 or 7, wherein a close image is selected, and the selected image is combined with the first image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013217862A JP6170402B2 (en) | 2013-10-18 | 2013-10-18 | Imaging apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013217862A JP6170402B2 (en) | 2013-10-18 | 2013-10-18 | Imaging apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015080179A JP2015080179A (en) | 2015-04-23 |
JP2015080179A5 JP2015080179A5 (en) | 2016-12-01 |
JP6170402B2 true JP6170402B2 (en) | 2017-07-26 |
Family
ID=53011250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013217862A Expired - Fee Related JP6170402B2 (en) | 2013-10-18 | 2013-10-18 | Imaging apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6170402B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113228611B (en) | 2018-12-26 | 2022-10-21 | 富士胶片株式会社 | Imaging element, camera device, working method of imaging element, and computer-readable storage medium |
WO2020137217A1 (en) * | 2018-12-27 | 2020-07-02 | 富士フイルム株式会社 | Imaging element, imaging device, image data processing method, and program |
CN112911130A (en) * | 2019-12-03 | 2021-06-04 | 深圳市万普拉斯科技有限公司 | Auxiliary view finding method, device, terminal and storage medium |
JP7354299B2 (en) | 2020-01-31 | 2023-10-02 | 富士フイルム株式会社 | Imaging device, operating method of the imaging device, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4487944B2 (en) * | 2006-02-09 | 2010-06-23 | ソニー株式会社 | Solid-state imaging device |
JP5862126B2 (en) * | 2011-09-06 | 2016-02-16 | ソニー株式会社 | Imaging device and method, and imaging apparatus |
JP5802520B2 (en) * | 2011-11-11 | 2015-10-28 | 株式会社 日立産業制御ソリューションズ | Imaging device |
-
2013
- 2013-10-18 JP JP2013217862A patent/JP6170402B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015080179A (en) | 2015-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3261152B2 (en) | Imaging device having a plurality of optical systems | |
CN104365082B (en) | Camera device, image processing apparatus and recording method | |
JP5893713B1 (en) | Imaging apparatus, imaging method, and processing program | |
KR101626780B1 (en) | Imaging apparatus, image processing method, and image processing program | |
US20080131107A1 (en) | Photographing apparatus | |
JP2009094726A (en) | Image recording apparatus and image recording method | |
JP3395770B2 (en) | Digital still camera | |
US20090027487A1 (en) | Image display apparatus and image display method | |
JP2013055567A (en) | Imaging apparatus | |
CN104246597B (en) | Imaging device and formation method | |
JP6170402B2 (en) | Imaging apparatus and control method thereof | |
JP5936323B2 (en) | Image recording apparatus and control method thereof | |
JP4033456B2 (en) | Digital camera | |
JP6278729B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2015062297A (en) | Imaging apparatus and imaging method | |
JP6147116B2 (en) | Imaging apparatus, control method thereof, and control program | |
JP6197062B2 (en) | Imaging device, imaging method, display device, and display method | |
JP2008182486A (en) | Imaging apparatus and image processing method | |
JP2004221650A (en) | Electronic camera | |
JP2012114677A (en) | Imaging apparatus, imaging method, and program | |
JP2010239267A (en) | Imaging apparatus, peripheral dimming correction control method, and program | |
JP6381112B2 (en) | Imaging apparatus, imaging method, and program | |
JP2011205406A (en) | Compound eye camera | |
JP6486132B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2015115877A (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161017 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170630 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6170402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |