[go: up one dir, main page]

JP6170402B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6170402B2
JP6170402B2 JP2013217862A JP2013217862A JP6170402B2 JP 6170402 B2 JP6170402 B2 JP 6170402B2 JP 2013217862 A JP2013217862 A JP 2013217862A JP 2013217862 A JP2013217862 A JP 2013217862A JP 6170402 B2 JP6170402 B2 JP 6170402B2
Authority
JP
Japan
Prior art keywords
image
images
focus
focus adjustment
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013217862A
Other languages
Japanese (ja)
Other versions
JP2015080179A (en
JP2015080179A5 (en
Inventor
森田 正彦
正彦 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013217862A priority Critical patent/JP6170402B2/en
Publication of JP2015080179A publication Critical patent/JP2015080179A/en
Publication of JP2015080179A5 publication Critical patent/JP2015080179A5/ja
Application granted granted Critical
Publication of JP6170402B2 publication Critical patent/JP6170402B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画像を記録及び再生する撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus for recording and reproducing a moving image and a control method thereof.

近年のデジタルカメラなどの画像記録再生装置では、音声付き動画を撮影記録及び再生する様々な方式が採られる。従来通り、使用者が撮影記録の開始指示をしてから終了指示をするまで撮影し続ける方式や、撮影記録の開始指示から予め決められた時間だけ撮影記録する方式がある。   2. Description of the Related Art Recent image recording / playback apparatuses such as digital cameras employ various methods for shooting, recording, and playing back moving images with sound. As usual, there are a method in which shooting is performed until a user gives an instruction to start shooting and a shooting instruction is given, and a method of shooting and recording for a predetermined time from an instruction to start shooting and recording.

こうした中、背景と被写体の双方が適切である画質を得るため、ダイナミックレンジを拡大した動画が求められている。静止画においては適正露出画像に対し、高輝度部が適正露出な画像と低照度部が適正露出な画像を合成し、ダイナミックレンジを拡大した画像を合成処理することが知られている。同様に、動画においてもダイナミックレンジを拡大する処理が求められている。動画で画像合成を行うには、被写体の動きに応じた合成比率をランタイムに求める必要があり、被写体に対するレンズの焦点調節がなされ、背景とのコントラストがあるのが好ましい。しかし、焦点調節は、動画撮影記録と並行して、撮像素子の出力を利用したTTL方式の焦点調節を行うため、焦点調節期間においては、全ての画像が合焦状態にはない。   Under these circumstances, in order to obtain an image quality in which both the background and the subject are appropriate, a moving image with an expanded dynamic range is required. In a still image, it is known to combine an image with a high brightness portion and an appropriate exposure with a low illuminance portion, and an image with an expanded dynamic range, with a properly exposed image. Similarly, processing for expanding the dynamic range is also required for moving images. In order to perform image composition with a moving image, it is necessary to obtain a composition ratio corresponding to the movement of the subject at runtime, and it is preferable that the focus of the lens with respect to the subject is adjusted and there is contrast with the background. However, since the focus adjustment is performed in parallel with the moving image shooting and recording, the TTL focus adjustment using the output of the image sensor is performed, so that all images are not in focus during the focus adjustment period.

一方、CMOS型イメージセンサの画素部と画素部の駆動を担う回路部の積層化により、画素部と回路部とが重ねて配置されうる。これにより、画素部から動画記録に適した画像を読み出すと同時に、複数のAF用の画像を高速に読み出すことができるようになる。上記のような積層型のCMOSイメージセンサを用いた場合、動画を記録すると同時に高速にAF評価で被写体の動きに適した焦点調節が可能になるが、AF用画像全てが合焦状態にないことに変わりはない。   On the other hand, the pixel unit and the circuit unit can be arranged to overlap each other by stacking the pixel unit of the CMOS image sensor and the circuit unit responsible for driving the pixel unit. As a result, it is possible to read out images suitable for moving image recording from the pixel portion and simultaneously read out a plurality of images for AF. When the stacked CMOS image sensor as described above is used, it is possible to perform focus adjustment suitable for the movement of the subject by AF evaluation at the same time as recording a moving image, but all the AF images are not in focus. There is no change.

特許文献1は、ダイナミックレンジ拡大を行うための全ての合成用画像において撮像期間に共通の重複部分があるようにする技術を開示する。共通の重複部分は撮像基準が中央に位置する画像を含む。また、特許文献2は、位相差用画素と通常画素が混在し、位相差画素で撮影レンズのフォーカス量を算出して焦点調節制御後の通常画素と位相差画素を読み出し、記録用画像を生成する技術を開示する。   Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for causing a common overlapping portion in an imaging period in all the images for synthesis for performing dynamic range expansion. The common overlapping portion includes an image in which the imaging reference is located at the center. Japanese Patent Laid-Open No. 2004-259542 also includes a phase difference pixel and a normal pixel. The focus amount of the photographing lens is calculated using the phase difference pixel, and the normal pixel and the phase difference pixel after focus adjustment control are read to generate a recording image. The technology to do is disclosed.

特許第4715853号公報Japanese Patent No. 4715853 特開2011−59337号公報JP 2011-59337 A

積層型のCMOSセンサのように、撮像素子から動画記録用画像を読み出すと同時に複数のAF評価用の画像が得られる場合、動画記録用画像に対してAF評価用画像の蓄積時間は短くなる。回路構成の制約からAF評価用画像は動画記録用画像を1フレーム読み出す間に整数フレーム読み出すことになる。動画記録用画像とAF評価用画像が同時刻に得られ、それぞれの蓄積時間が異なるため、ダイナミックレンジの拡大に応用させることができる。   When a plurality of AF evaluation images are obtained at the same time as reading a moving image recording image from the image sensor like a stacked CMOS sensor, the accumulation time of the AF evaluation image is shorter than the moving image recording image. Due to the limitation of the circuit configuration, the AF evaluation image reads integer frames while reading one frame of the moving image recording image. Since the moving image recording image and the AF evaluation image are obtained at the same time, and the respective accumulation times are different, it can be applied to the expansion of the dynamic range.

一方、動画記録中には、焦点調節を行うためにフォーカスレンズを移動しながらAF評価値を取得する。フォーカスレンズが移動している期間に連続的に露光している動画記録用画像は、露光時間に対するレンズ移動期間が短いために合焦状態への影響が比較的少なく目立たない。しかし、高速に読み出される複数のAF評価用画像は、露光期間中のフォーカスレンズ位置に応じて画像毎の合焦状態に有意差が生じる。言い換えれば、フォーカスレンズ位置による評価値の有意差を持って焦点位置を検出するので、被写界深度に応じてAF評価用画像間には合焦状態の差が現れてしまう。そのため、合成する上での画像間の位置合わせや、合成画像の解像感を損なう可能性がある。   On the other hand, during moving image recording, an AF evaluation value is acquired while moving the focus lens to perform focus adjustment. A moving image recording image that is continuously exposed during a period in which the focus lens is moving has a relatively short influence on the in-focus state because the lens movement period with respect to the exposure time is relatively short, and is not noticeable. However, a plurality of AF evaluation images read out at high speed have a significant difference in the in-focus state for each image depending on the focus lens position during the exposure period. In other words, since the focus position is detected with a significant difference in evaluation value depending on the focus lens position, a difference in focus state appears between AF evaluation images according to the depth of field. For this reason, there is a possibility that the alignment between images and the sense of resolution of the synthesized image will be impaired.

本発明は、AF評価用画像を動画記録用画像と合成する場合、解像感を損なうことなく、正確に位置合わせをしてダイナミックレンジの広い画像が得られる撮像装置を提供する。   The present invention provides an imaging apparatus capable of accurately aligning and obtaining an image with a wide dynamic range without impairing the resolution when combining an AF evaluation image with a moving image recording image.

本発明の一側面によれば、撮影レンズを介して被写体像を撮像する撮像素子と、前記撮影レンズに含まれ、光軸方向に移動可能なフォーカスレンズと、前記撮像素子から、第1のフレームレートで第1の画像を取得するとともに、前記第1のフレームレートより高い第2のフレームレートで複数の第2の画像を取得する取得手段と、前記第1の画像及び前記複数の第2の画像の高周波成分に基づき前記フォーカスレンズの位置を制御して前記被写体像に対する焦点調節を行う焦点調節手段と、前記撮像素子から得られた複数の画像を合成してダイナミックレンジが拡大された画像を生成する合成手段とを有し、前記合成手段は、前記複数の第2の画像のうち合焦率の高い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする撮像装置が提供される。 According to an aspect of the present invention, an imaging device that captures a subject image via a photographing lens, a focus lens that is included in the photographing lens and is movable in an optical axis direction, and a first frame from the imaging device. to obtain the first image at a rate obtaining means for obtaining a plurality of second images at the first higher than the frame rate second frame rate, the first image and the plurality of second An image in which the dynamic range is expanded by synthesizing a plurality of images obtained from the imaging element, and a focus adjustment unit that performs focus adjustment on the subject image by controlling the position of the focus lens based on a high-frequency component of the image of Combining means for generating the image, wherein the combining means selects an image with a high focusing rate from the plurality of second images, and combines the selected image with the first image. Imaging device that is provided.

本発明によれば、動画撮影記録を行いながら焦点調節を行う場合に、合焦率の高い画像が選択的に合成される。これにより、合成時の位置合わせが正確に行えると同時に、解像感を失うことなくダイナミックレンジの広い画像を得ることができる。   According to the present invention, when focus adjustment is performed while performing moving image shooting and recording, an image with a high focusing rate is selectively combined. As a result, it is possible to accurately perform alignment at the time of synthesis, and to obtain an image with a wide dynamic range without losing a sense of resolution.

実施形態における撮像装置のブロック図。The block diagram of the imaging device in an embodiment. 実施形態における撮像装置の動作を説明するタイミングチャート。6 is a timing chart for explaining the operation of the imaging apparatus according to the embodiment. 実施形態における画像合成のデータフローを示す図。The figure which shows the data flow of the image composition in embodiment. 実施形態における焦点調節処理を示すフローチャート。6 is a flowchart illustrating a focus adjustment process in the embodiment. 実施形態における焦点位置決定処理を示すフローチャート。The flowchart which shows the focus position determination process in embodiment. 実施形態における画像合成のデータフローを示す図。The figure which shows the data flow of the image composition in embodiment. 実施形態における撮像装置の動作を説明するタイミングチャート。6 is a timing chart for explaining the operation of the imaging apparatus according to the embodiment.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following embodiment, It shows only the specific example advantageous for implementation of this invention. Moreover, not all combinations of features described in the following embodiments are indispensable for solving the problems of the present invention.

図1は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、ズームレンズ110と、カメラのブレを補正するシフトレンズ111と、焦点調節用のフォーカスレンズ112とを含む撮影レンズを備える。なお、撮影レンズは本体に対して着脱可能なものであってもよい。フォーカスレンズ112は、光軸方向に移動可能に構成されている。撮像装置100は更に、撮影レンズの後段への光束を遮断するメカニカルシャッタ113、後段への光束を調節する絞り114を有する。タイミング発生部116は、撮像素子115の駆動に必要なタイミングパルスを発生する。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 according to the present embodiment. The imaging apparatus 100 includes a photographic lens including a zoom lens 110, a shift lens 111 that corrects camera shake, and a focus lens 112 for focus adjustment. The taking lens may be detachable from the main body. The focus lens 112 is configured to be movable in the optical axis direction. The imaging apparatus 100 further includes a mechanical shutter 113 that blocks the light beam to the rear stage of the photographing lens and a diaphragm 114 that adjusts the light beam to the rear stage. The timing generator 116 generates timing pulses necessary for driving the image sensor 115.

画像処理部117は、撮像駆動用の同期信号を発生するSSG回路、前処理回路、AF評価値演算回路、輝度積分回路、信号処理回路、画像合成回路、縮小回路、ラスタブロック変換回路及び、圧縮回路を含む。SSG回路では、タイミング発生器から撮像駆動用のクロックを受けて、水平及び、垂直同期信号を発生し、タイミング発生器と撮像素子に出力する。前処理回路では、入力画像を行単位で輝度積分回路と信号処理回路とに分配する。また、撮像データに必要となるチャネル間のデータ補正等の処理を行う。AF評価値演算回路では、設定された複数の評価領域内に入力される画像信号の輝度成分について水平方向のフィルタ処理を施し、コントラストを表す所定周波数を抽出しながら最大値を選択し、垂直方向に積分演算を行う。輝度積分回路では、RGB信号から輝度成分を混合生成し、入力画像を複数領域に分割し、領域毎に輝度成分を生成する。信号処理回路では、撮像素子出力データに色キャリア除去、アパーチャー補正、ガンマ補正処理等を行って輝度信号を生成する。同時に、色補間、マトリックス変換、ガンマ処理、ゲイン調整等を施して色差信号を生成し、メモリ部123にYUV形式の画像データを形成する。また、信号処理回路では、生成するYUV形式の画像データの輝度信号(Y)をそのレベル毎に集計し、画像データ毎の輝度分布データを生成する。画像合成回路では、メモリ部123に形成された或いは、撮像素子出力データから直接的に信号処理回路で生成された複数のYUV形式の画像データを入力する。そして、入力されたYUV形式の画像データに画素単位で設定された係数を乗じて加算することにより合成画像を生成する。具体的な内容は後述する。縮小回路では、信号処理回路の出力を受けて、入力される画素データの切り出し、間引き及び、線形補間処理等を行い、水平垂直方向に画素データの縮小処理を施す。それを受けて、ラスタブロック変換回路では、縮小回路で変倍されたラスタスキャン画像データをブロックスキャン画像データに変換する。こうした一連の画像処理は、メモリ部123がバッファメモリとして用いられて実現される。圧縮回路は、バッファメモリでブロックスキャンデータに変換したYUV画像データを動画圧縮方式に従って圧縮して、動画ビットストリームを出力する。   The image processing unit 117 includes an SSG circuit that generates a synchronization signal for imaging driving, a preprocessing circuit, an AF evaluation value calculation circuit, a luminance integration circuit, a signal processing circuit, an image synthesis circuit, a reduction circuit, a raster block conversion circuit, and a compression Includes circuitry. The SSG circuit receives an imaging drive clock from the timing generator, generates horizontal and vertical synchronization signals, and outputs them to the timing generator and the image sensor. The preprocessing circuit distributes the input image to the luminance integration circuit and the signal processing circuit in units of rows. Further, processing such as data correction between channels necessary for imaging data is performed. The AF evaluation value calculation circuit performs horizontal filtering on the luminance component of the image signal input in a plurality of set evaluation areas, selects the maximum value while extracting a predetermined frequency representing the contrast, and Perform the integral operation. In the luminance integration circuit, luminance components are mixed and generated from RGB signals, the input image is divided into a plurality of regions, and a luminance component is generated for each region. The signal processing circuit generates a luminance signal by performing color carrier removal, aperture correction, gamma correction processing, and the like on the image sensor output data. At the same time, color interpolation, matrix conversion, gamma processing, gain adjustment, and the like are performed to generate a color difference signal, and image data in YUV format is formed in the memory unit 123. In the signal processing circuit, the luminance signals (Y) of the YUV format image data to be generated are tabulated for each level, and luminance distribution data for each image data is generated. The image composition circuit inputs a plurality of YUV format image data formed in the memory unit 123 or directly generated from the image sensor output data by the signal processing circuit. Then, the input image data in the YUV format is multiplied by a coefficient set in pixel units and added to generate a composite image. Specific contents will be described later. The reduction circuit receives the output of the signal processing circuit, cuts out input pixel data, performs thinning, linear interpolation processing, and the like, and performs pixel data reduction processing in the horizontal and vertical directions. In response to this, the raster block conversion circuit converts the raster scan image data scaled by the reduction circuit into block scan image data. Such a series of image processing is realized by using the memory unit 123 as a buffer memory. The compression circuit compresses the YUV image data converted into the block scan data by the buffer memory according to the moving image compression method, and outputs a moving image bit stream.

露出制御部118は、メカニカルシャッタ113、絞り114を制御する。レンズ駆動部119は、ズームレンズ110、フォーカスレンズ112を光軸上に沿って移動させ、被写体像を撮像素子115上に結像させる。また、レンズ駆動部119は、角速度センサと加速度センサの出力に応じてシフトレンズを駆動し、画像記録再生装置の手ブレを光学的に補正する。撮影指示を行うためのレリーズスイッチ120は、例えばダブルアクションのスイッチで、第1のスイッチ(半押し)と第2のスイッチ(全押し)とで構成されている。   The exposure control unit 118 controls the mechanical shutter 113 and the diaphragm 114. The lens driving unit 119 moves the zoom lens 110 and the focus lens 112 along the optical axis to form a subject image on the image sensor 115. The lens driving unit 119 drives the shift lens according to the outputs of the angular velocity sensor and the acceleration sensor, and optically corrects camera shake of the image recording / reproducing device. The release switch 120 for instructing photographing is a double action switch, for example, and includes a first switch (half press) and a second switch (full press).

マイクロホン127は入力された音声を音声信号に変換する。A/D変換器128は、マイクロホンの音声出力をデジタル音声信号に変換する。音声処理部129は、デジタル音声データに所定の音声処理を施し、音声ビットストリームを出力する。   The microphone 127 converts the input sound into an audio signal. The A / D converter 128 converts the microphone audio output into a digital audio signal. The audio processing unit 129 performs predetermined audio processing on the digital audio data and outputs an audio bitstream.

これら構成要素の制御は、CPUとそのインターフェイス回路、DMAC(Direct・Memory・Access・Controller)、バスアービター等で構成されるシステム制御回路121で行われる。CPUが実行するプログラムは、フラッシュメモリ122に記憶されている。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。メモリ部123には、システム制御回路121の動作用の定数、変数、フラッシュメモリ122から読み出したプログラム等を展開する。また、システム制御回路121はメモリ部123、再生回路150、モニタ151等を制御することにより表示制御も行う。   Control of these components is performed by a system control circuit 121 including a CPU and its interface circuit, a DMAC (Direct Memory Access Controller), a bus arbiter, and the like. A program executed by the CPU is stored in the flash memory 122. Here, the program is a program for executing various flowcharts described later in the present embodiment. In the memory unit 123, constants and variables for operation of the system control circuit 121, programs read from the flash memory 122, and the like are expanded. The system control circuit 121 also performs display control by controlling the memory unit 123, the reproduction circuit 150, the monitor 151, and the like.

接続端子130、141は、撮像装置100と電源である電池142とを係合させる。電池BOX140は、撮像装置100に電池142を保持させる。記録媒体133は画像データを記録する。接続端子125、132は、撮像装置100と記録媒体133とを係合させる。スイッチ134は、記録媒体の書き込み禁止スイッチを検知する。検出スイッチ126は記録媒体133の着脱を検出する。また、動画記録スイッチ180は動画記録を指示する。   The connection terminals 130 and 141 engage the imaging device 100 and a battery 142 that is a power source. The battery BOX 140 causes the imaging device 100 to hold the battery 142. The recording medium 133 records image data. The connection terminals 125 and 132 engage the imaging device 100 and the recording medium 133. The switch 134 detects a write-protect switch for the recording medium. The detection switch 126 detects attachment / detachment of the recording medium 133. The moving image recording switch 180 instructs to record moving images.

再生回路150は、画像処理部117で生成され、メモリ部123に記憶された画像データを表示用画像に変換して表示装置であるモニタ151に転送する。再生回路150では、YUV形式の画像データを輝度成分信号Yと変調色差成分Cとに分離し、D/A変換を行ったアナログ化されたY信号にLPFを施す。また、D/A変換を行ったアナログC信号にBPFを施して変調色差成分の周波数成分のみを抽出する。こうして生成された信号成分とサブキャリア周波数に基づいて、Y信号とRGB信号に変換生成して、モニタ151に出力される。このように、撮像素子からの画像データを逐次処理して表示することによってEVFが実現される。EVF状態ではAF(自動焦点調節)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理が継続的に行われ、ファインダーとしての機能を果たす。   The reproduction circuit 150 converts the image data generated by the image processing unit 117 and stored in the memory unit 123 into a display image, and transfers the image to a monitor 151 that is a display device. The reproduction circuit 150 separates the YUV format image data into a luminance component signal Y and a modulated chrominance component C, and applies LPF to the analog Y signal subjected to D / A conversion. Further, BPF is applied to the analog C signal that has been subjected to D / A conversion, and only the frequency component of the modulated color difference component is extracted. Based on the signal component thus generated and the subcarrier frequency, the signal is converted into a Y signal and an RGB signal and output to the monitor 151. Thus, EVF is realized by sequentially processing and displaying the image data from the image sensor. In the EVF state, AF (automatic focus adjustment) processing, AE (automatic exposure) processing, and AWB (auto white balance) processing are continuously performed, thereby serving as a viewfinder.

モードスイッチ190は、システム制御回路121の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モードスイッチ190で、静止画撮影モードに含まれるこれらのモードのいずれかに直接切り替えられる。或いは、モードスイッチ190で静止画撮影モードに一旦切り替えた後に、静止画撮影モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。レリーズスイッチ120の半押しで第1のスイッチがONになると第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理等の撮影準備動作を開始する。   The mode switch 190 switches the operation mode of the system control circuit 121 to any one of a still image recording mode, a moving image recording mode, a reproduction mode, and the like. Modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, various scene modes for shooting settings for each shooting scene, a program AE mode, a custom mode, and the like. The mode switch 190 can be directly switched to one of these modes included in the still image shooting mode. Alternatively, after the mode switch 190 temporarily switches to the still image shooting mode, the mode switch 190 may be used to switch to any of these modes included in the still image shooting mode using another operation member. Similarly, the moving image shooting mode may include a plurality of modes. When the first switch is turned on by half-pressing the release switch 120, a first shutter switch signal SW1 is generated. In response to the first shutter switch signal SW1, shooting preparation operations such as AF processing, AE processing, and AWB processing are started.

また、レリーズスイッチ120の全押しで第2のスイッチがONになると第2シャッタースイッチ信号SW2を発生する。システム制御回路121は、第2シャッタースイッチ信号SW2により、AE処理結果とストロボ設定に応じて、EF(フラッシュプリ発光)処理を行い、本露光若しくは、ストロボ閃光を伴う本露光を行う。そして、撮像素子115からの信号読み出しから記録媒体133に画像データを書き込むまでの一連の撮影処理の動作を開始する。動画記録スイッチ180が押下されると、レリーズスイッチ120が一気に全押しされたように、AF、AE、AWBを強制的に行う。その後、撮像素子115から出力される画像から符号化に適した画像を生成し、順次符号化を行い記録媒体133に動画像データを書き込む動作を開始する。   When the second switch is turned on by fully pressing the release switch 120, the second shutter switch signal SW2 is generated. Based on the second shutter switch signal SW2, the system control circuit 121 performs EF (flash pre-emission) processing according to the AE processing result and the strobe setting, and performs main exposure or main exposure with strobe flash. Then, a series of shooting processing operations from reading a signal from the image sensor 115 to writing image data to the recording medium 133 is started. When the moving image recording switch 180 is pressed, AF, AE, and AWB are forcibly performed as if the release switch 120 was fully pressed at once. After that, an image suitable for encoding is generated from the image output from the image sensor 115, encoding is sequentially performed, and an operation of writing moving image data to the recording medium 133 is started.

<実施形態1>
図2は撮像素子の駆動タイミングと撮像素子の出力タイミング及び、画像合成までのタイミングチャートである。撮像素子115は、画像処理部117内のSSGからの同期信号を受けてタイミング発生部116が発生する駆動信号を受けて、2種類のレートで2種類の画像を出力する。SSGからの垂直同期信号(VD)は、例えば記録フレームレートの整数倍(例えば8倍。)のレートで出力され、タイミング発生部116は、2種類の画素リセットパルスと、2種類の画素読み出しパルスを出力する。VD8周期を1期間として画素リセットパルスと読み出しパルスが出力される。これにより、動画の記録フレームレートと同じフレームレート(第1のフレームレート)で第1の画像が出力される。また、VD1周期を1期間として画素リセットパルスと読み出しパルスが出力される。これにより、第1のフレームレートよりも高いレート、例えば、動画の記録フレームレートの8倍のレート(第2のフレームレート)で、複数の第2の画像が出力される。本実施形態においては、第2の画像の出力レートを第1の画像の出力レートの8倍としたが、本発明はこれに限定されるものではない。
<Embodiment 1>
FIG. 2 is a timing chart of image sensor drive timing, image sensor output timing, and image synthesis. The image sensor 115 receives a synchronization signal from the SSG in the image processing unit 117 and receives a driving signal generated by the timing generation unit 116 and outputs two types of images at two types of rates. The vertical synchronization signal (VD) from the SSG is output at a rate that is an integral multiple (for example, 8 times) of the recording frame rate, for example, and the timing generator 116 has two types of pixel reset pulses and two types of pixel readout pulses. Is output. A pixel reset pulse and a readout pulse are output with the VD8 period as one period. As a result, the first image is output at the same frame rate (first frame rate) as the moving image recording frame rate. In addition, a pixel reset pulse and a readout pulse are output with the VD1 period as one period. As a result, a plurality of second images are output at a higher rate than the first frame rate, for example, a rate (second frame rate) that is eight times the moving image recording frame rate. In the present embodiment, the output rate of the second image is eight times the output rate of the first image, but the present invention is not limited to this.

取得した第1の画像と複数の第2の画像はそれぞれ、画像処理部117のAF評価値演算回路に入力され、画像単位の評価値を出力する。AF評価値は第1の画像、第2の画像それぞれで評価され、自動焦点調節に用いられる。自動焦点調節の詳細は後述する。焦点調節の結果、焦点の合うフォーカスレンズの位置に基づき、第1の画像の出力周期に相当する8つの第2の画像のうち、焦点位置に最も近いフォーカスレンズ位置で露光した画像を選択する(図2中では(F)及び(N))。選択されたこれらの画像は、第1の画像との合成に使用される。   The acquired first image and the plurality of second images are respectively input to the AF evaluation value calculation circuit of the image processing unit 117 and output an evaluation value for each image. The AF evaluation value is evaluated for each of the first image and the second image, and is used for automatic focus adjustment. Details of the automatic focus adjustment will be described later. As a result of the focus adjustment, an image exposed at the focus lens position closest to the focus position is selected from the eight second images corresponding to the output cycle of the first image based on the position of the focus lens in focus ( In FIG. 2, (F) and (N)). These selected images are used for synthesis with the first image.

図3は、画像合成のデータフローを示す図である。まず、撮像素子115から第1の画像(D301)と複数の第2の画像群(D302)が取り込まれる。第1の画像(D301)から、まず、画像処理部117の信号処理回路で合成に適した設定値で現像する合成画像生成処理を経て中間YUV画像A(D305)が生成される。また、第1の画像(D301)から、合成時の画像位置ずれ検出に適した設定値で現像する比率画像生成処理を経て位置ずれ基準画像(D306)を生成する。また同様に、第2の画像群(D302)から、合成画像生成処理を経て中間YUV画像B群(D303)と、比率画像生成処理を経て位置ずれ検出画像群(D304)を生成する。   FIG. 3 is a diagram illustrating a data flow of image composition. First, a first image (D301) and a plurality of second image groups (D302) are captured from the image sensor 115. From the first image (D301), first, an intermediate YUV image A (D305) is generated through composite image generation processing in which the signal processing circuit of the image processing unit 117 develops with a setting value suitable for composition. Further, a positional deviation reference image (D306) is generated from the first image (D301) through a ratio image generation process that develops with a setting value suitable for image positional deviation detection at the time of composition. Similarly, from the second image group (D302), an intermediate YUV image B group (D303) is generated through a composite image generation process, and a misregistration detection image group (D304) is generated through a ratio image generation process.

中間YUV画像B群(D303)と位置ずれ検出画像群(D304)から焦点調節の結果に基づいて、画像選択処理を経て焦点位置に最も近いフォーカスレンズ位置で露光した画像を中間YUV画像B(D307)と位置ずれ検出画像(D308)を生成する。   Based on the focus adjustment result from the intermediate YUV image B group (D303) and the misregistration detection image group (D304), an image exposed at the focus lens position that is closest to the focal position through the image selection process is displayed as an intermediate YUV image B (D307). ) And a displacement detection image (D308).

位置ずれ基準画像(D306)と位置ずれ検出画像(D308)に基づいて、各画像を複数に分割した領域毎の輝度平均から領域毎の各画像の輝度合成比率(D309)を算出する。また、複数に分割した領域毎の移動平均フィルタ処理を行い、領域毎の輝度、色差それぞれの差分絶対値の平均から領域毎の各画像の動き合成比率(D310)を算出する。   Based on the positional deviation reference image (D306) and the positional deviation detection image (D308), the luminance synthesis ratio (D309) of each image for each area is calculated from the luminance average for each area obtained by dividing each image into a plurality of areas. In addition, a moving average filter process is performed for each of the divided areas, and the motion synthesis ratio (D310) of each image for each area is calculated from the average of the absolute differences of the luminance and color difference for each area.

画像処理部117の合成回路に輝度合成比率と動き合成比率の最大値を合成比率として設定し、中間YUV画像A(D305)と中間YUV画像B(D307)を入力し、加重加算処理を経て合成画像を生成する(D311)。   The maximum value of the luminance composition ratio and the motion composition ratio is set as a composition ratio in the composition circuit of the image processing unit 117, the intermediate YUV image A (D305) and the intermediate YUV image B (D307) are input, and composition is performed through weighted addition processing. An image is generated (D311).

図4は、焦点調節処理を示すフローチャートである。このフローチャートに対応するプログラムは例えばフラッシュメモリ122に含まれ、メモリ部123にロードされてシステム制御回路121によって実行される。自動焦点調節は、フォーカスレンズ位置3点において撮像素子115から得られる輝度信号の高周波成分が最大になるレンズ位置を連続して探索する山登り方式である。具体的に評価に用いる信号は、撮像素子115からの画像データをフィルタリングして高周波帯域の輝度成分を抽出し、設定された領域内における水平方向のピークを枠内の垂直方向に積分するなどして求めた焦点評価値である。   FIG. 4 is a flowchart showing the focus adjustment process. A program corresponding to this flowchart is included in, for example, the flash memory 122, loaded into the memory unit 123, and executed by the system control circuit 121. The automatic focus adjustment is a hill-climbing method that continuously searches for a lens position where the high-frequency component of the luminance signal obtained from the image sensor 115 is maximum at three focus lens positions. Specifically, the signal used for the evaluation is obtained by filtering the image data from the image sensor 115 to extract the luminance component in the high frequency band, and integrating the horizontal peak in the set region in the vertical direction in the frame. This is the focus evaluation value obtained in this way.

まず、AF評価値演算回路を起動し、撮像素子115から得られる第1の画像を画像処理部117のAF評価値演算回路に入力する(S400)。合焦率が低いか判定し(S401)、合焦率が低い場合には現在のフォーカスレンズ位置での第1の画像の露光完了を待つ(S402)。第1の画像の露光が完了したら初期位置より至近側にフォーカスレンズを移動させると共に、第2の画像を画像処理部117のAF評価値演算回路に入力する(S403)。フォーカスレンズの移動が完了し(S404)、初期位置における第2の画像の評価値の積分が完了したら(S405)、レンズ位置と評価値を関連付けて記憶する(S406)。   First, the AF evaluation value calculation circuit is activated, and the first image obtained from the image sensor 115 is input to the AF evaluation value calculation circuit of the image processing unit 117 (S400). It is determined whether or not the focusing rate is low (S401). If the focusing rate is low, the completion of exposure of the first image at the current focus lens position is awaited (S402). When the exposure of the first image is completed, the focus lens is moved to the closest side from the initial position, and the second image is input to the AF evaluation value calculation circuit of the image processing unit 117 (S403). When the movement of the focus lens is completed (S404) and the integration of the evaluation value of the second image at the initial position is completed (S405), the lens position and the evaluation value are stored in association with each other (S406).

次に、至近側にフォーカスレンズを移動中の第2の画像の露光が完了したら(S407)、至近側のフォーカスレンズ位置での第2の画像の露光が完了を待つ(S408)。その後、フォーカスレンズを初期位置より無限側にフォーカスレンズを移動させる(S409)。フォーカスレンズの移動が完了し(S410)、至近側位置の評価値の積分が完了したら(S411)、レンズ位置と評価値を関連付けて記憶する(S412)。次に、無限側にフォーカスレンズを移動中の第2の画像の露光が完了したら(S413)、無限側のフォーカスレンズ位置での第2の画像の露光完了を待つ(S414)。無限側位置の評価値の積分の完了を待ち(S415)、レンズ位置と評価値を関連付けて記憶する(S416)。3つの評価値から焦点位置を決定し(S417)、焦点位置にレンズを移動する(S418)。EVFが終了でなければ(S419)、S401の合焦判定に戻って処理を繰り返す。   Next, when the exposure of the second image while moving the focus lens to the close side is completed (S407), the exposure of the second image at the close focus lens position is awaited (S408). Thereafter, the focus lens is moved from the initial position to the infinite side (S409). When the movement of the focus lens is completed (S410) and the integration of the evaluation value at the closest position is completed (S411), the lens position and the evaluation value are stored in association with each other (S412). Next, when the exposure of the second image while moving the focus lens to the infinite side is completed (S413), the exposure of the second image at the infinite side focus lens position is waited for (S414). Waiting for completion of integration of the evaluation value at the infinite side position (S415), the lens position is associated with the evaluation value and stored (S416). The focal position is determined from the three evaluation values (S417), and the lens is moved to the focal position (S418). If the EVF is not finished (S419), the process returns to the focus determination in S401 and is repeated.

図5は、S417の3つの評価値から焦点位置を決定する処理の具体例を示すフローチャートである。まず、初期位置の評価値(焦点検出する前の現在の位置。以下、初期位置Cur。)が至近位置の評価値(以下、至近位置Mod。)の所定値X以上であるかを判定する(S420)。すなわち、Cur-Mod≧Xであるか否かを判定する。Cur-Mod≧Xである場合、初期位置Curと無限位置の評価値(以下、無限位置Inf。)とを比較する(S421)。初期位置Curが大きい場合には初期位置Curを焦点位置とし(S422)、そうでなければ、無限位置Infを焦点位置とする(S423)。   FIG. 5 is a flowchart showing a specific example of the process of determining the focal position from the three evaluation values in S417. First, it is determined whether or not the initial position evaluation value (current position before focus detection; hereinafter, initial position Cur.) Is equal to or greater than a predetermined value X of the close position evaluation value (hereinafter, close position Mod) ( S420). That is, it is determined whether or not Cur-Mod ≧ X. When Cur-Mod ≧ X, the initial position Cur is compared with the evaluation value of the infinite position (hereinafter, infinite position Inf) (S421). If the initial position Cur is large, the initial position Cur is set as the focal position (S422). Otherwise, the infinite position Inf is set as the focal position (S423).

また、S420でCur-Mod≧Xでない場合、至近位置Modが初期位置Curの所定値X以上であるかを判定する(S424)。すなわち、Mod-Cur≧Xであるか否かを判定する。Mod-Cur≧Xである場合、初期位置Curが無限位置Inf以上であるか判定する(S425)。初期位置Curが無限位置Inf以上である場合、至近位置Modを焦点位置とする(S426)。また、初期位置Curが無限位置Inf以上でない場合には、無限位置Infが至近位置Modの所定値X以上であるかを判定する(S427)。無限位置Infが至近位置Modの所定値X以上である場合、無限位置Infを焦点位置とし(S428)、それ以外の場合は焦点位置を不定と判定する(S429)。   If Cur-Mod ≧ X is not satisfied in S420, it is determined whether or not the closest position Mod is equal to or larger than a predetermined value X of the initial position Cur (S424). That is, it is determined whether Mod-Cur ≧ X. If Mod-Cur ≧ X, it is determined whether the initial position Cur is equal to or greater than the infinite position Inf (S425). If the initial position Cur is greater than or equal to the infinite position Inf, the closest position Mod is set as the focal position (S426). If the initial position Cur is not equal to or greater than the infinite position Inf, it is determined whether the infinite position Inf is equal to or greater than the predetermined value X of the closest position Mod (S427). If the infinite position Inf is greater than or equal to the predetermined value X of the closest position Mod, the infinite position Inf is set as the focal position (S428), otherwise the focal position is determined to be indefinite (S429).

更に、S424でMod-Cur≧Xでないと判定された場合は、無限位置Infが初期位置Curの所定値X以上であるかを判定する(S430)。すなわち、Inf-Cur≧Xであるかを判定する。Inf-Cur≧Xである場合、初期位置Curが至近位置Mod以上であるかを判定する(S431)。初期位置Curが至近位置Mod以上である場合、無限位置Infを焦点位置とする(S432)。そうでない場合は、至近位置Modが無限位置Infの所定値X以上であるかを判定する(S433)。至近位置Modが無限位置Infの所定値X以上である場合は、至近位置Modを焦点位置とし(S434)、それ以外の場合は焦点位置を不定とする(S435)。S430でInf-Cur≧Xでないと判定された場合も、S435で焦点位置を不定とする。なお、焦点位置決定方法については、図5の方法に限定されるものではない。   Further, if it is determined in S424 that Mod-Cur ≧ X is not satisfied, it is determined whether the infinite position Inf is equal to or greater than the predetermined value X of the initial position Cur (S430). That is, it is determined whether Inf-Cur ≧ X. If Inf-Cur ≧ X, it is determined whether the initial position Cur is equal to or greater than the closest position Mod (S431). When the initial position Cur is equal to or greater than the closest position Mod, the infinite position Inf is set as the focal position (S432). Otherwise, it is determined whether the closest position Mod is equal to or greater than a predetermined value X of the infinite position Inf (S433). When the close position Mod is equal to or greater than the predetermined value X of the infinite position Inf, the close position Mod is set as the focus position (S434), and otherwise, the focus position is set undefined (S435). Even when it is determined in S430 that Inf-Cur ≧ X is not satisfied, the focus position is made indefinite in S435. Note that the focal position determination method is not limited to the method of FIG.

図3の、中間YUV画像B群(D303)と位置ずれ検出画像群(D304)から中間YUV画像B(D307)と位置ずれ検出画像(D308)を抽出する処理では、図5の処理で決定した焦点位置で露光した画像から生成した画像が選択される。また、図5にて、焦点位置を不定と判定した場合には、初期位置Cur、至近位置Mod、無限位置Infの中で、第1の画像をAF評価値演算回路に入力して得られる評価値に最も近い画像が選択される。   The process of extracting the intermediate YUV image B (D307) and the misregistration detection image (D308) from the intermediate YUV image B group (D303) and the misregistration detection image group (D304) in FIG. 3 is determined by the process of FIG. An image generated from the image exposed at the focal position is selected. Also, in FIG. 5, when it is determined that the focal position is indefinite, an evaluation obtained by inputting the first image to the AF evaluation value calculation circuit among the initial position Cur, the closest position Mod, and the infinite position Inf. The image closest to the value is selected.

以上のように、動画撮影記録を行いながら焦点調節を行う場合、合焦率の高い画像を選択的に合成することにより、合成時の位置合わせを正確に行うことができる。これと同時に、解像感を失うことなくダイナミックレンジの広い画像を得ることができる。   As described above, when performing the focus adjustment while performing moving image shooting and recording, it is possible to accurately perform alignment at the time of synthesis by selectively synthesizing images with a high focusing rate. At the same time, an image with a wide dynamic range can be obtained without losing a sense of resolution.

<実施形態2>
実施形態1では、第1の画像の出力周期に相当する8つの第2の画像の内、焦点位置に最も近いフォーカスレンズ位置で露光した画像を選択したが、次のような構成としてもよい。すなわち、8つから合焦率の高い順に複数の画像を選択し、選択された画像を合成した第3の画像を生成する(図2中では(F)と(G)、並びに、(N)と(O))。その後、第3の画像を第1の画像と合成する。第2の画像を複数合成させることにより、第1の画像と合成する際の第2の画像のノイズレベルの低減に寄与し、より高画質でダイナミックレンジを拡大した画像が得られる。
<Embodiment 2>
In the first embodiment, the image exposed at the focus lens position closest to the focus position is selected from the eight second images corresponding to the output cycle of the first image. However, the following configuration may be used. That is, a plurality of images are selected in descending order of the focusing rate from eight, and a third image is generated by synthesizing the selected images ((F) and (G) and (N) in FIG. 2). And (O)). Thereafter, the third image is combined with the first image. By synthesizing a plurality of second images, it contributes to the reduction of the noise level of the second image when synthesizing with the first image, and an image with a higher image quality and an expanded dynamic range can be obtained.

図4(S418)で焦点位置にフォーカスレンズを移動した後に露光が開始され(図2中のt4、t5タイミング。)且つ、フォーカスレンズ移動後、最初の第1の画像の露光が完了(図2中のt2、t3タイミング。)するまでに出力される第2の画像が、合成する画像として選択される。   In FIG. 4 (S418), the exposure starts after the focus lens is moved to the focal position (timing t4 and t5 in FIG. 2), and after the focus lens is moved, the exposure of the first first image is completed (FIG. 2). The second image output until t2 and t3 are selected as the images to be combined.

図6は、図3の画像選択を複数にし、第2の画像を合成して中間YUV画像B(D307)と位置ずれ検出画像(D308)を生成するデータフローである。図3との差異は、中間YUV画像B群(D303)と位置ずれ検出画像群(D304)から上記条件を満たす2画像をそれぞれ選択する画像選択処理にある。中間YUV画像B群(D303)から画像選択処理を経て、中間YUV画像B1(D316)と中間YUV画像B2(D317)を選択する。また、位置ずれ検出画像群(D304)から画像選択処理を経て、位置ずれ検出画像1(D312)と位置ずれ検出画像2(D313)を選択する。   FIG. 6 is a data flow for generating the intermediate YUV image B (D307) and the misregistration detection image (D308) by combining the second image with multiple image selections in FIG. The difference from FIG. 3 lies in image selection processing for selecting two images that satisfy the above conditions from the intermediate YUV image B group (D303) and the misregistration detection image group (D304). An intermediate YUV image B1 (D316) and an intermediate YUV image B2 (D317) are selected through image selection processing from the intermediate YUV image B group (D303). Further, the position shift detection image 1 (D312) and the position shift detection image 2 (D313) are selected through image selection processing from the position shift detection image group (D304).

位置ずれ検出画像1(D312)と位置ずれ検出画像2(D313)に基づいて、各画像を複数に分割した領域毎の輝度平均から領域毎の各画像の輝度合成比率(D314)を算出する。また、複数に分割した領域毎の移動平均フィルタ処理を行い、領域毎の輝度、色差それぞれの差分絶対値の平均から領域毎の各画像の動き合成比率(D315)を算出する。   Based on the displacement detection image 1 (D312) and the displacement detection image 2 (D313), the luminance synthesis ratio (D314) of each image for each region is calculated from the luminance average for each region obtained by dividing each image into a plurality of regions. Further, a moving average filter process is performed for each of the divided areas, and a motion synthesis ratio (D315) of each image for each area is calculated from the average of the absolute differences of the luminance and color difference for each area.

画像処理部117の合成回路に輝度合成比率(D314)と動き合成比率(D315)の最大値を合成比率として設定する。そして、位置ずれ検出画像1(D312)と位置ずれ検出画像2(D313)を入力して加重加算処理を経て合成した位置ずれ検出画像(D308)を生成する。また同様にして、画像処理部117の合成回路に輝度合成比率(D314)と動き合成比率(D315)の最大値を合成比率として設定する。そして、中間YUV画像B1(D316)と中間YUV画像B2(D317)を入力して加重加算処理を経て合成した中間YUV画像B(D307)を生成する。これ以降のデータフローは図3aで説明したデータフローと同じである。   The maximum value of the luminance composition ratio (D314) and the motion composition ratio (D315) is set in the composition circuit of the image processing unit 117 as the composition ratio. Then, the misalignment detection image 1 (D312) and the misalignment detection image 2 (D313) are input and a misalignment detection image (D308) synthesized through a weighted addition process is generated. Similarly, the maximum value of the luminance composition ratio (D314) and the motion composition ratio (D315) is set as the composition ratio in the composition circuit of the image processing unit 117. Then, the intermediate YUV image B1 (D316) and the intermediate YUV image B2 (D317) are input and the intermediate YUV image B (D307) synthesized through the weighted addition process is generated. The subsequent data flow is the same as the data flow described in FIG.

以上のように、動画撮影記録を行いながら焦点調節を行う場合、合焦率の高い画像を複数選択して合成する。これにより、合成時の位置合わせが正確に行えると同時に、解像感を失うことなく、更に、S/N比の高いダイナミックレンジの広い画像を得ることができる。   As described above, when performing the focus adjustment while performing moving image shooting and recording, a plurality of images with a high focusing rate are selected and combined. As a result, the alignment at the time of synthesis can be performed accurately, and at the same time, an image with a wide dynamic range with a high S / N ratio can be obtained without losing a sense of resolution.

<実施形態3>
図7は、自動焦点調節により露光期間中にフォーカスレンズを動かさない場合の撮像素子の駆動タイミングと撮像素子の出力タイミング及び、画像合成までのタイミングチャートである。実施形態1及び2においては、自動焦点調節を行ったことにより、第2の画像に焦点の有意差がある場合を想定した。これに対しここでは、焦点調節を行わない期間、即ち、図4で合焦率が低いと判定されない時(S401)を想定する。この場合、第1の画像の露光重心近傍の所定数の第2の画像を選択し、この選択された第2の画像を合成して第4の画像を生成する(図5では(A)と(B)、並びに、(H)と(I))。その後、第1の画像と合成する。これにより、合成する画像間の実時間上のずれが軽減される。そして、露光時間の短い第2の画像を複数合成した後に第1の画像と合成させることにより、ずれ量の少なく、ノイズレベルを低減させた、より高画質でダイナミックレンジを拡大した画像が得られる。
<Embodiment 3>
FIG. 7 is a timing chart of image sensor drive timing, image sensor output timing, and image synthesis when the focus lens is not moved during the exposure period by automatic focus adjustment. In the first and second embodiments, it is assumed that the second image has a significant difference in focus due to the automatic focus adjustment. On the other hand, here, a period in which focus adjustment is not performed, that is, a time when it is not determined that the focusing rate is low in FIG. 4 (S401) is assumed. In this case, a predetermined number of second images near the center of exposure of the first image are selected, and the selected second images are combined to generate a fourth image (in FIG. 5, (A) (B) and (H) and (I)). Then, it is combined with the first image. Thereby, the deviation in real time between the images to be combined is reduced. Then, by synthesizing a plurality of second images having a short exposure time and then synthesizing with the first image, an image with a small displacement and a reduced noise level and a higher dynamic range can be obtained. .

データフローとしては図6と同じであり、画像選択処理が上記で説明したように第1の画像の露光重心に最も近い第2の画像を選択するように変更した処理になる。露光重心は画像単位に以下のように求めることができる。   The data flow is the same as in FIG. 6, and the image selection processing is changed to select the second image closest to the exposure center of gravity of the first image as described above. The exposure center of gravity can be obtained for each image as follows.

図7において、記録フレームレートをF、第1の画像読み出し時間をR1、第2の画像読み出し時間をR2とする。また、第1の画像の最初の読み出しタイミングをV1、第1の画像の2番目の読み出しタイミングをV2、第1の画像の3番目の読み出しタイミングをV3とする。また、第1の画像の2番目の露光時間をE1、第1の画像の3番目の露光時間をE2、第2の画像の露光時間をE3とする。   In FIG. 7, the recording frame rate is F, the first image readout time is R1, and the second image readout time is R2. Further, the first read timing of the first image is V1, the second read timing of the first image is V2, and the third read timing of the first image is V3. Further, the second exposure time of the first image is E1, the third exposure time of the first image is E2, and the exposure time of the second image is E3.

V1からV2の期間に露光した第1の画像はV2から読み出しを始め、その露光重心は以下の(1)式で求められる。   The first image exposed during the period from V1 to V2 starts to be read from V2, and the center of exposure is obtained by the following equation (1).

露光重心=V2−E1/2+R1/2 ・・・(1)
V1からV2の期間に露光した第2の画像の露光重心は、以下の(2)式で求められる。
Exposure gravity center = V2-E1 / 2 + R1 / 2 (1)
The exposure center of gravity of the second image exposed during the period from V1 to V2 is obtained by the following equation (2).

露光重心2=V2−(F/m)×(m−n)−E2/2+R2/2 ・・・(2)
本実施形態では、m=8であり、V2直前のVD期間の第2の画像の場合n=8、V1直後のVD期間の第2の画像の場合n=1である。
V1、V2、V3、・・・以外の値は既知であり、第1の画像が読み出し開始されるタイミングで第1の画像の露光重心と第2の画像の露光重心が求められる。第1の画像が読み出されるのと並行して(1)式及び、(2)式により露光重心を求め、第1の露光重心の時刻に最も近い露光重心時刻の第2の画像と2番目に近い露光重心時刻の第2の画像が選択される。
Exposure center of gravity 2 = V2− (F / m) × (mn) −E2 / 2 + R2 / 2 (2)
In this embodiment, m = 8, n = 8 in the case of the second image in the VD period immediately before V2, and n = 1 in the case of the second image in the VD period immediately after V1.
Values other than V1, V2, V3,... Are known, and the exposure centroid of the first image and the exposure centroid of the second image are obtained at the timing when the first image starts to be read. In parallel with the reading of the first image, the exposure centroid is obtained by the equations (1) and (2), and the second image at the exposure centroid time closest to the time of the first exposure centroid is second. The second image with the closest exposure centroid time is selected.

図7のV2では、t6が第1の画像の露光重心時刻であり、最も近い第2の画像(H)と2番目に近い第2の画像(I)が選択される。   In V2 of FIG. 7, t6 is the exposure center-of-gravity time of the first image, and the closest second image (H) and the second closest image (I) are selected.

以上のように、動画記録を行いながら焦点調節を行わない場合においても、動画記録用画像の露光重心に近いAF評価用の画像を複数選択して合成する。これにより、合成時の位置合わせが正確に行えると同時に、解像感を失うことなく、更に、S/N比の高いダイナミックレンジの広い画像を得ることができる。   As described above, even when moving image recording and focus adjustment is not performed, a plurality of AF evaluation images close to the center of exposure of the moving image recording image are selected and combined. As a result, the alignment at the time of synthesis can be performed accurately, and at the same time, an image with a wide dynamic range with a high S / N ratio can be obtained without losing a sense of resolution.

(他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (11)

撮影レンズを介して被写体像を撮像する撮像素子と、
前記撮影レンズに含まれ、光軸方向に移動可能なフォーカスレンズと、
前記撮像素子から、第1のフレームレートで第1の画像を取得するとともに、前記第1のフレームレートより高い第2のフレームレートで複数の第2の画像を取得する取得手段と、
前記第1の画像及び前記複数の第2の画像の高周波成分に基づき前記フォーカスレンズの位置を制御して前記被写体像に対する焦点調節を行う焦点調節手段と、
前記撮像素子から得られた複数の画像を合成してダイナミックレンジが拡大された画像を生成する合成手段と、
を有し、
前記合成手段は、前記複数の第2の画像のうち合焦率の高い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする撮像装置。
An image sensor that captures a subject image via a photographic lens;
A focus lens included in the photographing lens and movable in an optical axis direction;
From the imaging device, an acquisition unit to obtain the first image at a first frame rate, to obtain a plurality of second images at the first higher than the frame rate second frame rate,
Focus adjusting means for adjusting the focus of the subject image by controlling the position of the focus lens based on the high-frequency components of the first image and the plurality of second images;
A synthesizing unit that synthesizes a plurality of images obtained from the image sensor and generates an image having an expanded dynamic range;
Have
The image-capturing apparatus, wherein the synthesizing unit selects an image with a high focusing rate from the plurality of second images, and synthesizes the selected image with the first image.
前記第2のフレームレートが前記第1のフレームレートの整数倍であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the second frame rate is an integral multiple of the first frame rate. 前記焦点調節手段は、前記第1の画像及び前記複数の第2の画像の高周波成分を積分して得た評価値に基づいて前記焦点調節を行い、
前記合成手段は、前記複数の第2の画像に焦点の有意差がないと判定される場合、前記複数の第2の画像のうち前記第1の画像の前記評価値に最も近い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする請求項1又は2に記載の撮像装置。
The focus adjustment unit performs the focus adjustment based on an evaluation value obtained by integrating high-frequency components of the first image and the plurality of second images,
When it is determined that the plurality of second images have no significant difference in focus, the synthesizing unit selects an image closest to the evaluation value of the first image from the plurality of second images. The imaging apparatus according to claim 1, wherein the selected image is combined with the first image.
前記合成手段は、前記複数の第2の画像から合焦率の高い順に所定数の画像を選択し、該選択した画像を合成して第3の画像を生成し、該第3の画像を前記第1の画像と合成することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The synthesizing unit selects a predetermined number of images from the plurality of second images in descending order of the focusing rate, synthesizes the selected images to generate a third image, and the third image is The image pickup apparatus according to claim 1, wherein the image pickup apparatus is combined with the first image. 前記合成手段は、前記焦点調節を行わない期間では、前記複数の第2の画像から前記第1の画像の露光重心近傍の所定数の画像を選択し、該選択した画像を合成して第4の画像を生成し、該第4の画像を前記第1の画像と合成することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The synthesizing unit selects a predetermined number of images in the vicinity of the exposure center of gravity of the first image from the plurality of second images during a period when the focus adjustment is not performed, and synthesizes the selected images to obtain a fourth 4. The imaging apparatus according to claim 1, wherein the fourth image is generated and the fourth image is combined with the first image. 5. 撮影レンズを介して被写体像を撮像する撮像素子と、前記撮影レンズに含まれ、光軸方向に移動可能なフォーカスレンズとを有する撮像装置の制御方法であって、
取得手段が、前記撮像素子から、第1のフレームレートで第1の画像を取得するとともに、前記第1のフレームレートより高い第2のフレームレートで複数の第2の画像を取得する取得ステップと、
焦点調節手段が、前記第1の画像及び前記複数の第2の画像の高周波成分に基づき前記フォーカスレンズの位置を制御して前記被写体像に対する焦点調節を行う焦点調節ステップと、
合成手段が、前記撮像素子から得られた複数の画像を合成してダイナミックレンジが拡大された画像を生成する合成ステップと、
を有し、
前記合成ステップにおいて、前記合成手段は、前記複数の第2の画像のうち合焦率の高い画像を選択し、該選択した画像を前記第1の画像と合成することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus, comprising: an imaging element that captures a subject image via a photographing lens; and a focus lens that is included in the photographing lens and is movable in an optical axis direction.
Acquisition step acquiring unit, from the image pickup device, to obtain to obtain the first image at a first frame rate, a plurality of second images at the first higher than the frame rate second frame rate When,
A focus adjustment step in which focus adjustment means performs focus adjustment on the subject image by controlling a position of the focus lens based on high-frequency components of the first image and the plurality of second images;
Combining means comprises a combining step of generating an image whose dynamic range is expanded by combining a plurality of images obtained from the imaging element,
Have
In the synthesizing step, the synthesizing unit selects an image with a high focusing rate from the plurality of second images, and synthesizes the selected image with the first image. Control method.
前記第2のフレームレートが前記第1のフレームレートの整数倍であることを特徴とする請求項6に記載の制御方法。 The control method according to claim 6, wherein the second frame rate is an integral multiple of the first frame rate. 前記焦点調節ステップにおいて、前記焦点調節手段は、前記第1の画像及び前記複数の第2の画像の高周波成分を積分して得た評価値に基づいて前記焦点調節を行い、
前記合成ステップにおいて、前記合成手段は、前記複数の第2の画像に焦点の有意差がないと判定される場合、前記複数の第2の画像のうち前記第1の画像の前記評価値に最も近い画像を選択し、該選択した画像を前記第1の画像と合成する
ことを特徴とする請求項6又は7に記載の制御方法。
In the focus adjustment step, the focus adjustment means performs the focus adjustment based on an evaluation value obtained by integrating high-frequency components of the first image and the plurality of second images,
In the synthesizing step, when it is determined that the plurality of second images do not have a significant difference in focus, the synthesizing unit has the highest evaluation value of the first image among the plurality of second images. The control method according to claim 6 or 7, wherein a close image is selected, and the selected image is combined with the first image.
前記合成ステップにおいて、前記合成手段は、前記複数の第2の画像から合焦率の高い順に所定数の画像を選択し、該選択した画像を合成して第3の画像を生成し、該第3の画像を前記第1の画像と合成することを特徴とする請求項6乃至8のいずれか1項に記載の制御方法。 In the synthesizing step, the synthesizing unit selects a predetermined number of images from the plurality of second images in descending order of the focusing rate, and synthesizes the selected images to generate a third image, The control method according to claim 6, wherein the third image is synthesized with the first image. 前記合成ステップにおいて、前記合成手段は、前記焦点調節を行わない期間では、前記複数の第2の画像から前記第1の画像の露光重心近傍の所定数の画像を選択し、該選択した画像を合成して第4の画像を生成し、該第4の画像を前記第1の画像と合成することを特徴とする請求項6乃至8のいずれか1項に記載の制御方法。 In the synthesizing step, the synthesizing unit selects a predetermined number of images in the vicinity of the exposure centroid of the first image from the plurality of second images in a period in which the focus adjustment is not performed, and selects the selected images. The control method according to claim 6, wherein a fourth image is generated by synthesis, and the fourth image is synthesized with the first image. コンピュータに、請求項6乃至10のいずれか1項に記載の制御方法の各ステップを実行させるためのプログラム。 The program for making a computer perform each step of the control method of any one of Claims 6 thru | or 10.
JP2013217862A 2013-10-18 2013-10-18 Imaging apparatus and control method thereof Expired - Fee Related JP6170402B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013217862A JP6170402B2 (en) 2013-10-18 2013-10-18 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013217862A JP6170402B2 (en) 2013-10-18 2013-10-18 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2015080179A JP2015080179A (en) 2015-04-23
JP2015080179A5 JP2015080179A5 (en) 2016-12-01
JP6170402B2 true JP6170402B2 (en) 2017-07-26

Family

ID=53011250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013217862A Expired - Fee Related JP6170402B2 (en) 2013-10-18 2013-10-18 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6170402B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113228611B (en) 2018-12-26 2022-10-21 富士胶片株式会社 Imaging element, camera device, working method of imaging element, and computer-readable storage medium
WO2020137217A1 (en) * 2018-12-27 2020-07-02 富士フイルム株式会社 Imaging element, imaging device, image data processing method, and program
CN112911130A (en) * 2019-12-03 2021-06-04 深圳市万普拉斯科技有限公司 Auxiliary view finding method, device, terminal and storage medium
JP7354299B2 (en) 2020-01-31 2023-10-02 富士フイルム株式会社 Imaging device, operating method of the imaging device, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487944B2 (en) * 2006-02-09 2010-06-23 ソニー株式会社 Solid-state imaging device
JP5862126B2 (en) * 2011-09-06 2016-02-16 ソニー株式会社 Imaging device and method, and imaging apparatus
JP5802520B2 (en) * 2011-11-11 2015-10-28 株式会社 日立産業制御ソリューションズ Imaging device

Also Published As

Publication number Publication date
JP2015080179A (en) 2015-04-23

Similar Documents

Publication Publication Date Title
JP3261152B2 (en) Imaging device having a plurality of optical systems
CN104365082B (en) Camera device, image processing apparatus and recording method
JP5893713B1 (en) Imaging apparatus, imaging method, and processing program
KR101626780B1 (en) Imaging apparatus, image processing method, and image processing program
US20080131107A1 (en) Photographing apparatus
JP2009094726A (en) Image recording apparatus and image recording method
JP3395770B2 (en) Digital still camera
US20090027487A1 (en) Image display apparatus and image display method
JP2013055567A (en) Imaging apparatus
CN104246597B (en) Imaging device and formation method
JP6170402B2 (en) Imaging apparatus and control method thereof
JP5936323B2 (en) Image recording apparatus and control method thereof
JP4033456B2 (en) Digital camera
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP2015062297A (en) Imaging apparatus and imaging method
JP6147116B2 (en) Imaging apparatus, control method thereof, and control program
JP6197062B2 (en) Imaging device, imaging method, display device, and display method
JP2008182486A (en) Imaging apparatus and image processing method
JP2004221650A (en) Electronic camera
JP2012114677A (en) Imaging apparatus, imaging method, and program
JP2010239267A (en) Imaging apparatus, peripheral dimming correction control method, and program
JP6381112B2 (en) Imaging apparatus, imaging method, and program
JP2011205406A (en) Compound eye camera
JP6486132B2 (en) Imaging apparatus, control method therefor, and program
JP2015115877A (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170630

R151 Written notification of patent or utility model registration

Ref document number: 6170402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees