[go: up one dir, main page]

JP2015159353A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2015159353A
JP2015159353A JP2014031924A JP2014031924A JP2015159353A JP 2015159353 A JP2015159353 A JP 2015159353A JP 2014031924 A JP2014031924 A JP 2014031924A JP 2014031924 A JP2014031924 A JP 2014031924A JP 2015159353 A JP2015159353 A JP 2015159353A
Authority
JP
Japan
Prior art keywords
image
disturbance
image data
exposure
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014031924A
Other languages
Japanese (ja)
Other versions
JP6321990B2 (en
Inventor
宏明 岩崎
Hiroaki Iwasaki
宏明 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014031924A priority Critical patent/JP6321990B2/en
Publication of JP2015159353A publication Critical patent/JP2015159353A/en
Application granted granted Critical
Publication of JP6321990B2 publication Critical patent/JP6321990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method which, even in occurrence of disturbance during imaging, prevent picture quality from being deteriorated by the disturbance and minimize exposure interruption.SOLUTION: Image data exposed in an exposure time T is synthesized repetitively (S19), and disturbance occurring during imaging is detected (S11). In synthesizing the image data, an exposure time is divided (S7) into time intervals of T/M (M is 2 or larger). In a case where disturbance is detected during imaging, the image data exposed in the exposure time T is generated by excluding image data of a time interval containing the disturbance therein out of the divided time intervals (S11: Yes).

Description

本発明は、複数枚の画像データを合成して撮影画像を生成するデジタルスチルカメラ等の撮像装置において、手振れや被写体輝度の変化等、撮影中の予期せぬ外乱によって静止画や動画の画質が劣化するのを防止することができる撮像装置および撮像方法に関する。   In an imaging apparatus such as a digital still camera that generates a captured image by combining a plurality of image data, the image quality of a still image or a moving image is reduced due to an unexpected disturbance such as a camera shake or a change in subject brightness. The present invention relates to an imaging apparatus and an imaging method capable of preventing deterioration.

近年、デジタルカメラの高性能化、多機能化によって以前よりも気軽に長時間撮影を行うことができるようになり、長時間撮影を楽しむ撮影者も増えてきた。長時間撮影では非常に暗い被写体である天体撮影や、花火撮影や、NDフィルターを用いた太陽の撮影など幻想的な写真や動画の撮影が行うことができる。   In recent years, high performance and multi-functionality of digital cameras have made it possible to take pictures for a long time more easily than before, and an increasing number of photographers have enjoyed taking pictures for a long time. In long-time shooting, it is possible to shoot fantastic photos and videos such as astronomical shooting, which is a very dark subject, fireworks shooting, and sun shooting using an ND filter.

また、露光時間が数秒〜数10分に及ぶバルブ撮影や、一定間隔で連続撮影した複数の画像を合成し1枚の写真にするインターバル合成撮影や、連続撮影した多数の写真を繋ぎ合わせコマ送り動画にするタイムラプス撮影など、特殊な撮影方法が発展してきている。   In addition, bulb exposures with exposure times ranging from seconds to tens of minutes, interval composite shooting that combines multiple images taken continuously at regular intervals into a single photo, and frame-by-frame feeding of many consecutively shot photos Special shooting methods such as time-lapse shooting for moving images have been developed.

長時間撮影ではカメラを三脚に固定しブレないようにして撮影することが一般的である。しかし、非常に暗い環境下で撮影する場合には撮影者が気をつけていても三脚に物をぶつけて揺らしてしまったり、撮影中に他の撮影者がフラッシュ発光したり、車が通りがかった際にヘッドライトの光が映ってしまったり、撮影者が予期しない外乱が発生しまうことがよくある。   In long-time shooting, it is common to shoot with a camera fixed on a tripod so that it does not shake. However, when shooting in a very dark environment, even if the photographer is careful, the tripod may be bumped and shaken, other photographers may flash during shooting, or the car may be passing by. In many cases, the light of the headlight is reflected or a disturbance unexpected by the photographer occurs.

そのような外乱が発生した場合、長時間かけて撮影した静止画や動画が、ブレや高輝度被写体による画像の白飛びなどで台無しになってしまう。短時間の撮影であれば撮影をやり直すことが簡単であるが、長時間であると撮影しなおすにも時間がかかり大変である。   When such disturbances occur, still images and moving images taken over a long period of time are spoiled due to blurring or overexposure of images due to high-luminance subjects. If it is a short time shooting, it is easy to redo the shooting, but if it is a long time, it takes a long time to reshoot.

このような長時間撮影中の外乱に対して、分割露光した画像で長時間撮影写真を合成するデジタルカメラにおいて、カメラブレが発生した前後でブレを補正して合成を行う方法が提案されている(特許文献1参照)。また、撮影中に被写体の輝度が変化した場合は、輝度が変化した分、明るさを調整する画像処理を施して合成する方法が提案されている(特許文献2参照)。   In a digital camera that synthesizes a long-time photograph with a separately exposed image against a disturbance during such long-time shooting, a method has been proposed in which the blur is corrected before and after the occurrence of camera shake and is combined ( Patent Document 1). Also, a method has been proposed in which when the luminance of a subject changes during shooting, the image processing is performed to adjust the brightness corresponding to the change in luminance (see Patent Document 2).

特開2013−168699号公報JP 2013-168699 A 特開2013−172372号公報JP 2013-172372 A

特許文献1および2に記載の方法によれば、長時間撮影中のカメラぶれや輝度変化による画質劣化を軽減することが可能である。しかし、長時間撮影を行う撮影者の意図として、光の軌跡を連続的に写しこみたいという要望、例えば星の日周運動による軌跡や花火が打ちあがる経過の軌跡、蛍の飛行軌跡などがあり、特許文献1および2の記載の方法では、これらの要望に応えることができない。   According to the methods described in Patent Documents 1 and 2, it is possible to reduce image quality deterioration due to camera shake or luminance change during long-time shooting. However, the intention of the photographer who shoots for a long time is the desire to continuously capture the light trajectory, such as the trajectory caused by the diurnal motion of stars, the trajectory of fireworks, and the flight trajectory of fireflies. The methods described in Patent Documents 1 and 2 cannot meet these demands.

すなわち、特許文献1の方法では、連続撮影した画像のうちカメラ振れが発生したときの撮影画像は、画像がぶれているため合成には使用できない。特許文献2の方法では、輝度の変化が滑らかな場合(たとえば夜から日の出の期間の空の輝度変化)については光の軌跡を連続的に写し込むことは可能である。しかし、他の撮影者がフラッシュ発光した場合や、車のヘッドライトなどの強い光の映り込む場合等には、輝度が非常に高く画像出力が飽和するため画像処理による明るさ調整では対応できない。このような場合には所定のタイミングで分割露光した画像のうち外乱が発生した画像を除外して合成する必要があり、その画像に写った光の軌跡は途切れてしまう。   In other words, in the method of Patent Document 1, the captured image when the camera shake occurs among the continuously captured images cannot be used for composition because the image is blurred. In the method of Patent Document 2, when the luminance change is smooth (for example, the luminance change in the sky from night to sunrise), it is possible to continuously capture the light trajectory. However, when another photographer emits a flash or when a strong light such as a car headlight is reflected, the brightness is very high and the image output is saturated, so that the brightness adjustment by image processing cannot cope. In such a case, it is necessary to exclude and synthesize an image in which disturbance has occurred among images that are divided and exposed at a predetermined timing, and the locus of light reflected in the image is interrupted.

本発明は、このような事情を鑑みてなされたものであり、撮影中に外乱が発生しても外乱による画質劣化を防止し、かつ露光の途切れが極力少ない撮像装置および撮像方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an imaging apparatus and an imaging method that prevent image quality degradation due to disturbance even when disturbance occurs during shooting and minimize exposure interruptions. With the goal.

上記目的を達成するため第1の発明に係る撮像装置は、撮像素子と、露光時間Tで露光された画像データを繰り返し合成する画像データ合成部と、撮影中に発生する外乱を検知する外乱検知部と、を備え、上記画像データ合成部は、上記露光時間をT/M(Mは2以上)の時間区間に分割し、撮影中に上記外乱検知部により外乱が検知された場合は、該分割した時間区間のうち該外乱が混入した時間区間の画像データを除外して露光時間Tの画像データを合成する。   In order to achieve the above object, an image pickup apparatus according to a first invention includes an image pickup device, an image data combining unit that repeatedly combines image data exposed at an exposure time T, and disturbance detection that detects a disturbance that occurs during shooting. And the image data composition unit divides the exposure time into T / M (M is 2 or more) time intervals, and when a disturbance is detected by the disturbance detection unit during photographing, The image data of the exposure time T is synthesized by excluding the image data of the time interval in which the disturbance is mixed among the divided time intervals.

第2の発明に係る撮像装置は、上記第1の発明において、上記撮像素子は、破壊読み出し型であり、上記画像データ合成部は、上記露光時間T/Mで露光して得られた画像データを加算する。   An image pickup apparatus according to a second invention is the image pickup device according to the first invention, wherein the image pickup device is a destructive readout type, and the image data synthesis unit is image data obtained by exposure with the exposure time T / M. Is added.

第3の発明に係る撮像装置は、上記第1の発明において、上記撮像素子は、非破壊読み出し型であり、該撮像素子を構成する画素の電荷蓄積のリセットおよび電荷蓄積の開始を制御する制御部を更に備え、上記外乱検知部が外乱を検知した場合は、上記制御部は上記電荷蓄積をリセットするとともに該外乱が消失した直後に上記電荷蓄積を開始し、上記画像データ合成部は、該外乱が発生する直前までに生成した画像データと、該外乱が消失した直後から露光を開始した画像データを合成する。   According to a third invention, in the first invention, the imaging device is of a non-destructive readout type, and control for controlling reset of charge accumulation and start of charge accumulation of pixels constituting the image sensing device. When the disturbance detection unit detects a disturbance, the control unit resets the charge accumulation and starts the charge accumulation immediately after the disturbance disappears, and the image data synthesis unit The image data generated immediately before the disturbance occurs and the image data for which exposure has been started immediately after the disturbance disappears are combined.

第4の発明に係る撮像装置は、上記第1の発明において、上記撮像素子は、非破壊読み出し型であり、該撮像素子を構成する画素の電荷蓄積のリセットおよび電荷蓄積の開始を制御する制御部を更に備え、上記制御部は、上記露光時間T毎に上記リセットおよび電荷蓄積の開始を行う。   According to a fourth aspect of the present invention, in the first aspect, the image pickup device is a non-destructive readout type, and control for controlling reset of charge accumulation and start of charge accumulation of pixels constituting the image pickup device. A controller, and the controller performs the reset and start of charge accumulation every exposure time T.

第5の発明に係る撮像装置は、上記第1の発明において、上記外乱検知部は、露光中のカメラぶれを検知する。
第6の発明に係る撮像装置は、上記第1の発明において、上記外乱検知部は、上記分割露光した画像データの輝度値を解析し、輝度の変化を検知する。
第7の発明に係る撮像装置は、上記第1の発明において、上記画像データ合成部は、比較明合成、比較暗合成、加算平均合成、タイムラプス動画生成の内の少なくとも1つを行う。
In the imaging device according to a fifth aspect based on the first aspect, the disturbance detection unit detects camera shake during exposure.
In the imaging device according to a sixth aspect based on the first aspect, the disturbance detection unit analyzes a luminance value of the image data subjected to the divided exposure and detects a change in luminance.
In the imaging device according to a seventh aspect based on the first aspect, the image data synthesis unit performs at least one of comparatively bright synthesis, comparative dark synthesis, addition average synthesis, and time-lapse moving image generation.

第8の発明に係る撮像方法は、露光時間Tで露光された画像データを繰り返し合成する画像データ合成ステップと、撮影中に発生する外乱を検知する外乱検知ステップと、を有し、上記画像データ合成ステップは、上記露光時間をT/M(Mは2以上)の時間区間に分割し、撮影中に上記外乱検知ステップにおいて外乱が検知された場合は、該分割した時間区間のうち該外乱が混入した時間区間の画像データを除外して露光時間Tの画像データを生成する。   An imaging method according to an eighth aspect of the present invention includes an image data synthesis step for repeatedly synthesizing image data exposed at an exposure time T, and a disturbance detection step for detecting a disturbance that occurs during photographing. The synthesizing step divides the exposure time into T / M (M is 2 or more) time intervals, and when a disturbance is detected in the disturbance detection step during shooting, the disturbance is detected in the divided time intervals. Image data of the exposure time T is generated by excluding the mixed time interval image data.

本発明によれば、撮影中に外乱が発生しても外乱による画質劣化を防止し、かつ露光の途切れが極力少ない撮像装置および撮像方法を提供することができる。   According to the present invention, it is possible to provide an image pickup apparatus and an image pickup method that prevent image quality deterioration due to a disturbance even when a disturbance occurs during shooting and minimize exposure interruptions.

本発明の第1実施形態に係るカメラの主として電気的構成を示すブロック図である。It is a block diagram which shows mainly an electrical structure of the camera which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るカメラの長時間撮影モードにおける動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the long-time imaging | photography mode of the camera which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るカメラの外乱検知の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the disturbance detection of the camera which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るカメラの画像合成・撮影経過表示の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image composition and imaging progress display of the camera which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るカメラにおいて、長時間露光の撮影シーケンスを示すタイムチャートである。3 is a time chart showing a long-exposure shooting sequence in the camera according to the first embodiment of the present invention. 本発明の第2実施形態に係るカメラにおいて、長時間露光(加算合成モード)の撮影シーケンスを示すタイムチャートである。It is a time chart which shows the imaging | photography sequence of long time exposure (addition synthetic | combination mode) in the camera which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係るカメラにおいて、長時間露光(比較合成モード、タイムラプス動画生成モード)の撮影シーケンス(外乱なし)を示すタイムチャートである。6 is a time chart showing a shooting sequence (no disturbance) of long-time exposure (comparison / synthesis mode, time-lapse moving image generation mode) in the camera according to the second embodiment of the present invention. 本発明の第2実施形態に係るカメラにおいて、長時間露光(比較合成モード、タイムラプス動画生成モード)の撮影シーケンス(外乱あり)を示すタイムチャートである。6 is a time chart showing a shooting sequence (with disturbance) of long-time exposure (comparison / synthesis mode, time-lapse moving image generation mode) in the camera according to the second embodiment of the present invention. 本発明の第2実施形態に係るカメラにおいて使用される非破壊読み出し型のイメージセンサの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the nondestructive readout type image sensor used in the camera which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係るカメラにおいて使用される非破壊読み出し型の動作を示すタイミングチャートである。It is a timing chart which shows the operation | movement of the nondestructive readout type used in the camera which concerns on 2nd Embodiment of this invention. 従来の長時間露光の撮影シーケンスを示すタイムチャートであり、(a)は外乱が発生しない通常撮影時を示し、(b)は外乱が発生した場合を示す。It is a time chart which shows the imaging sequence of the conventional long exposure, (a) shows the normal imaging | photography time which does not generate | occur | produce a disturbance, (b) shows the case where a disturbance generate | occur | produces.

以下、本発明を適用したカメラを用いて好ましい実施形態について説明する。本発明の好ましい実施形態に係るカメラは、デジタルカメラであり、概略、レリーズ釦の操作に応じて撮影を開始し、イメージセンサから読み出される複数の画像データを合成して長時間撮影に相当する記録用静止画または動画を合成して外部メモリに記録する。撮影中に、外乱を検知した場合は外乱が発生している期間に露光した画像を除いて合成を行う。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied. The camera according to a preferred embodiment of the present invention is a digital camera, and generally, recording is started in response to an operation of a release button, and a plurality of image data read from the image sensor is combined to record corresponding to long-time shooting. Synthesizes still images or moving images for recording in external memory. When a disturbance is detected during shooting, composition is performed except for an image exposed during the period in which the disturbance occurs.

図1は、本発明の第1実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、撮像部1、画像処理部10、外乱検知部15、システム制御部20、内部メモリ33、外部メモリ36、表示部37、入力IF(インターフェース)38、およびこれらを接続するバス31を有する。なお、本実施形態においては、レンズ2は、カメラ本体と一体に構成されているが、交換レンズとしても勿論かまわない。   FIG. 1 is a block diagram mainly showing an electrical configuration of the camera according to the first embodiment of the present invention. This camera includes an imaging unit 1, an image processing unit 10, a disturbance detection unit 15, a system control unit 20, an internal memory 33, an external memory 36, a display unit 37, an input IF (interface) 38, and a bus 31 for connecting them. Have. In the present embodiment, the lens 2 is configured integrally with the camera body, but may of course be an interchangeable lens.

撮像部1内には、レンズ2、メカシャッタ3、イメージセンサ4を有する。レンズ2は、イメージセンサ4に被写体の光学像を結像する。このレンズ2内には、露出量を調節するための絞り値を決定する絞りを備える。また、メカシャッタ3は、開閉動作によりイメージセンサ4への露出や遮光を行い、シャッタ速度を制御する。   The imaging unit 1 includes a lens 2, a mechanical shutter 3, and an image sensor 4. The lens 2 forms an optical image of the subject on the image sensor 4. This lens 2 is provided with an aperture for determining an aperture value for adjusting the exposure amount. The mechanical shutter 3 controls the shutter speed by performing exposure and shading to the image sensor 4 by opening and closing operations.

イメージセンサ4は、CMOSイメージセンサやCCDイメージセンサ等の撮像素子を含み、レンズ2により結像された被写体の光学像を画素毎に電気信号に変換し、画像データを、画像処理部10およびバス31に出力する。本実施形態においては、イメージセンサ4は、破壊読み出し型である。バス31は、各ブロック間で信号の送受信を行うための信号線である。   The image sensor 4 includes an image sensor such as a CMOS image sensor or a CCD image sensor, converts an optical image of a subject formed by the lens 2 into an electrical signal for each pixel, and converts the image data into the image processing unit 10 and the bus. To 31. In the present embodiment, the image sensor 4 is a destructive readout type. The bus 31 is a signal line for transmitting and receiving signals between the blocks.

画像処理部10は、イメージセンサ4から出力された画像データに画像処理を施す。この画像処理部10は、画像合成部11および現像処理部13を有し、画像合成部11は、加算合成部11a、比較合成部11b、加算平均合成部11c、動画生成部11dを有する。   The image processing unit 10 performs image processing on the image data output from the image sensor 4. The image processing unit 10 includes an image composition unit 11 and a development processing unit 13, and the image composition unit 11 includes an addition composition unit 11a, a comparison composition unit 11b, an addition average composition unit 11c, and a moving image generation unit 11d.

この画像合成部11は、露光時間Tで露光された画像データを繰り返し合成する画像データ合成部として機能する。また、画像合成部11は、露光時間をT/M(Mは2以上)の時間区間に分割し、撮影中に後述する外乱検知部により外乱が検知された場合は、分割した時間区間のうち外乱が混入した時間区間の画像データを除外して露光時間Tの画像データを合成する。また、画像合成部11は、露光時間T/Mで露光して得られた画像データを加算する(後述する加算合成部11a参照)。また、画像合成部11は、比較明合成、比較暗合成、加算平均合成、タイムラプス動画生成の内の少なくとも1つを行う。   The image composition unit 11 functions as an image data composition unit that repeatedly composes image data exposed at the exposure time T. Further, the image composition unit 11 divides the exposure time into T / M (M is 2 or more) time intervals, and when a disturbance is detected by a disturbance detection unit described later during shooting, The image data of the exposure time T is synthesized by excluding the image data of the time interval in which the disturbance is mixed. The image composition unit 11 adds image data obtained by exposure with an exposure time T / M (see an addition composition unit 11a described later). In addition, the image composition unit 11 performs at least one of comparatively bright composition, comparative dark composition, addition average composition, and time-lapse animation generation.

加算合成部11aは、イメージセンサ4から読み出された複数の画像データの内、それぞれ対応する画素毎に出力を加算して合成画像を生成する。比較合成部11bはイメージセンサ4から読み出された複数の画像データの内、それぞれ対応する画素毎に出力を比較し出力が大きい方の画素出力を合成画像の画素データとする比較明合成、または出力が小さい方の画素出力を合成画像の画素データとする比較暗合成によって合成画像を生成する。   The adding and synthesizing unit 11a generates a synthesized image by adding outputs for each corresponding pixel among the plurality of image data read from the image sensor 4. The comparison / synthesis unit 11b compares outputs for each corresponding pixel among a plurality of image data read from the image sensor 4 and uses the pixel output of the larger output as the pixel data of the synthesized image, or A synthesized image is generated by comparative dark synthesis using the pixel output with the smaller output as the pixel data of the synthesized image.

加算平均合成部11cは、イメージセンサ4から読み出された複数の画像データの内、それぞれ対応する画素毎の出力を加算平均して合成画像を生成する。動画生成部11dは連続的に読み出された複数フレームの画像データを時系列に繋ぎ合わせて動画像データを生成する。また、動画生成部11dは、タイムラプラス動画撮影時によって取得した画像データに基づいて動画像データを生成する。   The addition average combining unit 11c generates a combined image by adding and averaging the outputs of the corresponding pixels among the plurality of image data read from the image sensor 4. The moving image generation unit 11d generates moving image data by connecting image data of a plurality of frames read continuously in time series. In addition, the moving image generating unit 11d generates moving image data based on the image data acquired at the time of time-lapse plus moving image shooting.

現像処理部13は、画像合成部11で生成されたRAW画像データに対して、デモザイキング、ホワイトバランス調整、ガンマ補正、画像圧縮などの現像処理を行う。   The development processing unit 13 performs development processing such as demosaicing, white balance adjustment, gamma correction, and image compression on the RAW image data generated by the image composition unit 11.

外乱検知部15は、カメラぶれ検出部16と露出異常検知部17を有する。この外乱検知部15は、撮影中に発生する外乱を検知する外乱検知部として機能する。   The disturbance detection unit 15 includes a camera shake detection unit 16 and an exposure abnormality detection unit 17. The disturbance detection unit 15 functions as a disturbance detection unit that detects a disturbance generated during shooting.

カメラぶれ検出部16は、露光中のカメラぶれを検出し、一般的なデジタルカメラに搭載されているジャイロセンサの出力に基づいてカメラぶれが発生しているか検出してもよく、またイメージセンサで連続的に読み出した画像を比較して被写体像のブレの有無からカメラぶれが発生しているかを検出してもよい。また、カメラぶれ検出部16は、カメラぶれによる被写体像のずれ情報を画像処理部10にフィードバックし、画像処理部10はカメラぶれ発生前後の画像をカメラぶれによる被写体像のずれを補正して合成する。   The camera shake detection unit 16 may detect camera shake during exposure, and may detect whether camera shake has occurred based on the output of a gyro sensor mounted on a general digital camera. It is also possible to detect whether camera shake has occurred based on the presence or absence of blurring of the subject image by comparing continuously read images. In addition, the camera shake detection unit 16 feeds back the subject image displacement information due to camera shake to the image processing unit 10, and the image processing unit 10 corrects and synthesizes the subject image displacement due to camera shake before and after the camera shake occurs. To do.

露出異常検知部17は、分割露光した画像データの輝度値を解析し、輝度の変化を検知する。すなわち、分割露光したそれぞれの画像データの出力値に基づいて輝度値を算出し、画像データ同士の輝度値を比較して、輝度値の急激な変化の有無を検知する。例えば、他の撮影者によるストロボ発光や、通りがかりの車のヘッドライト等による輝度値の急激な変化があれば、検知する。   The exposure abnormality detection unit 17 analyzes the luminance value of the separately exposed image data and detects a change in luminance. That is, the brightness value is calculated based on the output value of each piece of image data subjected to the divided exposure, and the brightness values of the image data are compared to detect the presence or absence of a sudden change in the brightness value. For example, if there is a sudden change in the luminance value due to strobe light emission by another photographer or a headlight of a passing car, it is detected.

バス31には、前述の撮像部1、画像処理部10、外乱検知部15の他に、内部メモリ33、外部メモリ36、表示部37、入力IF38、システム制御部20が接続されている。   In addition to the imaging unit 1, the image processing unit 10, and the disturbance detection unit 15, an internal memory 33, an external memory 36, a display unit 37, an input IF 38, and the system control unit 20 are connected to the bus 31.

内部メモリ33は、カメラ動作に必要な各種設定情報や、画像処理時に途中経過の画像データを一時的に記憶する。内部メモリ33は、フラッシュメモリ、SDRAM等の書き換え可能な不揮発性のメモリによって構成される。   The internal memory 33 temporarily stores various setting information necessary for camera operation and image data in the middle of image processing. The internal memory 33 is configured by a rewritable nonvolatile memory such as a flash memory or SDRAM.

外部メモリ36は、カメラ本体に装填自在、または内部に固定された不揮発性の記憶媒体であり、例えば、SDカードやCFカード等である。この外部メモリは、現像処理部で現像処理された画像データを記録し、また再生時には、記録された画像データが読み出され、カメラの外部に出力可能である。   The external memory 36 is a non-volatile storage medium that can be loaded into the camera body or fixed inside, and is, for example, an SD card or a CF card. The external memory records the image data developed by the development processing unit, and at the time of reproduction, the recorded image data can be read out and output to the outside of the camera.

表示部37は、TFT(Thin Film Transistor)液晶や有機ELなどの背面表示部やEVF(電子ビューファインダ)を有し、現像処理部13によって現像された画像を表示する。   The display unit 37 includes a rear display unit such as a TFT (Thin Film Transistor) liquid crystal or an organic EL, and an EVF (electronic viewfinder), and displays an image developed by the development processing unit 13.

入力IF38は、レリーズ釦等の操作部材や、背面表示部等におけるタッチ操作を入力するためのタッチパネル等を有し、ユーザ操作に基づいて各種のモード設定やレリーズ等撮影動作の指示を行う。入力IF38を介して、撮影者は、例えば、バルブ撮影モードやインターバル撮影モード、タイムラプス動画モード等の長時間撮影モード等の設定を行うことができる。   The input IF 38 includes an operation member such as a release button, a touch panel for inputting a touch operation on the rear display unit, and the like, and instructs various shooting operations such as mode setting and release based on a user operation. Through the input IF 38, the photographer can set, for example, a long-time shooting mode such as a bulb shooting mode, an interval shooting mode, and a time-lapse moving image mode.

システム制御部20は、CPU(Central Processing Unit)を有し、内部メモリ33内に記憶されたプログラムに従ってカメラの各部を制御することにより全体制御を行う。また、システム制御部20は、前述の撮像部1、画像処理部10、外乱検知部15等の全体制御を行う。   The system control unit 20 includes a CPU (Central Processing Unit) and performs overall control by controlling each unit of the camera according to a program stored in the internal memory 33. Further, the system control unit 20 performs overall control of the above-described imaging unit 1, image processing unit 10, disturbance detection unit 15, and the like.

次に、図2ないし図4に示すフローチャートを用いて、本発明の第1実施形態におけるカメラの主として長時間撮影モード設定時の動作について説明する。このフローチャートは、内部メモリ33に記憶されたプログラムに従って、システム制御部20が各部を制御することにより実行する。   Next, the operation of the camera according to the first embodiment of the present invention when the long-time shooting mode is set will be described with reference to the flowcharts shown in FIGS. This flowchart is executed by the system control unit 20 controlling each unit in accordance with a program stored in the internal memory 33.

なお、このフローチャートでは、撮影者が入力IF38により、カメラの撮影モードを長時間撮影モードに設定してあるものとする。長時間撮影モードとして、例えば、バルブ撮影モードやインターバル撮影モード、タイムラプス動画モードがある。   In this flowchart, it is assumed that the photographer has set the camera shooting mode to the long-time shooting mode by the input IF 38. Examples of the long-time shooting mode include a bulb shooting mode, an interval shooting mode, and a time-lapse moving image mode.

まず、図2を用いて、全体シーケンスについて説明する。長時間撮影モードに入ると、まず、ライブビュー表示を行う(S1)。ここでは、イメージセンサ4からの画像信号を画像処理部13においてライブビュー表示用に画像処理を行い、表示部37においてライブビュー画像を表示する。ライブビュー表示においては、所定時間間隔でイメージセンサ4から画像信号を読み出す度にライブビュー画像が更新される。表示部37にライブビュー画像が表示されると、撮影者は、ライブビュー画像を確認しながら、構図、ピント位置、撮影条件を被写体に合わせて設定する。   First, the entire sequence will be described with reference to FIG. When the long shooting mode is entered, live view display is first performed (S1). Here, the image signal from the image sensor 4 is subjected to image processing for live view display in the image processing unit 13, and a live view image is displayed in the display unit 37. In the live view display, the live view image is updated every time an image signal is read from the image sensor 4 at a predetermined time interval. When the live view image is displayed on the display unit 37, the photographer sets the composition, focus position, and shooting conditions according to the subject while checking the live view image.

ライブビュー表示を行うと、次に、露光時間Tを設定する(S3)。撮影モードとしてバルブ撮影モードが設定されている場合には、撮影者が好みのタイミングで露光読み出しした画像を随時加算処理しては露光経過として表示部37に表示し、露光経過を確認できるようにする。この場合には撮影者の好みのタイミングに合わせて露光時間Tを入力IF37によって設定する。例えば数分の撮影を行う場合に、10秒ごとに露光経過を確認したい場合には露光時間Tを10秒に設定する。   Once live view display is performed, an exposure time T is set (S3). When the bulb shooting mode is set as the shooting mode, an image read out by the photographer at the desired timing is added at any time and displayed on the display unit 37 as the exposure progress so that the exposure progress can be confirmed. To do. In this case, the exposure time T is set by the input IF 37 in accordance with the photographer's preferred timing. For example, when shooting for several minutes, if it is desired to check the progress of exposure every 10 seconds, the exposure time T is set to 10 seconds.

また、インターバル撮影画像を比較合成や加算平均合成することで一枚の静止画に合成するインターバル撮影モードが設定されている場合や、タイムラプス動画(コマ送り動画)を生成するタイムラプラス撮影モードが設定されている場合は、このステップ設定された露光時間Tで連続的に露光・読み出しされた画像を合成する。静止画を合成する場合は合成画像の背景部分(撮影中に輝度の変化がなかった部分)の露出は露光時間Tで読み出した一枚一枚の画像と同じ露出になり、タイムラプス動画では露光時間Tで読み出された画像が動画の1コマの露出に相当するため、撮影者がライブビュー画像の明るさを確認して最適な露出が得られる時間Tに手動設定しても良いし、カメラのAE(Auto Exposure)機能を用いて適正露出が得られる露光時間にTを自動設定しても良い。   In addition, when the interval shooting mode is set to combine the interval shot images into one still image by comparison synthesis or addition average synthesis, or the time-lapse plus shooting mode to generate time-lapse movie (frame-by-frame movie) is set If it is, the images continuously exposed and read out with the exposure time T set in this step are synthesized. When combining still images, the exposure of the background portion of the composite image (the portion where the brightness did not change during shooting) is the same exposure as each image read at the exposure time T, and the exposure time for time-lapse movies Since the image read out at T corresponds to the exposure of one frame of the moving image, the photographer may manually set the time T when the brightness of the live view image is confirmed and the optimum exposure can be obtained. T may be automatically set to an exposure time for obtaining an appropriate exposure using an AE (Auto Exposure) function.

露光時間Tを設定すると、次に、レリーズか否かを判定する(S5)。撮影者はシャッタチャンスと判断すると、レリーズ釦を操作するので、ここでは、レリーズ釦が操作されたか否かを判定する。この判定の結果、レリーズされていない場合には、ステップS1に戻り、ライブビュー表示等の動作を実行する。一方、ステップS5における判定の結果、レリーズであった場合には、露光を開始する(S6)ここでは、イメージセンサ4によって撮像が開始され、被写体の光学像を画素毎に電気信号に変換し、キャパシタに電荷蓄積される。   Once the exposure time T is set, it is next determined whether or not it is a release (S5). If the photographer determines that there is a photo opportunity, the user operates the release button. Here, it is determined whether or not the release button has been operated. If the result of this determination is that release has not been carried out, processing returns to step S1, and operations such as live view display are executed. On the other hand, if the result of determination in step S5 is release, exposure is started (S6). Here, imaging is started by the image sensor 4, and the optical image of the subject is converted into an electrical signal for each pixel. Charge is stored in the capacitor.

ステップS6において露光が開始されると、次に、T/Mだけ時間が経過したか否かを判定する(S7)。露光開始と同時にタイマによって計時動作が開始されるので、このタイマの計時時間に基づいて判定する。Mは、合成画像を生成する際に使用する画像の枚数を表し(例えば、図5に示す例では、4枚)、1以上の整数が好ましい。さらにMは大きいほどT/Mの時間が短くなり、後述する合成から除外するフレームの露光時間が短くなり露光抜けが短くなり、画像を分轄する回数が多くなる。このため、Mが大きいと、露光抜けが短くなる点は好ましい。   When exposure is started in step S6, it is next determined whether or not time has elapsed by T / M (S7). Since the timing operation is started by the timer simultaneously with the start of exposure, the determination is made based on the timing time of this timer. M represents the number of images used when generating a composite image (for example, 4 in the example shown in FIG. 5), and is preferably an integer of 1 or more. Furthermore, the larger M is, the shorter the T / M time is, the exposure time of frames to be excluded from synthesis, which will be described later, is shortened, and the number of exposures is shortened. For this reason, when M is large, it is preferable that exposure loss is shortened.

しかし、イメージャ4は一般に画像を読み出す際にわずかに読み出しノイズが発生するので、合成画像の読み出しノイズも読み出し回数分だけ大きくなり画質が劣化する。したがって、Mを際限なく大きくすることは好ましくない。それでも、例えば、M=4に固定しT=60秒で撮影したとすると、前述した特許文献の方法であれば、外乱が発生した場合に60秒の露光抜けになってしまうものが、本実施形態では60・4=15秒の露光抜けまで短縮することができ、十分メリットがある。   However, since the imager 4 generally generates a slight read noise when reading an image, the read noise of the composite image is increased by the number of read times, and the image quality deteriorates. Therefore, it is not preferable to increase M without limit. Still, for example, if M = 4 is fixed and shooting is performed at T = 60 seconds, the method described in the above-described patent document may result in a loss of exposure of 60 seconds when a disturbance occurs. In the embodiment, the exposure can be shortened to 60 · 4 = 15 seconds, and there is a sufficient merit.

また、被写体の像面速度(イメージセンサに投影された像の移動速度)を考慮して露光抜けが視認されない程度にMを設定するのがさらに好ましい。例えば、星の軌跡を写すにあたって、広角レンズ(例えば、焦点距離20mm程度(35mmフィルム換算))で、20メガピクセルのイメージセンサ4を用いて撮影する場合は、星等は露光時間20秒で10画素程度移動するため、星の軌跡の露光抜けが1画素以下程度になるようT/Mが2秒程度になるように、TとMを設定するのが好ましい。一方花火などを撮影する場合は、星に比べると軌跡の像面速度が速いが、星などに比べると数秒から数10秒で撮影時間が短いため、例えばT/Mを0.1秒以下と短くしても星の軌跡撮影と比べると総分割回数が多くならない。近年のデジタルカメラではシーン認識機能が備えているものがあり、この場合には花火や星などの被写体認識をして被写体に応じてT/Mを自動設定するようにしても良い。   Further, it is more preferable to set M to such an extent that exposure omission is not visually recognized in consideration of the image plane speed of the subject (moving speed of the image projected on the image sensor). For example, when shooting the locus of a star, when shooting using a 20-megapixel image sensor 4 with a wide-angle lens (for example, a focal length of about 20 mm (35 mm film equivalent)), the star or the like has an exposure time of 20 seconds. Since it moves about pixels, it is preferable to set T and M so that T / M is about 2 seconds so that the exposure of the star locus is about 1 pixel or less. On the other hand, when shooting fireworks and the like, the image speed of the trajectory is faster than that of stars, but since the shooting time is shorter from several seconds to several tens of seconds than stars, for example, T / M is set to 0.1 seconds or less. Even if it is shortened, the total number of divisions does not increase compared to shooting star trails. Some recent digital cameras have a scene recognition function. In this case, T / M may be automatically set according to the subject by recognizing a subject such as fireworks or stars.

ステップS7における判定の結果、T/M時間が経過すると、画像読み出しを行う(S9)。ここでは、イメージセンサ4から画像信号を読出す。また、画像読み出しを完了すると、破壊読み出し型のセンサであることから、信号電荷蓄積用のキャパシタ(FD)をリセットし、次のフレームの露光を開始する。なお、後述する第2実施形態の場合には、非破壊読み出し型のセンサであることから、信号電荷蓄積用のキャパシタ(FD,図9のFD55参照)のリセットは、通常、行わない。   As a result of the determination in step S7, when T / M time has elapsed, image reading is performed (S9). Here, an image signal is read from the image sensor 4. When the image reading is completed, since the sensor is a destructive reading type sensor, the signal charge storage capacitor (FD) is reset, and exposure of the next frame is started. In the case of the second embodiment to be described later, since it is a non-destructive readout type sensor, the signal charge storage capacitor (FD, see FD 55 in FIG. 9) is not normally reset.

また、ステップS9において読み出した画像のフレーム数をカウントするフレームカウンタを用意する。フレーム数をN(1以上の整数)とし、撮影開始1フレーム目をN=1と定義する。外乱が検知されたフレームはカウントせず、外乱が検知されなかったフレーム数をカウントするものとする。   In addition, a frame counter that counts the number of frames of the image read in step S9 is prepared. The number of frames is defined as N (an integer equal to or greater than 1), and the first frame of imaging start is defined as N = 1. Frames in which disturbance is detected are not counted, and the number of frames in which disturbance is not detected is counted.

画像読み出しを行うと、次に、外乱を検知したか否かを判定する(S11)。ここでは、外乱検知部15のカメラブレ検出部16がカメラぶれを検出したか否か、また露出異常検知部17が輝度等に異常を検知したか否かを判定する。前述したように、画像読み出しを行うと、次のフレームの露光を開始するが、Nフレームの読み出し画像データの処理に移行する前に外乱検知部15からNフレーム露光中に外乱が発生したか否かの情報を受け取る。外乱検知の詳細は図3を用いて後述する。外乱が検知された場合にはNフレーム目の画像は合成に使用しない。   Once image reading has been performed, it is next determined whether or not a disturbance has been detected (S11). Here, it is determined whether the camera shake detection unit 16 of the disturbance detection unit 15 has detected camera shake, and whether the exposure abnormality detection unit 17 has detected an abnormality in luminance or the like. As described above, when image reading is performed, exposure of the next frame starts. Whether or not a disturbance has occurred during N frame exposure from the disturbance detection unit 15 before proceeding to processing of N frame read image data. Receive the information. Details of the disturbance detection will be described later with reference to FIG. When a disturbance is detected, the Nth frame image is not used for synthesis.

ステップS11における判定の結果、外乱を検知しなかった場合には、次に、フレームカウンタNカウントアップ+1を行う(S13)。ここでは、フレームカウンタを+1カウントアップする。続いて、フレームカウンタのカウント値に基づいて、次に、N=1フレーム目か否かの判定を行う(S15)。   If the result of determination in step S11 is that no disturbance has been detected, then frame counter N count up + 1 is performed (S13). Here, the frame counter is incremented by +1. Subsequently, based on the count value of the frame counter, it is next determined whether or not N = 1 frame (S15).

ステップS15における判定の結果、N=1フレーム目であった場合には、合成を行わず内部メモリ33へ記録する(S21)。   As a result of the determination in step S15, if N = 1 frame, it is recorded in the internal memory 33 without being synthesized (S21).

一方、ステップS15における判定の結果、2フレーム目以降であった場合には、カメラぶれ補正を行う(S17)。ここでは、ステップS9において読み出した画像データに対して、外乱検知部15で検出したカメラぶれ量に基づいて画像処理部10が補正を行う。ステップS11における外乱検知の際にカメラぶれ量を検知するので、累積合成画像と読み出し画像のカメラぶれによる被写体像のずれを電子的に補正してから画像合成することで合成画像に像ブレが発生しないようにすることができる。また、ステップS9で読み出した画像データに対して露出補正を行う。   On the other hand, if the result of determination in step S15 is that after the second frame, camera shake correction is performed (S17). Here, the image processing unit 10 corrects the image data read in step S9 based on the camera shake amount detected by the disturbance detection unit 15. Since the amount of camera shake is detected at the time of disturbance detection in step S11, image blurring occurs in the synthesized image by electronically correcting the subject image shift due to camera shake between the accumulated synthesized image and the read image. You can avoid it. Further, exposure correction is performed on the image data read in step S9.

ステップS17において、カメラぶれ補正を行うと、画像合成および撮影経過表示を行う(S19)。ここでは、ステップS9において読み出した画像データを用いて画像合成を行い、この合成された画像を表示部37に表示する。これにより、バルブ撮影等の長時間撮影モードであっても、撮影終了までの間に順次撮影経過が表示される。この画像合成・撮影経過表示の詳しい動作については、図4を用いて後述する。   When camera shake correction is performed in step S17, image composition and shooting progress display are performed (S19). Here, image synthesis is performed using the image data read out in step S9, and the synthesized image is displayed on the display unit 37. Thereby, even in the long-time shooting mode such as bulb shooting, the shooting progress is sequentially displayed until the shooting is completed. Detailed operation of the image composition / shooting progress display will be described later with reference to FIG.

ステップS19において画像合成を行うと、またはステップS21において内部メモリ33に保存すると、次に、レリーズ(露光終了)か否かの判定を行う(S23)。バルブ撮影等の長時間撮影の際には撮影者はレリーズ釦を、再度、押し下げ撮影終了を指示するので、この指示に基づいて判定する。この判定の結果、露光終了でない場合には、ステップS7に戻り、バルブ撮影等の長時間撮影を続行する。   If image composition is performed in step S19 or if it is stored in the internal memory 33 in step S21, it is next determined whether or not it is a release (end of exposure) (S23). When shooting for a long time such as bulb shooting, the photographer presses the release button again to instruct the end of shooting, so determination is made based on this instruction. If the result of this determination is that the exposure has not ended, the process returns to step S7 to continue long-time shooting such as bulb shooting.

一方、ステップS23における判定の結果、露光終了の場合には、撮影を終了し(S25)、最終画像表示を行い、外部メモリに保存する(S27)。ここでは、画像処理部10によって加算合成モードや比較合成モードで静止画を合成する場合には、生成された合成画像の最終表示を表示部37に所定時間、行い、この合成画像を外部メモリ36に記録する。なお、合成画像の表示は省略してもよい。外部メモリに記録すると、このフローを終了する。   On the other hand, if the result of determination in step S23 is that exposure is complete, shooting is terminated (S25), the final image is displayed, and stored in external memory (S27). Here, when a still image is synthesized in the addition synthesis mode or the comparison synthesis mode by the image processing unit 10, a final display of the generated synthesized image is performed on the display unit 37 for a predetermined time, and this synthesized image is stored in the external memory 36. To record. Note that the display of the composite image may be omitted. When the data is recorded in the external memory, this flow is finished.

次に、図3を用いて、ステップS11における外乱検知について説明する。外乱検知のフローに入ると、まず、カメラぶれ信号の検知を行う(S31)。ここでは、カメラぶれ検出部16がジャイロ等のセンサ出力に基づいて、カメラに手ブレ等が発生したか否かを判定する。   Next, the disturbance detection in step S11 will be described with reference to FIG. In the disturbance detection flow, first, a camera shake signal is detected (S31). Here, the camera shake detection unit 16 determines whether camera shake or the like has occurred in the camera based on a sensor output from a gyroscope or the like.

ステップS31における判定の結果、カメラぶれ信号を検知した場合には、カメラずれ量フィードバックを行う(S33)。ここでは、カメラブレ検出部16が検出したカメラのずれ量をシステム制御部20に出力する。システム制御部20は、図示しない機構により、例えば、検出したずれ量に基づいてイメージセンサ4を光軸の平面内で移動させ、ぶれを補正する。ステップS33において、カメラずれ量フィードバックを行うと、次に「外乱検知」を設定する(S35)。   If the result of determination in step S31 is that a camera shake signal has been detected, camera deviation amount feedback is performed (S33). Here, the camera shift amount detected by the camera shake detection unit 16 is output to the system control unit 20. The system control unit 20 corrects the shake by moving the image sensor 4 within the plane of the optical axis based on the detected deviation amount by a mechanism (not shown), for example. If camera deviation amount feedback is performed in step S33, then “disturbance detection” is set (S35).

一方、ステップS31における判定の結果、カメラぶれ信号を検知しない場合には、ステップS41以下において、露出異常検知部17における露出検知動作に移行する。まず、Nフレーム画像の出力を算出する(S41)。このステップにおける画像出力の算出は、画像データの全領域の平均でもよく、また画像データを縦、横複数ブロックに分割し、それぞれのブロックの平均出力を算出しても良い。後者の方法の方がヘッドライトの写りこみなどの局所的な露出異常の場合でも検出することができる。   On the other hand, if the camera shake signal is not detected as a result of the determination in step S31, the process proceeds to an exposure detection operation in the exposure abnormality detection unit 17 in step S41 and subsequent steps. First, the output of an N frame image is calculated (S41). The calculation of the image output in this step may be the average of all areas of the image data, or the image data may be divided into a plurality of vertical and horizontal blocks, and the average output of each block may be calculated. The latter method can be detected even in the case of local exposure abnormality such as reflection of a headlight.

Nフレーム画像の出力を算出すると、次に、N=1フレーム目か否かの判定を行う(S43)。この判定の結果、1フレーム目の場合には、露出異常であることの判定ができず、2フレーム以降、この画像の露出を基準として露出異常の有無を判断するため、ステップS47に進み、外乱未発生として処理する。   Once the output of the N frame image is calculated, it is next determined whether or not N = 1 frame (S43). As a result of the determination, in the case of the first frame, it cannot be determined that the exposure is abnormal, and in the second and subsequent frames, the process proceeds to step S47 in order to determine whether there is an exposure abnormality based on the exposure of this image. Treat as not occurring.

ステップS43における判定の結果、1フレーム目の画像データでない場合、すなわち2フレーム以降であった場合には、|(Nフレーム出力)−(N−1フレーム出力)|を算出し、所定のスレッシュレベルTHよりも大きいか否かを判定する(S45)。ここでは、2フレーム以降であるから、Nフレーム出力とN−1フレームの出力の差の絶対値を算出し、その値が所定のスレッシュレベル(TH)より大きいかを判断する。   If the result of determination in step S43 is not the first frame of image data, that is, if there are two or more frames, | (N frame output) − (N−1 frame output) | is calculated, and a predetermined threshold level is calculated. It is determined whether it is greater than TH (S45). Here, since there are two or more frames, the absolute value of the difference between the N frame output and the N-1 frame output is calculated, and it is determined whether the value is greater than a predetermined threshold level (TH).

ステップS45における判定の結果、出力の差の絶対値がスレッシュレベルよりも大きい場合には、ステップS35に進み、外乱検知をシステム制御部20にフィードバックする(外乱検知の設定を行う)。ここで各フレームの画像データを縦、横複数ブロックに分割して平均値を算出していた場合は、同じ画像位置のブロック同士の出力平均値の差分絶対値を算出し、ひとつのブロックでもスレッシュレベルよりも大きくなる場合は外乱が検知されたものと判断する。また、スレッシュレベル(TH)は異常な露出変化を検知し、わずかな露出の変化(例えば、夕方から夜への明るさ変化や、夜から明け方への空の変化など)は検知しないようにするのが好ましい。デジタル画素出力の飽和信号量に対して半分とか1/4といったようにフレーム毎の露出変化としては大きすぎると判断されるレベルに設定する。   As a result of the determination in step S45, if the absolute value of the output difference is larger than the threshold level, the process proceeds to step S35, and disturbance detection is fed back to the system control unit 20 (disturbance detection is set). If the average value is calculated by dividing the image data of each frame into multiple vertical and horizontal blocks, the absolute value of the difference between the output average values of the blocks at the same image position is calculated, and even with one block If it is greater than the level, it is determined that a disturbance has been detected. The threshold level (TH) detects an abnormal exposure change, and does not detect a slight exposure change (for example, a brightness change from evening to night or a sky change from night to dawn). Is preferred. It is set to a level at which it is determined that the exposure change for each frame is too large, such as half or ¼ of the saturation signal amount of the digital pixel output.

ステップS45における判定の結果、Nフレーム出力とN−1フレームの出力の差の絶対値がスレッシュレベル(TH)以下の場合は、外乱未発生を設定する(S47)。ここでは、外乱が未発生であったことをフィードバックする。   If the result of determination in step S45 is that the absolute value of the difference between the N frame output and the N-1 frame output is less than or equal to the threshold level (TH), no disturbance is set (S47). Here, the fact that no disturbance has occurred is fed back.

ステップS47において、外乱未発生を設定すると、次に、露出補正値フィードバックを行う(S49)。ここでは、スレッシュレベル以下であってもフレーム間の出力差を露出補正値としてフィードバックする。これによって露出のスレッシュレベル以下のわずかな変化が撮影者にとって好ましくない場合はカメラぶれ補正の際にNフレームの露出も補正することができる。露出補正した合成画像と、露出補正しない合成画像を並列処理で合成して2種類の合成画像を記録しても良い。なお、スレッシュレベル以下の出力差であることから、このステップを省略しても構わない。   If it is determined in step S47 that no disturbance has occurred, then exposure correction value feedback is performed (S49). Here, the output difference between frames is fed back as an exposure correction value even if it is below the threshold level. As a result, when a slight change below the exposure threshold level is undesirable for the photographer, the exposure of the N frame can be corrected at the time of camera shake correction. Two types of composite images may be recorded by compositing a composite image with exposure correction and a composite image without exposure correction by parallel processing. Note that this step may be omitted because of the output difference below the threshold level.

ステップS35において外乱検知を設定すると、またはステップS47において外乱未発生を設定すると、元のフロー(ステップS11)に戻る。元のフローに戻ると、ステップS35またはS47における設定に従って、ステップS13またはS6に進む。   If disturbance detection is set in step S35, or if disturbance has not occurred in step S47, the process returns to the original flow (step S11). When returning to the original flow, the process proceeds to step S13 or S6 according to the setting in step S35 or S47.

次に、図4を用いて、ステップS19の画像合成・撮影経過表示の詳しい動作について説明する。この画像合成・撮影経過表示のフローにおいては、露光時間TをM分割して読み出した画像を順次加算合成していき、M枚のフレームを加算合成することにより、露光時間Tに相当する画像データ(M枚合成画像)を合成する。この露光時間Tに相当する画像データを合成すると、さらに次のM枚のフレームの画像を同様に順次加算合成していき、同様に次の露光時間Tの合成画像データ(M枚合成画像)を生成する。このようにして合成された複数のM枚合成画像データを用いて、撮影モードごとに異なる処理を行う。   Next, the detailed operation of the image composition / shooting progress display in step S19 will be described with reference to FIG. In this image composition / shooting progress display flow, the image data corresponding to the exposure time T is obtained by sequentially adding and synthesizing images read by dividing the exposure time T into M, and adding and synthesizing M frames. (M composite images) are combined. When the image data corresponding to the exposure time T is synthesized, the images of the next M frames are sequentially added and synthesized in the same manner, and similarly, the synthesized image data (M synthesized images) of the next exposure time T is obtained. Generate. Different processing is performed for each shooting mode by using a plurality of M pieces of synthesized image data synthesized in this way.

画像合成・撮影経過表示のフローに入ると、まず、Nフレーム目の読み出し画像を内部メモリに保存する(S61)。ここでは、ステップS9において読み出したNフレーム目の画像データを内部メモリ33に記憶する。   When the flow of image composition / shooting progress display is entered, first, the read image of the Nth frame is stored in the internal memory (S61). Here, the image data of the Nth frame read in step S9 is stored in the internal memory 33.

画像データを内部メモリ33に記憶すると、次に、NがMの整数倍か否かを判定する(S63)。ここでは、Nフレーム目のフレーム数で処理を分岐させる。Mは合成画像を生成するための分割数である(例えば、図5に示す例では、M=4)。この判定の結果、NがMの整数倍でない場合(No)は処理をせずにこのフローを終了し、元のフローに戻る。   After the image data is stored in the internal memory 33, it is next determined whether N is an integer multiple of M (S63). Here, the process is branched depending on the number of frames of the Nth frame. M is the number of divisions for generating a composite image (for example, M = 4 in the example shown in FIG. 5). If N is not an integer multiple of M as a result of this determination (No), this flow is terminated without processing, and the original flow is restored.

一方、ステップS63における判定の結果、NがMの整数倍であった場合は、フレームカウントLのカウントアップ(+1)を行う(S65)。ここでは、M枚合成画像が何枚合成されたかを示すフレームカウンタL(Lは1以上の整数)をカウントアップする。なお、フレームカウンタLはシステム制御部20内に設けられたカウンタである。   On the other hand, if the result of determination in step S63 is that N is an integer multiple of M, the frame count L is incremented (+1) (S65). Here, a frame counter L (L is an integer of 1 or more) indicating how many M composite images have been combined is counted up. The frame counter L is a counter provided in the system control unit 20.

次に、M枚の読み出し画像を加算合成して、L番目のM枚合成画像を合成する(S67)。ここでは、内部メモリ33に記憶されているT/M時間で露光、読み出しを行ったM枚の読み出し画像を加算合成し、Lフレーム目のM枚合成画像を合成する。   Next, the M read images are added and synthesized to synthesize the L-th M synthesized image (S67). Here, M read images that have been exposed and read in the T / M time stored in the internal memory 33 are added and combined, and an M-th combined image of the L frame is combined.

L番目のM枚合成画像を合成すると、次に、内部メモリ33に記憶したM枚の読み出し画像を消去する(S69)。内部メモリ33に保存しているM枚の読み出し画像データは、この後に使用することはないので消去する。   Once the Lth M composite images have been combined, the M read images stored in the internal memory 33 are then erased (S69). The M pieces of read image data stored in the internal memory 33 are deleted because they are not used later.

次に、設定されている合成モードについて判定する(S71)。ここでは、撮影者が設定した撮影モードによってM枚合成画像の処理を分岐する。   Next, the set synthesis mode is determined (S71). Here, the processing of the M composite image is branched depending on the shooting mode set by the photographer.

ステップS71における判定の結果、比較合成モード、加算合成モード、または加算平均モードであった場合には、L番目のM枚合成画像と、L−1累積合成画像を用いて、比較合成、加算合成、または加算平均合成を行う(S73)。これらの合成を行うと、続いて、L累積合成画像を内部メモリ33に保存する(S75)。   If the result of determination in step S71 is the comparison / synthesis mode, the addition / synthesis mode, or the addition / average mode, the comparison / addition / synthesis is performed using the Lth M-number synthesized image and the L-1 cumulative synthesized image. Alternatively, addition average synthesis is performed (S73). Once these syntheses are performed, the L cumulative synthesized image is subsequently stored in the internal memory 33 (S75).

設定された合成モードが、比較合成モードであった場合は、ステップS73においては、合成されたLフレーム目のM枚合成画像と1フレームからL−1フレームを合成したL−1累積合成画像とを比較合成し、あらたにL累積合成画像を生成する。そして、ステップS75において、生成されたL累積合成画像を内部メモリ33に保存する。この際、L=1の場合には合成処理は行なわずに内部メモリ33に保存する。またL累積合成画像を保存したところで、それ以前のL−1累積合成画像は内部メモリ33から消去してもかまわない。しかし、例えば、消去せずに合成した画像をすべて残しておき、撮影者が撮影後に好みの画像を選択できるようにしても良いし、合成経過を動画にして保存しても良い。または累積合成処理前の各M枚合成画像を消去せずに外部メモリ36に保存しておいても良い。撮影後に撮影者がそれら複数のM枚合成画像を使用してカメラやPC(パーソナルコンピュータ)などの編集機能を用いて好みの合成・画像処理などの画像編集することが可能となる。   When the set synthesis mode is the comparison synthesis mode, in step S73, the M-th synthesized image of the Lth frame synthesized and the L-1 cumulative synthesized image obtained by synthesizing the L-1 frame from one frame, Are combined to generate an L cumulative composite image. In step S75, the generated L cumulative composite image is stored in the internal memory 33. At this time, if L = 1, the composition processing is not performed and the data is stored in the internal memory 33. When the L cumulative composite image is stored, the previous L-1 cumulative composite image may be deleted from the internal memory 33. However, for example, all the combined images without erasing may be left so that the photographer can select a favorite image after shooting, or the combined process may be saved as a moving image. Alternatively, the M composite images before the cumulative composition processing may be stored in the external memory 36 without being erased. After shooting, the photographer can use the plurality of M composite images to edit images such as desired composition / image processing using an editing function such as a camera or a PC (personal computer).

合成モードが加算合成モードであった場合は、比較合成モードとはM枚合成画像の合成方法が加算合成となる点が異なり、また、加算平均合成モードであった場合は加算平均合成である点が異なるが、その他の処理の流れは同じである。   When the synthesis mode is the addition synthesis mode, the comparison method is different from the comparison synthesis mode in that the synthesis method of the M composite images is addition synthesis, and when it is the addition average synthesis mode, it is addition average synthesis. However, the other processing flows are the same.

ステップS75においてL累積合成画像を内部メモリに保存すると、次に、現像処理を行う(S77)。ここでは、現像処理部13が内部メモリ33に保存されたL累積合成画像に現像処理を施す。現像処理を施すと、次に、撮影経過表示を行う(S79)。ここでは、現像処理を施されたL累積合成画像の画像データを用いて、表示部37に撮影経過として合成画像を表示する。   If the L cumulative composite image is stored in the internal memory in step S75, then development processing is performed (S77). Here, the development processing unit 13 performs development processing on the L cumulative composite image stored in the internal memory 33. Once development processing has been performed, next, a shooting progress display is performed (S79). Here, using the image data of the L cumulative composite image that has been subjected to the development processing, the composite image is displayed on the display unit 37 as the shooting progress.

一方、ステップS71における判定の結果、タイムラプス動画生成モードの場合は、M枚合成画像を動画用の1コマとして内部メモリ33に保存する(S81)。   On the other hand, if the result of determination in step S71 is the time-lapse moving image generation mode, the M composite images are stored in the internal memory 33 as one frame for moving images (S81).

次に、1〜L−1フレームまでのM枚合成画像で生成した動画データと合成し、Lフレームまでの動画を生成する(S83)。ここで生成する動画のフォーマットが,motionJPEGなどのフレーム間の変化によってデータ量の圧縮を行わない場合は、各M枚合成画像が保存されたところで随時動画を生成してもよく、また撮影が終了して全フレームの記録が完了してから動画を生成してもよい。AVCHDなどのフレーム間のデータ変化からデータ量を圧縮する方式を用いる場合は、撮影が終了して全フレームの記録が完了してから動画の生成を行う。   Next, it synthesize | combines with the moving image data produced | generated with the M sheet | seat synthetic | combination image from 1 to L-1 frames, and produces | generates the moving image to L frame (S83). If the format of the generated video does not compress the data amount due to changes between frames such as motionJPEG, the video may be generated at any time when the M composite images are saved, and shooting is completed. Then, the moving image may be generated after the recording of all the frames is completed. When a method of compressing the data amount from the data change between frames such as AVCHD is used, the moving image is generated after the shooting is completed and the recording of all the frames is completed.

次に、現像処理を行う(S85)。ここでは、ステップS83において生成したLフレームのM枚合成画像を現像処理する。現像処理を行うと、撮影経過表示を行う(S87)。ここでは、現像処理を施された動画の画像データを用いて、表示部37に撮影経過として合成画像を表示する。ステップS79またはS87において、撮影経過表示を行うと、元のフローに戻る。   Next, development processing is performed (S85). Here, the M-frame composite image of the L frame generated in step S83 is developed. When the development process is performed, shooting progress display is performed (S87). Here, a composite image is displayed as shooting progress on the display unit 37 using image data of a moving image that has been subjected to development processing. When shooting progress display is performed in step S79 or S87, the flow returns to the original flow.

このように、本実施形態のフローにおいては、露光時間Tで撮影を行う際に、露光時間をM分割し(S7)、M分割した露光時間が経過するたびに、画像データを読み出し、読み出した画像データを内部メモリ33に記憶する(S21、S61)。そして、M枚の画像データを取得する間、外乱が発生しない場合には(S11No)、画像合成を行い(S19、S67、S73、S81)、一方、外乱が発生した場合には(S11Yes)、外乱の発生時の画像データを画像合成を行うことなく、次のM分割した露光を開始している。このため、外乱の発生した際の画像データを画像合成に用いないことから画質の劣化を防止でき、また画像合成に排除される画像はT/M時間だけであるので、連続性が殆ど損なわれない。   As described above, in the flow of the present embodiment, when shooting is performed with the exposure time T, the exposure time is divided into M (S7), and the image data is read and read each time the M-divided exposure time elapses. The image data is stored in the internal memory 33 (S21, S61). If no disturbance occurs during acquisition of the M image data (No in S11), image synthesis is performed (S19, S67, S73, S81). On the other hand, if a disturbance occurs (S11 Yes), The next M-divided exposure is started without performing image composition on the image data when the disturbance occurs. For this reason, the image data when the disturbance occurs is not used for the image composition, so that the deterioration of the image quality can be prevented, and the continuity is almost lost because only the T / M time is excluded in the image composition. Absent.

次に、図5に示すタイムチャートを用いて、本実施形態の動作について説明するが、本実施形態の理解のために、先に、従来の長時間露光の撮影シーケンスについて図11を用いて説明する。   Next, the operation of the present embodiment will be described with reference to the time chart shown in FIG. 5. In order to understand the present embodiment, first, a conventional long exposure sequence will be described with reference to FIG. To do.

図11(a)(b)において、左側から右側に行くにつれて時間が経過していることを示しており、上段側から下段側にカメラでの処理順番(を示している。図11では、時間Tで露光した画像をイメージセンサ4から順次読み出し(画像1、2、3、4、・・・)、読み出した画像を用いて、画像合成部11で合成処理をし、合成画像を生成している(合成1、2、3、4、・・・)。ここでの合成処理は、前述の加算合成、比較合成、加算平均合成、動画生成の何れかである。   11 (a) and 11 (b), the time elapses from the left side to the right side, and the processing order (in the camera) is shown from the upper side to the lower side. In FIG. The images exposed at T are sequentially read out from the image sensor 4 (images 1, 2, 3, 4,...), And the combined image is generated by the image combining unit 11 using the read images to generate a combined image. (Synthesis 1, 2, 3, 4,...) The synthesis processing here is any one of the above-described addition synthesis, comparison synthesis, addition average synthesis, and moving image generation.

図11(a)は、外乱が発生しない通常撮影時の撮影シーケンスを示しており、図11(b)は、時刻t2−t3の間の短時間、外乱が発生した場合の撮影シーケンスである。時刻t2−t3の間で外乱が発生すると、この間、露光した画像3は、画像合成に使用しない(合成2の画像には、画像3は使用されていない)。したがって、露光中に外乱が検知された場合は、画像3を除外して合成することになり、最終的に合成された合成画像3は時間Tだけ露光抜けが発生する。   FIG. 11A shows an imaging sequence at the time of normal imaging where no disturbance occurs, and FIG. 11B shows an imaging sequence when disturbance occurs for a short time between time t2 and t3. When a disturbance occurs between times t2 and t3, the image 3 exposed during this time is not used for image composition (the image 3 is not used for the image of composition 2). Therefore, when a disturbance is detected during exposure, the image 3 is excluded and combined, and the finally combined image 3 is exposed for time T.

図5は、本実施形態における長時間露光の撮影シーケンスを示すタイムチャートである。図5は、分割数M=4の場合であり、露光時間Tを4分割し、分割露光時間T/Mで分轄露光を行った例を示している。イメージセンサ4は、T/M時間の間、露光して順次画像を読み出し(画像1−1〜画像1−4、画像2−1〜画像2−4、・・・)、順次、加算合成を行う(図の「+」・・・の部分)。M枚が読み出され、加算合成された合成画像をM枚合成画像とし(4枚合成画像1、2、3、・・・)、M枚合成画像同士を合成処理して、合成画像を生成する(合成1、2、3、・・・)。   FIG. 5 is a time chart showing a shooting sequence of long exposure in the present embodiment. FIG. 5 shows an example in which the division number M = 4, and the exposure time T is divided into four, and the division exposure is performed with the division exposure time T / M. The image sensor 4 exposes and sequentially reads out images for T / M time (image 1-1 to image 1-4, image 2-1 to image 2-4,...), And sequentially performs addition synthesis. Perform (“+” in the figure). M images are read out, and the combined image is added and synthesized as M synthesized images (4 synthesized images 1, 2, 3,...), And the M synthesized images are synthesized to generate a synthesized image. (Synthesis 1, 2, 3, ...).

図5(a)は、外乱が発生しない通常撮影時の撮影シーケンスを示しており、図5(b)は、時刻t23−t24において、外乱が発生した場合の撮影シーケンスである。この場合には、時刻t24−t31において、再度、露光し、時刻t31において読み出しを行った画像2−4を、加算合成する。このあとは、同様に4枚加算合成されると、4枚合成画像2として、合成処理を施す。このように、従来では時間T露光の途切れが発生した画像となるが、本実施形態においては、分割露光時間T/Mに露光の途切れを短くすることができる。   FIG. 5A shows a shooting sequence during normal shooting in which no disturbance occurs, and FIG. 5B shows a shooting sequence when a disturbance occurs at time t23-t24. In this case, the image 2-4 that has been exposed again at time t24-t31 and read out at time t31 is added and combined. Thereafter, when four images are added and synthesized in the same manner, a synthesis process is performed as a four-image synthesized image 2. As described above, conventionally, an image in which the time T exposure is interrupted is generated, but in the present embodiment, the exposure interruption can be shortened to the divided exposure time T / M.

このように本発明の第1実施形態においては、長時間撮影の途中で外乱が発生しても外乱による画像劣化を防止し、極力露光途切れを短くすることが可能となる。   As described above, in the first embodiment of the present invention, even when a disturbance occurs during long-time shooting, it is possible to prevent image deterioration due to the disturbance and to shorten the exposure interruption as much as possible.

次に、図6ないし図10を用いて、本発明の第2実施形態について説明する。本発明の第1実施形態においては、イメージセンサ4は破壊読み出し型であったが、第2実施形態においては、非破壊読み出し型である点で相違する。イメージセンサは、画素に蓄積した電気信号を読み出す際に蓄積した電気信号が消失してしまう破壊読み出し型が一般的である。しかし、電気信号の蓄積を維持しながら電気信号を読み出す非破壊読み出し型のイメージセンサについて種々の構造のものも提案されている。   Next, a second embodiment of the present invention will be described with reference to FIGS. In the first embodiment of the present invention, the image sensor 4 is a destructive readout type. However, the second embodiment is different in that it is a nondestructive readout type. The image sensor is generally a destructive readout type in which the stored electrical signal disappears when the electrical signal stored in the pixel is read out. However, various structures of nondestructive readout type image sensors that read out electrical signals while maintaining the accumulation of electrical signals have been proposed.

本実施形態における回路構成は、第1実施形態に係る図1に示すブロック図と同様である。ただし、前述したように、イメージセンサ4の構造が、非破壊読み出し型である点で相違する。すなわち、本実施形態における撮像素子は、非破壊読み出し型であり、撮像素子を構成する画素の電荷蓄積のリセットおよび電荷蓄積の開始を制御する制御部を更に備えている。そして、外乱検知部15が外乱を検知した場合は、上述の制御部は電荷蓄積をリセットするとともに外乱が消失した直後に電荷蓄積を開始し、画像データ合成部11は、外乱が発生する直前までに生成した画像データと、外乱が消失した直後から露光を開始した画像データを合成する。また、上述の制御部は、露光時間T毎にリセットおよび電荷蓄積の開始を行う。   The circuit configuration in this embodiment is the same as the block diagram shown in FIG. 1 according to the first embodiment. However, as described above, the structure of the image sensor 4 is different in that it is a nondestructive readout type. That is, the image sensor in this embodiment is a non-destructive readout type, and further includes a control unit that controls reset of charge accumulation and start of charge accumulation of pixels constituting the image sensor. When the disturbance detection unit 15 detects a disturbance, the control unit described above resets the charge accumulation and starts charge accumulation immediately after the disturbance disappears, and the image data synthesis unit 11 continues until just before the disturbance occurs. The image data generated in the above step is synthesized with the image data whose exposure is started immediately after the disturbance disappears. Further, the above-described control unit performs reset and start of charge accumulation every exposure time T.

図9に非破壊読み出し型のイメージセンサの概略構成を示す。この非破壊読み出し型のイメージセンサは、フォトダイオード51、電荷転送スイッチ(SW)53、FD(キャパシタ)55、電荷リセットスイッチ(SW)57、FD読み出しスイッチ(SW)59、画素周辺回路61、読み出しスイッチ(SW)63、アナログデジタル変換器(ADC)65を備えている。これらのスイッチ53、59、63は、システム制御部20内の制御部によって制御される。   FIG. 9 shows a schematic configuration of a nondestructive readout type image sensor. This nondestructive readout type image sensor includes a photodiode 51, a charge transfer switch (SW) 53, an FD (capacitor) 55, a charge reset switch (SW) 57, an FD readout switch (SW) 59, a pixel peripheral circuit 61, and readout. A switch (SW) 63 and an analog-digital converter (ADC) 65 are provided. These switches 53, 59, and 63 are controlled by a control unit in the system control unit 20.

フォトダイオード51は、第1実施形態におけるイメージセンサ4の場合と同様、二次元方向に画素毎に規則的に配置されており、光入力を電荷信号に変換する。フォトダイオード51の出力は電荷転送SW53を介して、FD55に出力される。FD55は、フォトダイオード51において発生した電荷信号を蓄積するためのキャパシタである。このFD55は、電荷リセットスイッチ(SW)57を介して電源Vddに接続される。FD55の出力は、FD読み出しSW59を介して画素周辺回路61に出力される。   As in the case of the image sensor 4 in the first embodiment, the photodiode 51 is regularly arranged for each pixel in the two-dimensional direction, and converts the light input into a charge signal. The output of the photodiode 51 is output to the FD 55 via the charge transfer SW 53. The FD 55 is a capacitor for accumulating the charge signal generated in the photodiode 51. The FD 55 is connected to a power supply Vdd via a charge reset switch (SW) 57. The output of the FD 55 is output to the pixel peripheral circuit 61 via the FD readout SW 59.

画素周辺回路61は、FD55からの読み出された信号の増幅回路等種々の回路を含む。画素周辺回路61の出力は、読み出しSW63を介して、ADC65に出力される。ADC65は、画素周辺回路61から出力されたアナログ信号をデジタル信号に変換する。ADC65の出力は、画像処理部10に出力される。   The pixel peripheral circuit 61 includes various circuits such as an amplifier circuit for a signal read from the FD 55. The output of the pixel peripheral circuit 61 is output to the ADC 65 via the readout SW 63. The ADC 65 converts the analog signal output from the pixel peripheral circuit 61 into a digital signal. The output of the ADC 65 is output to the image processing unit 10.

次に、図10を用いて、本実施形態のイメージセンサの動作を説明する。図10(a)は、非破壊読み出し動作のタイミングチャートであり、図10(b)は比較のために、破壊読み出し動作のタイミングチャートである。図10(a)(b)から分かるように、時刻T4までの動作は、非破壊読み出しおよび破壊読み出しの動作は共通である。   Next, the operation of the image sensor of this embodiment will be described with reference to FIG. FIG. 10A is a timing chart of the non-destructive read operation, and FIG. 10B is a timing chart of the destructive read operation for comparison. As can be seen from FIGS. 10A and 10B, the operations up to time T4 are the same for the non-destructive read and destructive read operations.

破壊読み出しの場合には、時刻T4〜T5において電荷リセットSW57をオンとし、電源Vddが印加され、FD55における蓄積動作がリセットされる。蓄積電荷がリセットされると、時刻T5からは、時刻T1〜T4と同様に、光入力応じて電荷蓄積を行う。   In the case of destructive reading, the charge reset SW 57 is turned on at times T4 to T5, the power supply Vdd is applied, and the accumulation operation in the FD 55 is reset. When the accumulated charge is reset, from time T5, charge accumulation is performed in response to light input, as in times T1 to T4.

これに対して、非破壊読み出しの場合には、時刻T4〜T5において電荷リセットSW57をオンとすることなく、電荷転送SW53とFD読み出しSW59をオンとしている。これによって、FD55に信号電荷を蓄積するとともに蓄積した電荷信号を画素周辺回路61に出力する。そして、時刻T5〜T6において読み出しSW63をオンとし、画素周辺回路61の出力をADC65に出力する。   On the other hand, in the case of non-destructive reading, the charge transfer SW 53 and the FD reading SW 59 are turned on without turning on the charge reset SW 57 at times T4 to T5. As a result, the signal charge is accumulated in the FD 55 and the accumulated charge signal is output to the pixel peripheral circuit 61. At time T5 to T6, the readout SW 63 is turned on, and the output of the pixel peripheral circuit 61 is output to the ADC 65.

このように、非破壊読み出し型のイメージセンサは、FD55に蓄積された信号電荷を維持したままで、信号電荷に応じた電圧信号を読み出すことができる。このため、長時間露光の際に、分割露光で蓄積した信号をイメージセンサ4で維持したまま読み出すことが可能となる。   Thus, the nondestructive readout type image sensor can read out a voltage signal corresponding to the signal charge while maintaining the signal charge accumulated in the FD 55. For this reason, in the case of long-time exposure, it is possible to read out the signal accumulated by the divided exposure while being maintained by the image sensor 4.

次に、図6ないし図9を用いて、本実施形態における動作について、説明する。非破壊読み出しイメージセンサでは加算合成モードと比較合成モード、加算平均合成モード及びタイムラプス動画生成モードで処理が異なる。   Next, the operation in this embodiment will be described with reference to FIGS. In the nondestructive readout image sensor, the processing is different in the addition synthesis mode, the comparison synthesis mode, the addition average synthesis mode, and the time-lapse moving image generation mode.

まず、図6を用いて、加算合成モード時の動作を説明する。時間T毎、及びT/M毎に画像を読み出し、この読み出しは非破壊読み出しで行う。バッファ画像1−1は、時刻t11〜t12の露光によって得られた画像であり、バッファ画像1−2は、時刻t11〜t13の露光によって得られた画像である。バッファ画像1−4は、時刻t11〜t21の露光によって得られた画像である。第1実施形態においては、分割露光によって得られた画像1−1〜1−4の合成画像を生成していたが、非破壊読み出しを行っていることから、画像合成部11による合成画像の生成は必要ない。   First, the operation in the additive synthesis mode will be described with reference to FIG. An image is read at every time T and every T / M, and this reading is performed by nondestructive reading. The buffer image 1-1 is an image obtained by exposure at times t11 to t12, and the buffer image 1-2 is an image obtained by exposure at times t11 to t13. The buffer image 1-4 is an image obtained by exposure at times t11 to t21. In the first embodiment, the composite image of the images 1-1 to 1-4 obtained by the divided exposure is generated. However, since the non-destructive reading is performed, the composite image is generated by the image composition unit 11. Is not necessary.

このように、非破壊読み出しを行っていることから、T毎に表示する各読み出し画像(経過表示画像1、2、3、・・・)は、それぞれ一回の読み出しで読み出すことができ、イメージセンサ4から読み出される際に発生する読み出しノイズは1回分だけで済む。これにより図5を用いて説明した通常のイメージセンサ4の場合よりも読み出し回数が減るため画質がよくなる。   As described above, since non-destructive readout is performed, each readout image (progress display images 1, 2, 3,...) Displayed every T can be read out by a single readout. Read noise generated when reading from the sensor 4 is only required once. As a result, the number of readouts is reduced as compared with the case of the normal image sensor 4 described with reference to FIG.

さらに外乱ノイズが発生した場合について、図6(b)を用いて説明する。例えば、画像2−2の露光中(時刻t22〜t23)に外乱を検知した場合は、露光を中断し(電荷リセットSW55をオンし、FD55をリセットする)、外乱が未発生になった時刻t23から再度露光を再開する。そして、その後の経過表示画像は外乱発生前の読み出し画像2−1と、その後非破壊読み出しを行った画像を加算合成して経過表示画像を合成する。経過表示画像2は画像2−1と画像2−4を加算合成した画像であり、露光中断した期間は画像2−2露光(時刻t22〜t23)のT/Mの期間だけとなり、加算合成した画像の枚数(読み出し回数)も2枚となる。   Further, the case where disturbance noise occurs will be described with reference to FIG. For example, when a disturbance is detected during the exposure of the image 2-2 (time t22 to t23), the exposure is interrupted (the charge reset SW 55 is turned on and the FD 55 is reset), and the time t23 when the disturbance has not occurred. The exposure is restarted again. Then, the subsequent progress display image is synthesized by adding and synthesizing the read image 2-1 before the occurrence of the disturbance and the image after the non-destructive reading. Progress display image 2 is an image obtained by adding and synthesizing image 2-1 and image 2-4, and the period during which exposure is interrupted is only the period of T / M of image 2-2 exposure (time t22 to t23). The number of images (number of readings) is also two.

時刻t23の後、外乱が発生しなければ、画像2−1とその後の非破壊読み出し画像を加算すればよいので、2枚の読み出し画像を加算合成すれば良い。このため、第1実施形態と同様に外乱による露光抜けを、T/Mの時間に抑えることができ、かつ合成画像に含まれる読み出しノイズの量も少なくすることができ画質が向上する。   If no disturbance occurs after time t23, the image 2-1 and the subsequent non-destructive read image may be added, and the two read images may be added and combined. For this reason, similarly to the first embodiment, exposure loss due to disturbance can be suppressed to a time of T / M, and the amount of readout noise included in the composite image can be reduced, thereby improving the image quality.

次に、図7および図8を用いて、比較合成モード、加算平均合成モード及びタイムラプス動画生成モードでの動作を説明する。このモードでは加算合成と異なり、露光時間Tの読み出し画像同士を合成していくので、時間T毎に破壊読み出し、それ以下のT/M毎に非破壊読み出しを行う。外乱が発生しない場合は、図7に示すように、露光時間T毎に読み出した破壊読み出し画像(4枚合成画像1、2、3、4、・・・)を合成処理して静止画または動画を合成する(合成1、2、3、・・・)。   Next, operations in the comparison synthesis mode, the addition average synthesis mode, and the time-lapse moving image generation mode will be described with reference to FIGS. 7 and 8. In this mode, unlike the addition synthesis, read images of the exposure time T are synthesized, so destructive readout is performed every time T, and nondestructive readout is performed every T / M thereafter. When disturbance does not occur, as shown in FIG. 7, a destructive read image (four composite images 1, 2, 3, 4,...) Read at each exposure time T is combined to process a still image or a moving image. Are synthesized (synthesis 1, 2, 3,...).

次に、外乱が発生した場合には、露光を中断し、外乱が検知されなくなったタイミングで露光を再開する。例えば、図8に示す例では、時刻t22〜t23の間に外乱が発生した場合であり、この場合には、時刻t23で露光を再開し、時刻t21〜t25までの期間の4枚合成画像(経過表示・合成用画像2)は、画像2−1と画像2−4を加算合成することで時間T分露光した画像を合成する。このあとの4枚合成画像は同様にT毎の破壊読み出し画像同士を合成していく。   Next, when a disturbance occurs, the exposure is interrupted, and the exposure is resumed at a timing when the disturbance is no longer detected. For example, in the example shown in FIG. 8, a disturbance occurs between times t22 and t23. In this case, exposure is resumed at time t23, and a four-sheet composite image (time t21 to t25) In the progress display / combination image 2), the images exposed for the time T are combined by adding and combining the images 2-1 and 2-4. The subsequent four composite images are similarly composed of destructive readout images for each T.

本実施形態における動作を実行するためのフローチャートは、第1実施形態における図2ないし図4に示したフローチャートと略同様である。ただし、図2のステップS9において、第1実施形態においては、破壊読み出し型のイメージセンサであったことから、常にリセット動作を行っていたが、本実施形態においては、非破壊読み出し型のイメージセンサであることから、必要に応じてFD55をリセットすればよい。例えば、加算合成モードの場合には、露光再開のタイミングでリセットすればよく、また比較合成モード、加算平均合成モード及びタイムラプス動画生成モードの場合には、露光時間Tが経過する毎にリセットすればよい。   The flowchart for executing the operation in the present embodiment is substantially the same as the flowchart shown in FIGS. 2 to 4 in the first embodiment. However, in step S9 in FIG. 2, since the image sensor of the first embodiment is a destructive readout type image sensor, the reset operation is always performed. However, in the present embodiment, a non-destructive readout type image sensor is used. Therefore, the FD 55 may be reset as necessary. For example, in the case of additive synthesis mode, it may be reset at the timing of resuming exposure, and in the case of comparative synthesis mode, additive average synthesis mode, and time-lapse movie generation mode, it may be reset every time the exposure time T elapses. Good.

このように本実施の第2実施形態では、長時間撮影の途中で外乱が発生しても外乱による画像劣化を防止し、極力露光の途切れを短くすることが可能となる。さらに非破壊イメージャを用いて読み出し、合成方法を工夫することで、さらに読み出しノイズによる画質劣化を極力抑制し、合成画像の画質をさらに向上することができる。   As described above, in the second embodiment, even when a disturbance occurs during long-time shooting, it is possible to prevent image deterioration due to the disturbance and to minimize exposure interruption. Furthermore, by using a nondestructive imager to read out and devise a composition method, image quality deterioration due to readout noise can be further suppressed as much as possible, and the image quality of the composite image can be further improved.

以上説明したように、本発明の各実施形態においては、露光時間Tで露光された画像データを繰り返し合成するとともに(例えば、図2のS19、図4のS73、S81)、撮影中に発生する外乱を検知している(例えば、図2のS11、図3)。そして、画像データ合成にあたっては、露光時間をT/M(Mは2以上)の時間区間に分割し(例えば、図2のS7)、撮影中に外乱が検知された場合は、分割した時間区間のうち外乱が混入した時間区間の画像データを除外して露光時間Tの画像データを生成している(例えば、図2のS11Yes)。このように露光時間を時間区間に分割し、外乱が発生した場合には、その時間区間に対応する画像データを除外して画像合成するため、撮影中に外乱が発生しても外乱による画質劣化を防止し、かつ露光の途切れを極力少なくすることができる。   As described above, in each embodiment of the present invention, image data exposed at the exposure time T is repeatedly combined (for example, S19 in FIG. 2, S73, S81 in FIG. 4), and occurs during shooting. A disturbance is detected (for example, S11 in FIG. 2, FIG. 3). In the image data synthesis, the exposure time is divided into T / M (M is 2 or more) time intervals (for example, S7 in FIG. 2), and when a disturbance is detected during shooting, the divided time intervals are divided. The image data of the exposure time T is generated by excluding the image data of the time interval in which the disturbance is mixed (for example, S11 Yes in FIG. 2). In this way, the exposure time is divided into time intervals, and when a disturbance occurs, the image data corresponding to the time interval is excluded and the image is synthesized, so even if a disturbance occurs during shooting, the image quality deteriorates due to the disturbance. Can be prevented and exposure interruptions can be minimized.

なお、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォーン、携帯情報端末(PDA:Personal Digital Assist)、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、長時間撮影モードを有する撮影のための機器であれば、本発明を適用することができる。   In each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. It may be a camera for moving images, and may be a camera built in a mobile phone, a smart phone, a personal digital assistant (PDA), a personal computer (PC), a tablet computer, a game machine, or the like. In any case, the present invention can be applied to any device for photographing having a long-time photographing mode.

また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。   Of the techniques described in this specification, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.

また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。   In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・撮像部、2・・・レンズ(絞り)、3・・・メカシャッタ、4・・・イメージセンサ、10・・・画像処理部、11・・・画像合成部、11a・・・加算合成部、11b・・・比較合成部、11c・・・加算平均合成部、11d・・・動画生成部、13・・・現像処理部、15・・・外乱検知部、16・・・カメラぶれ検出部、17・・・露出異常検知部、20・・・システム制御部、31・・・バス、33・・・内部メモリ、36・・・外部メモリ、37・・・表示部、38・・・入力IF、51・・・フォトダイオード、53・・・電荷転送SW、55・・・FD(キャパシタ)、57・・・電荷リセットSW、59・・・FD読み出しSW、61・・・画素周辺回路、63・・・読み出しSW、65・・・ADC(アナログデジタル変換器) DESCRIPTION OF SYMBOLS 1 ... Imaging part, 2 ... Lens (aperture), 3 ... Mechanical shutter, 4 ... Image sensor, 10 ... Image processing part, 11 ... Image composition part, 11a ... Addition Combining unit, 11b ... comparison / combining unit, 11c ... addition / average combining unit, 11d ... moving image generating unit, 13 ... development processing unit, 15 ... disturbance detection unit, 16 ... camera shake Detection unit, 17 ... Exposure abnormality detection unit, 20 ... System control unit, 31 ... Bus, 33 ... Internal memory, 36 ... External memory, 37 ... Display unit, 38 ... Input IF, 51 ... photodiode, 53 ... charge transfer SW, 55 ... FD (capacitor), 57 ... charge reset SW, 59 ... FD read SW, 61 ... pixel periphery Circuit 63 ... Reading SW 65 ... ADC (analog data Tal converter)

Claims (8)

撮像素子と、
露光時間Tで露光された画像データを繰り返し合成する画像データ合成部と、
撮影中に発生する外乱を検知する外乱検知部と、
を備え、
上記画像データ合成部は、上記露光時間をT/M(Mは2以上)の時間区間に分割し、撮影中に上記外乱検知部により外乱が検知された場合は、該分割した時間区間のうち該外乱が混入した時間区間の画像データを除外して露光時間Tの画像データを合成することを特徴とする撮像装置。
An image sensor;
An image data synthesis unit that repeatedly synthesizes the image data exposed at the exposure time T;
A disturbance detection unit for detecting disturbances occurring during shooting,
With
The image data synthesis unit divides the exposure time into T / M (M is 2 or more) time intervals, and when a disturbance is detected by the disturbance detection unit during shooting, An image pickup apparatus characterized in that image data of an exposure time T is synthesized by excluding image data in a time section in which the disturbance is mixed.
上記撮像素子は、破壊読み出し型であり、上記画像データ合成部は、上記露光時間T/Mで露光して得られた画像データを加算することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging element is a destructive readout type, and the image data synthesis unit adds image data obtained by exposure with the exposure time T / M. 上記撮像素子は、非破壊読み出し型であり、該撮像素子を構成する画素の電荷蓄積のリセットおよび電荷蓄積の開始を制御する制御部を更に備え、
上記外乱検知部が外乱を検知した場合は、上記制御部は上記電荷蓄積をリセットするとともに該外乱が消失した直後に上記電荷蓄積を開始し、上記画像データ合成部は、該外乱が発生する直前までに生成した画像データと、該外乱が消失した直後から露光を開始した画像データを合成することを特徴とする請求項1に記載の撮像装置。
The image sensor is a non-destructive readout type, and further includes a control unit that controls reset of charge accumulation and start of charge accumulation of pixels constituting the image sensor,
When the disturbance detection unit detects a disturbance, the control unit resets the charge accumulation and starts the charge accumulation immediately after the disturbance disappears, and the image data composition unit immediately before the disturbance occurs. The image pickup apparatus according to claim 1, wherein the image data generated so far and the image data for which exposure is started immediately after the disturbance disappears are combined.
上記撮像素子は、非破壊読み出し型であり、該撮像素子を構成する画素の電荷蓄積のリセットおよび電荷蓄積の開始を制御する制御部を更に備え、
上記制御部は、上記露光時間T毎に上記リセットおよび電荷蓄積の開始を行うことを特徴とする請求項3に記載の撮像装置。
The image sensor is a non-destructive readout type, and further includes a control unit that controls reset of charge accumulation and start of charge accumulation of pixels constituting the image sensor,
The imaging apparatus according to claim 3, wherein the control unit performs the resetting and the start of charge accumulation every exposure time T.
上記外乱検知部は、露光中のカメラぶれを検知することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the disturbance detection unit detects camera shake during exposure. 上記外乱検知部は、上記分割露光した画像データの輝度値を解析し、輝度の変化を検知することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the disturbance detection unit analyzes a luminance value of the image data subjected to the divided exposure and detects a change in luminance. 上記画像データ合成部は、比較明合成、比較暗合成、加算平均合成、タイムラプス動画生成の内の少なくとも1つを行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image data synthesis unit performs at least one of comparative bright synthesis, comparative dark synthesis, additive average synthesis, and time-lapse moving image generation. 露光時間Tで露光された画像データを繰り返し合成する画像データ合成ステップと、
撮影中に発生する外乱を検知する外乱検知ステップと、
を有し、
上記画像データ合成ステップは、上記露光時間をT/M(Mは2以上)の時間区間に分割し、撮影中に上記外乱検知ステップにおいて外乱が検知された場合は、該分割した時間区間のうち該外乱が混入した時間区間の画像データを除外して露光時間Tの画像データを生成することを特徴とする撮像方法。
An image data synthesis step for repeatedly synthesizing the image data exposed at the exposure time T;
A disturbance detection step for detecting disturbances occurring during shooting;
Have
The image data synthesis step divides the exposure time into T / M time intervals (M is 2 or more), and if a disturbance is detected in the disturbance detection step during shooting, An image pickup method, wherein image data of an exposure time T is generated by excluding image data of a time section in which the disturbance is mixed.
JP2014031924A 2014-02-21 2014-02-21 Imaging apparatus and imaging method Active JP6321990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014031924A JP6321990B2 (en) 2014-02-21 2014-02-21 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014031924A JP6321990B2 (en) 2014-02-21 2014-02-21 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2015159353A true JP2015159353A (en) 2015-09-03
JP6321990B2 JP6321990B2 (en) 2018-05-09

Family

ID=54183075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014031924A Active JP6321990B2 (en) 2014-02-21 2014-02-21 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6321990B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195346A (en) * 2015-04-01 2016-11-17 富士フイルム株式会社 Imaging apparatus and method
JP2018006828A (en) * 2016-06-27 2018-01-11 キヤノン株式会社 Imaging apparatus, control method therefor and program
WO2018124054A1 (en) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 Imaging device and method for controlling same
US10129486B2 (en) 2016-12-13 2018-11-13 Canon Kabushiki Kaisha Image capturing apparatus, control method therefor, and storage medium
JP2019169802A (en) * 2018-03-22 2019-10-03 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging system, image processing method, and program
US11196951B2 (en) 2020-04-17 2021-12-07 Olympus Corporation Imaging device and imaging method
CN116708995A (en) * 2023-08-01 2023-09-05 世优(北京)科技有限公司 Photographic composition method, photographic composition device and photographic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027326A (en) * 2000-07-05 2002-01-25 Minolta Co Ltd Digital camera
JP2010016599A (en) * 2008-07-03 2010-01-21 Victor Co Of Japan Ltd Camera
JP2010035008A (en) * 2008-07-30 2010-02-12 Nikon Corp Electronic camera
JP2010200097A (en) * 2009-02-26 2010-09-09 Olympus Corp Imaging apparatus
JP2013090094A (en) * 2011-10-17 2013-05-13 Canon Inc Image processing device and control method for image processing device
JP2013168699A (en) * 2012-02-14 2013-08-29 Ricoh Co Ltd Imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027326A (en) * 2000-07-05 2002-01-25 Minolta Co Ltd Digital camera
JP2010016599A (en) * 2008-07-03 2010-01-21 Victor Co Of Japan Ltd Camera
JP2010035008A (en) * 2008-07-30 2010-02-12 Nikon Corp Electronic camera
JP2010200097A (en) * 2009-02-26 2010-09-09 Olympus Corp Imaging apparatus
JP2013090094A (en) * 2011-10-17 2013-05-13 Canon Inc Image processing device and control method for image processing device
JP2013168699A (en) * 2012-02-14 2013-08-29 Ricoh Co Ltd Imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195346A (en) * 2015-04-01 2016-11-17 富士フイルム株式会社 Imaging apparatus and method
JP2018006828A (en) * 2016-06-27 2018-01-11 キヤノン株式会社 Imaging apparatus, control method therefor and program
US10129486B2 (en) 2016-12-13 2018-11-13 Canon Kabushiki Kaisha Image capturing apparatus, control method therefor, and storage medium
WO2018124054A1 (en) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 Imaging device and method for controlling same
JP2019169802A (en) * 2018-03-22 2019-10-03 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging system, image processing method, and program
JP7054788B2 (en) 2018-03-22 2022-04-15 パナソニックIpマネジメント株式会社 Image processing equipment, imaging system, image processing method, and program
US11196951B2 (en) 2020-04-17 2021-12-07 Olympus Corporation Imaging device and imaging method
CN116708995A (en) * 2023-08-01 2023-09-05 世优(北京)科技有限公司 Photographic composition method, photographic composition device and photographic equipment
CN116708995B (en) * 2023-08-01 2023-09-29 世优(北京)科技有限公司 Photographic composition method, photographic composition device and photographic equipment

Also Published As

Publication number Publication date
JP6321990B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
JP6034740B2 (en) Imaging apparatus and imaging method
JP6321990B2 (en) Imaging apparatus and imaging method
JP6278713B2 (en) Imaging apparatus and imaging method
JP6370207B2 (en) Imaging apparatus, image processing apparatus, imaging method, and program
JP6570918B2 (en) Imaging apparatus and imaging method
WO2016072101A1 (en) Image pickup device and image pickup device control method
US10175451B2 (en) Imaging apparatus and focus adjustment method
JP6250098B2 (en) Imaging apparatus and imaging method
JP2010178164A (en) Imaging apparatus
US10839497B2 (en) Image processing apparatus and method
JP6096041B2 (en) Imaging apparatus and imaging method
JP2006148550A (en) Image processor and imaging device
JP6758950B2 (en) Imaging device, its control method and program
KR20100112788A (en) Method of controlling activation between shaking correction and electronical strobo, method of photographing, and digital camera module
JP2015233238A (en) Image processing apparatus and image processing method
JP6360409B2 (en) Imaging apparatus and imaging method
JP6284604B2 (en) Image processing apparatus, image processing method, and program
JP6418715B2 (en) Image processing apparatus and image processing method
JP2005333491A (en) Imaging apparatus
JP6508294B2 (en) Imaging device
JP2010171989A (en) Electronic camera
JP2011250032A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180406

R151 Written notification of patent or utility model registration

Ref document number: 6321990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250