[go: up one dir, main page]

JP6335497B2 - Imaging device, control method thereof, and control program - Google Patents

Imaging device, control method thereof, and control program Download PDF

Info

Publication number
JP6335497B2
JP6335497B2 JP2013255948A JP2013255948A JP6335497B2 JP 6335497 B2 JP6335497 B2 JP 6335497B2 JP 2013255948 A JP2013255948 A JP 2013255948A JP 2013255948 A JP2013255948 A JP 2013255948A JP 6335497 B2 JP6335497 B2 JP 6335497B2
Authority
JP
Japan
Prior art keywords
light
subject
determination result
distance
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013255948A
Other languages
Japanese (ja)
Other versions
JP2015114465A (en
JP2015114465A5 (en
Inventor
泰伸 兒玉
泰伸 兒玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013255948A priority Critical patent/JP6335497B2/en
Publication of JP2015114465A publication Critical patent/JP2015114465A/en
Publication of JP2015114465A5 publication Critical patent/JP2015114465A5/ja
Application granted granted Critical
Publication of JP6335497B2 publication Critical patent/JP6335497B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、ストロボ装置など発光装置の制御に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to control of a light emitting device such as a strobe device.

一般に、ストロボなどの発光装置を備える撮像装置が知られている。そして、撮影シーンが逆光又は夜景などの発光による効果がある撮影シーンであるか否かを判定して、当該判定結果に応じて発光を行う撮像装置がある。   In general, an imaging device including a light emitting device such as a strobe is known. There is an imaging apparatus that determines whether or not a shooting scene is a shooting scene having an effect of light emission such as backlight or night scene, and emits light according to the determination result.

さらに、撮像装置において、撮影シーンにおける被写体の距離を求めて、当該被写体距離が所定の距離よりも近距離であると判定すると発光による光が被写体に到達するとして、発光を行うようにしたものがある。   Further, in the imaging device, when the distance of the subject in the shooting scene is obtained and it is determined that the subject distance is closer than a predetermined distance, the light emitted from the light reaches the subject and emits light. is there.

例えば、撮像装置において、撮影の前に所定の光量の照明光を投射して、その反射光に応じて撮影の際の本発光量を制御(第1の制御)するようにしたものがある。この撮像装置では、さらに、本発光による反射光に基づいて本発光を停止するタイミングを決定して本発光量の制御を行う第2の制御が有している(特許文献1参照)。そして、ここでは、被写体距離に応じて第1の制御および第2の制御のいずれを用いるかを決定するようにしている。なお、被写体距離の信頼性が低い場合には、第2の制御を用いるようにしている。   For example, there is an imaging apparatus that projects a predetermined amount of illumination light before shooting, and controls (first control) the main light emission amount at the time of shooting according to the reflected light. The imaging apparatus further includes a second control for controlling the main light emission amount by determining the timing for stopping the main light emission based on the reflected light by the main light emission (see Patent Document 1). Here, it is determined whether to use the first control or the second control according to the subject distance. When the reliability of the subject distance is low, the second control is used.

特開2007−310026号公報JP 2007-310026 A

ところで、特許文献1に記載の撮像装置においては、発光の効果が小さい、例えば、遠距離の風景を撮影する際においても第1の制御又は第2の制御で発光が行われることになってしまう。つまり、発光が不要な状態においても発光が行われてしまい、不可避的に電池などの電源が消耗してしまうことになる。   By the way, in the imaging device described in Patent Document 1, the light emission effect is small. For example, even when shooting a landscape at a long distance, light emission is performed by the first control or the second control. . In other words, light is emitted even in a state where light emission is unnecessary, and power sources such as batteries are inevitably consumed.

上述のようにして発光が行われる結果、発光装置においては充電回数が多くなって、その分発光が可能になるための充電時間が長くなってしまう。このため、発光装置による発光の効果がある撮影の際に発光装置が充電されるまで待たなければならず、充電と撮影との間にタイムラグが生じてしまうことになる。   As a result of light emission as described above, the number of times of charging is increased in the light emitting device, and the charging time for enabling light emission accordingly increases. For this reason, it is necessary to wait until the light emitting device is charged when shooting with light emission by the light emitting device, and a time lag occurs between charging and shooting.

このような充電と撮影とのタイムラグ、そして、発光による発光装置の電池残量の低下を考慮すると、発光の効果の小さい撮影シーンにおいて発光を行わないことが望ましいこともある。   Considering such a time lag between charging and shooting and a decrease in the remaining battery level of the light emitting device due to light emission, it may be desirable not to emit light in a shooting scene with a small light emission effect.

従って、本発明の目的は、撮影シーンに応じて発光を行うか否かを判定して発光の効果がある撮影シーンにおいてのみ発光を行う撮像装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an imaging apparatus that determines whether or not to emit light according to a shooting scene and emits light only in a shooting scene that has a light emission effect, a control method thereof, and a control program. is there.

上記の目的を達成するため、本発明による撮像装置は、撮影シーンに応じて発光部を発光させて被写体を撮影する撮像装置であって、現在の撮影シーンにおける撮影条件に応じて当該撮影シーンが発光を行うべき発光シーンであるか否かを判定して第1の判定結果を得る第1の判定手段と、現在の撮影シーンにおいて前記被写体までの距離を示す被写体距離と前記発光部の発光による光の有効距離とに応じて前記被写体が前記発光部からの光が到達する近距離に位置するか否かを判定して第2の判定結果を得る第2の判定手段と、前記被写体距離の信頼度が予め定められた信頼度を有するか否かを判定して第3の判定結果を得る第3の判定手段と、前記第1の判定結果前記第2の判定結果、および前記第3の判定結果に応じて前記発光部を発光して撮影を行うか否かを設定する設定手段と、を有し、前記設定手段は、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していないと判定されると、前記第1の判定結果によらず前記発光部を発光させずに撮影を行うと設定することを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus that shoots a subject by causing a light emitting unit to emit light according to a shooting scene, and the shooting scene corresponds to a shooting condition in a current shooting scene. First determination means for determining whether or not a light emission scene is to be emitted and obtaining a first determination result, subject distance indicating a distance to the subject in the current shooting scene, and light emission of the light emitting unit a second determination means for obtaining a second determination result the subject in accordance with the effective distance of light to determine whether or not a position a short distance of light reaches from the light emitting unit, the object distance Third determination means for determining whether or not the reliability has a predetermined reliability and obtaining a third determination result ; the first determination result ; the second determination result; and the third determination result the light emitting unit in accordance with the determination results It possesses a setting means for setting whether to perform photographing by light, wherein the setting means, have a reliability reliability of the object distance is the predetermined by the third determination results If it is determined that there is not, the setting is made such that shooting is performed without causing the light emitting unit to emit light regardless of the first determination result .

本発明による制御方法は、撮影シーンに応じて発光部を発光させて被写体を撮影する撮像装置の制御方法であって、現在の撮影シーンにおける撮影条件に応じて当該撮影シーンが発光を行うべき発光シーンであるか否かを判定して第1の判定結果を得る第1の判定ステップと、現在の撮影シーンにおいて前記被写体までの距離を示す被写体距離と前記発光部の発光による光の有効距離とに応じて前記被写体が前記発光部からの光が到達する近距離に位置するか否かを判定して第2の判定結果を得る第2の判定ステップと、前記被写体距離の信頼度が予め定められた信頼度を有するか否かを判定して第3の判定結果を得る第3の判定ステップと、前記第1の判定結果前記第2の判定結果および前記第3の判定結果に応じて前記発光部を発光して撮影を行うか否かを設定する設定ステップと、を有し、前記設定ステップでは、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していないと判定されると、前記第1の判定結果によらず前記発光部を発光させずに撮影を行うと設定することを特徴とする。 The control method according to the present invention is a control method of an imaging apparatus that shoots a subject by causing a light emitting unit to emit light according to a shooting scene, and the light emission that the shooting scene should emit according to shooting conditions in the current shooting scene. A first determination step of determining whether or not a scene is obtained and obtaining a first determination result; a subject distance indicating a distance to the subject in a current shooting scene; and an effective distance of light by light emission of the light emitting unit; A second determination step of determining whether or not the subject is located at a short distance where the light from the light emitting unit reaches, and obtaining a second determination result, and the reliability of the subject distance is predetermined. A third determination step for determining whether or not the obtained reliability is obtained and obtaining a third determination result, and according to the first determination result , the second determination result, and the third determination result The light emitting unit emits light Possess a setting step for setting whether to perform photographing, a, in the setting step, determines that the reliability of the subject distance does not have said predetermined reliability by the third determination results Then, it is set that shooting is performed without causing the light emitting unit to emit light regardless of the first determination result .

本発明による制御プログラムは、撮影シーンに応じて発光部を発光させて被写体を撮影する撮像装置で用いられる制御プログラムであって、前記撮像装置に備えられたコンピュータに、現在の撮影シーンにおける撮影条件に応じて当該撮影シーンが発光を行うべき発光シーンであるか否かを判定して第1の判定結果を得る第1の判定ステップと、現在の撮影シーンにおいて前記被写体までの距離を示す被写体距離と前記発光部の発光による光の有効距離とに応じて前記被写体が前記発光部からの光が到達する近距離に位置するか否かを判定して第2の判定結果を得る第2の判定ステップと、前記被写体距離の信頼度が予め定められた信頼度を有するか否かを判定して第3の判定結果を得る第3の判定ステップと、前記第1の判定結果前記第2の判定結果および前記第3の判定結果に応じて前記発光部を発光して撮影を行うか否かを設定する設定ステップと、を実行させ、前記設定ステップでは、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していないと判定されると、前記第1の判定結果によらず前記発光部を発光させずに撮影を行うと設定することを特徴とする。 A control program according to the present invention is a control program used in an imaging device that shoots a subject by causing a light emitting unit to emit light according to a shooting scene, and the computer provided in the imaging device stores a shooting condition in a current shooting scene. A first determination step of determining whether or not the shooting scene is a light-emitting scene to emit light and obtaining a first determination result, and a subject distance indicating a distance to the subject in the current shooting scene A second determination result obtained by determining whether or not the subject is located at a short distance where the light from the light-emitting unit reaches according to the effective distance of the light emitted by the light-emitting unit and the second determination result steps and, a third determination step of reliability is obtained a third determination result by determining whether it has a predetermined degree of reliability of the object distance, the first determination result, the first The determination result and a setting step of setting whether to perform imaging by emitting the light emitting portion in response to the third determination results, to the execution, by the setting step, the by the third determination results When the reliability of the subject distance is determined to the do not have a predetermined confidence level, that you set and performs imaging the light emitting portion regardless of the first determination result without emission Features.

本発明によれば、撮影シーンに応じて発光を行うか否かを判定して発光の効果がある撮影シーンにおいてのみ発光を行うことができる。 According to the present invention, it is possible only to emit light in a photographic scene is determined whether to perform the light emission has the effect of light according to the shooting scene.

本発明の実施形態による撮像装置の一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of the imaging device by embodiment of this invention. 図1に示すカメラにおいて、ストロボ発光の効果がある撮影シーンであるか否かの判定結果に応じて行われるストロボ発光制御を説明するためのフローチャートである。2 is a flowchart for explaining strobe light emission control performed in accordance with a determination result of whether or not a shooting scene has a strobe light emission effect in the camera shown in FIG. 1. 図1に示すカメラで行われる輝度値の算出を説明するための図であり、(a)は画像の一例を示す図、(b)は(a)に示す画像において被写体領域の一例を示す図、(c)は(a)に示す画像において被写体領域が検出されない場合の状態を示す図である。2A and 2B are diagrams for explaining calculation of luminance values performed by the camera illustrated in FIG. 1, in which FIG. 1A illustrates an example of an image, and FIG. 2B illustrates an example of a subject area in the image illustrated in FIG. (C) is a figure which shows a state when a to-be-photographed object area | region is not detected in the image shown to (a). 図2に示す撮影シーン判別処理の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of a shooting scene determination process shown in FIG. 2. 図2に示す被写体距離の算出を説明するためのフローチャートである。3 is a flowchart for explaining calculation of a subject distance shown in FIG. 2. 図2に示すストロボ発光判定処理を説明するためのフローチャートである。3 is a flowchart for explaining strobe light emission determination processing shown in FIG. 2.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

<撮像装置の構成>
図1は、本発明の実施形態による撮像装置の一例についてその構成を示すブロック図である。
<Configuration of imaging device>
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to an embodiment of the present invention.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮影レンズ101を有している。そして、撮影レンズ101の後段には順次、絞り及びシャッタ102、フォーカスレンズ104、および撮像素子106が配置されている。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera) and includes a photographing lens 101. An aperture / shutter 102, a focus lens 104, and an image sensor 106 are sequentially arranged after the photographing lens 101.

撮影レンズ101はズーム機構を備えており、絞り及びシャッタ102はAE処理部103の制御下で、被写体からの反射光である入射光(つまり、光学像)の入射光量および撮像素子106における電荷蓄積時間を調節する。   The photographing lens 101 includes a zoom mechanism, and the diaphragm and shutter 102 are controlled by the AE processing unit 103, and the incident light amount of incident light (that is, an optical image) that is reflected from the subject and the charge accumulation in the image sensor 106. Adjust the time.

AE処理部103は、絞り値、シャッタ速度、および感度の関係を示す所謂P線図に基づいて、絞り及びシャッタ102を制御する。さらに、制御線は示されていないが、AE処理部103は、P線図に応じて、後述するA/D変換部107を制御する。   The AE processing unit 103 controls the aperture and the shutter 102 based on a so-called P diagram showing the relationship between the aperture value, the shutter speed, and the sensitivity. Further, although no control line is shown, the AE processing unit 103 controls an A / D conversion unit 107 described later according to the P diagram.

フォーカスレンズ104は、AF処理部105の制御下で撮像素子106の受光面に焦点を合わせて、撮像素子106に光学像を結像させる。撮像素子106は、例えば、CCD又はCMOSイメージセンサであり、受光面に結像した光学像に応じた電気信号(アナログ信号)をA/D変換部107に出力する。   The focus lens 104 focuses on the light receiving surface of the image sensor 106 under the control of the AF processing unit 105 and forms an optical image on the image sensor 106. The image sensor 106 is a CCD or CMOS image sensor, for example, and outputs an electrical signal (analog signal) corresponding to the optical image formed on the light receiving surface to the A / D converter 107.

A/D変換部107は、A/D変換によってアナログ信号をデジタル信号に変換する。なお、A/D変換部107は、当該アナログ信号からノイズを除去するCDS(相関2重サンプリング)回路と、A/D変換を行う前にアナログ信号を非線形増幅するための非線形増幅回路とを有している。   The A / D conversion unit 107 converts an analog signal into a digital signal by A / D conversion. The A / D converter 107 includes a CDS (correlated double sampling) circuit that removes noise from the analog signal, and a nonlinear amplifier circuit that nonlinearly amplifies the analog signal before performing A / D conversion. doing.

図示のように、カメラは画像処理部108、フォーマット変換部109、およびDRAM110を備えている。画像処理部108は、A/D変換部107の出力であるデジタル信号について所定の画素補間および画像縮小などのリサイズ処理と色変換処理とを行って画像データを出力する。さらに、画像処理部108は画像データにおいて人物の顔領域など特定の領域を検出する被写体検出を行う。   As illustrated, the camera includes an image processing unit 108, a format conversion unit 109, and a DRAM 110. The image processing unit 108 performs resize processing such as predetermined pixel interpolation and image reduction and color conversion processing on the digital signal output from the A / D conversion unit 107 and outputs image data. Further, the image processing unit 108 performs subject detection for detecting a specific region such as a human face region in the image data.

フォーマット変換部109は、画像データをDRAM110に記憶するため、画像処理部108の出力である画像データのフォーマット変換を行う。DRAM110は、例えば、高速な内蔵メモリであり、画像データが一時的に記憶される高速バッファとして用いられるとともに、画像データを圧縮/伸張処理する際の作業用メモリなどとして用いられる。   The format conversion unit 109 converts the format of the image data that is the output of the image processing unit 108 in order to store the image data in the DRAM 110. The DRAM 110 is, for example, a high-speed built-in memory, and is used as a high-speed buffer for temporarily storing image data and as a working memory for compressing / decompressing image data.

さらに、カメラは、画像記録部111、システム制御部112、VRAM113、表示部114、操作部115、メインスイッチ(メインSW)118、第1のスイッチ(SW1)119、および第2のスイッチ(SW2)120を有している。   Further, the camera includes an image recording unit 111, a system control unit 112, a VRAM 113, a display unit 114, an operation unit 115, a main switch (main SW) 118, a first switch (SW1) 119, and a second switch (SW2). 120.

画像記録部111は、撮影の結果えられた画像データ(静止画又は動画)を記録するメモリーカードなどの記録媒体およびそのインターフェースを備えている。システム制御部112は、例えば、CPU、ROM、およびRAMを備え、CPUはROMに格納されたプログラムをRAMの作業エリアに展開して実行する。   The image recording unit 111 includes a recording medium such as a memory card for recording image data (still image or moving image) obtained as a result of photographing, and an interface thereof. The system control unit 112 includes, for example, a CPU, a ROM, and a RAM. The CPU expands and executes a program stored in the ROM in a RAM work area.

これによって、CPUはカメラ全体の動作制御を行う。また、CPUは複数の撮像駆動モードのうちのいずれの撮像駆動モードで撮像素子106を駆動制御するかを決定する。   As a result, the CPU controls the operation of the entire camera. In addition, the CPU determines in which imaging drive mode of the plurality of imaging drive modes the drive of the image sensor 106 is controlled.

VRAM113は画像表示用のメモリであり、表示部114は、例えば、LCDである。そして、表示部114には、画像の表示、操作補助のための表示、カメラ状態の表示が行われるとともに、撮影際には撮影画面および測距領域が表示される。   The VRAM 113 is a memory for image display, and the display unit 114 is, for example, an LCD. The display unit 114 displays an image, a display for assisting operations, and a camera state. At the time of shooting, a shooting screen and a distance measurement area are displayed.

システム制御部112は、後述するようにして、発光(以下ストロボ発光という)が必要であると判定すると、EF処理部116に対して発光部(ストロボ部)のオン(ストロボオン)を指示する。EF処理部116はストロボオンの指示を受けると、ストロボ部117を制御して、撮影の際にストロボ部117を発光させる。   If the system control unit 112 determines that light emission (hereinafter referred to as strobe light emission) is necessary as described later, the system control unit 112 instructs the EF processing unit 116 to turn on the light emission unit (strobe unit). When the EF processing unit 116 receives a strobe on instruction, the EF processing unit 116 controls the strobe unit 117 so that the strobe unit 117 emits light during photographing.

ユーザは、操作部115の操作によってカメラを操作することができる。操作部115は、例えば、露出補正、絞り値の設定、および画像再生の際の設定などの各種設定を行うメニュースイッチを備えている。さらに、操作部115は、撮影レンズ101のズーム動作を指示するズームレバー、そして、撮影モードおよび再生モードなどの動作モードを切り換える動作モード切換えスイッチなどを備えている。   The user can operate the camera by operating the operation unit 115. The operation unit 115 includes menu switches for performing various settings such as exposure correction, aperture value setting, and image playback setting. Further, the operation unit 115 includes a zoom lever for instructing a zoom operation of the photographing lens 101, an operation mode switching switch for switching operation modes such as a photographing mode and a reproduction mode.

メインスイッチ118は、カメラの電源を投入するためのスイッチである。第1のスイッチ119は、AE処理およびAF処理などの撮影準備動作を行うためのスイッチであり、第2のスイッチ120は、第1のスイッチ119の操作後、システム制御部112に対して撮影指示を行うためのスイッチである。   The main switch 118 is a switch for turning on the camera. The first switch 119 is a switch for performing shooting preparation operations such as AE processing and AF processing, and the second switch 120 is a shooting instruction to the system control unit 112 after operating the first switch 119. It is a switch for performing.

<撮像装置の動作>
ここで、図1に示すカメラにおいて、撮影シーンがストロボ発光で効果がある撮影シーンであるか否かを判定して、ストロボ発光の効果がある場合のみストロボ発光を行う手法について説明する。
<Operation of imaging device>
Here, in the camera shown in FIG. 1, a method for determining whether or not the shooting scene is a shooting scene effective with strobe light emission and performing strobe light emission only when strobe light emission is effective will be described.

図2は、図1に示すカメラにおいて、ストロボ発光の効果がある撮影シーンであるか否かの判定結果に応じて行われるストロボ発光制御を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部112の制御下で行われる。   FIG. 2 is a flowchart for explaining strobe light emission control performed in accordance with the determination result of whether or not the camera scene shown in FIG. 1 is a shooting scene having a strobe light emission effect. Note that the processing according to the illustrated flowchart is performed under the control of the system control unit 112.

メインスイッチ118の操作によってカメラの電源が投入されると、画像処理部108はシステム制御部112の制御下で、表示部114に適正な露出の画像を表示するため、周期的にAE処理を行う(ステップS201)。   When the camera is turned on by operating the main switch 118, the image processing unit 108 periodically performs AE processing to display an image with appropriate exposure on the display unit 114 under the control of the system control unit 112. (Step S201).

AE処理の際には、画像処理部108は、まず、所定の絞り値、シャッタスピード、およびISO感度において露光を行って得られた画像データにおいてその画像全体の輝度値を算出する。そして、システム制御部112は当該輝度値が所定の輝度値に近づくように、絞り値、シャッタスピード、およびISO感度を変更する。   In the AE process, the image processing unit 108 first calculates a luminance value of the entire image in image data obtained by performing exposure at a predetermined aperture value, shutter speed, and ISO sensitivity. Then, the system control unit 112 changes the aperture value, shutter speed, and ISO sensitivity so that the brightness value approaches a predetermined brightness value.

図3は、図1に示すカメラで行われる輝度値の算出を説明するための図である。そして、図3(a)は画像の一例を示す図であり、図3(b)は図3(a)に示す画像において被写体領域の一例を示す図である。また、図3(c)は図3(a)に示す画像において被写体領域が検出されない場合の状態を示す図である。   FIG. 3 is a diagram for explaining calculation of luminance values performed by the camera shown in FIG. FIG. 3A is a diagram illustrating an example of an image, and FIG. 3B is a diagram illustrating an example of a subject area in the image illustrated in FIG. FIG. 3C is a diagram illustrating a state where a subject area is not detected in the image illustrated in FIG.

図3(a)に示す画像において、画像処理部108は画像全体の輝度値を算出する際には、画像全体(又は画像の一部)を複数領域、ここでは、M×Nブロックに分割する(MおよびNの各々は2以上の整数)。そして、画像処理部108は露光に応じて各ブロックの輝度値Y(m、n)(m=0〜M−1、n=0〜N−1)を得る。   In the image shown in FIG. 3A, when calculating the luminance value of the entire image, the image processing unit 108 divides the entire image (or part of the image) into a plurality of regions, here, M × N blocks. (Each of M and N is an integer of 2 or more). Then, the image processing unit 108 obtains the luminance value Y (m, n) (m = 0 to M−1, n = 0 to N−1) of each block according to the exposure.

次に、画像処理部108は、測光重みW(m、n)を用いて画像全体の輝度値Y_Allを、式(1)に応じて算出する。   Next, the image processing unit 108 calculates the luminance value Y_All of the entire image according to the formula (1) using the photometric weight W (m, n).

Y_All=(ΣY(m、n)×W(m、n))/ΣW(m、n) (1)
なお、式(1)において、Σにおいてはm=0〜M−1、n=0〜N−1の和を算出する。
Y_All = (ΣY (m, n) × W (m, n)) / ΣW (m, n) (1)
In Equation (1), for Σ, the sum of m = 0 to M−1 and n = 0 to N−1 is calculated.

続いて、システム制御部112は、輝度値Y_Allが所定の輝度値Y_Refと近づくように、絞り値、シャッタスピード、およびISO感度を変更する。ここでは、測光重みW(m、n)は、例えば、画面の中心に近づく程大きい値とする。   Subsequently, the system control unit 112 changes the aperture value, the shutter speed, and the ISO sensitivity so that the luminance value Y_All approaches the predetermined luminance value Y_Ref. Here, for example, the photometric weight W (m, n) is set to a larger value as it approaches the center of the screen.

再び図2を参照して、システム制御部112は、ユーザがSW1の操作、つまり、第1のスイッチ119を操作したか否かを判定する(ステップS202)。第1のスイッチ119が操作されないと(ステップS202において、NO)、システム制御部112はステップS201の処理に戻って、AE処理を行う。   Referring to FIG. 2 again, the system control unit 112 determines whether or not the user has operated the SW1, that is, the first switch 119 (step S202). If the first switch 119 is not operated (NO in step S202), the system control unit 112 returns to the process of step S201 and performs the AE process.

なお、光学ビューファインダー(図示せず)を有するカメラなどのように、表示部114にてスルー画像の表示をする必要がない場合には、ステップS201の処理(AE処理)を行わなくてもよく、ステップS202から処理を行うようにしてもよい。   If there is no need to display a through image on the display unit 114, such as a camera having an optical viewfinder (not shown), the process of step S201 (AE process) may not be performed. The process may be performed from step S202.

一方、第1のスイッチ119が操作されると(ステップS202において、YES)、システム制御部112は撮影準備動作を行う。ここでは、画像処理部108は、システム制御部112の制御下で画像データ(つまり、ここではスルー画像)において被写体(被写体領域)を検出する(ステップS203)。例えば、画像処理部108は人物の顔領域を被写体領域として検出する。   On the other hand, when first switch 119 is operated (YES in step S202), system control unit 112 performs a shooting preparation operation. Here, the image processing unit 108 detects a subject (subject area) in the image data (that is, a through image here) under the control of the system control unit 112 (step S203). For example, the image processing unit 108 detects a human face area as a subject area.

なお、第1のスイッチ119の操作が行われる前から、周期的に被写体の検出を行うようにしてもよく、この場合には、第1のスイッチ119が操作された際の被写体検出結果(つまり、最新の被写体検出結果)が取得される。   Note that the subject may be periodically detected before the first switch 119 is operated. In this case, the subject detection result when the first switch 119 is operated (that is, the subject is detected). , The latest subject detection result) is acquired.

次に、システム制御部112は、後述するようにして、撮影シーンがどのような撮影シーンであるかを判別する(ステップS204)。図示の例では、システム制御部112は撮影シーンが夜景シーン、逆光シーン、およびその他シーンのいずれに属するかを判定する。そして、システム制御部112は撮影シーンが夜景又は逆光シーンであると判定すると、ストロボ発光が可能であるとする。   Next, the system control unit 112 determines what kind of shooting scene the shooting scene is as described later (step S204). In the illustrated example, the system control unit 112 determines whether the shooting scene belongs to a night scene, a backlight scene, or another scene. If the system control unit 112 determines that the shooting scene is a night scene or a backlight scene, it is assumed that the strobe light can be emitted.

続いて、システム制御部112は、判定した撮影シーンにおける被写体の距離を算出して、距離情報を得る(ステップS205)。距離情報を得る際には、システム制御部112は、ステップS203の被写体検出によって得られた被写体領域を示す被写体情報に応じて被写体距離を求める。又はシステム制御部112は、後述するAF処理によって合焦された領域までの距離を被写体距離とするようにしてもよい。   Subsequently, the system control unit 112 calculates the distance of the subject in the determined shooting scene and obtains distance information (step S205). When obtaining the distance information, the system control unit 112 obtains the subject distance according to the subject information indicating the subject region obtained by subject detection in step S203. Alternatively, the system control unit 112 may set the distance to an area focused by AF processing described later as the subject distance.

システム制御部112は、後述するようにして、ストロボ光有効距離を算出して、ストロボ光有効距離と被写体距離と比較する。そして、システム制御部112は当該比較結果に応じて被写体距離が近距離であるか又は遠距離であるかを判定する。この際、システム制御部112は被写体距離が信頼できるか否かについても判定する。   As will be described later, the system control unit 112 calculates the strobe light effective distance and compares the strobe light effective distance with the subject distance. Then, the system control unit 112 determines whether the subject distance is a short distance or a long distance according to the comparison result. At this time, the system control unit 112 also determines whether or not the subject distance is reliable.

続いて、システム制御部112は撮影シーン判別結果および被写体距離に基づいて、後述するようにして、ストロボ部117を発光するか否かを判定する(ステップS206:ストロボ発光判定)。   Subsequently, the system control unit 112 determines whether or not to emit the strobe unit 117 based on the photographing scene determination result and the subject distance (step S206: strobe emission determination) as described later.

ストロボ発光判定の後、システム制御部112は、ユーザがSW2の操作、つまり、第2のスイッチ120を操作したか否かを判定する(ステップS207)。第2のスイッチ120が操作されないと(ステップS207において、NO)、システム制御部112は待機する。   After the strobe light emission determination, the system control unit 112 determines whether or not the user has operated SW2, that is, operated the second switch 120 (step S207). If second switch 120 is not operated (NO in step S207), system control unit 112 stands by.

一方、第2のスイッチ120が操作されると(ステップS207において、YES)、システム制御部112はカメラを制御して撮影を実行する(ステップS208)。そして、システム制御部112は撮影処理を終了する。   On the other hand, when second switch 120 is operated (YES in step S207), system control unit 112 controls the camera to execute shooting (step S208). Then, the system control unit 112 ends the photographing process.

なお、第1のスイッチ119の操作と第2のスイッチ120の操作との間に撮影シーンが変化した場合にストロボ発光判定を更新することができるように、ステップS203〜S206の処理を周期的に行うようにしてもよい。また、カメラ又は撮影シーンに変化が生じたか否かを判定するシーン変化部を備えて、シーン変化が生じた場合にのみステップS203〜S206の処理を再度行うようにしてもよい。   Note that the processing in steps S203 to S206 is periodically performed so that the strobe emission determination can be updated when the shooting scene changes between the operation of the first switch 119 and the operation of the second switch 120. You may make it perform. In addition, a scene change unit that determines whether or not a change has occurred in the camera or the shooting scene may be provided, and the processes in steps S203 to S206 may be performed again only when a scene change has occurred.

<撮影シーン判別>
図4は、図2に示す撮影シーン判別処理の一例を説明するためのフローチャートである。
<Shooting scene discrimination>
FIG. 4 is a flowchart for explaining an example of the photographing scene determination process shown in FIG.

なお、図示のフローチャートに係る処理は、システム制御部112の制御下で行われる。また、ここでは、撮影シーンが夜景シーン、逆光シーン、およびその他シーンのいずれの撮影シーンに属するか否かを判定する場合について説明する。   Note that the processing according to the illustrated flowchart is performed under the control of the system control unit 112. Here, a case will be described in which it is determined whether a shooting scene belongs to any one of a night scene, a backlight scene, and other scenes.

撮影シーン判別処理を開始すると、システム制御部112の制御下で、画像処理部108は、現在の撮影シーンにおける露出などの撮影条件を得るためAE処理を行う(ステップS401)。ここでは、例えば、ステップS201と同様の手法においてAE処理が行われる。そして、システム制御部112は、画像全体の輝度値Y_All=所定の輝度値Y_Refとなる撮影時の絞り値、シャッタスピード、およびISO感度を得る。   When the shooting scene determination process is started, under the control of the system control unit 112, the image processing unit 108 performs an AE process to obtain shooting conditions such as exposure in the current shooting scene (step S401). Here, for example, the AE process is performed in the same manner as in step S201. Then, the system control unit 112 obtains the aperture value, the shutter speed, and the ISO sensitivity at the time of photographing where the luminance value Y_All = predetermined luminance value Y_Ref of the entire image.

なお、ここでは、露出量(絞り値およびISO感度およびシャッタスピードなどに基づく値)については、第1のスイッチ119が操作された後に求めているが、ユーザの操作から撮影までの時間を短縮するため、スルー画像をAE処理した結果の全部又は一部を引き継ぐようにしてもよい。   Here, the exposure amount (a value based on the aperture value, ISO sensitivity, shutter speed, and the like) is obtained after the first switch 119 is operated, but the time from the user operation to photographing is shortened. Therefore, all or part of the result of AE processing of the through image may be taken over.

次に、システム制御部112は撮影時のシャッタスピードとシャッタ閾値とを比較して、当該シャッタスピードが所定のシャッタ閾値(Th_Speed)よりも遅いか(長秒であるか)否かを判定する(ステップS402)。撮影時のシャッタスピードがシャッタ閾値(Th_Speed)よりも遅い場合には(ステップS402において、YES)、システム制御部112は、現在の撮影シーンが夜景シーンであると判定する(ステップS403)。   Next, the system control unit 112 compares the shutter speed at the time of shooting with the shutter threshold value to determine whether the shutter speed is slower than the predetermined shutter threshold value (Th_Speed) (long time) ( Step S402). If the shutter speed at the time of shooting is slower than the shutter threshold (Th_Speed) (YES in step S402), system control unit 112 determines that the current shooting scene is a night scene (step S403).

一方、撮影時のシャッタスピードがシャッタ閾値(Th_Speed)以上(シャッタ閾値以上)に速いと(ステップS402において、NO)、システム制御部112は、現在の撮影シーンが逆光シーンであるか又はその他のシーンであるかを判定する。   On the other hand, when the shutter speed at the time of shooting is faster than the shutter threshold (Th_Speed) or higher (shutter threshold or higher) (NO in step S402), the system control unit 112 determines whether the current shooting scene is a backlight scene or other scenes. It is determined whether it is.

ここでは、まず、システム制御部112は、前述のステップS203の処理において被写体領域が検出されたか否かを判定する(ステップS404)。被写体領域が検出されると(ステップS404において、YES)、システム制御部112は、次のようにして被写体領域と被写体領域以外の他の領域との輝度差に応じて、現在の撮影シーンが逆光シーンであるか否かを判定する。   Here, first, the system control unit 112 determines whether or not a subject area has been detected in the process of step S203 described above (step S404). When the subject area is detected (YES in step S404), the system control unit 112 backlights the current shooting scene according to the luminance difference between the subject area and other areas other than the subject area as follows. It is determined whether it is a scene.

ここでは、まず、システム制御部112は、被写体領域に対応する領域の平均輝度SubjectYを算出する(ステップS405)。前述のように、人物の顔領域を被写体領域としているので、被写体領域301、平均輝度(被写体平均輝度)SubjectYを算出する領域302、およびその他の領域303の関係は、図3(b)に示す関係となる。   Here, first, the system control unit 112 calculates the average luminance SubjectY of the area corresponding to the subject area (step S405). As described above, since the face area of the person is the subject area, the relationship among the subject area 301, the area 302 for calculating the average luminance (subject average luminance) SubjectY, and the other areas 303 is shown in FIG. It becomes a relationship.

図3(b)において、システム制御部112は、顔領域をM×Nブロックの画像に当てはめてM×Nブロックの各ブロックにおいて顔領域が含まれるブロックを被写体領域に対応するブロックとする。そして、システム制御部112は被写体領域に対応するブロックが属する領域(平均輝度算出領域という)においてその平均輝度SubjectYを算出する。   In FIG. 3B, the system control unit 112 applies the face area to the image of the M × N block and sets a block including the face area in each block of the M × N block as a block corresponding to the subject area. Then, the system control unit 112 calculates the average luminance SubjectY in an area to which a block corresponding to the subject area belongs (referred to as an average luminance calculation area).

平均輝度SubjectYを算出する際には、システム制御部112は、平均輝度算出領域におけるブロック毎の輝度値Y(m、n)を平均して平均輝度SubjectYを得る。なお、ブロックの面積に対する被写体領域の比率が大きいブロック程、重み付け係数を大きくして、当該重み付け係数を輝度値Y(m、n)に乗算した後、平均輝度SubjectYを求めるようにしてもよい。   When calculating the average luminance SubjectY, the system control unit 112 obtains the average luminance SubjectY by averaging the luminance values Y (m, n) for each block in the average luminance calculation area. Note that the average luminance SubjectY may be obtained after increasing the weighting coefficient and multiplying the luminance value Y (m, n) by the weighting coefficient for a block having a larger ratio of the subject area to the block area.

次に、システム制御部112は、被写体領域以外の平均輝度(背景平均輝度)BackGroundYを算出する(ステップS406)。ここでは、システム制御部112は、M×NブロックのうちステップS405において被写体平均輝度SubjectYの算出に用いていないブロックについて平均輝度を算出する。   Next, the system control unit 112 calculates an average luminance (background average luminance) BackGroundY other than the subject region (step S406). Here, the system control unit 112 calculates the average luminance of the M × N blocks that are not used for calculating the subject average luminance SubjectY in step S405.

また、AE処理と同様にして測光重みW(m、n)を用いて背景平均輝度BackGroundYを、次の式(2)によって算出するようにしてもよい。   Similarly to the AE process, the background average luminance BackGroundY may be calculated by the following equation (2) using the photometric weight W (m, n).

BackGroundY=(ΣY(m、n)×W(m、n))/ΣW(m、n)(2)
なお、Σについてはm=0〜M−1、n=0〜N−1のうち被写体領域以外のブロックの和を算出する。
BackGroundY = (ΣY (m, n) × W (m, n)) / ΣW (m, n) (2)
For Σ, the sum of blocks other than the subject area is calculated from m = 0 to M−1 and n = 0 to N−1.

続いて、システム制御部112は、被写体平均輝度SubjectYと背景平均輝度BackGroundYの比率(SubjectY/BackGroundY)を求める。そして、システム制御部112は、当該比率が所定の比率閾値Th_Yよりも小さいか否かを判定する(ステップS407)。つまり、システム制御部112は、次の式(3)を用いて被写体領域が背景領域に対して所定の暗さよりも暗いか否かを判定することになる。   Subsequently, the system control unit 112 obtains a ratio (SubjectY / BackGroundY) between the subject average luminance SubjectY and the background average luminance BackGroundY. Then, the system control unit 112 determines whether or not the ratio is smaller than a predetermined ratio threshold value Th_Y (step S407). That is, the system control unit 112 determines whether the subject area is darker than the predetermined darkness with respect to the background area using the following equation (3).

SubjectY/BackGroundY<Th_Y (3)
被写体領域が検出されないと(ステップS404において、NO)、システム制御部112は画像中心部(つまり、画面中心部)とその周辺領域との輝度差に基づいて逆光シーンであるか否かを判定する。被写体領域が検出されない場合においては、画面中心部304(画面中心Center%以内の領域)と周辺領域305との関係は図3(c)に示す関係となる。
SubjectY / BackGroundY <Th_Y (3)
If the subject area is not detected (NO in step S404), the system control unit 112 determines whether the scene is a backlight scene based on the luminance difference between the image center (that is, the screen center) and the surrounding area. . When the subject region is not detected, the relationship between the screen center 304 (the region within the screen center Center%) and the peripheral region 305 is the relationship shown in FIG.

図3(c)において、システム制御部112は、画面中心部304に属する各ブロックの輝度値を平均して平均輝度を求めて、当該平均輝度を画面中心輝度CenterYとする。また、AE処理と同様にして測光重みW(m、n)を用いて画面中心平均輝度CenterYを、次の式(4)によって算出するようにしてもよい。   In FIG. 3C, the system control unit 112 averages the luminance values of the blocks belonging to the screen center portion 304 to obtain the average luminance, and sets the average luminance as the screen center luminance CenterY. Similarly to the AE process, the screen center average luminance CenterY may be calculated by the following formula (4) using the photometric weight W (m, n).

CenterY=(ΣY(m、n)×W(m、n))/ΣW(m、n) (4)
なお、Σについてはm=0〜M−1、n=0〜N−1のうち画面中心部304のブロックの和を算出する。
CenterY = (ΣY (m, n) × W (m, n)) / ΣW (m, n) (4)
For Σ, the sum of the blocks in the screen center 304 is calculated from m = 0 to M−1 and n = 0 to N−1.

次に、システム制御部112は画面中心部304よりも外側の周辺領域305における平均輝度(周辺平均輝度)PeripheryYを算出する(ステップS409)。この際においても、同様にして、測光重みW(m、n)を用いて周辺平均輝度PeripheryYを算出するようにしてもよい。   Next, the system control unit 112 calculates the average luminance (peripheral average luminance) PeripheryY in the peripheral region 305 outside the screen center portion 304 (step S409). In this case as well, the peripheral average luminance PeripheryY may be calculated using the photometric weight W (m, n) in the same manner.

続いて、システム制御部112は、画面中心CenterYと周辺平均輝度PeripheryYの比率(CenterY/PeripheryY)を求める。そして、システム制御部112は、当該比率が所定の比率閾値Th_Yよりも小さいか否かを判定する(ステップS410)。つまり、システム制御部112は、次の式(5)を用いて画面中心部304が周辺領域305に対して所定の暗さよりも暗いか否かを判定することになる。   Subsequently, the system control unit 112 obtains a ratio (CenterY / PeripheryY) between the screen center CenterY and the peripheral average luminance PeripheryY. Then, the system control unit 112 determines whether or not the ratio is smaller than a predetermined ratio threshold value Th_Y (step S410). That is, the system control unit 112 determines whether or not the screen center part 304 is darker than the predetermined darkness with respect to the peripheral area 305 using the following equation (5).

CenterY/PeripheryY<Th_Y (5)
SubjectY/BackGroundY<Th_Yであるか(ステップS407において、YES)又はCenterY/PeripheryY<Th_Y(ステップS410において、YES)であると、システム制御部112は現在の撮影シーンは逆光シーンであると判定する(ステップS411)。
CenterY / PeripheryY <Th_Y (5)
If SubjectY / BackGroundY <Th_Y (YES in step S407) or CenterY / PeripheryY <Th_Y (YES in step S410), the system control unit 112 determines that the current shooting scene is a backlight scene ( Step S411).

一方、SubjectY/BackGroundY≧Th_Yであるか(ステップS407において、NO)又はCenterY/PeripheryY≧Th_Y(ステップS410において、NO)であると、システム制御部112は現在の撮影シーンは他のシーンであると判定する(ステップS412)。   On the other hand, if SubjectY / BackGroundY ≧ Th_Y (NO in step S407) or CenterY / PeripheryY ≧ Th_Y (NO in step S410), system control unit 112 determines that the current shooting scene is another scene. Determination is made (step S412).

ステップS403、ステップS411、又はステップS412の処理に続いて、システム制御部112は現在の撮影シーンがストロボ発光に適する撮影シーンであるか否かを判定する。ここでは、システム制御部112は現在の撮影シーンが夜景シーン又は逆光シーンであるか否かを判定する(ステップS413)。   Subsequent to step S403, step S411, or step S412, the system control unit 112 determines whether or not the current shooting scene is a shooting scene suitable for strobe light emission. Here, the system control unit 112 determines whether or not the current shooting scene is a night scene or a backlight scene (step S413).

現在の撮影シーンが夜景シーン又は逆光シーンであると(ステップS413において、YES)、システム制御部112は現在の撮影シーンはストロボ発光可能なストロボ発光シーン(第1の判定結果)であると判定する(ステップS414)。そして、システム制御部112は、撮影シーン判別処理を終了して、図2に示すステップS205の処理に進む。   If the current shooting scene is a night scene or a backlight scene (YES in step S413), the system control unit 112 determines that the current shooting scene is a strobe flashing scene (first determination result) capable of flash emission. (Step S414). Then, the system control unit 112 ends the shooting scene determination process, and proceeds to the process of step S205 shown in FIG.

一方、現在の撮影シーンが夜景シーン又は逆光シーンでないと(ステップS413において、NO)、システム制御部112は現在の撮影シーンはストロボ発光不可なストロボ非発光シーン(第1の判定結果)であると判定する(ステップS415)。そして、システム制御部112は、撮影シーン判別処理を終了して、図2に示すステップS205の処理に進む。   On the other hand, if the current shooting scene is not a night view scene or a backlight scene (NO in step S413), the system control unit 112 determines that the current shooting scene is a strobe non-flashing scene (first determination result) incapable of flashing. Determination is made (step S415). Then, the system control unit 112 ends the shooting scene determination process, and proceeds to the process of step S205 shown in FIG.

ところで、撮影の際において、一般に夜景シーンなどではシャッタスピードが遅くなる程、撮影者の手ぶれおよび被写体ぶれが生じやすい。一方、シャッタスピードを速くすることによって(つまり、高速シャッタにすることによって)ブレを抑制して、かつ高速シャッタによって低下する露出量をストロボ発光で補うことが行われている。よって、撮影シーン判別処理においては、シャッタスピードが所定のシャッタ閾値Th_Speedよりも遅い場合には、夜景シーンであるとみなしてストロボ発光可能にする。   By the way, when taking a picture, in general, as the shutter speed becomes slower in a night scene or the like, camera shake and subject shake tend to occur. On the other hand, blurring is suppressed by increasing the shutter speed (that is, by using a high-speed shutter), and the exposure amount reduced by the high-speed shutter is compensated by strobe light emission. Therefore, in the shooting scene determination process, when the shutter speed is slower than the predetermined shutter threshold Th_Speed, it is regarded as a night scene and the flash light emission is enabled.

一方、逆光シーンなどにおいては、被写体が相対的に暗く背景が明るい。この場合に、絞りを開くか、低速シャッタとするか、又は高感度にするなど露出条件を変えると、背景がより明るくなって白飛びなど階調が悪化することがある。   On the other hand, in a backlight scene, the subject is relatively dark and the background is bright. In this case, if the exposure conditions are changed, such as opening the aperture, using a low-speed shutter, or increasing the sensitivity, the background may become brighter and the gradation may deteriorate, such as overexposure.

背景の白飛びなどを抑制して、かつ被写体を明るく撮影するためには、撮影の際に露出条件を変更することなくストロボ発光することが有効である。よって、撮影シーン判別処理においては、逆光シーンでもストロボ発光可能とする。   In order to suppress the background whiteout and to shoot the subject brightly, it is effective to emit the strobe light without changing the exposure condition at the time of shooting. Therefore, in the shooting scene determination process, strobe light emission is possible even in a backlight scene.

なお、ストロボ発光を行う場合には、上述のステップS401で求めた撮影時の絞り、シャッタスピード、又はISO感度を変更するようにしてもよい。例えば、ブレを抑制するため、シャッタスピードをストロボ非発光の際よりも短秒とするようにしてもよい。   When performing strobe light emission, the aperture, shutter speed, or ISO sensitivity at the time of shooting obtained in step S401 described above may be changed. For example, in order to suppress blurring, the shutter speed may be set to a shorter time than when the strobe is not emitting light.

上述のようにして、撮影シーン判別処理においては、現在の撮影シーンが夜景シーン、逆光シーン、およびその他シーンのいずれであるかを判定することになる。   As described above, in the shooting scene determination process, it is determined whether the current shooting scene is a night scene, a backlight scene, or another scene.

<距離情報算出>
図5は、図2に示す被写体距離(距離情報)の算出を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部112の制御下で行われる。
<Distance information calculation>
FIG. 5 is a flowchart for explaining calculation of the subject distance (distance information) shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the system control unit 112.

距離情報の算出を開始すると、システム制御部112はAF処理を行う(ステップS501)。AF処理においては、例えば、システム制御部112は画像データにおいてその輝度信号の高域周波数成分が最大となるフォーカスレンズ104の位置を合焦位置として求める。   When calculation of the distance information is started, the system control unit 112 performs AF processing (step S501). In the AF process, for example, the system control unit 112 obtains the position of the focus lens 104 at which the high frequency component of the luminance signal is maximum in the image data as the focus position.

ここでは、システム制御部112は、測距範囲の全域に亘ってフォーカスレンズ104を撮影レンズ101の光軸に沿って駆動しつつ、輝度信号の高域周波数成分に応じて求めたAF評価値(オートフォーカス評価値)を記憶する。そして、システム制御部112は、記憶したAF評価値のうち最大のAF評価値に対応するフォーカスレンズ104の位置を合焦位置とする。つまり、システム制御部112はフォーカスレンズ104をスキャン処理して合焦位置を求めることになる。   Here, the system control unit 112 drives the focus lens 104 along the optical axis of the photographing lens 101 over the entire distance measurement range, and calculates the AF evaluation value (corresponding to the high frequency component of the luminance signal). Auto focus evaluation value) is stored. Then, the system control unit 112 sets the position of the focus lens 104 corresponding to the maximum AF evaluation value among the stored AF evaluation values as the focus position. That is, the system control unit 112 scans the focus lens 104 to obtain the in-focus position.

続いて、システム制御部112は、ステップS203において被写体が検出されたか否かを判定する(ステップS502)。被写体が検出されると(ステップS502において、YES)、システム制御部112は、被写体検出結果に基づいて被写体距離SubjectDistanceを算出する(ステップS503)。   Subsequently, the system control unit 112 determines whether or not a subject is detected in step S203 (step S502). When the subject is detected (YES in step S502), system control unit 112 calculates subject distance Subject Distance based on the subject detection result (step S503).

ここでは、例えば、スルー画像(画像データ)の縦の長さHeight、矩形領域の一辺の長さFace_Size、および撮影時の焦点距離Fが用いて、次の式(6)によって被写体距離SubjectDistanceが算出される。   Here, for example, the vertical distance Height of the through image (image data), the length Face_Size of one side of the rectangular area, and the focal length F at the time of shooting are used to calculate the subject distance Subject Distance by the following equation (6). Is done.

なお、矩形領域はスルー画像の一矩形領域(顔領域を含む特定領域)であり、その中心の座標を(X,Y)とする。そして、特定領域の面積である特定面積に応じて、被写体距離が算出されることになる。   Note that the rectangular area is one rectangular area (a specific area including the face area) of the through image, and the coordinates of the center are (X, Y). Then, the subject distance is calculated according to the specific area that is the area of the specific region.

SubjectDistance=F×Face_Size÷Height×係数
(6)
ここで、式(6)の係数は、実際の人物を撮影する際に、被写体距離SubjectDistanceと顔領域の一辺の長さおよび焦点距離とが近似する値となるように予め設定される。
SubjectDistance = F × Face_Size ÷ Height × Coefficient
(6)
Here, the coefficient of Expression (6) is set in advance so that the subject distance Subject Distance, the length of one side of the face area, and the focal length are approximated when an actual person is photographed.

次に、システム制御部112は、撮影条件に基づいて推定される推定被写体距離を算出する(ステップS504)。被写体が実際の人物である場合の他、被写体は小さい人形から非常に大きい人型の像などである場合もある。ステップS503で求めた被写体距離SubjectDistanceにおいては被写体の大きさ(特定領域の特定面積)を限定していないので、被写体距離SubjectDistanceが実際と大きく異なることがある。   Next, the system control unit 112 calculates an estimated subject distance estimated based on the shooting conditions (step S504). In addition to the case where the subject is an actual person, the subject may be a small doll or a very large humanoid image. Since the subject distance SubjectDistance obtained in step S503 does not limit the size of the subject (specific area of the specific area), the subject distance SubjectDistance may differ greatly from the actual distance.

このため、システム制御部112は、撮影条件、例えば、撮影時の焦点距離Fに応じて推定被写体距離EstimationDistanceを推定する。推定被写体距離EstimationDistanceを得る際には、焦点距離に応じてスルー画像において特定領域が占める面積を推定面積として推定して、推定面積に応じて推定被写体距離EstimationDistanceを求める。そして、システム制御部112は当該推定被写体距離EstimationDistanceと被写体距離SubjectDistanceと比較する。   Therefore, the system control unit 112 estimates the estimated subject distance Estimation Distance according to the shooting condition, for example, the focal length F at the time of shooting. When obtaining the estimated subject distance Estimation Distance, the area occupied by the specific region in the through image is estimated as the estimated area according to the focal distance, and the estimated subject distance Estimation Distance is obtained according to the estimated area. Then, the system control unit 112 compares the estimated subject distance Estimation Distance with the subject distance Subject Distance.

なお、上記の推定被写体距離EstimationDistanceを、予めシステム制御部112に統計データとして焦点距離Fに対応づけて記憶するようにしてもよい。統計データを生成する際には、例えば、被写体を撮影する際に、複数の焦点距離においてそれぞれ被写体距離を実測し、当該実測によって得られた実測データをテーブル化して統計データとする。   The estimated subject distance Estimation Distance may be stored in advance in the system control unit 112 in association with the focal length F as statistical data. When generating statistical data, for example, when photographing a subject, the subject distance is measured at each of a plurality of focal lengths, and the measured data obtained by the actual measurement is tabulated to obtain statistical data.

さらには、焦点距離Fから推定被写体距離EstimationDistanceを導出する計算式を統計データから求めて、当該計算式を用いるようにしてもよい。   Furthermore, a calculation formula for deriving the estimated subject distance Estimation Distance from the focal length F may be obtained from statistical data and used.

続いて、システム制御部112は被写体距離SubjectDistanceの信頼性を評価する。ここでは、システム制御部112は、被写体距離SubjectDistanceと推定被写体距離EstimationDistanceとの絶対値差分が所定の差分閾値Th_Dist未満であるか否かを判定する(ステップS505)。   Subsequently, the system control unit 112 evaluates the reliability of the subject distance Subject Distance. Here, the system control unit 112 determines whether or not the absolute value difference between the subject distance Subject Distance and the estimated subject distance Estimation Distance is less than a predetermined difference threshold Th_Dist (step S505).

被写体が検出されないと(ステップS502において、NO)、システム制御部112はAF処理によって得られたAF評価値に拘わらず、AF処理の結果(つまり、フォーカスレンズ104の位置)に応じて被写体距離SubjectDistanceを求める(ステップS506)。   If the subject is not detected (NO in step S502), the system control unit 112 subjects the subject distance SubjectDistance according to the result of the AF process (that is, the position of the focus lens 104) regardless of the AF evaluation value obtained by the AF process. Is obtained (step S506).

例えば、システム制御部112には、焦点距離とフォーカスレンズ104の位置との関係に応じた被写体距離SubjectDistanceを示すテーブルが予め記憶されている。そして、システム制御部112は、焦点距離およびフォーカスレンズ104の位置に応じて当該テーブルを参照して被写体距離SubjectDistanceを求める。   For example, the system control unit 112 stores in advance a table indicating the subject distance Subject Distance corresponding to the relationship between the focal length and the position of the focus lens 104. Then, the system control unit 112 obtains the subject distance Subject Distance by referring to the table according to the focal length and the position of the focus lens 104.

次に、システム制御部112はAF距離情報(つまり、被写体距離)の信頼性判定処理を行う(ステップS507)。そして、システム制御部112は信頼性判定処理の結果に応じてAF距離情報の信頼性(信頼度ともいう)が高いか否か判定する(ステップS508)。   Next, the system control unit 112 performs reliability determination processing of AF distance information (that is, subject distance) (step S507). Then, the system control unit 112 determines whether the reliability (also referred to as reliability) of the AF distance information is high according to the result of the reliability determination process (step S508).

AF評価値の最大値と最小値との差分差が所定の差分閾値以下であるか又はAF評価値の最大値周辺における勾配が所定の閾値以下である場合には、AF評価値の最大値に対応する位置に被写体が存在する可能性は低い。この場合、システム制御部112はAF距離情報の信頼性は低いとする。   When the difference difference between the maximum value and the minimum value of the AF evaluation value is equal to or smaller than a predetermined difference threshold value or the gradient around the maximum value of the AF evaluation value is equal to or smaller than the predetermined threshold value, the maximum value of the AF evaluation value is set. It is unlikely that the subject is present at the corresponding position. In this case, the system control unit 112 assumes that the reliability of the AF distance information is low.

さらに、フォーカスレンズ104の動作などの精度が低い場合、低照度および低コントラストによってS/N比が悪化した場合には、AF距離情報にバラツキが発生する。このバラツキに起因して無限遠と有限距離との区別がつかないことがある。   Further, when the accuracy of the operation of the focus lens 104 is low, when the S / N ratio is deteriorated due to low illuminance and low contrast, the AF distance information varies. Due to this variation, it may not be possible to distinguish between infinity and finite distance.

そこで、被写体距離SubjectDistanceが、所定のAFバラツキ範囲に応じて設定された所定の距離範囲(有効距離範囲)よりも大きい(遠い)と、システム制御部112は無限遠と有限距離との区別がつかないとして、AF評価値の信頼性が低いとする。   Therefore, when the subject distance Subject Distance is larger (far) than a predetermined distance range (effective distance range) set according to a predetermined AF variation range, the system control unit 112 can distinguish between infinity and a finite distance. Assume that the reliability of the AF evaluation value is low.

被写体距離SubjectDistanceと推定被写体距離EstimationDistanceとの絶対値差分が所定の差分閾値Th_Dist未満である(ステップS505において、YES)か又はAF距離情報の信頼性が高いと(ステップS508において、YES)、システム制御部112は被写体距離SubjectDistanceの信頼性が高いとする(ステップS509)。   If the absolute value difference between the subject distance Subject Distance and the estimated subject distance Estimation Distance is less than a predetermined difference threshold Th_Dist (YES in step S505) or if the AF distance information is highly reliable (YES in step S508), system control The unit 112 is assumed to have high reliability of the subject distance Subject Distance (step S509).

一方、被写体距離SubjectDistanceと推定被写体距離EstimationDistanceとの絶対値差分が所定の差分閾値Th_Dist以上である(ステップS505において、NO)か又はAF距離情報の信頼性が低いと(ステップS508において、NO)、システム制御部112は被写体距離SubjectDistanceの信頼性が低いとする(ステップS510)。   On the other hand, if the absolute value difference between the subject distance Subject Distance and the estimated subject distance Estimation Distance is greater than or equal to a predetermined difference threshold Th_Dist (NO in step S505) or the reliability of the AF distance information is low (NO in step S508), The system control unit 112 assumes that the subject distance Subject Distance has low reliability (step S510).

ステップS509又はS510の処理に続いて、システム制御部112はストロボ光有効距離を求める(ステップS511)。ストロボ光有効距離は、調光連動範囲ともいい、ここでは、ストロボ光有効距離StrobeDistanceの算出に当たって、ストロボのガイドナンバーGno、撮影時の絞り値Fno、およびISO感度Gainを用いる。算出されるストロボ光有効距離StrobeDistanceは、ストロボ光の発光による効果が十分に得られる距離(範囲)を表す。そして、システム制御部112は既知のガイドナンバーの関係式である式(7)に応じて、ストロボ光有効距離StrobeDistanceを算出する。   Subsequent to step S509 or S510, the system control unit 112 obtains the strobe light effective distance (step S511). The strobe light effective distance is also referred to as a dimming interlocking range. Here, in calculating the strobe light effective distance StrobeDistance, the strobe guide number Gno, the aperture value Fno during shooting, and the ISO sensitivity Gain are used. The calculated strobe light effective distance StrobeDistance represents a distance (range) at which the effect of the strobe light emission can be sufficiently obtained. Then, the system control unit 112 calculates the strobe light effective distance StrobeDistance according to Expression (7) that is a relational expression of known guide numbers.

StrobeDistance=Gno×Sqrt(Gain/100)/Fno
(7)
続いて、システム制御部112はストロボ光有効距離StrobeDistanceが被写体距離SubjectDistanceよりも大きいか否かを判定する(ステップS512)。ストロボ光有効距離StrobeDistanceが被写体距離SubjectDistanceよりも大きいと(ステップS512において、YES)、つまり、ストロボ光の発光による効果が十分に得られると判定すると、システム制御部112は被写体距離SubjectDistanceが近距離(第2の判定結果)であるとする(ステップS513)。そして、システム制御部112は距離情報算出処理を終了する。
StrobeDistance = Gno × Sqrt (Gain / 100) / Fno
(7)
Subsequently, the system control unit 112 determines whether or not the strobe light effective distance StrobeDistance is larger than the subject distance SubjectDistance (step S512). If the effective strobe light distance StrobeDistance is larger than the subject distance SubjectDistance (YES in step S512), that is, if it is determined that the effect of light emission from the strobe light is sufficiently obtained, the system control unit 112 sets the subject distance SubjectDistance to a short distance ( (Second determination result) (step S513). Then, the system control unit 112 ends the distance information calculation process.

一方、ストロボ光到達距離StrobeDistanceが被写体距離SubjectDistance以下であると(ステップS512において、NO)、つまり、ストロボ光の発光による効果が十分に得られないと判定すると、システム制御部112は被写体距離SubjectDistanceが遠距離(第2の判定結果)であるとする(ステップS514)。そして、システム制御部112は距離情報算出処理を終了する。   On the other hand, if the strobe light reaching distance StrobeDistance is equal to or shorter than the subject distance SubjectDistance (NO in step S512), that is, if it is determined that the effect of the strobe light emission is not sufficiently obtained, the system control unit 112 sets the subject distance SubjectDistance to It is assumed that it is a long distance (second determination result) (step S514). Then, the system control unit 112 ends the distance information calculation process.

<ストロボ発光判定>
図6は、図2に示すストロボ発光判定処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部112の制御下で行われる。
<Strobe flash judgment>
FIG. 6 is a flowchart for explaining the strobe emission determination process shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the system control unit 112.

ストロボ発光判定処理を開始すると、システム制御部112は現在の撮影シーンがストロボ発光可能な撮影シーン(ストロボ発光シーン)であるか否かを判定する(ステップS601)。つまり、システム制御部112は、図4で説明した撮影シーン判別処理による判別結果によって現在の撮影シーンが夜景シーン又は逆光シーンであるか否かを確認する。   When the flash emission determination process is started, the system control unit 112 determines whether or not the current shooting scene is a shooting scene capable of flash emission (flash emission scene) (step S601). That is, the system control unit 112 confirms whether or not the current shooting scene is a night scene or a backlight scene based on the determination result by the shooting scene determination process described with reference to FIG.

現在の撮影シーンがストロボ発光シーンであると(ステップS601において、YES)、システム制御部112は、上述のようにして算出した被写体距離が高信頼度であるか否かを判定する(ステップS602)。   If the current shooting scene is a strobe lighting scene (YES in step S601), system control unit 112 determines whether or not the subject distance calculated as described above is highly reliable (step S602). .

被写体距離が高信頼度を有していると(ステップS602において、YES)、システム制御部112は、上述のようにして算出した被写体距離が近距離であるか否かを判定する(ステップS603)。つまり、システム制御部112はストロボ光の発光による効果が十分に得られる距離に被写体が位置するか否かを判定することになる。   If the subject distance has high reliability (YES in step S602), the system control unit 112 determines whether or not the subject distance calculated as described above is a short distance (step S603). . That is, the system control unit 112 determines whether or not the subject is located at a distance at which the effect of the strobe light emission is sufficiently obtained.

被写体距離が近距離であると(ステップS603において、YES)、システム制御部112はEF処理部116にストロボ発光の設定を行う(ステップS604)。つまり、現在の撮影シーンが夜景シーン又は逆光シーンであり、かつ被写体距離が高信頼度で近距離であると、システム制御部112はストロボ発光撮影の設定を行う。そして、システム制御部112はストロボ発光判定処理を終了する。   If the subject distance is a short distance (YES in step S603), system control unit 112 sets strobe light emission in EF processing unit 116 (step S604). In other words, when the current shooting scene is a night scene or a backlight scene and the subject distance is a high reliability and a short distance, the system control unit 112 sets the flash photography. Then, the system control unit 112 ends the strobe light emission determination process.

一方、被写体距離が近距離でないと(ステップS603において、NO)、システム制御部112はEF処理部116にストロボ非発光の設定を行う(ステップS605)。つまり、現在の撮影シーンが夜景シーンおよび逆光シーンでないか、被写体距離が高信頼度ないか、又は近距離でないと、システム制御部112はストロボ非発光撮影の設定を行う。そして、システム制御部112はストロボ発光判定処理を終了する。   On the other hand, if the subject distance is not a short distance (NO in step S603), the system control unit 112 sets the EF processing unit 116 to be non-flashing (step S605). That is, if the current shooting scene is neither a night scene nor a backlight scene, or if the subject distance is not highly reliable or not close, the system control unit 112 performs setting for flash non-flash shooting. Then, the system control unit 112 ends the strobe light emission determination process.

なお、現在の撮影シーンがストロボ発光シーンでないと(ステップS601において、NO)、システム制御部112はステップS605の処理に進む。同様に、被写体距離が高信頼度でないと(ステップS602において、NO)、システム制御部112はステップS605の処理に進む。また、被写体距離が近距離でないと(ステップS603において、NO)、つまり、被写体距離が遠距離であると、システム制御部112はステップS605の処理に進む。   If the current shooting scene is not a strobe lighting scene (NO in step S601), the system control unit 112 proceeds to the process of step S605. Similarly, if the subject distance is not highly reliable (NO in step S602), system control unit 112 proceeds to the process of step S605. If the subject distance is not a short distance (NO in step S603), that is, if the subject distance is a long distance, the system control unit 112 proceeds to the process of step S605.

なお、図6に示すフローチャートにおいては、現在の撮影シーンがストロボ発光シーンで被写体距離が高信頼度の場合に、被写体距離が近距離であればストロボ発光を設定するようにしたが、被写体距離が低信頼度の場合において現在の撮影シーンがストロボ発光シーンであり、被写体距離が近距離であればストロボ発光と判定するようにしてもよい。つまり、ステップS601の処理において、”YES”であれば、被写体距離の信頼度に拘わらず、ステップS603の処理に移行する。   In the flowchart shown in FIG. 6, when the current shooting scene is a flash emission scene and the subject distance is high reliability, the flash emission is set if the subject distance is short, but the subject distance is In the case of low reliability, if the current shooting scene is a flash emission scene and the subject distance is a short distance, it may be determined that the flash emission. That is, if “YES” in the process of step S601, the process proceeds to step S603 regardless of the reliability of the subject distance.

このように、本発明の実施の形態では、現在の撮影シーンがストロボ発光による効果がある撮影シーンであるか否かを判定して、当該判定結果に応じてストロボ発光を行うようにしたので、ストロボ装置における充電と撮影とのタイムラグ、そして、発光によるストロボ装置の電池残量の低下を確実に防止することができる。   As described above, in the embodiment of the present invention, it is determined whether or not the current shooting scene is a shooting scene having an effect of the flash emission, and the flash emission is performed according to the determination result. It is possible to reliably prevent a time lag between charging and shooting in the flash device and a decrease in the remaining battery level of the flash device due to light emission.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

103 AE処理部
104 フォーカスレンズ
105 AF処理部
106 撮像素子
107 A/D 変換部
108 画像処理部
112 システム制御部
115 操作部
116 EF処理部
117 ストロボ部
DESCRIPTION OF SYMBOLS 103 AE processing part 104 Focus lens 105 AF processing part 106 Image sensor 107 A / D conversion part 108 Image processing part 112 System control part 115 Operation part 116 EF processing part 117 Strobe part

Claims (11)

撮影シーンに応じて発光部を発光させて被写体を撮影する撮像装置であって、
現在の撮影シーンにおける撮影条件に応じて当該撮影シーンが発光を行うべき発光シーンであるか否かを判定して第1の判定結果を得る第1の判定手段と、
現在の撮影シーンにおいて前記被写体までの距離を示す被写体距離と前記発光部の発光による光の有効距離とに応じて前記被写体が前記発光部からの光が到達する近距離に位置するか否かを判定して第2の判定結果を得る第2の判定手段と、
前記被写体距離の信頼度が予め定められた信頼度を有するか否かを判定して第3の判定結果を得る第3の判定手段と、
前記第1の判定結果前記第2の判定結果、および前記第3の判定結果に応じて前記発光部を発光して撮影を行うか否かを設定する設定手段と、
を有し、
前記設定手段は、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していないと判定されると、前記第1の判定結果によらず前記発光部を発光させずに撮影を行うと設定することを特徴とする撮像装置。
An imaging device that shoots a subject by causing a light emitting unit to emit light according to a shooting scene,
First determination means for determining whether or not the shooting scene is a light-emitting scene that should emit light according to the shooting conditions in the current shooting scene, and obtaining a first determination result;
Whether or not the subject is located at a short distance where the light from the light emitting unit reaches according to the subject distance indicating the distance to the subject in the current shooting scene and the effective distance of the light emitted by the light emitting unit. Second determination means for determining and obtaining a second determination result;
Third determination means for determining whether or not the reliability of the subject distance has a predetermined reliability and obtaining a third determination result;
Setting means for setting whether to perform shooting by emitting light from the light-emitting unit according to the first determination result , the second determination result, and the third determination result ;
I have a,
If it is determined by the third determination result that the reliability of the subject distance does not have the predetermined reliability, the setting unit causes the light emitting unit to be turned on regardless of the first determination result. An image pickup apparatus that is set to perform shooting without emitting light .
前記設定手段は、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していると判定され、前記第1の判定結果によって前記現在の撮影シーンが発光シーンであると判定され、かつ前記第2の判定結果によって前記被写体が近距離に位置すると判定されると、前記発光部を発光して撮影を行うと設定することを特徴とする請求項1に記載の撮像装置。 The setting means determines that the reliability of the subject distance has the predetermined reliability based on the third determination result, and the current shooting scene is determined to be a light emission scene based on the first determination result. 2. The apparatus according to claim 1, wherein when it is determined that the subject is located at a short distance according to the second determination result, the light emitting unit is set to emit light and perform shooting. Imaging device. 前記第1の判定手段は、前記撮影条件の一つである撮影の際のシャッタスピードが所定のシャッタ閾値よりも遅いと、前記現在の撮影シーンを前記発光シーンであると判定することを特徴とする請求項1又は2に記載の撮像装置。 The first determination unit determines that the current shooting scene is the light emission scene when a shutter speed at the time of shooting, which is one of the shooting conditions, is slower than a predetermined shutter threshold value. The imaging apparatus according to claim 1 or 2 . 前記第1の判定手段は、前記シャッタスピードが前記シャッタ閾値以上の速さである際、現在の撮影シーンで得られるスルー画像において設定された所定の領域における平均輝度と当該所定の領域を除く領域における平均輝度との比率が所定の比率閾値よりも小さいと、前記現在の撮影シーンを前記発光シーンであると判定することを特徴とする請求項に記載の撮像装置。 When the shutter speed is equal to or higher than the shutter threshold, the first determination unit is configured to exclude an average luminance in a predetermined area set in a through image obtained in the current shooting scene and an area excluding the predetermined area. The imaging apparatus according to claim 3 , wherein the current shooting scene is determined to be the light emission scene when the ratio of the average brightness to the brightness is smaller than a predetermined ratio threshold. 現在の撮影シーンで得られるスルー画像において特定の領域を検出して、当該特定の領域の前記スルー画像に占める面積を特定面積として、当該特定面積に応じて前記被写体距離を求める算出手段を有することを特徴とする請求項1〜のいずれか1項に記載の撮像装置。 A calculation unit that detects a specific area in the through image obtained in the current shooting scene, determines the area of the specific area in the through image as a specific area, and calculates the subject distance according to the specific area; the imaging apparatus according to any one of claims 1 to 4, characterized in. 前記特定の領域は顔領域であることを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 5 , wherein the specific area is a face area. 現在の撮影シーンにおいて撮影を行う前に、フォーカスレンズを光軸に沿って駆動制御してオートフォーカス評価値を得て、当該オートフォーカス評価値に応じて前記フォーカスレンズの合焦位置を求め、当該合焦位置に基づいて前記被写体距離を得る算出手段を有することを特徴とする請求項1〜のいずれか1項に記載の撮像装置。 Before shooting in the current shooting scene, the focus lens is driven and controlled along the optical axis to obtain an autofocus evaluation value, and the in-focus position of the focus lens is obtained according to the autofocus evaluation value. the imaging apparatus according to any one of claims 1-4, characterized in that it comprises a calculating means for obtaining the object distance based on the focus position. 前記第3の判定手段は、前記フォーカスレンズが合焦すると、前記被写体距離の信頼度が前記予め定められた信頼度よりも高いと判定することを特徴とする請求項7に記載の撮像装置。 Said third judging means, wherein the focus lens is focused, imaging of claim 7 reliability of the object distance, wherein the benzalkonium be determined to be higher than the reliability said predetermined apparatus. 前記第3の判定手段は、前記被写体距離が所定の有効距離範囲にあると、前記被写体距離の信頼度が前記予め定められた信頼度よりも高いと判定することを特徴とする請求項に記載の撮像装置。 Said third determination means, claim the subject distance to be in a predetermined effective distance range, reliability of the object distance, wherein the benzalkonium be determined to be higher than the reliability said predetermined 8. The imaging device according to 7 . 撮影シーンに応じて発光部を発光させて被写体を撮影する撮像装置の制御方法であって、
現在の撮影シーンにおける撮影条件に応じて当該撮影シーンが発光を行うべき発光シーンであるか否かを判定して第1の判定結果を得る第1の判定ステップと、
現在の撮影シーンにおいて前記被写体までの距離を示す被写体距離と前記発光部の発光による光の有効距離とに応じて前記被写体が前記発光部からの光が到達する近距離に位置するか否かを判定して第2の判定結果を得る第2の判定ステップと、
前記被写体距離の信頼度が予め定められた信頼度を有するか否かを判定して第3の判定結果を得る第3の判定ステップと、
前記第1の判定結果前記第2の判定結果および前記第3の判定結果に応じて前記発光部を発光して撮影を行うか否かを設定する設定ステップと、
を有し、
前記設定ステップでは、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していないと判定されると、前記第1の判定結果によらず前記発光部を発光させずに撮影を行うと設定することを特徴とする制御方法。
A method for controlling an imaging apparatus that shoots a subject by causing a light emitting unit to emit light according to a shooting scene,
A first determination step of determining whether or not the shooting scene is a light-emitting scene that should emit light according to the shooting conditions in the current shooting scene, and obtaining a first determination result;
Whether or not the subject is located at a short distance where the light from the light emitting unit reaches according to the subject distance indicating the distance to the subject in the current shooting scene and the effective distance of the light emitted by the light emitting unit. A second determination step of determining and obtaining a second determination result;
A third determination step of determining whether or not the reliability of the subject distance has a predetermined reliability and obtaining a third determination result;
A setting step for setting whether to perform shooting by emitting light from the light-emitting unit according to the first determination result , the second determination result, and the third determination result ;
I have a,
In the setting step, when it is determined by the third determination result that the reliability of the subject distance does not have the predetermined reliability, the light emitting unit is turned on regardless of the first determination result. A control method, characterized in that setting is made when shooting is performed without light emission .
撮影シーンに応じて発光部を発光させて被写体を撮影する撮像装置で用いられる制御プログラムであって、
前記撮像装置に備えられたコンピュータに、
現在の撮影シーンにおける撮影条件に応じて当該撮影シーンが発光を行うべき発光シーンであるか否かを判定して第1の判定結果を得る第1の判定ステップと、
現在の撮影シーンにおいて前記被写体までの距離を示す被写体距離と前記発光部の発光による光の有効距離とに応じて前記被写体が前記発光部からの光が到達する近距離に位置するか否かを判定して第2の判定結果を得る第2の判定ステップと、
前記被写体距離の信頼度が予め定められた信頼度を有するか否かを判定して第3の判定結果を得る第3の判定ステップと、
前記第1の判定結果前記第2の判定結果および前記第3の判定結果に応じて前記発光部を発光して撮影を行うか否かを設定する設定ステップと、
を実行させ
前記設定ステップでは、前記第3の判定結果によって前記被写体距離の信頼度が前記予め定められた信頼度を有していないと判定されると、前記第1の判定結果によらず前記発光部を発光させずに撮影を行うと設定することを特徴とする制御プログラム。
A control program used in an imaging apparatus that shoots a subject by causing a light emitting unit to emit light according to a shooting scene,
In the computer provided in the imaging device,
A first determination step of determining whether or not the shooting scene is a light-emitting scene that should emit light according to the shooting conditions in the current shooting scene, and obtaining a first determination result;
Whether or not the subject is located at a short distance where the light from the light emitting unit reaches according to the subject distance indicating the distance to the subject in the current shooting scene and the effective distance of the light emitted by the light emitting unit. A second determination step of determining and obtaining a second determination result;
A third determination step of determining whether or not the reliability of the subject distance has a predetermined reliability and obtaining a third determination result;
A setting step for setting whether to perform shooting by emitting light from the light-emitting unit according to the first determination result , the second determination result, and the third determination result ;
Was executed,
In the setting step, when it is determined by the third determination result that the reliability of the subject distance does not have the predetermined reliability, the light emitting unit is turned on regardless of the first determination result. control program characterized that you set and perform photographing without light.
JP2013255948A 2013-12-11 2013-12-11 Imaging device, control method thereof, and control program Active JP6335497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013255948A JP6335497B2 (en) 2013-12-11 2013-12-11 Imaging device, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013255948A JP6335497B2 (en) 2013-12-11 2013-12-11 Imaging device, control method thereof, and control program

Publications (3)

Publication Number Publication Date
JP2015114465A JP2015114465A (en) 2015-06-22
JP2015114465A5 JP2015114465A5 (en) 2017-01-26
JP6335497B2 true JP6335497B2 (en) 2018-05-30

Family

ID=53528316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013255948A Active JP6335497B2 (en) 2013-12-11 2013-12-11 Imaging device, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6335497B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111861965B (en) * 2019-04-08 2024-06-18 Tcl科技集团股份有限公司 Image backlight detection method, image backlight detection device and terminal equipment
JP7422555B2 (en) 2019-04-22 2024-01-26 キヤノン株式会社 Imaging device, its control method, program, storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3699757B2 (en) * 1995-11-21 2005-09-28 オリンパス株式会社 Strobe dimmer
JP4897153B2 (en) * 2001-05-10 2012-03-14 Hoya株式会社 Automatic exposure control device for camera
JP2008298847A (en) * 2007-05-29 2008-12-11 Fujifilm Corp Photographing method and digital camera
JP5765931B2 (en) * 2010-12-16 2015-08-19 キヤノン株式会社 Focus detection apparatus and focus detection method

Also Published As

Publication number Publication date
JP2015114465A (en) 2015-06-22

Similar Documents

Publication Publication Date Title
CN103986853B (en) Filming apparatus and image pickup method
JP6200151B2 (en) Imaging apparatus and dimming control method
US9438815B2 (en) Control device, control method, and control system with multiple dynamic ranges
JP6460721B2 (en) Image processing apparatus, image processing method, and program
JP2010152285A (en) Imaging apparatus
JP5728498B2 (en) Imaging apparatus and light emission amount control method thereof
US9473692B2 (en) Image processing apparatus, imaging apparatus, and determination method for controlling light emission
US8593566B2 (en) Method and apparatus for controlling light emission of flash and digital photographing apparatus using the method and apparatus
JP5489591B2 (en) Imaging apparatus and control method thereof
JP2015121751A (en) Control device, control method, and exposure control system
US9888184B2 (en) Light emission control device, control method therefor, storage medium storing control program therefor, and image pickup apparatus with light emission control device
CN103986864B (en) Filming apparatus and image pickup method
JP2018107741A (en) Image processing system, image processing method, and program
JP6335497B2 (en) Imaging device, control method thereof, and control program
JP5371474B2 (en) Imaging apparatus, control method, and program
JP2009288657A (en) Stroboscopic photographing device
JP5316923B2 (en) Imaging apparatus and program thereof
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP5387645B2 (en) Imaging apparatus and program thereof
JP6294607B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2022170553A (en) Imaging apparatus, method for controlling the same, and program
JP5355124B2 (en) Imaging apparatus and scene discrimination method thereof
JP4915272B2 (en) Imaging apparatus and program thereof
JP2017219854A (en) Control device, control method, and exposure control system
JP5387639B2 (en) Imaging apparatus and program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180501

R151 Written notification of patent or utility model registration

Ref document number: 6335497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151