JP5672922B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5672922B2 JP5672922B2 JP2010227256A JP2010227256A JP5672922B2 JP 5672922 B2 JP5672922 B2 JP 5672922B2 JP 2010227256 A JP2010227256 A JP 2010227256A JP 2010227256 A JP2010227256 A JP 2010227256A JP 5672922 B2 JP5672922 B2 JP 5672922B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image data
- image
- auxiliary
- exposure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital still camera or a digital video camera.
最近のデジタルスチルカメラ(以下、「デジタルカメラ」という)には、オートフォーカス(AF)機能、オート露出(AE)機能、オートホワイトバランス(AW)機能の他に、撮像画面内に主要被写体として人物の顔がある場合にこの人物の顔を自動的に検出する顔検出手段を備えているものが一般的になってきている(例えば、特許文献1参照)。 In recent digital still cameras (hereinafter referred to as “digital cameras”), in addition to an autofocus (AF) function, an auto exposure (AE) function, and an auto white balance (AW) function, a person as a main subject in an imaging screen It has become common to have face detection means for automatically detecting the face of a person when there is a face (for example, see Patent Document 1).
前記特許文献1のデジタルカメラのように、人物の顔を検出する顔検出手段を備えている場合、撮影レンズを通して被写体像が撮像素子の受光面に結像したときに、この撮像素子から出力される画像データが、顔検出手段に入力される。そして、顔検出手段により、入力された画像データの中から公知の方法で人物の顔を主要被写体として検出すると、制御部は、顔検出手段で検出した人物の顔の位置に対して焦点(合焦位置)を決定し、更に人物の顔を測光エリアとして最適な露出、ホワイトバランスを決定する処理を行っている。 When a face detection means for detecting a person's face is provided as in the digital camera disclosed in Patent Document 1, when a subject image is formed on the light receiving surface of the image sensor through the photographing lens, the image is output from the image sensor. Image data is input to the face detection means. When the face detection unit detects the human face as a main subject from the input image data by a known method, the control unit focuses (focuses) on the position of the human face detected by the face detection unit. (Focus position) is determined, and an optimal exposure and white balance are determined using the human face as a photometric area.
ところで、顔検出手段は、前記したように入力された画像データの中から公知の方法で人物の顔を主要被写体として検出する構成であるが、例えば極端な逆光で主要被写体である人物の顔が所定以上に暗くなり過ぎていると、人物の顔を検出すること自体が困難となることがある。また、主要被写体である人物の顔周辺の背景が暗く、この人物の顔に正面から極端に明るい照明が当たって所定以上に明る過ぎている場合でも、人物の顔を検出すること自体が困難となることがある。 By the way, the face detection means is configured to detect a person's face as a main subject from the input image data as described above by a known method. For example, the face of the person who is the main subject is detected by extreme backlighting. If it is too dark for a predetermined time, it may be difficult to detect the face of a person. Also, even when the background around the face of the person who is the main subject is dark and the person's face is exposed to extremely bright illumination from the front and is too bright above a predetermined level, it is difficult to detect the person's face itself. May be.
このように、撮像画面内に主要被写体としての人物の顔があっても、上記のような撮影状況によって人物の顔が検出できない場合には、人物の顔の位置に対して焦点(合焦位置)を決定できず、更に人物の顔を測光エリアとして最適な露出、ホワイトバランスを決定することもできないので、撮影者の意図と異なる撮影画像が得られてしまうことがある。 As described above, even when a person's face as a main subject is present in the imaging screen, if the person's face cannot be detected due to the above-described shooting conditions, the focus (focus position) is set relative to the position of the person's face. ) Cannot be determined, and the optimal exposure and white balance cannot be determined using the human face as the photometric area, so that a photographed image different from the photographer's intention may be obtained.
そこで、本発明は、撮影状況(例えば、逆光で主要被写体が暗くなり過ぎている場合や、逆に主要被写体に前方側から強い照明光が当たって白とびしている場合など)によって主要被写体(例えば、人物の顔)が検出できなかった場合でも、撮像画面内の主要被写体を検出することができる撮像装置を提供することを目的とする。 Accordingly, the present invention is based on the main subject (for example, when the main subject is too dark due to backlighting, or when the main subject is exposed to strong illumination light from the front side and is overexposed). For example, an object of the present invention is to provide an imaging apparatus capable of detecting a main subject in an imaging screen even when a human face) cannot be detected.
前記目的を達成するために請求項1に記載の撮像装置は、主撮影用光学系を介して主撮影用の画像を撮像する主撮影用撮像素子と、補助撮影用光学系を介して補助撮影用の画像を撮像する補助撮影用撮像素子と、前記主撮影用撮像素子から出力される画像信号によって生成された第1の画像データと、前記補助撮影用撮像素子から出力される画像信号によって生成された第2の画像データとに対して、任意の露出制御を行う露出制御手段と、前記第1の画像データと前記第2の画像データからそれぞれ撮像画面内に位置する主要被写体を検出する主要被写体検出手段と、を備え、前記主撮影用光学系はズーム機能を有し、前記補助撮影用光学系の画角は、前記主撮影用光学系の広角端側の画角と略同じに設定されており、前記主撮影用光学系が広角端よりも望遠側にズームされている画角のときに、前記主要被写体検出手段が、撮影状況により前記第1の画像データから前記主要被写体を検出できなかった場合には、前記露出制御手段により、前記第2の画像データに対して高輝度側又は低輝度側に露出シフト制御して、前記主要被写体検出手段により、露出シフト制御された前記第2の画像データから、前記補助撮影用撮像素子の全撮像領域のうちの前記主撮影用光学系の画角に対応した領域内から前記主要被写体を検出することを特徴としている。 In order to achieve the above object, an imaging apparatus according to claim 1, wherein an imaging device for main photographing that captures an image for main photographing through an optical system for main photographing, and auxiliary photographing through an optical system for auxiliary photographing. Generated by an auxiliary photographing image pickup device that picks up an image for use, first image data generated by an image signal output from the main photographing image pickup device, and an image signal output from the auxiliary photographing image pickup device Exposure control means for performing arbitrary exposure control on the second image data, and a main object for detecting a main subject located in the imaging screen from the first image data and the second image data, respectively. Subject detection means, wherein the main photographing optical system has a zoom function, and the angle of view of the auxiliary photographing optical system is set to be substantially the same as the angle of view on the wide angle end side of the main photographing optical system. The main photographing optical system When the angle of view being telephoto zoom than at the wide angle end, the main subject detection unit, if it can not detect the main object from the first image data by shooting conditions, the exposure control means Thus, the second image data is subjected to exposure shift control to the high luminance side or the low luminance side, and the second imaging data subjected to the exposure shift control by the main subject detection means is used for the auxiliary imaging. The main subject is detected from an area corresponding to the angle of view of the main imaging optical system in the entire imaging area of the element .
請求項2に記載の撮像装置は、前記主要被写体検出手段が、露出シフト制御された前記第2の画像データから前記主要被写体を検出できた場合、前記露出制御手段は、露出シフト制御された前記第2の画像データから検出された前記主要被写体の位置情報に基づき、前記第1の画像データに対して対応する位置を測光エリアとして測光処理を行い、この測光結果に基づいて前記主要被写体の露出制御を行うことを特徴としている。 The imaging apparatus according to claim 2, wherein when the main subject detection unit can detect the main subject from the second image data subjected to exposure shift control, the exposure control unit performs the exposure shift control. Based on the position information of the main subject detected from the second image data, photometry processing is performed using the corresponding position for the first image data as a photometry area, and the exposure of the main subject is performed based on the photometry result. It is characterized by performing control.
請求項3に記載の撮像装置は、少なくとも一対の前記補助撮影用光学系と前記補助撮影用撮像素子を有し、前記露出制御手段は、一対のうちの一方の前記補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対しては高輝度側に露出シフト制御し、他方の補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対しては低輝度側に露出シフト制御することを特徴としている。 The imaging apparatus according to claim 3 includes at least a pair of the auxiliary photographing optical system and the auxiliary photographing image sensor, and the exposure control unit outputs from one of the pair of auxiliary photographing image sensors. The second image data generated by the image signal output from the other auxiliary photographing image sensor is subjected to exposure shift control to the high luminance side with respect to the second image data generated by the image signal to be processed. In contrast, exposure shift control is performed on the low luminance side.
請求項4に記載の撮像装置は、一つの前記補助撮影用光学系と前記補助撮影用撮像素子を有し、前記露出制御手段は、一つの前記補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対して、高輝度側への露出シフト制御と低輝度側への露出シフト制御とに切り替え可能であることを特徴としている。 The image pickup apparatus according to claim 4 has one auxiliary photographing optical system and the auxiliary photographing image sensor, and the exposure control unit is configured to output an image signal output from the one auxiliary photographing image sensor. The generated second image data can be switched between exposure shift control to the high luminance side and exposure shift control to the low luminance side.
請求項5に記載の撮像装置は、一つの前記補助撮影用光学系と前記補助撮影用撮像素子を有し、前記露出制御手段は、一つの前記補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対して、高輝度側又は低輝度側のいずれか一方に露出シフト制御することを特徴としている。 The image pickup apparatus according to claim 5 includes one auxiliary photographing optical system and the auxiliary photographing image sensor, and the exposure control unit is configured to output an image signal output from the one auxiliary photographing image sensor. Exposure shift control is performed on either the high luminance side or the low luminance side with respect to the generated second image data.
請求項6に記載の撮像装置は、前記主要被写体検出手段が、前記第1の画像データから前記主要被写体を検出できている場合には、前記露出制御手段は前記第2の画像データに対して露出シフト制御を行わず、かつ前記主要被写体検出手段は前記第2の画像データから前記主要被写体の検出を行わないことを特徴としている。 The imaging apparatus according to claim 6 , wherein when the main subject detection unit can detect the main subject from the first image data, the exposure control unit applies the second image data to the second image data. Exposure shift control is not performed, and the main subject detection means does not detect the main subject from the second image data.
請求項7に記載の撮像装置は、前記主要被写体検出手段が、前記第1の画像データから前記主要被写体を検出できている場合には、前記補助撮影用撮像素子による撮像動作を行わないことを特徴としている。 The image pickup apparatus according to claim 7 , wherein the main subject detection unit does not perform an image pickup operation by the auxiliary imaging device when the main subject can be detected from the first image data. It is a feature.
請求項8に記載の撮像装置は、前記主要被写体は人物の顔であり、前記主要被写体検出手段は、主要被写体としての人物の顔を検出することを特徴としている。 The image pickup apparatus according to an eighth aspect is characterized in that the main subject is a person's face, and the main subject detecting means detects a person's face as the main subject.
本発明に係る撮像装置によれば、撮影状況により主撮影用撮像素子から出力される画像信号によって生成された第1の画像データから主要被写体を検出できなかった場合でも、高輝度側又は低輝度側に露出シフト制御された補助撮影用撮像素子から出力される画像信号によって生成された第2の画像データから主要被写体の検出を行うことができる。よって、第2の画像データから検出した主要被写体の位置に基づき、第1の画像データに対して対応する位置に対して焦点(合焦位置)を決定することができ、更に最適な露出とホワイトバランスを決定することが可能となる。 According to the imaging apparatus of the present invention, even when the main subject cannot be detected from the first image data generated by the image signal output from the main imaging element depending on the imaging situation, the high luminance side or low luminance The main subject can be detected from the second image data generated by the image signal output from the auxiliary photographing image sensor whose exposure shift is controlled to the side. Therefore, based on the position of the main subject detected from the second image data, the focus (focus position) can be determined with respect to the position corresponding to the first image data. It becomes possible to determine the balance.
以下、本発明を図示の実施形態に基づいて説明する。 Hereinafter, the present invention will be described based on the illustrated embodiments.
〈実施形態1〉
図1は、本発明の実施形態1に係る撮像装置の一例としてのデジタルカメラを示す正面図、図2は、図1に示したデジタルカメラのシステム構成の概要を示すブロック図である。
<Embodiment 1>
FIG. 1 is a front view showing a digital camera as an example of an imaging apparatus according to Embodiment 1 of the present invention, and FIG. 2 is a block diagram showing an outline of a system configuration of the digital camera shown in FIG.
(デジタルカメラの外観構成)
図1に示すように、本実施形態に係るデジタルカメラ1の正面(前面)側には、光学ズーム機能を有する被写体撮影用の撮影レンズ2、後述する補助撮像ユニット3の前面側のレンズアレイ4等が設けられている。レンズアレイ4の表面には、所定の間隔で左右方向に設けた一対(2つ)の補助撮像素子用レンズ5a,5bが一体に形成されている。撮像レンズ2と補助撮像素子用レンズ5a,5bの各光軸は平行である。また、デジタルカメラ1の上面側には、レリーズボタン6、撮影モード切換ボタン7、不図示の電源スイッチ、ズームスイッチ等が設けられている。
(Appearance structure of digital camera)
As shown in FIG. 1, on the front (front) side of the digital camera 1 according to the present embodiment, a photographing lens 2 for photographing a subject having an optical zoom function, and a lens array 4 on the front side of an auxiliary imaging unit 3 described later. Etc. are provided. On the surface of the lens array 4, a pair (two) of auxiliary imaging element lenses 5 a and 5 b provided in the left-right direction at a predetermined interval are integrally formed. The optical axes of the imaging lens 2 and the auxiliary imaging element lenses 5a and 5b are parallel to each other. Further, on the upper surface side of the digital camera 1, a release button 6, a shooting mode switching button 7, a power switch (not shown), a zoom switch, and the like are provided.
(デジタルカメラ1のシステム構成)
図2に示すように、このデジタルカメラ1は、複数のレンズ群を有する撮影レンズ2、シャッタ機能を有する絞りユニット10、撮影レンズ2を通して入射される撮影像が受光面上に結像するCCDイメージセンサ等の撮影用撮像素子11、撮影用撮像素子11から出力される画像信号(電気信号)をアナログフロントエンド(AFE)部12でデジタル処理して取り込み、撮影画像を表示や記録が可能な画像データに変換処理する信号処理部13、操作部(レリーズボタン6、撮影モード切換ボタン7(図1参照)等)14からの操作入力情報に基づき、ROM(不図示)に記憶された制御プログラムに基づいてデジタルカメラ1全体のシステム制御等を行う制御部(CPU)15、信号処理部13で生成された画像データ(撮影画像)等を表示する液晶モニタ(LCD)16、撮影レンズ2の複数のレンズ群を駆動するレンズ駆動部17、絞りユニット10を駆動する絞りユニット駆動部18、及び前記補助撮像ユニット3等を備えている。信号処理部13で生成された画像データは、メモリカード収納部(不図示)内に収納自在なメモリカード19に記録される。
(System configuration of digital camera 1)
As shown in FIG. 2, the digital camera 1 includes a photographing lens 2 having a plurality of lens groups, a diaphragm unit 10 having a shutter function, and a CCD image in which a photographed image incident through the photographing lens 2 is formed on a light receiving surface. An imaging sensor 11 such as a sensor, and an image signal (electric signal) output from the imaging sensor 11 is digitally processed by an analog front end (AFE) unit 12 and captured to display or record a captured image. A control program stored in a ROM (not shown) is stored on the basis of operation input information from a signal processing unit 13 that performs conversion processing to data and an operation unit (release button 6, shooting mode switching button 7 (see FIG. 1), etc.). A control unit (CPU) 15 that performs system control of the entire digital camera 1 based on the image data (photographed image) generated by the signal processing unit 13 And includes a liquid crystal monitor (LCD) 16 to display, the lens driving unit 17 for driving the plurality of lens of the taking lens 2, aperture unit drive unit 18 drives the aperture unit 10, and the auxiliary image pickup unit 3 or the like. The image data generated by the signal processing unit 13 is recorded in a memory card 19 that can be stored in a memory card storage unit (not shown).
液晶モニタ(LCD)16は、画像データ(撮影画像)を表示する以外にも、撮影時の撮影モードなどの各種動作内容等を表示したり、電子ファインダとしてモニタリング画像(動画)を表示することができる。液晶モニタ(LCD)16は、デジタルカメラ1の背面側に設けられている。なお、実際に撮影する前のモニタリング時においては、撮影用撮像素子11からの画像信号に対して画素数を間引き処理した画像が液晶モニタ(LCD)16に表示される。 In addition to displaying image data (captured image), the liquid crystal monitor (LCD) 16 can display various operation contents such as a shooting mode at the time of shooting, and can also display a monitoring image (moving image) as an electronic viewfinder. it can. A liquid crystal monitor (LCD) 16 is provided on the back side of the digital camera 1. At the time of monitoring before actual shooting, an image obtained by thinning the number of pixels with respect to the image signal from the image pickup device 11 is displayed on the liquid crystal monitor (LCD) 16.
制御部(CPU)15は、撮影用撮像素子11からアナログフロントエンド(AFE)部12を介して取り込んだ画像信号より、AF(自動合焦)評価値、AE(自動露出)評価値、AWB(オートホワイトバランス)評価値を算出する。 The control unit (CPU) 15 uses an AF (automatic focus) evaluation value, an AE (automatic exposure) evaluation value, and an AWB (AWB) based on an image signal captured from the image pickup device 11 for imaging via the analog front end (AFE) unit 12. (Auto white balance) Evaluation value is calculated.
AF評価値は、例えば、高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ2の光軸方向に沿った各フォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。 The AF evaluation value is calculated by, for example, the output integrated value of the high frequency component extraction filter or the integrated value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By utilizing this, at the time of AF operation (at the time of focus detection operation), an AF evaluation value at each focus lens position along the optical axis direction of the photographing lens 2 is acquired, and the point at which the maximum is obtained is focused. An AF operation is executed as a detection position.
AE評価値とAWB評価値は、取り込んだ撮影用撮像素子11からの画像信号におけるRGB値のそれぞれの積分値から算出される。例えば、撮影用撮像素子11の全画素の受光面に対応した撮像画面を1024エリアに等分割(水平32分割、垂直32分割)し、それぞれのエリアのRGB積算を算出する。 The AE evaluation value and the AWB evaluation value are calculated from the integrated values of the RGB values in the captured image signal from the imaging element 11 for photographing. For example, the imaging screen corresponding to the light receiving surfaces of all the pixels of the imaging element 11 for photographing is equally divided into 1024 areas (horizontal 32 divisions and vertical 32 divisions), and the RGB integration of each area is calculated.
そして、制御部15は、AE評価値(算出されたRGB積算値)を読み出し、撮像画面内の各エリアの輝度を算出して、輝度分布から適正な露光量を決定する測光処理(AE処理)を行う。そして、制御部15は、決定した露光量に基づいて、露出条件(撮影用撮像素子11の電子シャッタ回数、絞りユニット10の絞り値等)を設定し、露出制御を行う。また、制御部15は、AWB評価値(算出されたRGB積算値)を読み出し、撮像画面内の各エリアのRGBの分布から被写体色や光源色を判定し、光源の色に合わせたAWBの制御値を決定する処理(AWB処理)を行う。 Then, the control unit 15 reads out the AE evaluation value (calculated RGB integrated value), calculates the luminance of each area in the imaging screen, and determines the appropriate exposure amount from the luminance distribution (AE processing). I do. Then, the control unit 15 sets exposure conditions (the number of electronic shutters of the image pickup device 11, the aperture value of the aperture unit 10, etc.) based on the determined exposure amount, and performs exposure control. Further, the control unit 15 reads the AWB evaluation value (calculated RGB integrated value), determines the subject color and the light source color from the RGB distribution of each area in the imaging screen, and controls the AWB according to the color of the light source. Processing for determining a value (AWB processing) is performed.
また、制御部15は、顔検出部15aを有している。 The control unit 15 has a face detection unit 15a.
顔検出部15aは、例えば、前記撮像画面内の各エリアの輝度データを読み出し、予め記憶されている人物の顔の目と鼻の輝度パターンテンプレートとのマッチングを行うことで、主要被写体である人物の顔を検出する処理を行う。前記輝度パターンテンプレートは、複数種類の大きさのものが予めROM(不図示)に記憶されており、それぞれの大きさの輝度パターンテンプレートで撮像画面内の各エリアにおいてパターンマッチングすることで人物の顔の検出を行う。人物の顔部が検出されると、人物の顔部が撮像画面内で移動してもそれに追尾して検出状態を保持する。 The face detection unit 15a, for example, reads out luminance data of each area in the imaging screen and performs matching between a human face eye and a nose luminance pattern template stored in advance, so that the person who is the main subject To detect the face. Plural types of brightness pattern templates are stored in advance in a ROM (not shown), and a person's face is obtained by pattern matching in each area in the imaging screen with the brightness pattern templates of each size. Detection is performed. When the face of a person is detected, even if the face of the person moves within the imaging screen, it is tracked and the detection state is maintained.
図3に示すように、撮影モードに設定して実際に被写体を撮影する前のモニタリング動作時(構図やシャッタチャンス等を確認するために、液晶モニタ16に撮影する画像(動画)が表示されている時)から、制御部15は、前記露出制御を一定時間間隔で行っており、また、顔検出部15aは、露出制御とは非同期で前記顔検出処理を一定時間間隔(露出制御の一定時間間隔よりも長い)で行っており、顔検出結果情報を露出制御側へ通知する。 As shown in FIG. 3, during the monitoring operation before the subject is actually photographed after being set to the photographing mode (an image (moving image) to be photographed is displayed on the liquid crystal monitor 16 in order to confirm the composition or the photo opportunity). The control unit 15 performs the exposure control at a constant time interval, and the face detection unit 15a performs the face detection process at a constant time interval (a constant time for exposure control). The face detection result information is notified to the exposure control side.
そして、制御部15は、撮像画面内で人物の顔が検出されるとその顔を測光エリアとしてAE評価値を算出し、算出したAE評価値に基づいて露光量を決定する。そして、決定した露光量に基づいて、露出条件(撮影用撮像素子11の電子シャッタ回数、絞りユニット10の絞り値等)を設定し、露出制御を行う。 Then, when a human face is detected in the imaging screen, the control unit 15 calculates an AE evaluation value using the face as a photometric area, and determines an exposure amount based on the calculated AE evaluation value. Based on the determined exposure amount, exposure conditions (such as the number of electronic shutters of the image pickup device 11 and the aperture value of the aperture unit 10) are set and exposure control is performed.
なお、撮像画面内に人物の顔があるのに顔検出ができない撮影状況の場合、撮像画面内に人物の顔がいない場合、顔検出モードがOFFの場合には、例えば分割測光方式(撮像画面を複数のエリアに分割し、各エリア毎に輝度の平均値を算出して算出した輝度平均値の分布パターンから輝度データを決定する方式)で測光して露光制御を行う。 In the case of a shooting situation where face detection is not possible even though there is a person's face in the imaging screen, when there is no person's face in the imaging screen, or when the face detection mode is OFF, for example, split photometry (imaging screen) Is divided into a plurality of areas, the average value of the luminance is calculated for each area, and the luminance data is determined from the distribution pattern of the calculated luminance average value) to perform exposure control.
また、このモニタリング動作時には、露出制御とは非同期で前記AF動作を一定時間間隔(露出制御の一定時間間隔よりも長い)で行っており、例えば、顔検出処理で主要被写体である人物の顔を検出した場合には、検出した顔の位置に対してAF動作を行なう。 In this monitoring operation, the AF operation is performed at a fixed time interval (longer than the fixed time interval of the exposure control) asynchronously with the exposure control. For example, the face of the person who is the main subject is detected in the face detection process. If detected, an AF operation is performed on the detected face position.
(補助撮像ユニット3の構成)
図4(a),(b)に示すように、本実施形態の補助撮像ユニット3は、前面側(図4(a)の上側)が開口した筐体20と、この筐体20の前面側に一対の補助撮像用レンズ5a,5bが一列(デジタルカメラ1の左右方向)に一体に形成された透明樹脂材からなるレンズアレイ4と、レンズアレイ4と対向する筐体20内の背面側(図4(a)の下側)に配置された薄板状の撮像素子基板21と、撮像素子基板21上に等間隔で形成された平面状(2次元状)のCCD等の第1、第2の補助撮像素子22a,22bと、撮像素子基板21の背面に配置された第1、第2の補助撮像素子22a,22bから出力される画像信号(電気信号)をデジタル信号に変換処理するアナログフロントエンド(AFE)部等23を備えている。アナログフロントエンド部23でデジタル信号に変換された画像信号は、前記信号処理部13に入力される。
(Configuration of auxiliary imaging unit 3)
As shown in FIGS. 4A and 4B, the auxiliary imaging unit 3 of the present embodiment includes a housing 20 having an open front side (upper side in FIG. 4A) and a front side of the housing 20. A pair of auxiliary imaging lenses 5a and 5b are integrally formed in a line (left and right direction of the digital camera 1) in a single lens array 4 made of a transparent resin material, and a rear side in the housing 20 facing the lens array 4 ( A thin plate-like imaging element substrate 21 disposed on the lower side of FIG. 4A and first and second planar (two-dimensional) CCDs formed on the imaging element substrate 21 at equal intervals. Auxiliary imaging devices 22a and 22b and an analog front that converts image signals (electrical signals) output from the first and second auxiliary imaging devices 22a and 22b disposed on the back surface of the imaging device substrate 21 into digital signals. An end (AFE) section 23 and the like are provided. The image signal converted into a digital signal by the analog front end unit 23 is input to the signal processing unit 13.
第1、第2の各補助撮像素子22a,22bは、補助撮像素子用レンズ5a,5bとそれぞれ対向するようにして配置されている。第1、第2の補助撮像素子22a,22bのサイズは前記撮影用撮像素子11よりも小さく、第1、第2の補助撮像素子22a,22bの各撮像領域22a1,22b1の画素数は、例えば、撮影用撮像素子11の画素数を間引き処理したモニタリング時と同程度である。 The first and second auxiliary imaging elements 22a and 22b are arranged so as to face the auxiliary imaging element lenses 5a and 5b, respectively. The size of the first and second auxiliary imaging elements 22a and 22b is smaller than that of the imaging imaging element 11, and the number of pixels in each of the imaging regions 22a1 and 22b1 of the first and second auxiliary imaging elements 22a and 22b is, for example, This is the same level as during monitoring when the number of pixels of the image sensor 11 for photographing is thinned out.
第1、第2の補助撮像素子用レンズ5a,5bの各光軸は平行であり、各撮像領域22a1,22b1の対角中心と第1、第2の補助撮像素子用レンズ5a,5bの光軸が略一致するように位置決めされている。第1、第2の補助撮像素子用レンズ5a,5bの画角は、本実施形態では前記撮影レンズ2の最広角ズーム側付近の撮影画角に対応している。補助撮像素子用レンズ5a,5bは、該補助撮像素子用レンズ5a,5bに入射する被写体光が各撮像領域22a1,22b1に結像するような焦点距離を有している。なお、レンズアレイ4の前面側の補助撮像素子用レンズ5a,5b以外の部分は遮光部材(不図示)で覆われている。 The optical axes of the first and second auxiliary imaging element lenses 5a and 5b are parallel to each other, and the diagonal centers of the imaging areas 22a1 and 22b1 and the lights of the first and second auxiliary imaging element lenses 5a and 5b. The axes are positioned so that they are substantially coincident. In the present embodiment, the field angles of the first and second auxiliary imaging element lenses 5a and 5b correspond to the shooting field angles in the vicinity of the widest zoom side of the shooting lens 2. The auxiliary imaging element lenses 5a and 5b have focal lengths such that subject light incident on the auxiliary imaging element lenses 5a and 5b forms an image on the imaging regions 22a1 and 22b1. The portions other than the auxiliary imaging element lenses 5a and 5b on the front side of the lens array 4 are covered with a light shielding member (not shown).
制御部(CPU)15は、第1、第2の補助撮像素子22a,22b(各撮像領域22a1,22b1)からアナログフロントエンド(AFE)部23を介して取り込んだ画像信号より、各撮像領域22a1,22b1の受光面に対応した撮像画面を複数のエリアに分割して、それぞれのエリアでAE評価値を算出することができる。 The control unit (CPU) 15 uses the image signals captured from the first and second auxiliary imaging elements 22a and 22b (the respective imaging regions 22a1 and 22b1) via the analog front end (AFE) unit 23 to each imaging region 22a1. , 22b1 can be divided into a plurality of areas, and an AE evaluation value can be calculated in each area.
そして、制御部15は、第1の補助撮像素子22a(撮像領域22a1)からの画像信号に対しては高輝度側にシフトした露出制御を行い、第2の補助撮像素子22b(撮像領域221)からの画像信号に対しては低輝度側にシフトした露出制御を行う。高輝度側に露出制御する場合は、例えば、第1、第2の補助撮像素子22a,22bから出力される画像信号をデジタル信号に変換処理するアナログフロントエンド部23でのゲイン値を高くし、低輝度側に露出制御する場合は、逆にゲイン値を低くする。 And the control part 15 performs exposure control shifted to the high-intensity side with respect to the image signal from the 1st auxiliary image sensor 22a (imaging area 22a1), and the 2nd auxiliary image sensor 22b (image area 221). The exposure control shifted to the low luminance side is performed on the image signal from. When exposure control is performed on the high luminance side, for example, the gain value in the analog front end unit 23 that converts the image signals output from the first and second auxiliary imaging elements 22a and 22b into digital signals is increased, Conversely, when exposure is controlled to the low luminance side, the gain value is lowered.
なお、第1、第2の補助撮像素子22a,22b(各撮像領域22a1,22b1)からの画像信号は信号処理部13に入力されるが、画像として液晶モニタ16に表示されたり、メモリカード19に記録されることはない。 Note that image signals from the first and second auxiliary imaging elements 22a and 22b (imaging areas 22a1 and 22b1) are input to the signal processing unit 13, but are displayed on the liquid crystal monitor 16 as images, or the memory card 19 Will not be recorded.
顔検出部15aは、モニタリング動作時に撮影用撮像素子11からの画像信号によって顔検出処理を行ったときに逆光等の撮影状況によって人物の顔を検出できなかった場合、第1、第2の補助撮像素子22a,22b(各撮像領域22a1,22b1)からの画像信号によって顔検出処理を行う(詳細は後述する)。 If the face detection unit 15a cannot detect the face of a person due to shooting conditions such as backlighting when performing face detection processing based on the image signal from the image pickup device 11 during the monitoring operation, the face detection unit 15a performs first and second auxiliary operations. Face detection processing is performed based on image signals from the imaging elements 22a and 22b (imaging areas 22a1 and 22b1) (details will be described later).
なお、図5(a)は、撮影レンズ2を最広角側にズームしているときの撮影画角、図5(b)は、補助撮像ユニット3の補助撮像素子用レンズ5a,5bの画角を示しており、両者の画角は略同じである。この場合の画面内の画像は両者とも略同じ大きさとなる。よって、撮影レンズ2を最広角側にズームしているときは、第1、第2の補助撮像素子22a,22bの各撮像領域22a1,22b1の全体から主要被写体である人物の顔を検出する。 5A is a shooting field angle when the shooting lens 2 is zoomed to the widest angle side, and FIG. 5B is a field angle of the auxiliary imaging element lenses 5a and 5b of the auxiliary imaging unit 3. The angle of view of both is substantially the same. In this case, the images on the screen are approximately the same size. Therefore, when the photographing lens 2 is zoomed to the widest angle side, the face of the person who is the main subject is detected from the entire imaging areas 22a1 and 22b1 of the first and second auxiliary imaging elements 22a and 22b.
また、図6(a)は、撮影レンズ2を最広角から望遠側にズームしているときの撮影画角、図6(b)は、補助撮像ユニット3の補助撮像素子用レンズ5a,5bの画角を示しており、撮影レンズ2の撮影画角の方が狭くなる。よって、この場合は、第1、第2の補助撮像素子22a,22bの撮像領域22a1,22b1のうちの前記撮影レンズ2の撮影画角に対応した領域Aから主要被写体である人物の顔を検出する。 6A shows a shooting angle of view when the taking lens 2 is zoomed from the widest angle to the telephoto side, and FIG. 6B shows the auxiliary imaging element lenses 5a and 5b of the auxiliary imaging unit 3. The angle of view is shown, and the shooting angle of view of the taking lens 2 is narrower. Therefore, in this case, the face of the person who is the main subject is detected from the area A corresponding to the shooting angle of view of the shooting lens 2 in the imaging areas 22a1 and 22b1 of the first and second auxiliary imaging elements 22a and 22b. To do.
次に、実施形態1における、本撮影前のモニタリング動作時での人物の顔を検出する顔検出処理と露出制御処理を、図7に示すフローチャートを参照して説明する。なお、図7に示したフローチャートでの顔検出処理と露出制御処理は、撮像画角内に主要被写体である人物の顔がある場合を前提としている(後述する実施形態2、3のフローチャートでも同様である)。 Next, a face detection process and an exposure control process for detecting a human face in the monitoring operation before the main photographing in the first embodiment will be described with reference to a flowchart shown in FIG. Note that the face detection process and the exposure control process in the flowchart shown in FIG. 7 are based on the premise that the face of the person who is the main subject is within the imaging angle of view (the same applies to the flowcharts of Embodiments 2 and 3 described later). Is).
撮影者がデジタルカメラ1の電源スイッチ(不図示)をONして撮影モード、顔検出モードに設定すると、モニタリング動作が開始され、撮影レンズ2を通して撮影像が撮影用撮像素子11に結像し、撮影用撮像素子11からアナログフロントエンド部12を介して画像信号が信号処理部13に出力され、画像データが生成される。 When the photographer turns on the power switch (not shown) of the digital camera 1 to set the photographing mode and the face detection mode, a monitoring operation is started, and a photographed image is formed on the photographing image sensor 11 through the photographing lens 2. An image signal is output from the imaging element 11 for imaging to the signal processing unit 13 via the analog front end unit 12, and image data is generated.
そして、顔検出部15aは、信号処理部13に取り込まれた撮影用撮像素子11からの画像信号で生成された画像データによって、主要被写体としての人物の顔を検出する処理を行う(ステップS1)。 Then, the face detection unit 15a performs a process of detecting the face of a person as a main subject based on the image data generated by the image signal from the image pickup device 11 captured by the signal processing unit 13 (step S1). .
そして、ステップS1での顔検出処理時において、撮影状況(逆光で人物の顔が暗くなり過ぎている場合や、逆に人物の顔に前方側から強い照明光が当たって白とびしている場合など)によって顔が検出できなかった場合(ステップS2:NO)、制御部15は、最初に第1の補助撮像素子22a(撮像領域22a1)からの画像信号によって、高輝度側に露出シフト制御した画像データを生成し、顔検出部15aは、この画像データから人物の顔を検出する処理を行う(ステップS3)。 Then, during the face detection process in step S1, the shooting situation (when the face of the person is too dark due to backlighting or when the person's face is exposed to strong illumination light from the front side and is overexposed) If the face cannot be detected (step S2: NO), the control unit 15 first controls the exposure shift to the high luminance side by the image signal from the first auxiliary imaging element 22a (imaging region 22a1). Image data is generated, and the face detection unit 15a performs processing for detecting a human face from the image data (step S3).
そして、ステップS3での顔検出処理時において、高輝度側に露出シフト制御した画像データから顔が検出できなかった場合(ステップS4:NO)、制御部15は、次に第2の補助撮像素子22b(撮像領域22b1)からの画像信号によって、低輝度側に露出シフト制御した画像データを生成し、顔検出部15aは、この画像データから人物の顔を検出する処理を行う(ステップS5)。 When the face cannot be detected from the image data subjected to the exposure shift control to the high luminance side during the face detection process in step S3 (step S4: NO), the control unit 15 next uses the second auxiliary image sensor. Based on the image signal from 22b (imaging region 22b1), image data that has been subjected to exposure shift control on the low luminance side is generated, and the face detection unit 15a performs processing for detecting a human face from this image data (step S5).
そして、ステップS5での顔検出処理時において、低輝度側に露出シフト制御された画像データから顔を検出した場合(ステップS6:YES)、制御部15は、検出した顔の位置情報に基づき、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS7)。そして、ステップS7での測光結果に基づいて露出制御を行う(ステップS8)。 In the face detection process in step S5, when a face is detected from the image data subjected to exposure shift control on the low luminance side (step S6: YES), the control unit 15 is based on the detected face position information. Photometric processing is performed using the image data generated from the image signal from the image pickup device 11 (step S7). Then, exposure control is performed based on the photometric result in step S7 (step S8).
なお、ステップS2において、撮影用撮像素子11からの画像信号で生成された画像データから顔が検出できた場合(ステップS2:YES)は、通常の撮影状況であり、制御部15は、検出した顔の位置を測光エリアとして、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS7)。 In step S2, if a face can be detected from the image data generated from the image signal from the imaging element 11 for shooting (step S2: YES), it is a normal shooting situation, and the control unit 15 has detected it. Using the face position as the photometric area, photometric processing is performed using the image data generated from the image signal from the image pickup device 11 (step S7).
また、ステップS4において、高輝度側に露出シフト制御した画像データから顔が検出できた場合(ステップS4:YES)においては、図8(a)のように、例えば、逆光によって被写体である人物の顔Fが暗くなり過ぎていて顔検出できないときに、図8(b)のような高輝度側に露出シフト制御された画像を生成することで、人物の顔Fを検出することができる。そして、制御部15は、検出した顔の位置情報に基づき、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS7)。 In addition, in step S4, when a face can be detected from the image data subjected to exposure shift control to the high luminance side (step S4: YES), for example, as shown in FIG. When the face F is too dark to detect the face, it is possible to detect the person's face F by generating an image whose exposure shift is controlled to the high luminance side as shown in FIG. Then, the control unit 15 performs photometric processing based on the image data generated from the image signal from the imaging element 11 based on the detected face position information (step S7).
なお、図8(a)は、逆光によって主要被写体である人物の顔Fが暗くなり過ぎているときに、撮影用撮像素子11からの画像信号によって液晶モニタ16に表示された画像の一例である。また、図8(b)は、第1の補助撮像素子22a(撮像領域22a1)からの画像信号によって生成された画像(高輝度側に露出シフトされ、人物の顔Fが明るくなっている画像)のイメージであるが、この画像は液晶モニタ16に表示されることはない。 FIG. 8A is an example of an image displayed on the liquid crystal monitor 16 by the image signal from the imaging element 11 when the face F of the person who is the main subject is too dark due to backlight. . FIG. 8B shows an image generated by an image signal from the first auxiliary imaging element 22a (imaging region 22a1) (an image in which the face F of the person is brightly exposed and shifted to the high luminance side). However, this image is not displayed on the liquid crystal monitor 16.
よって、モニタリング動作時に液晶モニタ16に表示される画像に、例えば、暗くなり過ぎている人物の顔が急に高輝度側に露出シフトされて明るくなるなどの変化が生じることなく、撮影者に違和感を与えることはない。 Therefore, the image displayed on the liquid crystal monitor 16 during the monitoring operation does not change, for example, the person's face that is too dark suddenly shifts to the high luminance side and becomes brighter, and the photographer feels uncomfortable. Never give.
また、ステップS5での顔検出処理時において、低輝度側に露出シフト制御した画像データから顔が検出できなかった場合(ステップS6:NO)においては、撮像画面内に主要被写体である人物の顔があっても顔検出ができない悪条件下である。この場合には制御部15は、撮影用撮像素子11からの画像信号で生成された画像データによって通常の測光方式(例えば、分割測光方式)で測光処理を行う(ステップS9)。そして、ステップS9での測光結果に基づいて露出制御を行う(ステップS10)。 In addition, when the face cannot be detected from the image data subjected to exposure shift control to the low luminance side during the face detection process in step S5 (step S6: NO), the face of the person who is the main subject in the imaging screen This is an adverse condition where face detection is not possible even if there is a face. In this case, the control unit 15 performs a photometric process using a normal photometric method (for example, a divided photometric method) based on the image data generated from the image signal from the image pickup device 11 (step S9). Then, exposure control is performed based on the photometric result in step S9 (step S10).
このように、本実施形態のデジタルカメラ1によれば、モニタリング動作時に撮影用撮像素子11からの画像信号で生成された画像データでは顔検出ができない撮影状況でも、補助撮像ユニット3の第1、2の補助撮像素子22a,22b(撮像領域22a1,22b1)からの各画像信号によって、高輝度側と低輝度側にそれぞれ露出シフト制御した画像データを生成し、これらの露出シフト制御された画像データから人物の顔を検出して、顔の位置情報を得ることができる。 As described above, according to the digital camera 1 of the present embodiment, the first imaging unit 3 of the auxiliary imaging unit 3 can be used even in a shooting situation in which face detection cannot be performed with the image data generated from the image signal from the imaging sensor 11 during the monitoring operation. The image data subjected to the exposure shift control on the high luminance side and the low luminance side are generated by the image signals from the two auxiliary imaging elements 22a and 22b (imaging regions 22a1 and 22b1), and the image data subjected to the exposure shift control. The position of the face can be obtained by detecting the face of the person.
そして、制御部15は、検出された人物の顔の位置に対して焦点(合焦位置)を決定し、更に人物の顔を測光エリアとして最適な露出、ホワイトバランスを決定する処理を行い、本撮影を行う。 Then, the control unit 15 determines a focus (focus position) with respect to the detected position of the person's face, and further performs a process of determining an optimum exposure and white balance using the person's face as a photometric area. Take a picture.
また、本実施形態のデジタルカメラ1では、図7のフローチャートのステップS2において、撮影用撮像素子11からの画像信号で生成された画像データから顔が検出できた場合(ステップS2:YES)において、制御部15は第2の画像データに対して露出シフト制御を行わず、かつ顔検出部15aは第2の画像データから人物の顔の検出を行わないようにするとよい。これにより、不要な演算処理が実行されることが防止され、かつ消費電力を低減することができる。 In the digital camera 1 of the present embodiment, when a face can be detected from the image data generated from the image signal from the imaging element 11 in step S2 in the flowchart of FIG. 7 (step S2: YES), It is preferable that the control unit 15 does not perform exposure shift control on the second image data, and the face detection unit 15a does not detect a human face from the second image data. Thereby, it is possible to prevent unnecessary arithmetic processing from being executed and to reduce power consumption.
更に、図7のフローチャートのステップS2において、撮影用撮像素子11からの画像信号で生成された画像データから顔が検出できた場合(ステップS2:YES)において、補助撮像ユニット3への通電をOFFにし、第1、第2の補助撮像素子22a,22bによる撮像動作を行なわないようにしてもよい。これにより、不要な演算処理が実行されることが防止され、かつ消費電力をより低減することができる。 Further, in step S2 of the flowchart of FIG. 7, when a face can be detected from the image data generated from the image signal from the imaging element 11 for shooting (step S2: YES), the power supply to the auxiliary imaging unit 3 is turned off. In addition, the imaging operation by the first and second auxiliary imaging elements 22a and 22b may not be performed. Thereby, it is possible to prevent unnecessary arithmetic processing from being executed, and to further reduce power consumption.
〈実施形態2〉
図9は、本発明の実施形態2に係るデジタルカメラを示す正面図、図10は、このデジタルカメラに設けた補助撮像ユニットを示す断面図である。
<Embodiment 2>
FIG. 9 is a front view showing a digital camera according to Embodiment 2 of the present invention, and FIG. 10 is a cross-sectional view showing an auxiliary imaging unit provided in the digital camera.
図9、図10に示すように、本実施形態のデジタルカメラ1aに設けられた補助撮像ユニット3aは、1つの補助撮像素子用レンズ5と補助撮像素子24を有している。補助撮像素子24の撮像領域24aの対角中心と補助撮像素子用レンズ5の光軸が略一致するように位置決めされている。補助撮像ユニット3aの他の構成は、図4(a)に示した実施形態1と同様である。また、デジタルカメラ1aのシステム構成は、図2に示した実施形態1と同様であり、以下のフローチャートでは図2を参照して説明する。 As shown in FIGS. 9 and 10, the auxiliary imaging unit 3 a provided in the digital camera 1 a of the present embodiment has one auxiliary imaging element lens 5 and an auxiliary imaging element 24. The auxiliary imaging element 24 is positioned so that the diagonal center of the imaging region 24a and the optical axis of the auxiliary imaging element lens 5 are substantially aligned. Other configurations of the auxiliary imaging unit 3a are the same as those in the first embodiment shown in FIG. The system configuration of the digital camera 1a is the same as that of the first embodiment shown in FIG. 2, and the following flowchart will be described with reference to FIG.
本実施形態では、デジタルカメラ1aの制御部15(図2参照)は、補助撮像素子24(撮像領域24a)からの画像信号によって生成された画像データに対して、高輝度側にシフトした露出制御と低輝度側にシフトした露出制御を切り替えて行うことができる。なお、補助撮像素子24(撮像領域24a)からの画像信号は信号処理部13に入力されるが、画像として液晶モニタ16に表示されたり、メモリカード19に記録されることはない。 In the present embodiment, the control unit 15 (see FIG. 2) of the digital camera 1a controls the exposure control shifted to the high luminance side with respect to the image data generated by the image signal from the auxiliary imaging element 24 (imaging region 24a). The exposure control shifted to the low luminance side can be switched. Note that the image signal from the auxiliary imaging element 24 (imaging region 24 a) is input to the signal processing unit 13, but is not displayed as an image on the liquid crystal monitor 16 or recorded on the memory card 19.
顔検出部15aは、モニタリング動作時に撮影用撮像素子11からの画像信号によって顔検出処理を行ったときに逆光等の悪条件によって人物の顔を検出できなかった場合、補助撮像素子24(撮像領域24a)からの画像信号によって生成された画像データで顔検出処理を行う(詳細は後述する)。 When the face detection unit 15a cannot detect the face of a person due to bad conditions such as backlighting when performing face detection processing based on the image signal from the image pickup imaging element 11 during the monitoring operation, the face detection unit 15a Face detection processing is performed on the image data generated from the image signal from 24a) (details will be described later).
次に、本実施形態おける、本撮影前のモニタリング動作時での人物の顔を検出する顔検出処理と露出制御処理を、図11に示すフローチャートを参照して説明する。 Next, face detection processing and exposure control processing for detecting a person's face during a monitoring operation before actual photographing in the present embodiment will be described with reference to a flowchart shown in FIG.
撮影者がデジタルカメラ1aの電源スイッチ(不図示)をONして撮影モード、顔検出モードに設定すると、モニタリング動作が開始され、撮影レンズ2を通して撮影像が撮影用撮像素子11に結像し、撮影用撮像素子11からアナログフロントエンド部12を介して画像信号が信号処理部13に出力され、画像データが生成される。 When the photographer turns on the power switch (not shown) of the digital camera 1a to set the photographing mode and the face detection mode, the monitoring operation is started, and the photographed image is formed on the photographing image sensor 11 through the photographing lens 2, An image signal is output from the imaging element 11 for imaging to the signal processing unit 13 via the analog front end unit 12, and image data is generated.
そして、顔検出部15aは、信号処理部13に取り込まれた撮影用撮像素子11からの画像信号で生成された画像データによって、主要被写体としての人物の顔を検出する処理を行う(ステップS11)。 Then, the face detection unit 15a performs a process of detecting the face of a person as a main subject based on the image data generated by the image signal from the image pickup device 11 captured by the signal processing unit 13 (step S11). .
そして、ステップS11での顔検出処理時において、撮影状況(逆光で人物の顔が暗くなり過ぎている場合や、逆に人物の顔に前方側から強い照明光が当たって白とびしている場合など)によって顔が検出できなかった場合(ステップS12:NO)、制御部15は、最初に補助撮像素子24(撮像領域24a)からの画像信号によって、高輝度側に露出シフト制御した画像データを生成し、顔検出部15aは、この画像データから人物の顔を検出する処理を行う(ステップS13)。 Then, during the face detection process in step S11, the shooting situation (when a person's face is too dark due to backlighting or when a strong illumination light hits the person's face from the front side is overexposed) If the face cannot be detected (step S12: NO), the control unit 15 first outputs image data whose exposure shift is controlled to the high luminance side by the image signal from the auxiliary imaging element 24 (imaging region 24a). The face detection unit 15a generates the person's face from the image data (step S13).
そして、ステップS13での顔検出処理時において、高輝度側に露出シフト制御した画像データから顔が検出できなかった場合(ステップS14:NO)、制御部15は、次に補助撮像素子24(撮像領域24a)からの画像信号によって、低輝度側に切り替えるような露出シフト制御した画像データを生成し、顔検出部15aは、この画像データから人物の顔を検出する処理を行う(ステップS15)。 In the face detection process in step S13, if a face cannot be detected from the image data subjected to exposure shift control to the high luminance side (step S14: NO), the control unit 15 next performs the auxiliary imaging element 24 (imaging). Based on the image signal from the region 24a), image data subjected to exposure shift control so as to switch to the low luminance side is generated, and the face detection unit 15a performs processing for detecting a human face from this image data (step S15).
そして、ステップS15での顔検出処理時において、低輝度側に露出シフト制御された画像データから顔を検出した場合(ステップS16:YES)、制御部15は、検出した顔の位置情報に基づき、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS17)。そして、ステップS17での測光結果に基づいて露出制御を行う(ステップS18)。 In the face detection process in step S15, when a face is detected from the image data subjected to exposure shift control on the low luminance side (step S16: YES), the control unit 15 is based on the detected face position information. Photometric processing is performed using the image data generated from the image signal from the image pickup device 11 (step S17). Then, exposure control is performed based on the photometric result in step S17 (step S18).
なお、ステップS12において、撮影用撮像素子11からの画像信号で生成された画像データから顔が検出できた場合(ステップS12:YES)、及びステップS14において、高輝度側に露出シフト制御した画像データから顔が検出できた場合(ステップS14:YES)においては、実施形態1と同様に制御部15は、検出した顔の位置を測光エリアとして、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS17)。 In step S12, when a face can be detected from the image data generated from the image signal from the imaging element 11 for shooting (step S12: YES), and in step S14, the image data subjected to exposure shift control on the high luminance side. When the face can be detected from the image (step S14: YES), the control unit 15 generates the image signal from the image sensor 11 for photographing using the detected face position as the photometric area, as in the first embodiment. Photometric processing is performed based on the image data (step S17).
また、ステップS15での顔検出処理時において、低輝度側に露出シフト制御した画像データから顔が検出できなかった場合(ステップS16:NO)においては、撮像画面内に主要被写体である人物の顔があっても顔検出ができない悪条件下である。この場合には制御部15は、撮影用撮像素子11からの画像信号で生成された画像データによって通常の測光方式(例えば、分割測光方式)で測光処理を行う(ステップS19)。そして、ステップS19での測光結果に基づいて露出制御を行う(ステップS20)。 In addition, in the face detection process in step S15, when a face cannot be detected from the image data subjected to exposure shift control to the low luminance side (step S16: NO), the face of the person who is the main subject in the imaging screen This is an adverse condition where face detection is not possible even if there is a face. In this case, the control unit 15 performs a photometric process using a normal photometric method (for example, a divided photometric method) based on the image data generated from the image signal from the image pickup device 11 (step S19). Then, exposure control is performed based on the photometric result in step S19 (step S20).
このように、本実施形態のデジタルカメラ1aによれば、モニタリング動作時に撮影用撮像素子11からの画像信号で生成された画像データでは主要被写体である顔が検出できない撮影状況でも、補助撮像ユニット3の補助撮像素子24(撮像領域24a)からの画像信号で生成された画像データに対して、高輝度側にシフトした露出制御と低輝度側にシフトした露出制御を切り替えて行い、これらの露出シフト制御された画像データから人物の顔を検出して、顔の位置情報を得ることができる。 Thus, according to the digital camera 1a of the present embodiment, the auxiliary imaging unit 3 can be used even in a shooting situation in which the face that is the main subject cannot be detected from the image data generated from the image signal from the imaging device 11 during the monitoring operation. The exposure control shifted to the high luminance side and the exposure control shifted to the low luminance side are switched for the image data generated by the image signal from the auxiliary imaging element 24 (imaging region 24a), and these exposure shifts are performed. By detecting the face of a person from the controlled image data, face position information can be obtained.
そして、制御部15は、検出された人物の顔の位置に対して焦点(合焦位置)を決定し、更に人物の顔を測光エリアとして最適な露出、ホワイトバランスを決定する処理を行い、本撮影を行う。 Then, the control unit 15 determines a focus (focus position) with respect to the detected position of the person's face, and further performs a process of determining an optimum exposure and white balance using the person's face as a photometric area. Take a picture.
〈実施形態3〉
本実施形態のデジタルカメラは、図9、図10に示した実施形態2と同様に、1つの補助撮像素子用レンズ5と補助撮像素子24を有する補助撮像ユニット3aを備えている。また、本実施形態のデジタルカメラのシステム構成も、図2に示した実施形態1と同様である。
<Embodiment 3>
The digital camera of the present embodiment includes an auxiliary imaging unit 3 a having one auxiliary imaging element lens 5 and an auxiliary imaging element 24 as in the second embodiment shown in FIGS. 9 and 10. The system configuration of the digital camera of this embodiment is the same as that of the first embodiment shown in FIG.
本実施形態では、デジタルカメラ1aの制御部15(図2参照)は、補助撮像素子24(撮像領域24a)からの画像信号によって生成された画像データに対して、所定の輝度に露出設定(例えば、高輝度側にシフトした露出設定)を行っている。なお、補助撮像素子24(撮像領域24a)からの画像信号は信号処理部13に入力されるが、画像として液晶モニタ16に表示されたり、メモリカード19に記録されることはない。 In the present embodiment, the control unit 15 (see FIG. 2) of the digital camera 1a sets the exposure to a predetermined luminance for the image data generated by the image signal from the auxiliary imaging device 24 (imaging region 24a) (for example, , Exposure setting shifted to high brightness side). Note that the image signal from the auxiliary imaging element 24 (imaging region 24 a) is input to the signal processing unit 13, but is not displayed as an image on the liquid crystal monitor 16 or recorded on the memory card 19.
顔検出部15aは、モニタリング動作時に撮影用撮像素子11からの画像信号によって顔検出処理を行ったときに逆光等の悪条件によって主要被写体である人物の顔を検出できなかった場合、補助撮像素子24(撮像領域24a)からの画像信号によって生成された画像データで顔検出処理を行う(詳細は後述する)。 If the face detection unit 15a cannot detect the face of the person who is the main subject due to bad conditions such as backlighting when face detection processing is performed based on the image signal from the imaging image sensor 11 during the monitoring operation, the auxiliary image sensor Face detection processing is performed on the image data generated by the image signal from 24 (imaging area 24a) (details will be described later).
次に、本実施形態における、本撮影前のモニタリング動作時の人物の顔を検出する顔検出処理と露出制御処理を、図12に示すフローチャートを参照して説明する。 Next, a face detection process and an exposure control process for detecting a person's face during a monitoring operation before the actual photographing in the present embodiment will be described with reference to a flowchart shown in FIG.
撮影者がデジタルカメラ1aの電源スイッチ(不図示)をONして撮影モード、顔検出モードに設定すると、モニタリング動作が開始され、撮影レンズ2を通して撮影像が撮影用撮像素子11に結像し、撮影用撮像素子11からアナログフロントエンド部12を介して画像信号が信号処理部13に出力され、画像データが生成される。 When the photographer turns on the power switch (not shown) of the digital camera 1a to set the photographing mode and the face detection mode, the monitoring operation is started, and the photographed image is formed on the photographing image sensor 11 through the photographing lens 2, An image signal is output from the imaging element 11 for imaging to the signal processing unit 13 via the analog front end unit 12, and image data is generated.
そして、顔検出部15aは、信号処理部13に取り込まれた撮影用撮像素子11からの画像信号で生成された画像データによって、主要被写体としての人物の顔を検出する処理を行う(ステップS21)。 Then, the face detection unit 15a performs a process of detecting the face of a person as a main subject based on the image data generated by the image signal from the image pickup device 11 captured by the signal processing unit 13 (step S21). .
そして、ステップS21での顔検出処理時において、撮影状況(逆光で人物の顔が暗くなり過ぎている場合や、逆に人物の顔に前方側から強い照明光が当たって白とびしている場合など)によって顔が検出できなかった場合(ステップS22:NO)、制御部15は、補助撮像素子24(撮像領域24a)からの画像信号によって所定の輝度に露出設定(例えば、高輝度側にシフトした露出設定)した画像データを生成し、顔検出部15aは、この画像データから人物の顔を検出する処理を行う(ステップS23)。 Then, during the face detection process in step S21, the shooting situation (when a person's face is too dark due to backlighting or when a strong illumination light hits the person's face from the front side is overexposed) If the face cannot be detected (step S22: NO), the control unit 15 sets the exposure to a predetermined luminance (for example, shifts to the high luminance side) by the image signal from the auxiliary imaging element 24 (imaging region 24a). The exposure detection) image data is generated, and the face detection unit 15a performs a process of detecting a human face from the image data (step S23).
そして、ステップS23での顔検出処理時において、所定の輝度に露出設定(例えば、高輝度側にシフトした露出設定)した画像データから顔を検出した場合(ステップS24:YES)、制御部15は、検出した顔の位置情報に基づき、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS25)。そして、ステップS25での測光結果に基づいて露出制御を行う(ステップS26)。 When the face is detected from the image data set to the predetermined brightness (for example, the exposure setting shifted to the high brightness side) during the face detection process in step S23 (step S24: YES), the control unit 15 Then, based on the detected position information of the face, photometric processing is performed using the image data generated from the image signal from the imaging element 11 (step S25). Then, exposure control is performed based on the photometric result in step S25 (step S26).
なお、ステップS22において、撮影用撮像素子11からの画像信号で生成された画像データから顔が検出できた場合(ステップS22:YES)においては、実施形態1と同様に制御部15は、検出した顔の位置を測光エリアとして、撮影用撮像素子11からの画像信号で生成された画像データによって測光処理を行う(ステップS25)。 In step S22, when the face can be detected from the image data generated from the image signal from the imaging element 11 for shooting (step S22: YES), the control unit 15 detects the same as in the first embodiment. Using the face position as the photometric area, photometric processing is performed using the image data generated from the image signal from the imaging element 11 for photographing (step S25).
また、ステップS24での顔検出処理時において、所定の輝度に露出設定(例えば、高輝度側にシフトした露出設定)した画像データから顔が検出できなかった場合(ステップS24:NO)においては、撮像画面内に主要被写体である人物の顔があっても顔検出ができない悪条件下である。この場合には制御部15は、撮影用撮像素子11からの画像信号で生成された画像データによって通常の測光方式(例えば、分割測光方式)で測光処理を行う(ステップS27)。そして、ステップS27での測光結果に基づいて露出制御を行う(ステップS28)。 In addition, when the face cannot be detected from the image data set to the predetermined brightness (for example, the exposure setting shifted to the high brightness side) during the face detection process in step S24 (step S24: NO), This is an adverse condition in which face detection cannot be performed even if the face of a person who is the main subject is present in the imaging screen. In this case, the control unit 15 performs a photometric process using a normal photometric method (for example, a divided photometric method) based on the image data generated from the image signal from the image pickup device 11 (step S27). Then, exposure control is performed based on the photometric result in step S27 (step S28).
このように、本実施形態のデジタルカメラ1aによれば、モニタリング動作時に撮影用撮像素子11からの画像信号で生成された画像データでは顔検出ができない撮影状況でも、補助撮像ユニット3の補助撮像素子24(撮像領域24a)からの画像信号で生成された画像データに対して、所定の輝度に露出設定(例えば、高輝度側にシフトした露出設定)を行い、所定の輝度に露出設定された画像データから人物の顔を検出して、顔の位置情報を得ることができる。 As described above, according to the digital camera 1a of the present embodiment, the auxiliary imaging element of the auxiliary imaging unit 3 even in a photographing situation in which face detection cannot be performed with the image data generated from the image signal from the photographing imaging element 11 during the monitoring operation. The image data generated by the image signal from the image sensor 24 (the imaging region 24a) is set to an exposure setting (for example, an exposure setting shifted to the high brightness side) at a predetermined brightness, and the image is set to an exposure setting at a predetermined brightness. The position information of the face can be obtained by detecting the face of the person from the data.
なお、前記した各実施形態では、主要被写体検出手段としての顔検出部15aで主要被写体としての人物の顔を検出する構成であったが、主要被写体検出手段としてはこれ以外も、例えば、液晶モニタ16の画面に主要被写体検出用の枠を表示し、この枠内にある画像を主要被写体として検出するようにしてもよい。 In each of the above-described embodiments, the face detection unit 15a serving as a main subject detection unit detects the face of a person as a main subject. A frame for detecting a main subject may be displayed on the 16 screens, and an image in the frame may be detected as a main subject.
1 デジタルタカメラ(撮像装置)
2 撮影レンズ
3、3a 補助撮像ユニット
5 補助撮像素子用レンズ
5a 第1の補助撮像素子用レンズ
5b 第2の補助撮像素子用レンズ
11 撮影用撮像素子
13 信号処理部
15 制御部(露出制御手段)
15a 顔検出部(主要被写体検出手段)
22a 第1の補助撮像素子
22b 第2の補助撮像素子
24 補助撮像素子
1. Digital camera (imaging device)
2 Imaging lens 3, 3a Auxiliary imaging unit 5 Auxiliary imaging element lens 5a First auxiliary imaging element lens 5b Second auxiliary imaging element lens 11 Imaging imaging element 13 Signal processing unit 15 Control unit (exposure control means)
15a Face detection unit (main subject detection means)
22a First auxiliary imaging element 22b Second auxiliary imaging element 24 Auxiliary imaging element
Claims (8)
補助撮影用光学系を介して補助撮影用の画像を撮像する補助撮影用撮像素子と、
前記主撮影用撮像素子から出力される画像信号によって生成された第1の画像データと、前記補助撮影用撮像素子から出力される画像信号によって生成された第2の画像データとに対して、任意の露出制御を行う露出制御手段と、
前記第1の画像データと前記第2の画像データからそれぞれ撮像画面内に位置する主要被写体を検出する主要被写体検出手段と、を備え、
前記主撮影用光学系はズーム機能を有し、前記補助撮影用光学系の画角は、前記主撮影用光学系の広角端側の画角と略同じに設定されており、
前記主撮影用光学系が広角端よりも望遠側にズームされている画角のときに、前記主要被写体検出手段が、撮影状況により前記第1の画像データから前記主要被写体を検出できなかった場合には、
前記露出制御手段により、前記第2の画像データに対して高輝度側又は低輝度側に露出シフト制御して、
前記主要被写体検出手段により、露出シフト制御された前記第2の画像データから、前記補助撮影用撮像素子の全撮像領域のうちの前記主撮影用光学系の画角に対応した領域内から前記主要被写体を検出することを特徴とする撮像装置。 An imaging element for main imaging that captures an image for main imaging via an optical system for main imaging;
An auxiliary imaging device that captures an image for auxiliary imaging via an optical system for auxiliary imaging;
Arbitrary with respect to the first image data generated by the image signal output from the main photographing image sensor and the second image data generated by the image signal output from the auxiliary photographing image sensor Exposure control means for performing exposure control of
Main subject detection means for detecting a main subject located in the imaging screen from each of the first image data and the second image data,
The main photographing optical system has a zoom function, and the angle of view of the auxiliary photographing optical system is set to be substantially the same as the angle of view on the wide-angle end side of the main photographing optical system,
When the main photographing optical system has an angle of view that is zoomed to the telephoto side from the wide-angle end, the main subject detection unit cannot detect the main subject from the first image data depending on the shooting situation In
The exposure control means controls the exposure shift to the high luminance side or the low luminance side with respect to the second image data,
The main image is detected from within the area corresponding to the angle of view of the main imaging optical system in the entire imaging area of the auxiliary imaging device from the second image data subjected to exposure shift control by the main subject detection means. An imaging apparatus for detecting a subject .
前記露出制御手段は、一対のうちの一方の前記補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対しては高輝度側に露出シフト制御し、他方の補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対しては低輝度側に露出シフト制御することを特徴とする請求項1又は2に記載の撮像装置。 Having at least a pair of the auxiliary photographing optical system and the auxiliary photographing image sensor;
The exposure control unit performs exposure shift control to the high luminance side for the second image data generated by the image signal output from one of the auxiliary imaging elements, and the other auxiliary The image pickup apparatus according to claim 1 or 2, wherein exposure shift control is performed to a low luminance side with respect to the second image data generated by an image signal output from the image pickup device for photographing.
前記露出制御手段は、一つの前記補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対して、高輝度側への露出シフト制御と低輝度側への露出シフト制御とに切り替え可能であることを特徴とする請求項1又は2に記載の撮像装置。 One auxiliary photographing optical system and the auxiliary photographing image sensor;
The exposure control means controls the exposure shift to the high luminance side and the exposure shift to the low luminance side with respect to the second image data generated by the image signal output from the one auxiliary photographing image sensor. The imaging apparatus according to claim 1, wherein the imaging apparatus can be switched to control.
前記露出制御手段は、一つの前記補助撮影用撮像素子から出力される画像信号によって生成された前記第2の画像データに対して、高輝度側又は低輝度側のいずれか一方に露出シフト制御することを特徴とする請求項1又は2に記載の撮像装置。 One auxiliary photographing optical system and the auxiliary photographing image sensor;
The exposure control unit performs exposure shift control on either the high luminance side or the low luminance side with respect to the second image data generated by the image signal output from one auxiliary photographing image sensor. The imaging apparatus according to claim 1 or 2, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010227256A JP5672922B2 (en) | 2010-10-07 | 2010-10-07 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010227256A JP5672922B2 (en) | 2010-10-07 | 2010-10-07 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012084962A JP2012084962A (en) | 2012-04-26 |
JP5672922B2 true JP5672922B2 (en) | 2015-02-18 |
Family
ID=46243405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010227256A Expired - Fee Related JP5672922B2 (en) | 2010-10-07 | 2010-10-07 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5672922B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180139369A1 (en) | 2016-11-16 | 2018-05-17 | Motorola Mobility Llc | Backlit face detection |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000056414A (en) * | 1998-08-10 | 2000-02-25 | Nikon Corp | Camera capable of stereoscopically photographing |
JP4567538B2 (en) * | 2005-06-22 | 2010-10-20 | 富士フイルム株式会社 | Exposure amount calculation system, control method therefor, and control program therefor |
JP4579169B2 (en) * | 2006-02-27 | 2010-11-10 | 富士フイルム株式会社 | Imaging condition setting method and imaging apparatus using the same |
JP4818130B2 (en) * | 2007-01-15 | 2011-11-16 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP5181806B2 (en) * | 2008-04-25 | 2013-04-10 | 株式会社ニコン | Imaging device |
JP2010028596A (en) * | 2008-07-23 | 2010-02-04 | Hitachi Ltd | Image sensing device |
-
2010
- 2010-10-07 JP JP2010227256A patent/JP5672922B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012084962A (en) | 2012-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8823857B2 (en) | Image apparatus | |
JP5676988B2 (en) | Focus adjustment device | |
JP5961929B2 (en) | camera | |
JP2007201534A (en) | Imaging apparatus | |
JP2008199486A (en) | Single lens reflex type electronic imaging device | |
JP5899629B2 (en) | Imaging device | |
US10564391B2 (en) | Imaging device and control method therefor | |
JP2021001922A (en) | Photographing device and photographing method | |
JP2013017125A (en) | Imaging apparatus and display method for monitoring image of the same | |
JP2004212891A (en) | Electronic camera | |
JP2013205675A (en) | Imaging apparatus | |
JP5672922B2 (en) | Imaging device | |
JP5457240B2 (en) | Stereo imaging device | |
JP2009020304A (en) | Auto-focus method and imaging apparatus | |
JP2004038114A (en) | Auto-focus camera | |
JP2019020508A (en) | Imaging apparatus, method for controlling the same, and control program | |
JP2001136429A (en) | Electronic camera | |
US10567662B2 (en) | Imaging device and control method therefor using shift direction calculation | |
JP2007264250A (en) | Imaging apparatus and program | |
JP2016080740A (en) | Finder device of optical instrument | |
JP5515589B2 (en) | Photometric device and imaging device | |
JP2007060131A (en) | Camera with live view display function | |
JP2012235180A (en) | Digital camera | |
JP2011176457A (en) | Electronic camera | |
JP2015232665A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141215 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5672922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |