JP2005055746A - Imaging apparatus, focusing control method and program - Google Patents
Imaging apparatus, focusing control method and program Download PDFInfo
- Publication number
- JP2005055746A JP2005055746A JP2003287864A JP2003287864A JP2005055746A JP 2005055746 A JP2005055746 A JP 2005055746A JP 2003287864 A JP2003287864 A JP 2003287864A JP 2003287864 A JP2003287864 A JP 2003287864A JP 2005055746 A JP2005055746 A JP 2005055746A
- Authority
- JP
- Japan
- Prior art keywords
- value
- pixel
- image
- focus
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims description 48
- 238000011156 evaluation Methods 0.000 claims abstract description 171
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000009825 accumulation Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims 1
- 230000010354 integration Effects 0.000 abstract description 10
- 230000008569 process Effects 0.000 description 34
- 230000000875 corresponding effect Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 101100316752 Arabidopsis thaliana VAL1 gene Proteins 0.000 description 15
- 238000012545 processing Methods 0.000 description 12
- 101100316753 Arabidopsis thaliana VAL2 gene Proteins 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 229920006395 saturated elastomer Polymers 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000001276 controlling effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
本発明は、撮像装置の光学系の配置を決定するための技術に関する。 The present invention relates to a technique for determining the arrangement of an optical system of an imaging apparatus.
従来より、デジタルスチルカメラ(以下、単に「デジタルカメラ」という。)やビデオカメラなどのようにCCDなどの撮像素子を用いて画像を取得する撮像装置においては、山登り方式と呼ばれる技術がオートフォーカス制御に適用されている。山登り方式は、レンズを駆動させつつ各駆動段階で評価値(画像中の高周波成分の量など)を取得し、最も評価値の高い位置にレンズを移動させる方式である。 2. Description of the Related Art Conventionally, in an imaging apparatus that acquires an image using an imaging element such as a CCD, such as a digital still camera (hereinafter simply referred to as “digital camera”) or a video camera, a technique called a hill-climbing method is an autofocus control. Has been applied. The hill-climbing method is a method in which an evaluation value (such as the amount of high-frequency components in an image) is acquired at each driving stage while driving the lens, and the lens is moved to a position having the highest evaluation value.
ところで、昼間に太陽が存在する被写体を撮影する場合や、夜間に点光源が存在する被写体を撮影する場合に、評価値として画像中の高周波成分の量を採用して山登り方式のオートフォーカス制御を行うと、目的とする合焦位置とは異なるレンズの位置の方が評価値が高くなることがある。このため、点光源が存在する被写体を撮影する場合には、被写体に対して適切に合焦させることができない現象(以下、「偽合焦」と称する)が生じるという問題が発生していた。 By the way, when shooting a subject with the sun in the daytime or shooting a subject with a point light source at night, the amount of high-frequency components in the image is used as the evaluation value, and hill-climbing autofocus control is used. If this is done, the evaluation value may be higher at a lens position different from the target in-focus position. For this reason, when photographing a subject in which a point light source is present, there has been a problem that a phenomenon in which the subject cannot be properly focused (hereinafter referred to as “false focus”) occurs.
このような問題に対して、評価値を算出するための対象領域(以下、「合焦評価領域」と称する)を分割して複数の分割領域として、各分割領域に対する評価値を算出し、各分割領域について、高周波成分が増えれば増える程、重みづけを小さくしつつ、全分割領域に対する評価値を加算して、合焦評価領域に対する評価値を求めることで、被写体に対して適切に合焦を行うことができる技術が提案されている(例えば、特許文献1)。 For such a problem, a target area for calculating an evaluation value (hereinafter referred to as a “focus evaluation area”) is divided into a plurality of divided areas, and an evaluation value for each divided area is calculated. As the high frequency component increases for the divided area, the evaluation value for the in-focus evaluation area is obtained by adding the evaluation values for all the divided areas while reducing the weighting, thereby appropriately focusing on the subject. A technique capable of performing the above has been proposed (for example, Patent Document 1).
このような技術に関する先行技術文献としては、以下のようなものがある。
上記背景技術において提案されている技術は、被写体に太陽が含まれる場合など、高輝度光源が局所的に存在するような場合において、適切に合焦を行う上で有効に作用する。しかしながら、夜景が被写体の場合など、高輝度光源が至る所に存在する場合においては、大半の分割領域に、高輝度光源が含まれてしまい、合焦評価領域の大半の部分について、重みづけが小さくなるため、適切な合焦を行うことができなくなる。 The technique proposed in the background art works effectively for achieving proper focusing when a high-luminance light source exists locally, such as when the subject includes the sun. However, when a high-intensity light source is present everywhere, such as when the night view is a subject, the high-intensity light source is included in most of the divided areas, and weighting is applied to most of the focus evaluation area. Therefore, it becomes impossible to perform proper focusing.
そこで、例えば、合焦評価領域を細かく分割して、高輝度光源が含まれる分割領域の数を極力抑制することで、合焦を適切に行うことも考えられるが、合焦制御のためのレンズ駆動の際に、デフォーカス量の変化に応じて、画像上を占める高輝度光源の面積が大きく変化するため、分割領域間で、高輝度光源に係る像が激しく出入りすることとなり、やはり偽合焦が発生するという問題が生じる。 Therefore, for example, it is conceivable to focus properly by dividing the focus evaluation area finely and suppressing the number of divided areas including a high-intensity light source as much as possible. When driving, the area of the high-intensity light source that occupies the image changes greatly according to the change in the defocus amount, so that the image related to the high-intensity light source enters and exits between the divided areas. There arises a problem that scorching occurs.
本発明は、上記課題に鑑みてなされたものであり、高輝度部を含むあらゆる被写体に対して、適切に合焦させることができる撮像装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus that can appropriately focus on any subject including a high-luminance portion.
上記の課題を解決するために、請求項1の発明は、撮影レンズを光軸方向へ駆動させながら複数の画素で構成される画像を入力する撮像手段と、前記画像に基づいて算出される合焦評価値に基づいて撮影レンズを合焦位置へ駆動させる駆動手段とを有する撮像装置であって、前記画像から所定の評価領域に係る評価領域画像を抽出する抽出手段と、前記評価領域画像について、第1の閾値以上の画素値を有する高輝度画素と、当該高輝度画素の近傍に位置する近傍画素との間におけるコントラストが最大となる前記撮影レンズの位置を前記合焦位置として決定する第1の決定手段とを備えることを特徴とする。
In order to solve the above-described problems, the invention of
また、請求項2の発明は、請求項1に記載の撮像装置であって、前記評価領域画像について、前記高輝度画素と、前記近傍画素との間におけるコントラストの平均値に基づいて、合焦評価値を算出する評価値算出手段を備えることを特徴とする。
The invention according to
また、請求項3の発明は、請求項2に記載の撮像装置であって、前記評価領域画像について、前記高輝度画素と、前記近傍画素との間における画素値の差分の総和である差分総和値を算出する差分総和値算出手段と、前記差分総和値算出手段による前記差分の積算回数である積算回数値を算出する回数算出手段と、前記差分総和値を前記積算回数値で割った値を前記平均値として算出する平均値算出手段とを備えることを特徴とする。
The invention according to
また、請求項4の発明は、請求項2または請求項3に記載の撮像装置であって、前記評価領域画像における前記高輝度画素の占有状態を示す高輝度占有値を算出する占有値算出手段をさらに備え、前記評価値算出手段が、前記平均値を前記高輝度占有値で割った値に基づいて、前記合焦評価値を算出することを特徴とする。 According to a fourth aspect of the invention, there is provided the imaging apparatus according to the second or third aspect, wherein the occupancy value calculating means calculates a high luminance occupancy value indicating an occupancy state of the high luminance pixels in the evaluation area image. The evaluation value calculation means calculates the focus evaluation value based on a value obtained by dividing the average value by the high-luminance occupation value.
また、請求項5の発明は、請求項1から請求項4のいずれかに記載の撮像装置であって、前記評価領域画像に含まれる各画素間のコントラストに基づいて、前記合焦位置を決定する第2の決定手段と、前記評価領域画像において、第2の閾値以上の画素値を有する画素が、所定量未満の場合に、前記第1の決定手段による前記合焦位置の決定を禁止し、前記第2の決定手段によって前記合焦位置を決定するように制御する制御手段とをさらに備えることを特徴とする。
The invention according to
また、請求項6の発明は、撮像装置に含まれるコンピュータによって実行されることにより、前記撮像装置を、請求項1から請求項5のいずれかに記載の撮像装置として機能させるプログラムである。
The invention according to
また、請求項7の発明は、撮影レンズを光軸方向へ駆動させながら複数の画素で構成される画像を入力する撮像手段と、前記画像に基づいて算出される合焦評価値に基づいて撮影レンズを合焦位置へ駆動させる駆動手段とを有する撮像装置における合焦制御方法であって、前記画像から所定の評価領域に係る評価領域画像を抽出するステップと、前記評価領域画像について、第1の閾値以上の画素値を有する高輝度画素と、当該高輝度画素の近傍に位置する近傍画素との間におけるコントラストが最大となる前記撮影レンズの位置を前記合焦位置として決定するステップとを備えることを特徴とする。 According to a seventh aspect of the present invention, there is provided imaging means for inputting an image composed of a plurality of pixels while driving the imaging lens in the optical axis direction, and imaging based on a focus evaluation value calculated based on the image. A focus control method in an imaging apparatus including a driving unit that drives a lens to a focus position, wherein an evaluation area image related to a predetermined evaluation area is extracted from the image, Determining a position of the photographing lens that maximizes a contrast between a high-luminance pixel having a pixel value equal to or greater than a threshold value and a neighboring pixel located in the vicinity of the high-luminance pixel as the in-focus position. It is characterized by that.
請求項1から請求項5に記載の発明によれば、高輝度画素と、その近傍画素との間におけるコントラストが最大となる撮影レンズの位置を、被写体に対して合焦状態を実現する合焦位置として決定するため、高輝度部を含むあらゆる被写体に対して、適切に合焦させることができる。 According to the first to fifth aspects of the present invention, the position of the photographic lens that maximizes the contrast between the high-luminance pixel and its neighboring pixels is focused to achieve a focused state with respect to the subject. Since the position is determined, it is possible to appropriately focus on any subject including the high luminance part.
また、請求項2に記載の発明によれば、高輝度画素と、その近傍画素との間におけるコントラストの平均値に基づいて、合焦評価値を算出するため、高輝度部を含むあらゆる被写体に対して、より適切に合焦させることができる。 According to the second aspect of the present invention, the focus evaluation value is calculated based on the average value of the contrast between the high-luminance pixel and its neighboring pixels. On the other hand, it is possible to focus more appropriately.
また、請求項3に記載の発明によれば、高輝度画素と、その近傍画素との間における画素値の差分の総和を、差分の積算回数で割ることによって求まる値に基づいて、合焦評価値を算出するため、高輝度部を含むあらゆる被写体に対して、適切かつ高精度に合焦させることができる。 According to the third aspect of the present invention, the focus evaluation is performed based on a value obtained by dividing the sum of the pixel value differences between the high-luminance pixel and its neighboring pixels by the number of times of difference accumulation. Since the value is calculated, it is possible to appropriately and accurately focus on any subject including the high luminance part.
また、請求項4に記載の発明によれば、高輝度画素と、その近傍画素との間におけるコントラストの平均値を、高輝度画素の占有状態を示す値で割ることによって算出される値に基づいて、合焦評価値を算出するため、高輝度部を含むあらゆる被写体に対して、さらに適切かつ高精度に合焦させることができる。 According to the fourth aspect of the present invention, based on the value calculated by dividing the average value of the contrast between the high-luminance pixel and its neighboring pixels by the value indicating the occupation state of the high-luminance pixel. Thus, since the focus evaluation value is calculated, it is possible to focus on any subject including the high luminance portion more appropriately and with high accuracy.
また、請求項5に記載の発明によれば、高輝度画素が所定量未満の場合には、単に、評価領域に対応する画像に含まれる各画素間のコントラストに基づいて、撮影レンズの合焦位置を決定するため、高輝度部をあまり含まない被写体に対しても、適切に合焦させることができる。 According to the fifth aspect of the present invention, when the number of high-luminance pixels is less than a predetermined amount, the focusing of the photographing lens is simply based on the contrast between the pixels included in the image corresponding to the evaluation area. Since the position is determined, it is possible to properly focus even on a subject that does not include a high brightness portion.
また、請求項6に記載の発明によれば、請求項1から請求項6に記載の発明と同様な効果を奏することができる。
Further, according to the invention described in
また、請求項7に記載の発明によれば、請求項1に記載の発明と同様な効果を奏することができる。
Further, according to the invention described in
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<撮像装置の要部構成>
図1、図2、および図3は、本発明の実施形態に係る撮像装置(ここでは、デジタルカメラ)1の要部構成を示す図であり、図1は上方から見た断面図、図2は側方から見た断面図、図3は背面図に相当する。これらの図は必ずしも三角図法に則っているものではなく、撮像装置1の要部構成を概念的に例示することを主眼としている。
<Principal configuration of imaging device>
1, 2, and 3 are diagrams showing a main configuration of an imaging apparatus (here, a digital camera) 1 according to an embodiment of the present invention. FIG. 1 is a cross-sectional view as viewed from above, FIG. Is a sectional view seen from the side, and FIG. 3 corresponds to a rear view. These figures do not necessarily conform to the triangulation method, and are mainly intended to conceptually illustrate the main configuration of the
図1および図2に示すように、撮像装置1の前面には、ズームレンズ(「撮影レンズ」とも称する)301が設けられ、ズームレンズ301は、後述するオートフォーカス(AF)制御動作を実現するために、レンズ位置を変更可能なフォーカスレンズを有している。
As shown in FIGS. 1 and 2, a zoom lens (also referred to as “photographing lens”) 301 is provided on the front surface of the
また、ズームレンズ301の後方にCCDカラーエリアセンサ(以下、「CCD」と略称する)303が設けられている。また、撮像装置1の前面には、ユーザーが撮像装置1を把持するためのグリップ部GRが設けられている。
A CCD color area sensor (hereinafter abbreviated as “CCD”) 303 is provided behind the
また、図1に示すように、撮像装置1は、側方より、メモリカードMCなどの記録媒体を着装することが可能であり、撮像装置1で取得された画像をメモリカードMCに記録することができる。更に、4本の単三形乾電池E1〜E4を直列接続してなる電源電池Eを駆動源として格納可能な構成となっている。
As shown in FIG. 1, the
また、図2に示すように、撮像装置1の内部には、ズームレンズ301のズーム比の変更や、収容位置と撮影位置との間のレンズ駆動を実現するためのズームモータM1、およびオートフォーカス(AF)動作によるズームレンズ301の合焦駆動を実現するためのAFモータM2が設けられている。
As shown in FIG. 2, the
また、図2および図3に示すように、撮像装置1の上面には、ポップアップ形式の内蔵フラッシュ5、シャッタスタートボタン(以下、「シャッタボタン」と略称する)9が設けられている。
As shown in FIGS. 2 and 3, a pop-up built-in
更に、図3に示すように、撮像装置1の背面の略中央には、画像のモニタ表示および記録画像の再生表示などを行なうためのLCD表示部(以下、「LCD」と略称する)10が設けられ、撮像装置1の背面上部には、フレーミングを行うためのEVF11が設けられている。また、撮像装置1の背面右方下部には、表示選択スイッチ12が設けられており、表示選択スイッチ12による選択状況により、フレーミング時のライブビュー表示がLCD10とEVF20のいずれにおいて行われるかが切り替えられる。
Further, as shown in FIG. 3, an LCD display unit (hereinafter abbreviated as “LCD”) 10 for performing monitor display of images, reproduction display of recorded images, and the like is provided at the approximate center of the back surface of the
また、撮像装置1の背面左方には、「撮影モード」と、「電源OFF」と、「再生モード」とを切り替え設定する電源/モード切替スイッチ25が設けられている。「撮影モード」とは、被写体を撮影するためのモードであり、「電源OFF」とは、撮像装置1の電源をOFF状態とするための状態設定であり、「再生モード」とは、メモリカードMCなどに格納されている撮影画像をLCD10などに再生表示するためのモードである。
Further, on the left side of the rear surface of the
また、撮像装置1の背面左方下部には、「単写モード」と「連写モード」とを切り替え設定する単写/連写モード切替スイッチ13が設けられている。「単写モード」とは、1フレームの画像を撮影することを目的としたモードであり、「連写モード」とは、複数フレームの画像を時間的に連続して撮影することを目的としたモードである。
A single-shot / continuous-shooting
さらに、撮像装置1の背面右方には、4連スイッチ31が設けられている。4連スイッチ31は、上下左右ボタンU,D,L,Rを有し、左右ボタンL,Rが押下されることにより、ズームモータM1を駆動させてズーミングを行う。
Further, a quadruple switch 31 is provided on the right side of the back surface of the
<撮像装置の機能構成>
図4は、本発明の実施形態に係る撮像装置1の機能構成を示すブロック図である。
<Functional configuration of imaging device>
FIG. 4 is a block diagram showing a functional configuration of the
CCD303は、ズームレンズ301により結像された被写体の光学像を、R(赤).G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。つまり、CCD303が、複数の画素で構成される画像を入力する撮像手段として機能する。
The
タイミングジェネレータ(以下、「TG」と略称する)314は、CCD303の駆動を制御するための各種のタイミングパルスを生成するものであり、タイミング制御回路202から送信される基準クロックに基づいてCCD303の駆動制御信号を生成する。このTG314は、例えば積分開始/終了(露出開始/終了)のタイミング信号、各画素の受光信号の読出制御信号(水平同期信号、垂直同期信号、転送信号など)などのクロック信号を生成し、CCD303に出力する。よって、例えば、CCD303の露光量、即ち、シャッタスピードに相当するCCD303の電荷蓄積時間を調節することができる。
The timing generator (hereinafter abbreviated as “TG”) 314 generates various timing pulses for controlling the driving of the
デジタルカメラ1における露出制御は、絞り302と、シャッタスピードに相当するCCD303の電荷蓄積時間を調節して行われる。ここで、被写体輝度が低く、適切なシャッタスピードが設定できない場合には、CCD303から出力される画像信号のレベル調整を行うことにより、露光不足による不適正露出を補正することができる。すなわち、低輝度時には、シャッタスピードとゲイン調整とを組み合わせて露出制御が行われる。なお、画像信号のレベル調整は、信号処理回路313内のAGC回路のゲイン調整によって実施される。
The exposure control in the
信号処理回路313は、CCD303から出力される画像信号(アナログ信号)に所定のアナログ信号処理を施すものである。信号処理回路313は、CDS(相関二重サンプリング)回路とAGC(オートゲインコントロール)回路とを有し、CDS回路により画像信号のノイズの低減を行うとともに、AGC回路のゲインを調整することにより画像信号のレベル調整を行う。
The
A/D変換器205は、信号処理回路313から出力される画像信号の各画素信号を、例えば12ビットのデジタル信号に変換するものである。このA/D変換器205は、タイミング制御回路202から入力されるA/D変換用のクロックに基づいて各画素信号(アナログ信号)を12ビットのデジタル信号に変換する。なお、TG314、およびA/D変換器205に対するクロックを生成するタイミング制御回路202は、全体制御部211内の基準クロックにより制御される。
The A /
黒レベル補正回路206は、A/D変換器205でA/D変換された画素信号の黒レベルを基準の黒レベルに補正し、補正後の信号をホワイトバランス(WB)回路207に出力する。
The black
WB回路207は、R,G,Bの各色成分の画素データのレベル変換を行うものである。WB回路207は、全体制御部211によって設定されるレベル変換テーブルに基づいて、R,G,Bの各色成分の画素データのレベルを変換し、変換後のデータをγ補正回路208に出力する。なお、レベル変換テーブルの各色成分の変換係数(特性の傾き)は全体制御部211により画像毎に設定される。
The
γ補正回路208は、画素データのγ特性を補正し、補正後のデータを画像メモリ209に出力する。
The
画像メモリ209は、γ補正回路208から入力される画素データを記憶するメモリである。画像メモリ209は、各種画像処理をするために必要な記憶容量を有している。画像メモリ209内には、AF制御用の画像データを記憶するエリア(AF用画像エリア)、自動露出(AE)制御用の画像データを記憶するエリア(AE用画像エリア)、LCD10などにライブビューや再生画像を表示するために画像データを記憶するエリア(表示用画像エリア)、本撮影時に撮影画像(本画像)に係るRAWデータを記憶するためのエリア(RAW画像エリア)、メモリカードMCに記録するための撮影画像(本画像)を記憶するためのエリア(本画像エリア)などがカメラの動作状態にしたがって随時設定される。
The
例えば、全体制御部211のLV・AF・AE用画像生成部によって、図5に示すように合焦評価領域AFe(CCD303の全画素に対応する640×240画素分の画像Gに対して任意の位置に設定できる80×24画素分の領域)に係る画像データ(評価領域画像)が抽出・生成される。つまり、LV・AF・AE用画像生成部が、CCD303によって入力される画像から所定の合焦評価領域AFeに係る評価領域画像を抽出する手段として機能する。そして、AF用画像エリアが、その抽出された画像データを記憶可能な容量を有している。
For example, the LV / AF / AE image generation unit of the
また、AE用画像エリアは、全体制御部211のLV・AF・AE用画像生成部において、R,G,Bごとに16画素分の画素値を加算して生成されるAE制御用の画像(40×240画素)に対応する画像データを記憶可能な容量を有している。さらに、表示用画像エリアは、全体制御部211のLV・AF・AE用画像生成部において、LCD10などの画素数に適合するように、サイズが圧縮されたライブビュー表示用の画像(例えば、320×120画素)に対応する画像データを記憶可能な容量を有している。
The AE image area is an AE control image generated by adding pixel values of 16 pixels for each of R, G, and B in the LV / AF / AE image generation unit of the overall control unit 211 ( 40 × 240 pixels). The image data can be stored. Further, the display image area is an image for live view display whose size is compressed so as to match the number of pixels such as the
撮影モードでは、撮影待機状態において、CCD303によって1/30(秒)毎に撮像された画像の各画素データがA/D変換器205からγ補正回路208により所定の信号処理を施された後、全体制御部211内のLV・AF・AE用画像生成部に転送される。そして、LV・AF・AE用画像生成部において、AFおよびAE制御用に処理された画像はそれぞれ画像メモリ209内のAF用画像エリア、AE用画像エリアに一時的に記憶される。また、ライブビュー表示用の画像(LV表示用の画像)が表示用画像エリアに随時転送され、一時的に記憶される。
In the shooting mode, each pixel data of an image captured by the
表示用画像エリアに記憶されるデータは、LCD10への表示が選択されている場合には全体制御部211内のLCDI/Fブロックに、EVF11への表示が選択されている場合には全体制御部211内のEVFI/Fブロックに、転送され、それぞれLCD10またはEVF11に出力される(ライブビュー表示)。これにより、ユーザは被写体像を視認することができる。
The data stored in the display image area includes the LCD I / F block in the
また、再生モードでは、メモリカードスロット17に着装されるメモリカードMCから読出された画像が、全体制御部211内のカードI/Fブロック、再生画像生成部を介して、一旦、画像メモリ209内の表示用画像エリアに記憶された後、全体制御部211内のLCDI/FブロックまたはEVFI/Fブロックに転送され、必要な画像処理が行われた後、LCD10またはEVF11に再生画像が表示される。
In the playback mode, an image read from the memory card MC loaded in the memory card slot 17 is temporarily stored in the
全体制御部211内のカードI/Fブロックは、メモリカードMCへの画像データの書き込みおよびメモリカードMCからの画像データの読出しを行うためのインターフェースブロックである。
The card I / F block in the
RTC219は、撮影日時を管理するための時計回路であり、図示していない別の電源で駆動される。 The RTC 219 is a clock circuit for managing the shooting date and time, and is driven by another power source (not shown).
操作部250には、上述した各種スイッチ、ボタンが設けられている。
The
シャッタボタン9は、銀塩カメラなどで採用されているような半押し状態(以下、「状態S1」と称する)と押し込んだ状態(以下、「状態S2」と称する)とが検出可能な2段階スイッチになっている。
The
撮影モードにおける撮影待機状態でシャッタボタン9を半押しして状態S1にすると、全体制御部211の制御下で、AF動作を行う。具体的には、シャッタボタン9が状態S1となると、AFモータM2によりズームレンズ301がAFのためのレンズ駆動を開始し、全体制御部211によって画像メモリ209内の画像のコントラストを評価しながら、コントラストが最も高くなるようなレンズ位置(合焦位置)にズームレンズ301(具体的には、フォーカスレンズ)を駆動させる。つまり、撮影レンズを光軸方向へ駆動させながら、CCD303が、複数の画素で構成される画像を入力し、AFモータM2が、その画像に基づいて算出される評価値(後述する合焦評価値)に基づいて撮影レンズを合焦位置へ駆動させる手段として機能する。
When the
また、全体制御部211の制御下で、状態S1において、画像メモリ209内の画像データの輝度レベルを判定することで、シャッタスピードと絞り値とが決定され、更にWB回路207におけるWBの補正値も決定する。
Further, under the control of the
また、シャッタボタン9が全押しされることで、状態S1から状態S2となることによる撮影指示がなされると、メモリカードMCに画像を記憶するための本撮影が行われる。
Further, when the
全体制御部211は、マイクロコンピュータ(CPU)、ROM、RAMなどを備えて構成され、撮像装置1の各部の駆動を有機的に制御して撮像装置1の撮影動作などを統括制御するものである。なお、全体制御部211における各種制御や機能は、ROM内に格納されるプログラムがCPU内に読み込まれることで実現される。
The
また、全体制御部211は、シャッタスピードや絞り値などの露出を制御するための値(露出制御値)を設定するために、被写体の輝度を判定する部位(輝度判定部)と実際に露出制御値を設定する部位(露光量設定部)とをその機能として備えている。なお、露出制御値に含まれる各値(シャッタスピードや絞りなど)は操作部250などの操作により任意に変更可能ともなっている。また、フラッシュ撮影時には、露出制御値には内蔵フラッシュ5の発光量も含まれる。
In addition, the
さらに、全体制御部211は、撮影画像をメモリカードMCに記録する処理(記録処理)を行うために、サムネイル画像および圧縮画像を生成する記録画像生成部を備えている。また、メモリカードMCに記録された画像をLCD10やEVF11に再生表示するための画像を生成する再生画像生成部もその機能として備えている。
Furthermore, the
記録画像生成部は、画像メモリ209から画像データを読み出してメモリカードMCに記録すべきサムネイル画像と圧縮画像とを生成する。記録画像生成部は、画像メモリ209から読み出した画像データに2次元DCT変換、ハフマン符合化などのJPEG方式による所定の圧縮処理を施して圧縮画像データを生成し、この圧縮画像データを画像メモリ209内の本画像エリアに一時的に記憶する。そして、画像メモリ209内の本画像エリアに記憶された画像データは、全体制御部211のカードI/Fに転送され、最終的にメモリカードMCに記録される。
The recorded image generation unit reads out image data from the
全体制御部211は、撮影モードにおいて、シャッタボタン9の全押しに基づく撮影指示なされると、撮影指示後に画像メモリ209のRAW画像エリアに取り込まれた画像データに対し、設定された圧縮率にしたがってJPEG圧縮処理を行うことによって、圧縮画像データを生成するとともに、サムネイル画像を生成し、撮影画像に関するタグ情報(コマ番号、露出値、シャッタスピード、圧縮率、撮影日、撮影時のフラッシュのオンオフのデータ、シーン情報、画像の判定結果などの情報)などとともに両画像データをメモリカードMCに記録する。
When a shooting instruction based on the full depression of the
また、電源/モード切替スイッチ25の切り替え操作に基づいて再生モードが選択設定された場合には、メモリカードMC内のコマ番号の最も大きな画像データが読出され、再生画像生成部でデータ伸張され、画像メモリ209内の表示用画像エリアに記憶された後、全体制御部211内のLCDI/Fブロック(または、EVFI/Fブロック)に転送されることにより、LCD10やEVF11にコマ番号の最も大きな画像、すなわち直近に撮影された画像が表示される。そして、4連スイッチ31の上ボタンUが押下されると、順次1つだけコマ番号の大きな画像が表示され、下ボタンDが押下されると、順次1つだけコマ番号の小さな画像が表示される。
When the reproduction mode is selected and set based on the switching operation of the power /
調光回路304は、全体制御部211の制御下で、フラッシュ撮影における内蔵フラッシュ5の発光量を設定された所定の発光量に制御するものである。フラッシュ撮影においては、露出開始と同時に被写体からのフラッシュ光の反射光が調光センサ305により受光され、この受光量が所定の発光量に達すると、調光回路304から発光停止信号が出力され、この発光停止信号に応答して、全体制御部211の制御下で、フラッシュ制御回路217によって内蔵フラッシュ5の発光が強制的に停止される。このような動作により内蔵フラッシュ5の発光量が所定の発光量に制御される。
The
絞りモータ駆動回路216は、全体制御部211の制御下で、絞りモータM3の駆動を制御することで、絞り302の開/閉駆動を制御し、絞り値を変化させる。また、AFモータ駆動回路214は、全体制御部211の制御下で、AFモータM2の駆動を制御することで、ズームレンズ301に含まれるフォーカスレンズのレンズ駆動を制御する。さらに、ズームモータ駆動回路215は、全体制御部211の制御下で、ズームモータM1の駆動を制御することで、ズームレンズ301のレンズ駆動を制御する。
The aperture
<AF制御について>
図6および図7は、AF制御の動作フローを例示するフローチャートであり、図8は、AF制御の動作を例示するタイミングチャートである。
<About AF control>
6 and 7 are flowcharts illustrating the operation flow of AF control, and FIG. 8 is a timing chart illustrating the operation of AF control.
なお、図8では、AF制御動作の開始後に順次画像を取得するための露光タイミングを示す番号(露光フレームNo.)に対応させて、上から順に、CCD303の露光、CCD303からの画像データの読出し、高輝度被写体検知と合焦評価値演算、ズームレンズ301(具体的には、フォーカスレンズ)のレンズ位置の情報取得、フォーカスレンズの合焦位置の決定、ズームレンズ301を駆動させるレンズ駆動命令、およびフォーカスレンズ駆動のタイミングを示している。
In FIG. 8, the exposure of the
以下、図8を参照しつつ、図6および図7に示すAF制御の動作フローについて説明する。 The operation flow of the AF control shown in FIGS. 6 and 7 will be described below with reference to FIG.
図6および図7に示す動作フローは、全体制御部211によって制御され、ユーザによるシャッタボタン9の押下操作により状態S1となると、当該動作フローが開始され、ステップS1に進む。
The operation flow shown in FIGS. 6 and 7 is controlled by the
ステップS1では、状態S1となった後における1フレーム目の露光タイミング(すなわち、露光フレームNo.が1であるタイミング)であるか否かを判別する。ここでは、1フレーム目の露光タイミングであれば、ステップS11に進み、1フレーム目の露光タイミングでなければ、ステップS2に進む。 In step S1, it is determined whether or not it is the exposure timing of the first frame after the state S1 is reached (that is, the timing when the exposure frame number is 1). Here, if it is the exposure timing of the first frame, the process proceeds to step S11, and if it is not the exposure timing of the first frame, the process proceeds to step S2.
ステップS11では、フォーカスレンズを最も繰り出し側、いわゆる遠端まで駆動させる命令を発生させ、ステップS1に戻る。 In step S11, a command to drive the focus lens to the most extended side, so-called far end is generated, and the process returns to step S1.
ステップS2では、状態S1となった後における2フレーム目の露光タイミングであるか否かを判別する。ここでは、2フレーム目の露光タイミングであれば、ステップS21に進み、2フレーム目の露光タイミングでなければ、ステップS3に進む。 In step S2, it is determined whether it is the exposure timing of the second frame after the state S1 is reached. Here, if it is the exposure timing of the second frame, the process proceeds to step S21, and if it is not the exposure timing of the second frame, the process proceeds to step S3.
ステップS21では、前フレーム(すなわち、1フレーム目)の画像データをCCD303から読出しつつ、フォーカスレンズを遠端まで駆動させ、ステップS1に戻る。つまり、2フレーム目の露光タイミングでは、ステップS21の処理が繰り返され、フォーカスレンズが遠端まで駆動される。換言すれば、2フレーム目の露光タイミングにおいて、フォーカスレンズの遠端までの駆動を待つ。
In step S21, the image data of the previous frame (that is, the first frame) is read from the
ステップS3では、状態S1となった後における3フレーム目の露光タイミングであるか否かを判別する。ここでは、3フレーム目の露光タイミングであれば、ステップS31に進み、3フレーム目の露光タイミングでなければ、ステップS4に進む。 In step S3, it is determined whether it is the exposure timing of the third frame after the state S1 is reached. Here, if it is the exposure timing of the third frame, the process proceeds to step S31, and if it is not the exposure timing of the third frame, the process proceeds to step S4.
ステップS31では、前フレーム(すなわち、2フレーム目)の画像データをCCD303から読出し、ステップS32に進む。
In step S31, image data of the previous frame (that is, the second frame) is read from the
ステップS32では、主な被写体(主被写体)が高輝度のものであるか否かを検知する高輝度被写体検知を実施し、ステップS33に進む。ここでは、1フレーム目の露光タイミングにおいて露光され、2フレーム目の露光タイミングにおいてCCD303から読み出された画像データ(1フレーム目の画像データ)から、評価領域画像を抽出する。そして、かかる評価領域画像におけるG画素について、画素値が閾値TH1以上である画素数が閾値TH2以上であれば、主被写体が高輝度のものを多分に含むため、主被写体が高輝度のものであると検知する。なお、ここでは、12ビットで階調表現しているため、例えば、閾値TH1=1023,閾値TH2=100などが適用される。
In step S32, high brightness subject detection is performed to detect whether or not the main subject (main subject) has high brightness, and the process proceeds to step S33. Here, the evaluation area image is extracted from the image data (image data of the first frame) exposed at the exposure timing of the first frame and read from the
すなわち、ここでは、全体制御部211の制御下で、評価領域画像において、所定の閾値TH1以上の画素値を有する画素が、所定量以上の場合には、主被写体が高輝度のものであると検知する。
That is, here, when the number of pixels having a pixel value equal to or greater than the predetermined threshold TH1 is equal to or greater than a predetermined amount in the evaluation area image under the control of the
ステップS33では、フォーカスレンズを繰り入れ側、いわゆる近端側へ駆動させる命令を発生させ、ステップS34に進む。 In step S33, a command to drive the focus lens to the retracting side, so-called near end side, is generated, and the process proceeds to step S34.
ステップS34では、フォーカスレンズのレンズ位置に係る情報を取得し、ステップS1に戻る。 In step S34, information related to the lens position of the focus lens is acquired, and the process returns to step S1.
つまり、ここでは、図8に示すように、3フレーム目の露光タイミング(すなわち、露光フレームNo.が3であるタイミング)では、CCD303において3フレーム目の露光が行われるとともに、CCD303からの2フレーム目の画像データの読出し、1フレーム目の画像データに基づく高輝度被写体検知、3フレーム目の露光タイミングにおけるフォーカスレンズの位置情報の取得、およびフォーカスレンズの近端への駆動命令の発生が並行して行われる。
That is, here, as shown in FIG. 8, at the exposure timing of the third frame (that is, the timing at which the exposure frame No. is 3), the
ステップS4では、状態S1となった後における4フレーム目の露光タイミングであるか否かを判別する。ここでは、4フレーム目の露光タイミングであれば、ステップS41に進み、4フレーム目の露光タイミングでなければ、ステップS5に進む。 In step S4, it is determined whether or not it is the exposure timing of the fourth frame after the state S1 is reached. Here, if it is the exposure timing of the fourth frame, the process proceeds to step S41, and if it is not the exposure timing of the fourth frame, the process proceeds to step S5.
ステップS41では、前フレーム(すなわち、3フレーム目)の画像データをCCD303から読出し、ステップS42に進む。
In step S41, the image data of the previous frame (that is, the third frame) is read from the
ステップS42では、フォーカスレンズのレンズ位置に係る情報を取得し、ステップS1に戻る。 In step S42, information related to the lens position of the focus lens is acquired, and the process returns to step S1.
つまり、ここでは、図8に示すように、4フレーム目の露光タイミング(すなわち、露光フレームNo.が4であるタイミング)では、CCD303において4フレーム目の露光が行われるとともに、CCD303からの3フレーム目の画像データの読出し、4フレーム目の露光タイミングにおけるフォーカスレンズの位置情報の取得、およびフォーカスレンズの遠端から近端へ向けたレンズ駆動が並行して行われる。
That is, here, as shown in FIG. 8, at the exposure timing of the fourth frame (that is, the timing at which the exposure frame No. is 4), the
ステップS5では、状態S1となった後における5〜20フレーム目の露光タイミングであるか否かを判別する。ここでは、5〜20フレーム目の露光タイミングであれば、ステップS51に進み、5〜20フレーム目の露光タイミングでなければ、ステップS6に進む。 In step S5, it is determined whether it is the exposure timing of the 5th to 20th frames after the state S1 is reached. Here, if it is the exposure timing of the 5th to 20th frames, the process proceeds to step S51, and if it is not the exposure timing of the 5th to 20th frames, the process proceeds to step S6.
ステップS51では、前フレーム(すなわち、4〜19フレーム目)の画像データをCCD303から読出し、ステップS52に進む。
In step S51, the image data of the previous frame (that is, the 4th to 19th frames) is read from the
ステップS52では、CCD303から読み出した3〜18フレーム目の画像データから抽出される評価領域画像に基づいて、各フレームの画像に対応する合焦評価値を算出し、ステップS53に進む。
In step S52, a focus evaluation value corresponding to the image of each frame is calculated based on the evaluation area image extracted from the image data of the 3rd to 18th frames read from the
ここで、合焦評価値の算出方法は、ステップS32で主被写体が高輝度であると検知された場合と、そうでない場合とで切り替わる。具体的には、主被写体が高輝度であると検知された場合には、後述する高輝度被写体用の合焦評価値の算出方法(高輝度被写体用の合焦評価値算出法)を実行し、主被写体が高輝度であると検知されなかった場合には、各フレームの画像(640×240画素)に対して設定される合焦評価領域AFeに対応する評価領域画像について、各画素間の画素値の差分の絶対値の総和を合焦評価値として算出する(一般的な合焦評価値算出法)。 Here, the calculation method of the focus evaluation value is switched between the case where it is detected in step S32 that the main subject has high luminance and the case where it is not. Specifically, when the main subject is detected to have high brightness, a method for calculating a focus evaluation value for a high brightness subject (focus evaluation value calculation method for a high brightness subject) described later is executed. When the main subject is not detected to have high brightness, the evaluation area image corresponding to the focus evaluation area AFe set for the image (640 × 240 pixels) of each frame is determined between the pixels. The sum of absolute values of pixel value differences is calculated as a focus evaluation value (a general focus evaluation value calculation method).
すなわち、全体制御部211が、高輝度被写体用の合焦評価値算出法を用いて合焦位置を決定する手段(「第1の決定手段」とも称する)としての機能と、一般的な合焦評価値算出法を用いて評価領域画像に含まれる各画素間のコントラストに基づいて、合焦位置を決定する手段(「第2の決定手段」とも称する)としての機能とを有している。
That is, the
そして、全体制御部211が、主被写体が高輝度のものであると検知されなかった場合には、第1の決定手段による合焦位置の決定を禁止し、第2の決定手段によって合焦位置を決定するように制御する手段として機能する。
If the
ステップS53では、フォーカスレンズのレンズ位置に係る情報を取得し、ステップS1に戻る。 In step S53, information related to the lens position of the focus lens is acquired, and the process returns to step S1.
つまり、ここでは、図8に示すように、5〜20フレーム目の露光タイミング(すなわち、露光フレームNo.が5〜20であるタイミング)では、それぞれ、CCD303において5〜20フレーム目の露光が行われるとともに、CCD303からの4〜19フレーム目の画像データの読出し、3〜18フレーム目の画像データに基づいた合焦評価値の算出、5〜20フレーム目の露光タイミングにおけるフォーカスレンズの位置情報の取得、および、フォーカスレンズの遠端から近端へのレンズ駆動が並行して行われる。
That is, here, as shown in FIG. 8, at the exposure timing of the 5th to 20th frames (that is, the timing when the exposure frame No. is 5 to 20), the exposure of the 5th to 20th frames is performed in the
なお、ここでは、算出される合焦評価値と、それぞれ対応するレンズ位置の位置情報とを関連づけてRAMに保存する。具体的には、3〜18フレーム目の画像データに基づいた合焦評価値と、それぞれ、3〜18フレーム目の露光タイミングにおけるレンズ位置情報とを関連づけて保存する。 Here, the calculated focus evaluation value and the position information of the corresponding lens position are stored in the RAM in association with each other. Specifically, the focus evaluation value based on the image data of the 3rd to 18th frames and the lens position information at the exposure timing of the 3rd to 18th frames are stored in association with each other.
ステップS6では、状態S1となった後における21フレーム目の露光タイミングであるか否かを判別する。ここでは、21フレーム目の露光タイミングであれば、ステップS61に進み、21フレーム目の露光タイミングでなければ、図7のステップS7に進む。 In step S6, it is determined whether or not it is the exposure timing of the 21st frame after the state S1 is reached. Here, if it is the exposure timing of the 21st frame, the process proceeds to step S61, and if it is not the exposure timing of the 21st frame, the process proceeds to step S7 in FIG.
ステップS61では、前フレーム(すなわち、20フレーム目)の画像データをCCD303から読出し、ステップS62に進む。
In step S61, image data of the previous frame (that is, the 20th frame) is read from the
ステップS62では、CCD303から読み出した19フレーム目の画像データから抽出される評価領域画像に基づいて、各フレームの画像に対応する合焦評価値を算出し、ステップS1に戻る。なお、ここでは、算出される19フレーム目の合焦評価値と、対応する19フレーム目の露光タイミングにおけるレンズ位置情報とを関連づけてRAMに保存する。
In step S62, a focus evaluation value corresponding to the image of each frame is calculated based on the evaluation area image extracted from the image data of the 19th frame read from the
つまり、ここでは、図8に示すように、21フレーム目の露光タイミング(すなわち、露光フレームNo.が21であるタイミング)では、CCD303において21フレーム目の露光が行われるとともに、CCD303からの20フレーム目の画像データの読出し、および19フレーム目の画像データに基づいた合焦評価値の算出が並行して行われる。
That is, here, as shown in FIG. 8, at the exposure timing of the 21st frame (that is, the timing at which the exposure frame No. is 21), the exposure of the 21st frame is performed in the
ステップS7では、状態S1となった後における22フレーム目の露光タイミングであるか否かを判別する。ここでは、22フレーム目の露光タイミングであれば、ステップS71に進み、22フレーム目の露光タイミングでなければ、ステップS8に進む。 In step S7, it is determined whether or not it is the 22nd frame exposure timing after the state S1 is reached. Here, if it is the exposure timing of the 22nd frame, the process proceeds to step S71, and if it is not the exposure timing of the 22nd frame, the process proceeds to step S8.
ステップS71では、CCD303から読み出した20フレーム目の画像データから抽出される評価領域画像に基づいて、20フレーム目の画像に対応する合焦評価値を算出し、ステップS72に進む。なお、ここでは、算出される20フレーム目の合焦評価値と、対応する20フレーム目の露光タイミングにおけるレンズ位置情報とを関連づけてRAMに保存する。
In step S71, a focus evaluation value corresponding to the 20th frame image is calculated based on the evaluation area image extracted from the 20th frame image data read from the
ステップS72では、ステップS52,S62,S71で算出される合焦評価値に基づいて、ズームレンズ301の合焦位置を決定し、ステップS73に進む。
In step S72, the focus position of the
ここでは、ステップS52,S62,S71で算出される合焦評価値のうち、最大となる合焦評価値y2に対応するレンズ位置x2を検出し、その前後のレンズ位置x1,x3を含めた合計3点の合焦評価値y1,y2,y3とレンズ位置x1,x2,x3とに基づいて、合焦位置を決定する。図9は、レンズ位置x1,x2,x3と対応する合焦評価値y1,y2,y3との関係を模式的に示した図である。合焦位置は、具体的には、合焦評価値y1,y2,y3とレンズ位置x1,x2,x3とを、下式(1)に代入することによって算出・決定することができる。 Here, out of the focus evaluation values calculated in steps S52, S62, and S71, the lens position x2 corresponding to the maximum focus evaluation value y2 is detected, and the total including the lens positions x1 and x3 before and after that is detected. The focus position is determined based on the three focus evaluation values y1, y2, y3 and the lens positions x1, x2, x3. FIG. 9 is a diagram schematically illustrating the relationship between the lens positions x1, x2, and x3 and the corresponding focus evaluation values y1, y2, and y3. Specifically, the focus position can be calculated and determined by substituting the focus evaluation values y1, y2, y3 and the lens positions x1, x2, x3 into the following expression (1).
[合焦位置]={y1×(x32−x22)+y2×(x12−x32)+y3×(x22−x12)}/2{y1×(x3−x2)+y2×(x1−x3)+y3×(x2−x1)}・・・(1)。 [Focus position] = {y1 × (x3 2 −x2 2 ) + y2 × (x1 2 −x3 2 ) + y3 × (x2 2 −x1 2 )} / 2 {y1 × (x3−x2) + y2 × (x1− x3) + y3 * (x2-x1)} (1).
ステップS73では、ズームレンズ301(具体的には、フォーカスレンズ)をステップS72で決定された合焦位置へ駆動させるための命令が発生され、ステップS1に戻る。 In step S73, a command for driving the zoom lens 301 (specifically, the focus lens) to the in-focus position determined in step S72 is generated, and the process returns to step S1.
つまり、図8に示すように、22フレーム目の露光タイミング(すなわち、露光フレームNo.が22であるタイミング)では、20フレーム目の画像データに基づいた合焦評価値の算出、3〜20フレーム目の画像データについて算出される合焦評価値に基づいた合焦位置の決定、およびフォーカスレンズの合焦位置への駆動命令の発生、が順次行われれる。 That is, as shown in FIG. 8, at the exposure timing of the 22nd frame (that is, the timing when the exposure frame No. is 22), the calculation of the focus evaluation value based on the image data of the 20th frame, and the 3-20th frame Determination of the in-focus position based on the in-focus evaluation value calculated for the eye image data and generation of a drive command to the in-focus position of the focus lens are sequentially performed.
ステップS8では、状態S1となった後における23フレーム目の露光タイミングであるか否かを判別する。ここでは、23フレーム目の露光タイミングであれば、ステップS81に進み、23フレーム目の露光タイミングでなければ、AF制御の動作フローを終了する。 In step S8, it is determined whether it is the exposure timing of the 23rd frame after the state S1 is reached. Here, if it is the exposure timing of the 23rd frame, the process proceeds to step S81, and if it is not the exposure timing of the 23rd frame, the operation flow of the AF control is ended.
ステップS81では、ステップS73における駆動命令に応答してフォーカスレンズを合焦位置へ駆動させ、ステップS1へ戻る。つまり、図8に示すように、23フレーム目の露光タイミング(すなわち、露光フレームNo.が23であるタイミング)では、フォーカスレンズを合焦位置へ駆動させ、その間、フォーカスレンズの駆動が完了するのを待つ状態となる。 In step S81, the focus lens is driven to the in-focus position in response to the drive command in step S73, and the process returns to step S1. That is, as shown in FIG. 8, at the exposure timing of the 23rd frame (that is, the timing when the exposure frame No. is 23), the focus lens is driven to the in-focus position, and during that time, the drive of the focus lens is completed. It will be in a state to wait.
このようなステップS1からステップS81を備えた動作フローによって、被写体に対する合焦状態を実現するAF制御動作が実行される。 The AF control operation for realizing the in-focus state with respect to the subject is executed by the operation flow including steps S1 to S81.
<高輝度被写体用の合焦評価値算出法>
上述したように、主被写体が高輝度であると検知された場合には、全体制御部211において、高輝度被写体用の合焦評価値算出法により各合焦評価値が算出される。
<Focus evaluation value calculation method for high brightness subject>
As described above, when the main subject is detected to have high brightness, the
以下、高輝度被写体用の合焦評価値算出法(以下のSTEP1〜STEP5で示される算出法)について説明する。
Hereinafter, a focus evaluation value calculation method for high-luminance subjects (calculation method indicated by
《STEP1》
まず、合焦評価領域AFeに対応する評価領域画像について、画素値が閾値TH3=1023(ここでは、TH1=TH3)となっているG色成分の画素(G画素)、すなわち、画素値が飽和しているG画素(以下、「高輝度G画素」と称する)と、その高輝度G画素に対して水平および垂直方向について最も近くに配置されるG画素、すなわち高輝度G画素の近傍に位置するG画素(以下、「近傍G画素」と称する)との間における画素値の差分の絶対値(以下、「コントラスト値」と称する)D1を算出する。なお、G画素のみに着目すると、高輝度G画素と近傍G画素とは隣接しているとも言えるため、近傍G画素は、高輝度G画素に隣接するG画素(隣接G画素)とも称することができる。
<< STEP1 >>
First, for the evaluation area image corresponding to the focus evaluation area AFe, the pixel of the G color component (G pixel) whose pixel value is the threshold value TH3 = 1023 (here, TH1 = TH3), that is, the pixel value is saturated. The G pixel (hereinafter referred to as “high luminance G pixel”) and the G pixel arranged closest to the high luminance G pixel in the horizontal and vertical directions, that is, in the vicinity of the high luminance G pixel The absolute value (hereinafter referred to as “contrast value”) D1 of the difference in pixel value between the G pixel (hereinafter referred to as “neighboring G pixel”) to be calculated is calculated. Note that when focusing only on the G pixel, it can be said that the high-luminance G pixel and the neighboring G pixel are adjacent to each other. Therefore, the neighboring G pixel is also referred to as a G pixel adjacent to the high-luminance G pixel (adjacent G pixel). it can.
図10は、評価領域画像の一部を模式的に例示する図である。図10に示すように、評価領域画像は、CCD303の受光部におけるいわゆるベイヤー配列に対応して、RGBの各色成分の画素が規則的に配列された画像となっている。なお、RGBの各色成分に対応する画素を、それぞれR画素、G画素、B画素とも称する。また、G画素については、G画素の位置を表すGの符合の右下に、i,j(i,jは任意の自然数)を含んで表現される符合(番号)が付されているが、これは、評価領域画像における各G画素の水平および垂直方向における位置を示している。また、ここでは、Gi,jなどの符合は、各G画素の画素値も示す。
FIG. 10 is a diagram schematically illustrating a part of the evaluation area image. As shown in FIG. 10, the evaluation area image is an image in which pixels of RGB color components are regularly arranged corresponding to a so-called Bayer arrangement in the light receiving unit of the
ここで、画素値Gi,jを有する1つのG画素に対するコントラスト値D1は、例えば、以下のようにして算出される。 Here, the contrast value D1 for one G pixel having the pixel value G i, j is calculated as follows, for example.
《STEP1−1》
Gi,j>TH3のとき、画素Gi,jと画素Gi-1,jとで示される画素間(高輝度G画素とその近傍G画素との間)の画素値の差分の絶対値(以下「画素差分値」とも称する)DH(=│Gi,j−Gi-1,j│)を算出する。このとき、DH>0であれば、0でない画素差分値の数N1のカウント数を1だけ加算する。つまり、N1=N1+1となるように、N1を1だけ加算する。
<< STEP 1-1 >>
When G i, j > TH3, the absolute value of the pixel value difference between the pixels indicated by the pixel G i, j and the pixel G i−1, j (between the high-luminance G pixel and the neighboring G pixel) DH (= | G i , j −G i−1, j |) is calculated (hereinafter also referred to as “pixel difference value”). At this time, if DH> 0, the count number of the non-zero pixel difference value N1 is incremented by one. That is, N1 is incremented by 1 so that N1 = N1 + 1.
《STEP1−2》
Gi,j>TH3のとき、Gi,jとGi,j-1とで示される画素間の画素値の差分の絶対値(画素差分値)DV1(=│Gi,j−Gi,j-1│)を算出する。このとき、DV1>0であれば、0でない画素差分値の数N1のカウント数を1だけ加算する。つまり、N1=N1+1となるように、N1を1だけ加算する。
<< STEP 1-2 >>
When G i, j > TH3, the absolute value (pixel difference value) DV 1 (= | G i, j −G) of the pixel value difference between the pixels indicated by G i, j and G i, j−1. i, j-1 │) is calculated. At this time, if DV 1 > 0, the count number of the number N1 of non-zero pixel difference values is incremented by one. That is, N1 is incremented by 1 so that N1 = N1 + 1.
《STEP1−3》
Gi,j>TH3のとき、Gi,jとGi,j+1とで示される画素間の画素値の差分の絶対値(画素差分値)DV2(=│Gi,j−Gi,j+1│)を算出する。このとき、DV2>0であれば、0でない画素差分値の数N1のカウント数を1だけ加算する。つまり、N1=N1+1となるように、N1を1だけ加算する。
<< STEP 1-3 >>
When G i, j > TH3, the absolute value (pixel difference value) DV 2 (= | G i, j −G) of the pixel value difference between the pixels indicated by G i, j and G i, j + 1. i, j + 1 |) is calculated. At this time, if DV 2 > 0, the count number of the non-zero pixel difference value N1 is incremented by one. That is, N1 is incremented by 1 so that N1 = N1 + 1.
《STEP1−4》
コントラスト値D1を下式(2)に従って算出する。
<< STEP 1-4 >>
The contrast value D1 is calculated according to the following formula (2).
D1=DH+DV1+DV2 ・・・(2)。 D1 = DH + DV 1 + DV 2 (2).
《STEP2》
評価領域画像において、画素値が飽和しているG画素について算出されるコントラスト値D1を積算することで、画素値の差分の総和(差分総和値)S1を算出する。
<< STEP2 >>
In the evaluation area image, the contrast value D1 calculated for the G pixel in which the pixel value is saturated is integrated to calculate the sum of the pixel value differences (difference sum value) S1.
このとき、併せて、評価領域画像内の全画素を対象として、0でない画素差分値の数N1を算出する。つまり、評価領域画像において、0以外の画素差分値の個数N1、すなわち、0以外の画素差分値の積算回数(以下、「有効積算回数」と称する)N1を算出する。 At this time, the number N1 of non-zero pixel difference values is also calculated for all the pixels in the evaluation area image. In other words, in the evaluation area image, the number N1 of pixel difference values other than 0, that is, the number N1 of pixel difference values other than 0 (hereinafter referred to as “effective integration number”) N1 is calculated.
《STEP3》
評価領域画像において、画素値が飽和しているG画素の画素数(以下、「飽和G画素数」と称する)F1を算出する。
<< STEP3 >>
In the evaluation area image, the number of G pixels with saturated pixel values (hereinafter referred to as “saturated G pixel number”) F1 is calculated.
《STEP4》
差分総和値S1を有効積算回数N1で割って正規化することで、下式(3)に示す評価値VAL1を算出する。
<< STEP4 >>
By dividing the difference sum value S1 by the effective integration number N1 and normalizing, the evaluation value VAL1 shown in the following equation (3) is calculated.
評価値VAL1=S1/N1・・・(3)。 Evaluation value VAL1 = S1 / N1 (3).
《STEP5》
評価値VAL1を飽和G画素数F1で割って正規化することで、下式(4)に示す評価値VAL2を算出し、評価値VAL2を合焦評価値とする。
<< STEP5 >>
By dividing the evaluation value VAL1 by the saturation G pixel number F1 and normalizing, the evaluation value VAL2 shown in the following equation (4) is calculated, and the evaluation value VAL2 is set as the focus evaluation value.
評価値VAL2=VAL1/F1・・・(4)。 Evaluation value VAL2 = VAL1 / F1 (4).
つまり、ここでは、全体制御部211が、評価領域画像について、高輝度G画素と、その高輝度G画素の近傍の近傍G画素との間におけるコントラストの平均値(ここでは、評価値VAL1)に基づいて、合焦評価値を算出する手段として機能する。具体的には、全体制御部211が、評価領域画像について、高輝度G画素と、その高輝度G画素の近傍の近傍G画素との間における画素値の差分の総和である差分総和値S1を算出する手段として機能するとともに、その差分の有効積算回数N1を算出する手段として機能し、さらに、差分総和値S1を有効積算回数N1で割った値を評価値VAL1として算出する手段として機能する。
That is, here, the
また、全体制御部211が、画素値が飽和しているG画素(高輝度G画素)の画素数(飽和G画素数)F1、すなわち評価領域画像における高輝度画素(ここでは、高輝度G画素)の占有状態(占有度合い)を示す値(「高輝度占有値」とも称する)を算出する手段として機能するとともに、高輝度G画素と、その高輝度G画素の近傍の近傍G画素との間におけるコントラストの平均値(ここでは、評価値VAL1)を高輝度占有値(ここでは、飽和G画素数F1)で割った値に基づいて、合焦評価値VAL2を算出する手段として機能する。
Further, the
<高輝度被写体用の合焦評価値算出法による効果>
高輝度の被写体が主被写体の場合に、一般的な合焦評価値算出法のように、単に、各フレームの画像(640×240画素)から抽出される評価領域画像に含まれる各画素間の画素値の差分の絶対値の総和を合焦評価値として算出すると、ズームレンズ301(具体的には、フォーカスレンズ)の駆動中に、高輝度部分がぼけて大きく広がったり、縮まったりして、高輝度部分とその他の部分との境界が、評価領域画像から出入りするため、合焦評価値とレンズ位置との関係を示す曲線が乱れたり、実際には合焦状態となっていないレンズ位置に対する合焦評価値が最大値となったりする。
<Effect of the focus evaluation value calculation method for high-luminance subjects>
When the high-brightness subject is the main subject, as in a general focus evaluation value calculation method, the pixels between the pixels included in the evaluation region image extracted from the image of each frame (640 × 240 pixels) are simply used. When the sum of the absolute values of the pixel value differences is calculated as the focus evaluation value, the high-luminance portion is blurred and greatly expanded or contracted during the driving of the zoom lens 301 (specifically, the focus lens). Since the boundary between the high-intensity part and the other part enters and exits from the evaluation area image, the curve indicating the relationship between the focus evaluation value and the lens position is disturbed, or the lens position that is not actually in focus The focus evaluation value may be the maximum value.
また、手ぶれや被写体ぶれなどその他の要因によっても、高輝度部分とその他の部分との境界が、評価領域画像から出入りするため、合焦評価値とレンズ位置との関係を示す曲線が乱れたり、実際には合焦状態となっていないレンズ位置に対する合焦評価値が最大値となったりする。その結果、高輝度部を含む被写体に対しては、適切に合焦させることができない。 Also, due to other factors such as camera shake and subject blurring, the boundary between the high brightness part and the other part enters and exits from the evaluation area image, so the curve indicating the relationship between the focus evaluation value and the lens position is disturbed, The focus evaluation value for the lens position that is not actually in focus may be the maximum value. As a result, the subject including the high luminance part cannot be focused properly.
そこで、本実施形態では、高輝度被写体用の合焦評価値算出法を用いることで、適正な合焦を実現している。以下、高輝度被写体用の合焦評価値算出法を用いる理由と、その利点・効果について説明する。 Therefore, in this embodiment, proper focusing is realized by using a focus evaluation value calculation method for a high-luminance subject. Hereinafter, the reason for using the focus evaluation value calculation method for a high-luminance subject and its advantages and effects will be described.
差分総和値S1を有効積算回数N1で割ることで求まる評価値VAL1は、高輝度G画素とその近傍の近傍G画素との間の画素値の差分の平均値、すなわち、高輝度G画素とその近傍の近傍G画素との間における画素値の変化の傾きの平均値(実際には、画素値の変化の傾きの絶対値の平均値)を示している。 The evaluation value VAL1 obtained by dividing the difference sum value S1 by the effective integration number N1 is an average value of pixel values between the high luminance G pixel and the neighboring G pixel in the vicinity thereof, that is, the high luminance G pixel and its The average value of the gradient of the change in the pixel value between the neighboring G pixels in the vicinity (actually, the average value of the absolute value of the gradient of the change in the pixel value) is shown.
一般に、CCD303によって取得される画像について、高輝度の部分と低輝度の部分との境界エッジは、レンズ位置が合焦位置に近ければ近い程、明瞭となり、画素値の変化の傾きは急峻となる。
In general, for an image acquired by the
図11は、高輝度の部分(高輝度G画素)と低輝度の部分(近傍G画素)との輝度差を例示する模式図である。図11では、評価領域画像のうちある1つの水平ライン上のG画素に係る画素値の変化を示しており、横軸が画像データにおける水平ライン上の画素の位置(水平画素位置)を示し、縦軸が画素値を示している。そして、フォーカスレンズのレンズ位置が合焦位置にある場合における画素値と水平画素位置との関係を曲線Cv1で示し、レンズ位置が合焦位置にない場合における画素値と水平画素位置との関係を曲線Cv2で例示している。 FIG. 11 is a schematic diagram illustrating a luminance difference between a high luminance portion (high luminance G pixel) and a low luminance portion (neighboring G pixel). In FIG. 11, the change in the pixel value relating to the G pixel on one horizontal line in the evaluation area image is shown, and the horizontal axis shows the position of the pixel on the horizontal line (horizontal pixel position) in the image data. The vertical axis represents the pixel value. The relationship between the pixel value and the horizontal pixel position when the lens position of the focus lens is at the in-focus position is indicated by a curve Cv1, and the relationship between the pixel value and the horizontal pixel position when the lens position is not in the in-focus position is shown. This is illustrated by the curve Cv2.
図11に示すように、レンズ位置が合焦位置に近ければ近い程、高輝度G画素とその近傍に位置する近傍G画素との間の画素値の変化の傾きが大きくなる。よって、高輝度G画素と近傍G画素との間における画素値の変化の傾きの平均値を示す評価値VAL1が大きくなればなる程、レンズ位置が合焦位置に近くなるため、評価値VAL1に基づいて、合焦位置を決定することで、高輝度部を含む被写体に対して適切に合焦させることができる。 As shown in FIG. 11, the closer the lens position is to the in-focus position, the greater the slope of the change in pixel value between the high luminance G pixel and the neighboring G pixel located in the vicinity thereof. Therefore, the larger the evaluation value VAL1 indicating the average value of the change in the pixel value between the high-luminance G pixel and the neighboring G pixel, the closer the lens position is to the in-focus position. Based on the determination of the focus position, it is possible to appropriately focus on the subject including the high luminance portion.
つまり、ここでは、全体制御部211が、所定の閾値TH3以上の画素値を有する高輝度G画素と、その高輝度G画素の近傍に位置する近傍G画素との間におけるコントラストが最大となるズームレンズ301(具体的には、フォーカスレンズ)の位置を合焦位置として決定する手段として機能する。
In other words, here, the
また、一般に、評価領域画像における高輝度の部分が小さくなればなる程、レンズ位置が合焦位置に近くなる。そこで、本実施形態では、さらに、評価値VAL1を飽和G画素数F1で割って、合焦評価値VAL2を算出する。よって、高輝度の部分が小さくなればなる程、すなわち飽和G画素数F1が小さくなればなる程、合焦評価値VAL2は大きくなるため、合焦評価値VAL2のピークがより明瞭となる。その結果、さらに適切かつ高精度に合焦させることができる。 In general, the smaller the high-luminance portion in the evaluation area image, the closer the lens position is to the in-focus position. Therefore, in the present embodiment, the evaluation value VAL1 is further divided by the saturated G pixel number F1 to calculate the focus evaluation value VAL2. Therefore, the focus evaluation value VAL2 increases as the high luminance portion decreases, that is, as the saturation G pixel number F1 decreases, and thus the peak of the focus evaluation value VAL2 becomes clearer. As a result, it is possible to focus more appropriately and with high accuracy.
図12は、合焦位置が近端付近となる高輝度被写体を主被写体とした場合におけるフォーカスレンズのレンズ位置と合焦評価値との関係を示す図である。なお、図12では、本発明の実施形態に係る高輝度被写体用の合焦評価値算出法を用いた場合におけるレンズ位置と合焦評価値との関係を示す曲線Cv3と、比較のために、従来の一般的な合焦評価値算出法を用いた場合におけるレンズ位置と合焦評価値との関係を示す曲線Cv4とを示している。なお、曲線Cv4は、偽合焦が生じている状態を示す。 FIG. 12 is a diagram showing the relationship between the lens position of the focus lens and the focus evaluation value when a main subject is a high brightness subject whose focus position is near the near end. In FIG. 12, for comparison, a curve Cv3 indicating the relationship between the lens position and the focus evaluation value in the case of using the focus evaluation value calculation method for a high-luminance subject according to the embodiment of the present invention. The curve Cv4 which shows the relationship between the lens position at the time of using the conventional general focus evaluation value calculation method and a focus evaluation value is shown. A curve Cv4 shows a state in which false focusing occurs.
図12に示すように、曲線Cv3は、曲線Cv4と同様に合焦評価値が最大となるフォーカスレンズのレンズ位置を有し、この合焦評価値の最大値に対応するレンズ位置を検出し、その前後のレンズ位置を含めた合計3点の合焦評価値と対応するレンズ位置とに基づいて、上述したように、式(1)などを用いて合焦位置を決定することができる。よって、主被写体である高輝度部分に対して、適切に合焦させることができる。 As shown in FIG. 12, the curve Cv3 has the lens position of the focus lens where the focus evaluation value is maximized similarly to the curve Cv4, and detects the lens position corresponding to the maximum value of the focus evaluation value. As described above, the in-focus position can be determined based on the total three focus evaluation values including the lens positions before and after the lens position and the corresponding lens positions, as described above. Therefore, it is possible to appropriately focus on the high-luminance portion that is the main subject.
以上のように、本発明の実施形態に係る撮像装置1では、主被写体が高輝度である場合には、高輝度G画素と、その近傍に位置する近傍G画素との間におけるコントラストが最大となるズームレンズ301(具体的には、フォーカスレンズ)の位置を合焦位置として決定する。その結果、高輝度部を含むあらゆる被写体に対して、適切に合焦させることができる。
As described above, in the
また、高輝度G画素とその近傍に位置する近傍G画素との間における画素値の差分の総和を、差分の積算回数で割った値(ここでは、評価値VAL1)、すなわち、高輝度G画素と、その近傍に位置する近傍G画素との間におけるコントラストの平均値に基づいて、合焦評価値を算出する。その結果、高輝度部を含むあらゆる被写体に対して、高精度かつより適切に合焦させることができる。 Also, a value obtained by dividing the total sum of the pixel values between the high-luminance G pixel and the neighboring G pixel located in the vicinity thereof by the number of times of difference accumulation (here, the evaluation value VAL1), that is, the high-luminance G pixel. And the average value of the contrast between the neighboring G pixels located in the vicinity thereof and the focus evaluation value are calculated. As a result, it is possible to focus on any subject including the high brightness portion with high accuracy and more appropriately.
また、高輝度G画素と、その近傍に位置する近傍G画素との間におけるコントラストの平均値(ここでは、評価値VAL1)を、評価領域画像における高輝度G画素の占有状態を示す値(ここでは、高輝度G画素数F1)で割ることによって算出される値(ここでは、評価値VAL2)を合焦評価値として算出する。その結果、高輝度部を含むあらゆる被写体に対して、さらに適切かつ高精度に合焦させることができる。 Further, an average value of contrast between the high luminance G pixel and a neighboring G pixel located in the vicinity thereof (here, the evaluation value VAL1) is a value indicating the occupation state of the high luminance G pixel in the evaluation region image (here. Then, a value (here, evaluation value VAL2) calculated by dividing by the high luminance G pixel number F1) is calculated as the focus evaluation value. As a result, it is possible to focus on any subject including the high luminance portion more appropriately and with high accuracy.
さらに、主被写体が高輝度であると検知されなかった場合(評価領域画像において、高輝度画素が所定量未満の場合)には、各フレームの画像から抽出される評価領域画像に含まれる各画素間の画素値の差分の絶対値の総和を合焦評価値として算出する。その結果、高輝度部を全くまたは少ししか含まない被写体に対しても、適切に合焦させることができる。 Further, when the main subject is not detected to have high luminance (when the high luminance pixel is less than a predetermined amount in the evaluation region image), each pixel included in the evaluation region image extracted from the image of each frame The sum of the absolute values of the pixel value differences between them is calculated as the focus evaluation value. As a result, it is possible to appropriately focus even on a subject that includes no or only a high luminance part.
<その他>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<Others>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the thing of the content demonstrated above.
◎例えば、上述した実施形態では、本発明の適用対象を撮像装置としたが、この撮像装置には、例えば、カメラ付き携帯電話機など、撮像機能を有するあらゆる装置が含まれる。 For example, in the above-described embodiment, the application target of the present invention is the imaging device, but this imaging device includes all devices having an imaging function such as a mobile phone with a camera.
◎また、上述した実施形態では、評価値VAL2を合焦評価値として、合焦位置を決定したが、これに限られるものではなく、評価値VAL1を合焦評価値として、合焦位置を決定しても良い。 In the above-described embodiment, the focus position is determined using the evaluation value VAL2 as the focus evaluation value. However, the present invention is not limited to this, and the focus position is determined using the evaluation value VAL1 as the focus evaluation value. You may do it.
このような構成としても、上述したように、高輝度G画素とその近傍に位置する近傍G画素との間における画素値の変化の傾きの平均値を示す評価値VAL1が大きくなればなる程、レンズ位置が合焦位置に近くなるため、評価値VAL1を合焦評価値として、合焦位置を決定することによっても、高輝度部を含む被写体に対して適切に合焦させることができる。 Even in such a configuration, as described above, as the evaluation value VAL1 indicating the average value of the gradient of the change in the pixel value between the high luminance G pixel and the neighboring G pixel located in the vicinity thereof increases, Since the lens position is close to the in-focus position, the subject including the high-intensity portion can be appropriately focused by determining the in-focus position using the evaluation value VAL1 as the in-focus evaluation value.
◎また、上述した実施形態では、閾値TH3(「第1の閾値」とも称する)と閾値TH1(「第2の閾値」とも称する)とがともに1023で等しかったが、これに限られるものではなく、例えば、閾値TH1の方が閾値TH3よりも小さくても良いし、逆に閾値TH3の方が閾値TH1よりも小さくても良い。 In the embodiment described above, the threshold value TH3 (also referred to as “first threshold value”) and the threshold value TH1 (also referred to as “second threshold value”) are both equal to 1023. However, the present invention is not limited to this. For example, the threshold value TH1 may be smaller than the threshold value TH3, and conversely, the threshold value TH3 may be smaller than the threshold value TH1.
◎また、上述した実施形態では、高輝度占有値は、飽和G画素数F1であったが、これに限られるものではなく、例えば、高輝度G画素の画素数を評価領域画像の全画素で割ることで求まる高輝度G画素の占める面積率などであっても良い。 In the above-described embodiment, the high-luminance occupation value is the saturated G pixel number F1, but is not limited thereto. For example, the high-luminance G pixel number is the same for all the pixels in the evaluation region image. It may be the area ratio occupied by the high-luminance G pixel obtained by dividing.
◎なお、上述した実施形態において、コントラストには、画素値の差分や画素値の比など、明るさを表す値の差分や比の双方を含む。 In the above-described embodiment, the contrast includes both a difference and a ratio of values representing brightness, such as a difference in pixel values and a ratio of pixel values.
1 撮像装置
209 画像メモリ
211 全体制御部
214 AFモータ駆動回路
301 ズームレンズ
303 CCD
M2 AFモータ
DESCRIPTION OF
M2 AF motor
Claims (7)
前記画像から所定の評価領域に係る評価領域画像を抽出する抽出手段と、
前記評価領域画像について、第1の閾値以上の画素値を有する高輝度画素と、当該高輝度画素の近傍に位置する近傍画素との間におけるコントラストが最大となる前記撮影レンズの位置を前記合焦位置として決定する第1の決定手段と、
を備えることを特徴とする撮像装置。 Imaging means for inputting an image composed of a plurality of pixels while driving the photographic lens in the optical axis direction, and driving for driving the photographic lens to a focus position based on a focus evaluation value calculated based on the image An imaging device having means,
Extracting means for extracting an evaluation area image related to a predetermined evaluation area from the image;
For the evaluation area image, the in-focus position of the photographing lens that maximizes the contrast between a high-luminance pixel having a pixel value equal to or greater than a first threshold and a neighboring pixel located in the vicinity of the high-luminance pixel First determining means for determining the position;
An imaging apparatus comprising:
前記評価領域画像について、前記高輝度画素と、前記近傍画素との間におけるコントラストの平均値に基づいて、合焦評価値を算出する評価値算出手段、
を備えることを特徴とする撮像装置。 The imaging apparatus according to claim 1,
Evaluation value calculation means for calculating a focus evaluation value based on an average value of contrast between the high-luminance pixel and the neighboring pixel for the evaluation region image,
An imaging apparatus comprising:
前記評価領域画像について、前記高輝度画素と、前記近傍画素との間における画素値の差分の総和である差分総和値を算出する差分総和値算出手段と、
前記差分総和値算出手段による前記差分の積算回数である積算回数値を算出する回数算出手段と、
前記差分総和値を前記積算回数値で割った値を前記平均値として算出する平均値算出手段と、
を備えることを特徴とする撮像装置。 The imaging apparatus according to claim 2,
For the evaluation area image, a difference sum value calculation means for calculating a difference sum value that is a sum of differences of pixel values between the high-intensity pixels and the neighboring pixels;
Number of times calculation means for calculating the number of times of accumulation that is the number of times of accumulation of the difference by the difference total value calculation means;
An average value calculating means for calculating a value obtained by dividing the difference sum value by the cumulative number value as the average value;
An imaging apparatus comprising:
前記評価領域画像における前記高輝度画素の占有状態を示す高輝度占有値を算出する占有値算出手段、
をさらに備え、
前記評価値算出手段が、
前記平均値を前記高輝度占有値で割った値に基づいて、前記合焦評価値を算出することを特徴とする撮像装置。 The imaging apparatus according to claim 2 or 3, wherein
Occupancy value calculating means for calculating a high luminance occupation value indicating an occupation state of the high luminance pixels in the evaluation area image;
Further comprising
The evaluation value calculating means is
The imaging apparatus, wherein the focus evaluation value is calculated based on a value obtained by dividing the average value by the high luminance occupation value.
前記評価領域画像に含まれる各画素間のコントラストに基づいて、前記合焦位置を決定する第2の決定手段と、
前記評価領域画像において、第2の閾値以上の画素値を有する画素が、所定量未満の場合に、前記第1の決定手段による前記合焦位置の決定を禁止し、前記第2の決定手段によって前記合焦位置を決定するように制御する制御手段と、
をさらに備えることを特徴とする撮像装置。 The imaging apparatus according to any one of claims 1 to 4,
Second determining means for determining the in-focus position based on the contrast between the pixels included in the evaluation area image;
In the evaluation area image, when the number of pixels having a pixel value equal to or greater than a second threshold is less than a predetermined amount, the determination of the in-focus position by the first determination unit is prohibited, and the second determination unit Control means for controlling to determine the in-focus position;
An image pickup apparatus further comprising:
前記画像から所定の評価領域に係る評価領域画像を抽出するステップと、
前記評価領域画像について、第1の閾値以上の画素値を有する高輝度画素と、当該高輝度画素の近傍に位置する近傍画素との間におけるコントラストが最大となる前記撮影レンズの位置を前記合焦位置として決定するステップと、
を備えることを特徴とする合焦制御方法。 Imaging means for inputting an image composed of a plurality of pixels while driving the photographic lens in the optical axis direction, and driving for driving the photographic lens to a focus position based on a focus evaluation value calculated based on the image A focusing control method in an imaging apparatus having means,
Extracting an evaluation area image related to a predetermined evaluation area from the image;
For the evaluation area image, the focus of the position of the photographic lens where the contrast between a high-luminance pixel having a pixel value equal to or greater than a first threshold and a neighboring pixel located in the vicinity of the high-luminance pixel is maximized. Determining as a position;
A focusing control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003287864A JP2005055746A (en) | 2003-08-06 | 2003-08-06 | Imaging apparatus, focusing control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003287864A JP2005055746A (en) | 2003-08-06 | 2003-08-06 | Imaging apparatus, focusing control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005055746A true JP2005055746A (en) | 2005-03-03 |
Family
ID=34366724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003287864A Pending JP2005055746A (en) | 2003-08-06 | 2003-08-06 | Imaging apparatus, focusing control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005055746A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5993806A (en) * | 1982-11-16 | 1984-05-30 | Matsushita Electric Ind Co Ltd | Production of needle fe-co alloy |
JP2008246049A (en) * | 2007-03-30 | 2008-10-16 | Tomey Corporation | Corneal endothelium imaging device |
JP2008544673A (en) * | 2005-06-23 | 2008-12-04 | ノキア コーポレイション | Digital image processing |
JP2009053428A (en) * | 2007-08-27 | 2009-03-12 | Sanyo Electric Co Ltd | Electronic camera |
JP2009053438A (en) * | 2007-08-27 | 2009-03-12 | Sanyo Electric Co Ltd | Electronic camera |
JP2009140496A (en) * | 2007-12-03 | 2009-06-25 | Ricoh Co Ltd | Electro-optic color image processing system and lens system |
JP2010092027A (en) * | 2008-09-09 | 2010-04-22 | Panasonic Corp | Imaging apparatus |
JP2012137530A (en) * | 2010-12-24 | 2012-07-19 | Canon Inc | Focus adjusting device and method |
US8237850B2 (en) | 2007-08-27 | 2012-08-07 | Sanyo Electric Co., Ltd. | Electronic camera that adjusts the distance from an optical lens to an imaging surface |
EP2624538A1 (en) * | 2012-02-06 | 2013-08-07 | Hitachi Ltd. | Image signal processing apparatus and image signal processing method |
KR101334527B1 (en) * | 2007-07-13 | 2013-11-28 | 엘지이노텍 주식회사 | Auto focus apparatus and method for auto focusing |
JP2015141207A (en) * | 2014-01-27 | 2015-08-03 | 株式会社 日立産業制御ソリューションズ | IMAGING DEVICE, IMAGING METHOD, AND FOCUS CONTROL DEVICE |
JP2018072554A (en) * | 2016-10-28 | 2018-05-10 | オリンパス株式会社 | Imaging device and focus adjustment method |
CN118695095A (en) * | 2024-08-29 | 2024-09-24 | 福建星网物联信息系统有限公司 | Automatic focusing method, device and computer storage medium in point light source scene |
-
2003
- 2003-08-06 JP JP2003287864A patent/JP2005055746A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5993806A (en) * | 1982-11-16 | 1984-05-30 | Matsushita Electric Ind Co Ltd | Production of needle fe-co alloy |
US8045047B2 (en) | 2005-06-23 | 2011-10-25 | Nokia Corporation | Method and apparatus for digital image processing of an image having different scaling rates |
JP2008544673A (en) * | 2005-06-23 | 2008-12-04 | ノキア コーポレイション | Digital image processing |
JP2008246049A (en) * | 2007-03-30 | 2008-10-16 | Tomey Corporation | Corneal endothelium imaging device |
KR101334527B1 (en) * | 2007-07-13 | 2013-11-28 | 엘지이노텍 주식회사 | Auto focus apparatus and method for auto focusing |
JP2009053438A (en) * | 2007-08-27 | 2009-03-12 | Sanyo Electric Co Ltd | Electronic camera |
US8237850B2 (en) | 2007-08-27 | 2012-08-07 | Sanyo Electric Co., Ltd. | Electronic camera that adjusts the distance from an optical lens to an imaging surface |
US8471953B2 (en) | 2007-08-27 | 2013-06-25 | Sanyo Electric Co., Ltd. | Electronic camera that adjusts the distance from an optical lens to an imaging surface |
JP2009053428A (en) * | 2007-08-27 | 2009-03-12 | Sanyo Electric Co Ltd | Electronic camera |
JP2009140496A (en) * | 2007-12-03 | 2009-06-25 | Ricoh Co Ltd | Electro-optic color image processing system and lens system |
JP2010092027A (en) * | 2008-09-09 | 2010-04-22 | Panasonic Corp | Imaging apparatus |
JP2012137530A (en) * | 2010-12-24 | 2012-07-19 | Canon Inc | Focus adjusting device and method |
EP2624538A1 (en) * | 2012-02-06 | 2013-08-07 | Hitachi Ltd. | Image signal processing apparatus and image signal processing method |
JP2015141207A (en) * | 2014-01-27 | 2015-08-03 | 株式会社 日立産業制御ソリューションズ | IMAGING DEVICE, IMAGING METHOD, AND FOCUS CONTROL DEVICE |
JP2018072554A (en) * | 2016-10-28 | 2018-05-10 | オリンパス株式会社 | Imaging device and focus adjustment method |
CN118695095A (en) * | 2024-08-29 | 2024-09-24 | 福建星网物联信息系统有限公司 | Automatic focusing method, device and computer storage medium in point light source scene |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7706674B2 (en) | Device and method for controlling flash | |
KR101342477B1 (en) | Imaging apparatus and imaging method for taking moving image | |
JP3530907B2 (en) | Digital camera | |
JP6202860B2 (en) | Imaging apparatus and imaging method | |
JP4730553B2 (en) | Imaging apparatus and exposure control method | |
JP5123137B2 (en) | Imaging apparatus and imaging method | |
KR20070080223A (en) | Image pickup device and image blurring method and recording medium thereof | |
JP2018006827A (en) | Imaging apparatus, imaging program, and imaging method | |
JP4916378B2 (en) | Imaging apparatus, image processing apparatus, image file, and gradation correction method | |
JP4775644B2 (en) | Imaging apparatus and program thereof | |
JP5458937B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD | |
JP2005055746A (en) | Imaging apparatus, focusing control method and program | |
US10187594B2 (en) | Image pickup apparatus, image pickup method, and non-transitory computer-readable medium storing computer program | |
JP2008053931A (en) | Imaging device | |
KR20100113864A (en) | Digital image signal processing method, apparatus applying the method and medium for recording the method | |
JP4934617B2 (en) | Imaging apparatus and imaging method | |
JP2010062802A (en) | Imaging apparatus, imaging method, and computer readable recording medium storing program for executing the method | |
JP2008109305A (en) | Image processing device, and control method of image processing device | |
JP2009141538A (en) | IMAGING DEVICE, IMAGE REPRODUCING DEVICE, AND PROGRAM THEREOF | |
JP5310331B2 (en) | Imaging apparatus and imaging method | |
JP5487942B2 (en) | Image processing apparatus, image processing method, and image input apparatus | |
JP2010068331A (en) | Imaging device and imaging method | |
JP6471843B2 (en) | Imaging apparatus, control method, and program | |
JP2005175864A (en) | Image pickup device and image processing method | |
JP5091734B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20051202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060613 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090811 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091208 |