JP3914367B2 - Automatic focusing device, digital camera, and portable information input device - Google Patents
Automatic focusing device, digital camera, and portable information input device Download PDFInfo
- Publication number
- JP3914367B2 JP3914367B2 JP2000064200A JP2000064200A JP3914367B2 JP 3914367 B2 JP3914367 B2 JP 3914367B2 JP 2000064200 A JP2000064200 A JP 2000064200A JP 2000064200 A JP2000064200 A JP 2000064200A JP 3914367 B2 JP3914367 B2 JP 3914367B2
- Authority
- JP
- Japan
- Prior art keywords
- focus position
- subject
- focus
- ccd
- lens system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 24
- 238000005259 measurement Methods 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000003491 array Methods 0.000 description 6
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000006837 decompression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 229910052987 metal hydride Inorganic materials 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- PXHVJJICTQNCMI-UHFFFAOYSA-N nickel Substances [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 1
- -1 nickel metal hydride Chemical class 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、自動合焦装置、デジタルカメラ、および携帯情報入力装置に関し、詳細には、外部AFとCCD−AFで合焦位置の検出を行う自動合焦装置、デジタルカメラ、および携帯情報入力装置に関する。
【0002】
【従来の技術】
従来の電子スチルカメラのAF方式としては、CCDもしくはフォーカスレンズを光軸方向に駆動しながらCCDに蓄積される輝度信号によりピントのピークを見つけるCCD−AF方式か、三角測量方式の自動焦点調節機構が単独で使用されていた。
【0003】
【発明が解決しようとする課題】
しかしながら、上記CCD−AF方式は、図15に示すように、無限遠から最至近まで、CCDまたはフォーカスレンズを駆動して、ピントの山を見つける方式であるため、合焦位置を検出するまでに時間がかかるという問題がある。上述の問題を解決するために、CCD−AF方式では、図16(a)に示すように、粗サンプリングを無限遠から最至近まで行って概略の合焦位置を検出し、つづいて、図16(b)に示すように、概略の合焦位置近傍で細かいサンプリングを行って最終的な合焦位置を検出する方式も提案されている。かかる方式によれば、若干合焦位置の検出時間を短縮できるが、十分とは言えない。
【0004】
また、CCD−AF方式は、ピントを合わせたいエリアに高輝度な被写体(電球、ろうそくの炎、反射している看板など)があると、ピントの山を発見できず、疑合焦してしまうという問題がある。また、上述の三角測量方式では、至近距離側での測距のパララックスずれが発生しやすく、また、望遠側での性能が低いなどの問題がある。
【0005】
本発明は、上記に鑑みてなされたものであり、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能な自動合焦装置、デジタルカメラ、および携帯情報入力装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上述した課題を解決するために、請求項1にかかる発明は、被写体像を所定位置に結像するフォーカスレンズ系を含むレンズ系と、前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、前記撮像手段を使用して、前記レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、前記第1の合焦位置検出手段で前記合焦位置の近傍でサンプリングされた被写体のコントラストが、前記レンズ系の移動開始位置である前記無限側から移動終了位置である前記至近側までの移動に伴って上昇を続けるように変化し、前記レンズ系の移動終了位置で最大となる場合には、前記第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で前記被写体のコントラストが最大となる場合には、前記被写体のコントラストが最大となる位置を最終的な合焦位置に決定する合焦位置決定手段と、を備えたものである。
【0007】
上記発明によれば、レンズ系は被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、合焦位置決定手段は第1の合焦位置検出手段で合焦位置の近傍でサンプリングされた被写体のコントラストが、レンズ系の移動開始位置である無限側から移動終了位置である至近側までの移動に伴って上昇を続けるように変化し、レンズ系の移動終了位置で最大となる場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で被写体のコントラストが最大となる場合には、被写体のコントラストが最大となる位置を最終的な合焦位置に決定する。
【0010】
また、請求項2にかかる発明は、請求項1にかかる発明において、前記合焦位置決定手段は、前記第1の合焦位置検出手段で検出された被写体のコントラストにピークが無い場合には、前記第2の合焦位置検出手段でサンプリングされた合焦位置を最終的な合焦位置に決定するものである。上記発明によれば、合焦位置決定手段は、第1の合焦位置検出手段でサンプリングされた被写体のコントラストにピークが無い場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定する。
【0012】
また、請求項3にかかる発明は、請求項1または請求項2にかかる発明において、合焦動作を指示するための合焦動作操作部材が操作された場合に、前記第1の合焦位置検出手段と前記第2の合焦位置検出手段とを略同時に動作させるものである。上記発明によれば、合焦動作を指示するための合焦動作操作部材が操作された場合に、第1の合焦位置検出手段と第2の合焦位置検出手段とを略同時に動作させる。
【0013】
また、請求項4にかかる発明は、請求項1または請求項2に記載の自動合焦装置において、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で前記第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、前記合焦動作操作部材が操作された場合には、前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行するものである。上記発明によれば、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、合焦動作操作部材が操作された場合には、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行する。
【0014】
また、請求項5にかかる発明は、請求項1〜請求項4のいずれか1つにかかる自動合焦装置を適用したものである。上記発明によれば、請求項1〜請求項5のいずれか1つにかかる自動合焦装置をデジタルカメラに適用する。
【0015】
また、請求項6にかかる発明は、請求項1〜請求項4のいずれか1つにかかる自動合焦装置を適用したものである。上記発明によれば、請求項1〜請求項4のいずれか1つにかかる自動合焦装置を携帯情報入力装置に適用する。
【0016】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる自動合焦装置、デジタルカメラ、および携帯情報端末装置の好適な実施の形態を詳細に説明する。
【0017】
図1は、本発明にかかる自動合焦装置を適用したデジタルカメラの構成図である。同図において、100はデジタルカメラを示しており、デジタルカメラ100は、レンズ系101、絞り・フィルター部等を含むメカ機構102、CCD103、CDS回路104、可変利得増幅器(AGCアンプ)105、A/D変換器106、IPP107、DCT108、コーダー109、MCC110、DRAM111、PCカードインターフェース112、CPU121、表示部122、操作部123、SG(制御信号生成)部126、ストロボ装置127、バッテリ128、DC−DCコンバータ129、EEPROM130、フォーカスドライバ131、パルスモータ132、ズームドライバ133、パルスモータ134、モータドライバ135、外部AFセンサー136を具備して構成されている。また、PCカードインターフェース112を介して着脱可能なPCカード150が接続されている。
【0018】
レンズユニットは、レンズ系101、絞り・フィルター部等を含むメカ機構102からなり、メカ機構102のメカニカルシャッタは2つのフィールドの同時露光を行う。レンズ系101は、例えば、バリフォーカルレンズからなり、フォーカスレンズ系101aとズームレンズ系101bとで構成されている。
【0019】
フォーカスドライバ131は、CPU121から供給される制御信号に従って、パルスモータ132を駆動して、フォーカスレンズ系101aを光軸方向に移動させる。ズームドライバ133は、CPU121から供給される制御信号に従って、パルスモータ134を駆動して、ズームレンズ系101bを光軸方向に移動させる。また、モータドライバ135は、CPU121から供給される制御信号に従ってメカ機構102を駆動し、例えば、絞りの絞り値を設定する。
【0020】
CCD(電荷結合素子)103は、レンズユニットを介して入力した映像を電気信号(アナログ画像データ)に変換する。CDS(相関2重サンプリング)回路104は、CCD型撮像素子に対する低雑音化のための回路である。
【0021】
また、AGCアンプ105は、CDS回路104で相関2重サンプリングされた信号のレベルを補正する。尚、AGCアンプ105のゲインは、CPU121により、CPU121が内蔵するD/A変換器を介して設定データ(コントロール電圧)がAGCアンプ105に設定されることにより設定される。さらにA/D変換器106は、AGCアンプ105を介して入力したCCD103からのアナログ画像データをデジタル画像データに変換する。すなわち、CCD103の出力信号は、CDS回路104およびAGCアンプ105を介し、またA/D変換器106により、最適なサンプリング周波数(例えば、NTSC信号のサブキャリア周波数の整数倍)にてデジタル信号に変換される。
【0022】
また、デジタル信号処理部であるIPP(Image Pre-Processor)107、DCT(Discrete Cosine Transform)108、およびコーダー(Huffman Encoder/Decoder)109は、A/D変換器106から入力したデジタル画像データについて、色差(Cb、Cr)と輝度(Y)に分けて各種処理、補正および画像圧縮/伸長のためのデータ処理を施す。DCT108およびコーダー109は、例えばJPEG準拠の画像圧縮・伸長の一過程である直交変換・逆直交変換、並びに、JPEG準拠の画像圧縮・伸長の一過程であるハフマン符号化・復号化等を行う。
【0023】
さらに、MCC(Memory Card Controller)110は、圧縮処理された画像を一旦蓄えてPCカードインターフェース112を介してPCカード150への記録、或いはPCカード150からの読み出しを行う。
【0024】
CPU121は、ROMに格納されたプログラムに従ってRAMを作業領域として使用して、操作部123からの操作、或いは図示しないリモコン等の外部動作操作に従い、上記デジタルカメラ内部の全動作を制御する。具体的には、CPU121は、撮像動作、自動露出(AE)動作、自動ホワイトバランス(AWB)調整動作や、AF動作等の制御を行う。
【0025】
また、カメラ電源はバッテリ128、例えば、NiCd、ニッケル水素、リチウム電池等から、DC−DCコンバータ129に入力され、当該デジタルカメラ内部に供給される。
【0026】
表示部122は、LCD、LED、EL等で実現されており、撮影したデジタル画像データや、伸長処理された記録画像データ、設定画面等の表示を行う。操作部123は、撮影操作を行うためのレリーズキー、ズームレンズ系101bのズーム位置を設定するためのズームキー、機能選択およびその他の各種設定を外部から行うためのボタン等を備えている。CPU121は、レリーズキーが半押しされてRL−1がONとなるとAF動作等を実行し、また、レリーズキーが全押しされてRL−2がONとなると撮影動作を実行する。EEPROM130には、CPU121がデジタルカメラの動作を制御する際に使用する調整データ等が書き込まれている。
【0027】
上記したデジタルカメラ100(CPU121)は、被写体を撮像して得られる画像データをPCカード150に記録する記録モードと、PCカード150に記録された画像データを表示する表示モードと、撮像した画像データを表示部122に直接表示するモニタリングモード等を備えている。
【0028】
図2は、上記IPP107の具体的構成の一例を示す図である。IPP107は、図2に示す如く、A/D変換器106から入力したデジタル画像データをR・G・Bの各色成分に分離する色分離部1071と、分離されたR・G・Bの各画像データを補間する信号補間部1072と、R・G・Bの各画像データの黒レベルを調整するペデスタル調整部1073と、R、Bの各画像データの白レベルを調整するホワイトバランス調整部1074と、CPU121により設定されたゲインでR・G・Bの各画像データを補正するデジタルゲイン調整部1075と、R・G・Bの各画像データのγ変換を行うガンマ変換部1076と、RGBの画像データを色差信号(Cb、Cr)と輝度信号(Y)とに分離するマトリクス部1077と、色差信号(Cb、Cr)と輝度信号(Y)とに基づいてビデオ信号を作成し表示部122に出力するビデオ信号処理部1078と、を備えている。
【0029】
更に、IPP107は、ペデスタル調整部1073によるペデスタル調整後の画像データの輝度データ(Y)を検出するY演算部1079と、Y演算部1079で検出した輝度データ(Y)の所定周波数成分のみを通過させるBPF1080と、BPF1080を通過した輝度データ(Y)の積分値をAF評価値としてCPU121に出力するAF評価値回路1081と、Y演算部1079で検出した輝度データ(Y)に応じたデジタルカウント値をAE評価値としてCPU121に出力するAE評価値回路1082と、ホワイトバランス調整部1074による調整後のR・G・Bの各画像データの輝度データ(Y)を検出するY演算部1083と、Y演算部1083で検出した各色の輝度データ(Y)をそれぞれカウントして各色のAWB評価値としてCPU121に出力するAWB評価値回路1084と、CPU121とのインターフェースであるCPUI/F1085と、及びDCT108とのインターフェースであるDCTI/F1086等を備えている。
【0030】
図1の外部AFセンサー136は、パッシブ方式の測距センサーからなり、被写体の距離を測距するためのものである。図3は、外部AFセンサーの概略構成を示す図である。外部AFセンサー136は、レンズ151と、フォトセンサーアレイ152a(左側)、152b(右側)と、演算回路(不図示)を備えている。図3および図4を参照して外部AFセンサー136の測距原理を説明する。図3において、被写体までの距離をd、レンズ151とフォトセンサーアレイ152a(左側)、152b(右側)との距離をf、フォトセンサーアレイ152a(左側)、152b(右側)に入力する光の幅をそれぞれ、X1、X2、光の入射されるフォトセンサーアレイ152a、152b間の距離をBとすると、外部AFセンサー136の前面から被写体までの距離dは、三角測量により、d=B・f/(X1+X2)で算出できる。図4は、左右のフォトセンサーアレイの被写体像を示しており、演算回路は、各フォトセンサーアレイの被写体像の光量を積分し、左右センサーデータのずれを演算することで、被写体の距離dを算出し、CPU121に出力する。
【0031】
本明細書において、外部AFセンサー136を使用して合焦位置を検出する動作を外部AFといい、CCD103を使用して合焦位置を検出する場合をCCD−AF(内部AF)という。CCD−AFでは、フォーカスレンズ101aを移動して、CCD103から出力される画像信号に応じた被写体のコントラストを示すAF評価値をサンプリングし、AF評価値のピーク位置を合焦位置とする山登りサーボ方式を使用する。外部AFとCCD−AFを使用してAFを行うことをハイブリットAFという。
【0032】
つぎに、上記構成のデジタルカメラのAFに関する動作例(動作例1、動作例2)を説明する。動作例1はCCD−AFと外部AFを略同時に実行する場合の動作例を示し、動作例2はCCD−AFに先行して外部AFを実行する場合の動作例を示す。
【0033】
(動作例1)
デジタルカメラのAFに関する動作例1を図5〜図7を参照して説明する。図5は、CPU121の制御により実行されるデジタルカメラのAFに関する動作例1を説明するためのフローチャートである。
【0034】
図5において、まず、CPU121は、レリーズキーが半押しされて、RL−1がONとなったか否かを判断する(ステップS1)。レリーズキーが半押しされて、RL−1がONされた場合には、CPU121は、フォーカスレンズ系101aをCCD−AFの開始位置(基準位置)に設定する(ステップS2)。CCD−AFの開始位置(基準位置)としては、例えば、レンズ系101の現ポジションを使用することができる。通常、同一の条件で連続して撮影する頻度が高いと考えられるからである。
【0035】
そして、CPU121は、外部AFとCCD−AFを略同時にスタートさせる(ステップS3)。外部AFでは、外部AFセンサー136により、測距処理が行われ、被写体との距離の測定が行われて合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、AF評価値を取得し、合焦位置の検出が行われる。
【0036】
この後、CPU121は、外部AFが終了したか否かを判断し(ステップS4)、外部AFが終了した場合には、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異なるか否かを判断する(ステップS5)。この判断の結果、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異ならない場合には、ステップS8に移行する。他方、外部AFの距離測定結果が、CCD−AFの開始位置(基準位置)に対応する撮影距離と所定値以上異なる場合には、CPU121は、CCD−AFを中断して、外部AFセンサー136で測定された距離に対応する位置を新たな基準位置とし、当該基準位置にフォーカスレンズ系101aを移動する(ステップS6)。つづいて、当該基準位置の近傍でCCD−AFを再実行する(ステップS7)。
【0037】
ステップS8では、CPU121は、CCD−AFが終了したか否かを判断し、CCD−AFが終了した場合には、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、CCD−AFと外部AFで検出された合焦位置から最終的な合焦位置を決定する。
【0038】
ここで、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、最終的な合焦位置の決定方法を説明する。
【0039】
図6〜図9は最終的な合焦位置の決定方法を説明するための説明図であり、CCD−AFでサンプリングされた被写体のコントラスト(AF評価値)の一例を示している。図6〜図9において、横軸はレンズ繰り出し量(レンズ位置)、縦軸は被写体のコントラスト(AF評価値)を示している。また、サンプリング幅は被写体のコントラスト(AF評価値)を検出する範囲を示している。
【0040】
図6は至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合を示す。図7は被写体のコントラスト(AF評価値)にピーク(極大)がない場合を示す。図8は被写体のコントラスト(AF評価値)が、至近側で最大となる場合を示す。図9は被写体のコントラスト(AF評価値)が、無限側で最大となる場合を示す。
【0041】
図6に示すように、至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合には、CPU121は、CCD−AFの当該ピーク位置を最終的な合焦位置と決定する。
【0042】
また、図7に示すように、被写体のコントラスト(AF評価値)にピーク(極大)がない場合には、CPU121は、外部AFで検出された合焦位置を最終の合焦位置と決定する。
【0043】
また、図8に示すように、被写体のコントラスト(AF評価値)が、フォーカスレンズが移動している方向(スキャン方向)である至近側まで上昇し続ける場合には、CPU121は、外部AFで検出された合焦位置を最終の合焦位置と決定する。至近側で被写体のコントラスト(AF評価値)が上昇し続ける場合は、CCD−AFの結果が擬合焦であると考えられるので、CCD−AFの結果ではなく外部AFの結果を使用する。
【0044】
また、図9に示すように、被写体のコントラスト(AF評価値)が、フォーカスレンズが移動開始側(スキャン開始側)である無限側で最大となり以降下降し続ける場合には、CPU121は、CCD−AFの当該最大となる位置(レンズ位置)を最終的な合焦位置に決定する。無限側で被写体のコントラスト(AF評価値)が最大となり以降下降し続ける場合には、CCD−AFの結果が擬合焦ではないと考えられるので、上述した至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合と同様に、外部AFの結果ではなくCCD−AFの結果を使用する。
【0045】
CPU121は、以上の如くして決定した合焦位置にフォーカスレンズ系101aを移動させる(ステップS9)。その後、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込み、PCカード150に記録する。
【0046】
図10は第1の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。同図(a)は、外部AFの距離測定結果とCCD−AFの開始位置(基準位置)に対応する撮影距離とが所定値以上異なる場合のタイミングを示す。同図(b)は、外部AFの距離測定結果とCCD−AFの開始位置(基準位置)に対応する撮影距離とが所定値以上異なり、CCD−AFを中断して、外部AFセンサー136で測定された距離に対応する位置を新たな基準位置とし、再度CCD−AFを実行した場合(▲2▼)を示している。
【0047】
(動作例2)
デジタルカメラのAFに関する動作例2を図11〜図14を参照して説明する。図11は、CPU121の制御により実行されるデジタルカメラのAFに関する動作例2を説明するためのフローチャートである。
【0048】
図11において、まず、電源が投入されると(ステップS21)、CPU121は、外部AF実行タイミングであるか否かを判断し(ステップS22)、この判断の結果、外部AFの実行タイミングでない場合には、ステップS24に移行する。他方、外部AF実行タイミングであれば、外部AFによる測距処理を実行して(ステップS23)、外部AFセンサー136は被写体との距離を測距して、ステップS24に移行する。
【0049】
ステップS24では、CPU121は、レリーズキーが半押しされて、RL−1キーがONされたか否かを判断する。RL−1がONでない場合には、ステップS22に戻り、RL−1がONされるまで、外部AFの実行タイミングで、外部AF測距処理が行われる。他方、ステップS24で、RL−1がONされた場合には、CPU121は、外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出する(ステップS25)。
【0050】
ここで、外部AFの測距結果に基づいて、CCD−AFの開始位置(基準位置)を算出する方法を説明する。例えば、外部AFの過去2点の測距結果から基準位置を予測する方法を使用することができる。これによれば、被写体が、近づいてくるか、遠ざかっているか、また、止まっているかを判断することが可能となる。
【0051】
図12は外部AFの直近の過去2点の距離測定結果からCCD−AFの開始位置(基準位置)を算出する場合を説明するための説明図を示す。同図において、Lccdは予測される被写体距離(CCD−AFの基準位置)、L2はレリーズ操作直前の外部AFによる被写体距離、L1はL2よりさらに1回前の外部AFによる被写体距離、t1はコンティニュアス外部AFの間隔、t2はレリーズ操作直前の外部AFからレリーズまでの時間を示す。予測される被写体距離(CCD−AFの基準位置)Lccdは、下式により算出する。そして、算出された予測される被写体距離Lccdに対応するレンズ系の位置をCCD−AFの開始位置(基準位置)と決定する。
【0052】
Lccd=L2+t2×(L2−L1)/t1
例えば、t1=t2とした場合に、過去2回が2m、3mの場合には、次は4m、他方、過去2回が4m、3mの場合には、次は2mと予測される。よって、それぞれ4m前後、2m前後に対応するレンズ系の位置でCCD−AFを実施することになる。
【0053】
なお、ここでは、過去2点からCCD−AFの基準位置を決定することにしたが、過去3点もしくはそれ以上の時系列データを用いることにしても良い。これにより、より細かい動体予測が可能となる。例えば、過去3点からCCD−AFの基準位置を決定する場合は、被写体が、近づいてくるか、遠ざかっているか、止まっているか、前後に揺れているかを判断することも可能となる。例えば、1回目と2回目、2回目と3回目の被写体距離を比較することにより、被写体移動の加速度成分も検出可能である。この場合、2次曲線で近似する方法や(上から落ちてくる被写体とか)、三角関数で近似する方法(ブランコに乗っている被写体とか)等を使用することができる。
【0054】
そして、CPU121は、算出したCCD−AFの開始位置(基準位置)にフォーカスレンズ系101aを移動させる(ステップS26)。つづいて、CPU121は、フォーカスレンズ系101aを基準位置に移動した後、外部AFとCCD−AFを同時にスタートさせる(ステップS27)。外部AFでは、外部AFセンサー136により、被写体との距離の測定が行われ合焦位置の検出が行われる。また、CCD−AFでは、フォーカスレンズ系101aを基準位置の近傍で移動させて、AF評価値を取得し、合焦位置の検出が行われる。
【0055】
ステップS28では、CPU121は、CCD−AFが終了したか否かを判断し、CCD−AFが終了した場合には、CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、CCD−AFと外部AFで検出された合焦位置から最終的な合焦位置を決定する(ステップS29)。CCD−AFのAF評価値のサンプリング結果(被写体のコントラストの状態)に基づいて、CCD−AFと外部AFで検出された合焦位置から最終的な合焦位置を決定する方法は動作例1と同様であるのでその説明は省略する。
【0056】
この後、CPU121は、決定した合焦位置にフォーカスレンズ系101aを移動させる(ステップS30)。その後、レリーズキーが全押しされてRL−2がONとなると、撮影動作を行い、被写体の画像データを取り込み、PCカード150に記録する。
【0057】
図13を参照して、第2の動作例における、外部AFとCCD−AFの実行タイミングを説明する。図13は第2の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。同図の(a)は、外部AFの実行タイミングでレリーズが押された場合、(b)は、外部AFの休止中にレリーズが押された場合、(c)は、外部AF作動中にレリーズが押された場合(その1)、(d)は、外部AF作動中にレリーズが押された場合(その2)のタイミングを示す。
【0058】
同図(a)に示すように、外部AFの実行タイミングでレリーズが押された場合には、レリーズのONのタイミングで外部AFとCCD−AFを実行する。また、同図(b)に示すように、外部AF休止中にレリーズが押された場合には、外部AFの休止を終了して、レリーズのONのタイミングで外部AFとCCD−AFを実行する。外部AF作動中にレリーズが押された場合には、同図(c)に示すタイミングと、同図(d)に示すタイミングが考えられ、いずれのタイミングを使用することにしても良い。
【0059】
外部AF作動中にレリーズが押された場合には、同図(c)に示すように、レリーズの時点で外部AF▲3▼を中止し、再駆動することにしても良い。この場合は、外部AF▲3▼のデータは取得しないで、外部AFの▲4▼のデータとCCD−AFとの結果に基づいて、最終的な合焦位置を判断することになる。
【0060】
また、外部AF作動中にレリーズが押された場合には、同図(d)に示すように、レリーズの時点でも外部AF▲3▼を中断せず、外部AF▲3▼のデータとCCD−AFとの結果に基づいて、最終的な合焦位置を判断することになる。通常は、外部AF作動時間は0.1秒以下であるため、(d)の方式でも実使用上問題は無い。ただし、被写体が低輝度時等の場合は、外部AFでも0.1秒前後の時間がかかるため、(c)の方式の方が確実である。
【0061】
なお、上記ステップS28において、外部AFで検出された測距結果とCCD−AFで検出された合焦位置に対応する撮影距離とが、所定値以上異なる場合には、図14に示すように、CCD−AFの開始位置(基準位置)を変えて、再度CCD−AFを行うことにしても良い。
【0062】
以上説明したように、本実施の形態においては、動作例1では、レリーズキーが半押しされてRL−1がONとなると、CCD−AFと外部AFを略同時に実行することとしたので、外部AFを実行した後に、外部AFの結果に基づいてCCD−AFを実行する場合に比して、AF時間を短縮することが可能となる。
【0063】
また、本実施の形態においては、動作例2では、電源のONがなされると、レリーズキーの押下に先行して、すなわち、レリーズキーが押下されない状態においても、所定の間隔で外部AFで測距処理を行い、レリーズキーが押下された場合には、外部AFの測距結果に基づいてCCD−AFを行う場合の基準位置を算出して、当該基準位置の近傍でCCD−AFを行うこととしたので、レリーズキーが押下された後に、外部AFを実行し、その後、外部AFの結果に基づいてCCD−AFを実行する場合に比して、AF時間を短縮することが可能となる。
【0064】
また、本実施の形態においては、最終的な合焦位置を検出する場合に、CCD−AFでサンプリングされた被写体のコントラスト(AF評価値)の状態に応じて、CCD−AFの合焦結果または外部AFの合焦結果を選択して、最終的な合焦位置を決定することとしたので、高輝度被写体が存在しても正確に合焦位置を検出することが可能となる。
【0065】
また、本実施の形態においては、至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合には、CCD−AFの当該ピーク位置を最終的な合焦位置と決定することとしたので、より正確な合焦位置の検出が可能となる。
【0066】
また、本実施の形態においては、CCD−AFで検出された被写体のコントラスト(AF評価値)にピーク(極大)がない場合には、外部AFで検出された合焦位置を最終の合焦位置と決定することとしたので、CCD−AFで被写体のコントラストのピーク位置を検出できない場合でも、正確な合焦位置の検出が可能となる。
【0067】
また、本実施の形態においては、CCD−AFで検出された被写体のコントラスト(AF評価値)が、至近側で最大となる場合には、外部AFで検出された合焦位置を最終の合焦位置と決定することとしたので、至近側に高輝度被写体がある場合でも正確な合焦位置の検出が可能となる。
【0068】
また、本実施の形態においては、CCD−AFで検出された被写体のコントラスト(AF評価値)が無限側で最大となる場合には、CCD−AFの当該最大となる位置を最終的な合焦位置に決定することとしたので、無限側に高輝度被写体がある場合でも正確な合焦位置の検出が可能となる。
【0069】
また、本実施の形態では、外部AFセンサーとして、パッシブ方式の測距センサーを使用することとしたので、小型化、低コスト化、処理の簡略化が可能となる。
【0070】
なお、本発明は上記した実施の形態に限定されるものではなく、発明の要旨を変更しない範囲で適宜変形して実行可能である。例えば、本実施の形態においては、本発明にかかる自動合焦装置をデジタルカメラに適用した例を説明したが、本発明はこれに限られるものではなく、PDA等の携帯情報入力装置等にも適用可能である。要は、画像を入力する際にAFを行う全ての装置に適用可能である。
【0071】
【発明の効果】
請求項1にかかる自動合焦装置によれば、レンズ系は被写体像を所定位置に結像し、撮像手段はレンズ系を介して入力される被写体像を撮像して画像データを出力し、第1の合焦位置検出手段は撮像手段を使用して、レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出し、第2の合焦位置検出手段は撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出してレンズ系の合焦位置を検出し、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、合焦位置決定手段は第1の合焦位置検出手段で合焦位置の近傍でサンプリングされた被写体のコントラストが、レンズ系の移動開始位置である無限側から移動終了位置である至近側までの移動に伴って上昇を続けるように変化し、レンズ系の移動終了位置で最大となる場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で被写体のコントラストが最大となる場合には、被写体のコントラストが最大となる位置を最終的な合焦位置に決定することとしたので、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能な自動合焦装置を提供することができるという効果を奏する。
【0074】
また、請求項2にかかる自動合焦装置によれば、請求項1にかかる自動合焦装置において、合焦位置決定手段は、第1の合焦位置検出手段でサンプリングされた被写体のコントラストにピークが無い場合には、第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定することとしたので、請求項1にかかる自動合焦装置の効果に加えて、第1の合焦位置検出手段で被写体のコントラストのピークを検出できない場合でも、正確な合焦位置の検出が可能となる。
【0076】
また、請求項3にかかる自動合焦装置によれば、請求項1または請求項2にかかる自動合焦装置において、合焦動作を指示するための合焦動作操作部材が操作された場合に、第1の合焦位置検出手段と第2の合焦位置検出手段とを略同時に動作させることとしたので、請求項1または請求項2にかかる自動合焦装置の効果に加えて、より高速に合焦位置の検出が可能となる。
【0077】
また、請求項4にかかる自動合焦装置によれば、請求項1または請求項2にかかる自動合焦装置において、合焦動作を指示するための合焦動作操作部材の操作に先行して、所定の時間間隔で第2の合焦位置検出手段は被写体との距離を測距する測距処理を実行し、合焦動作操作部材が操作された場合には、第1の合焦位置検出手段は、第2の合焦位置検出手段で検出された合焦位置に基づいて合焦位置を検出する動作を実行することとしたので、請求項1または請求項2にかかる自動合焦装置の効果に加えて、より高速に合焦位置の検出が可能となる。
【0078】
また、請求項5にかかるデジタルカメラによれば、請求項1〜請求項4のいずれか1つにかかる自動合焦装置を適用することとしたので、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能なデジタルカメラを提供することができるという効果を奏する。
【0079】
また、請求項6にかかる携帯情報入力装置によれば、請求項1〜請求項4のいずれか1つにかかる自動合焦装置を適用することとしたので、短時間でかつ高輝度被写体が存在しても正確に合焦位置を検出することが可能な携帯情報入力装置を提供することができるという効果を奏する。
【図面の簡単な説明】
【図1】本実施の形態に係るデジタルカメラの構成図である。
【図2】図1のIPPの具体的構成の一例を示す図である。
【図3】図1の外部AFセンサーの概略構成を示す図である。
【図4】外部AFセンサーの測距原理を説明するための説明図である。
【図5】AFに関する第1の動作例を説明するためのフローチャートである。
【図6】至近側から無限側の間に被写体のコントラスト(AF評価値)にピーク(極大)がある場合を示す図である。
【図7】被写体のコントラスト(AF評価値)にピーク(極大)がない場合を示す図である。
【図8】被写体のコントラスト(AF評価値)が、至近側で最大となる場合を示す図である。
【図9】被写体のコントラスト(AF評価値)が、無限側で最大となる場合を示す図である。
【図10】第1の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図11】AFに関する第2の動作例を説明するためのフローチャートである。
【図12】外部AFの直近の過去2点の距離測定結果からCCD−AFの開始位置(基準位置)を算出する場合を説明するための説明図である。
【図13】第2の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図14】第2の動作例における外部AFとCCD−AFの実行タイミングを説明するためのタイミングチャートを示す。
【図15】従来のCCD−AF方式を説明するための説明図である。
【図16】従来のCCD−AF方式を説明するための説明図である。
【符号の説明】
100 デジタルカメラ
101 レンズ系
101a フォーカスレンズ系
101b ズームレンズ系
102 オートフォーカス等を含むメカ機構
103 CCD(電荷結合素子)
104 CDS(相関2重サンプリング)回路
105 可変利得増幅器(AGCアンプ)
106 A/D変換器
107 IPP(Image Pre-Processor)
108 DCT(Discrete Cosine Transform)
109 コーダー(Huffman Encoder/Decoder)
110 MCC(Memory Card Controller)
111 RAM(内部メモリ)
112 PCカードインターフェース
121 CPU
122 表示部
123 操作部
126 SG部
127 ストロボ
128 バッテリ
129 DC−DCコンバータ
130 EEPROM
131 フォーカスドライバ
132 パルスモータ
133 ズームドライバ
134 パルスモータ
135 モータドライバ
136 外部AFセンサー
150 PCカード
151 レンズ
152 フォトセンサーアレイ
1071 色分離部
1072 信号補間部
1073 ペデスタル調整部
1074 ホワイトバランス調整部
1075 デジタルゲイン調整部
1076 γ変換部
1077 マトリクス部
1078 ビデオ信号処理部
1079 Y演算部
1080 BPF
1081 AF評価値回路
1082 AE評価値回路
1083 Y演算部
1084 AWB評価値回路
1085 CPUI/F
1086 DCTI/F
1075r、1075g、1075b 乗算器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic focusing device, a digital camera, and a portable information input device, and more specifically, an automatic focusing device, a digital camera, and a portable information input device that detect an in-focus position with an external AF and a CCD-AF. About.
[0002]
[Prior art]
As an AF method for a conventional electronic still camera, a CCD-AF method for finding a focus peak by a luminance signal accumulated in the CCD while driving a CCD or a focus lens in the optical axis direction, or a triangulation type automatic focus adjustment mechanism Was used alone.
[0003]
[Problems to be solved by the invention]
However, as shown in FIG. 15, the CCD-AF system is a system in which the CCD or focus lens is driven from infinity to the closest position to find the focus peak, and therefore it takes time to detect the in-focus position. There is a problem that it takes. In order to solve the above-described problem, in the CCD-AF system, as shown in FIG. 16A, rough sampling is performed from infinity to the nearest position to detect the approximate focus position, and then FIG. As shown in b), a method for detecting the final in-focus position by performing fine sampling near the approximate in-focus position has been proposed. According to such a method, the detection time of the in-focus position can be slightly shortened, but it cannot be said to be sufficient.
[0004]
Also, in the CCD-AF system, if there is a high-luminance subject (light bulb, candle flame, reflecting signboard, etc.) in the area you want to focus on, you will not be able to find the focus mountain and will be in doubt. There is a problem . Ma In addition, the above-described triangulation method has a problem that a parallax shift in distance measurement on the close distance side is likely to occur, and performance on the telephoto side is low.
[0005]
The present invention has been made in view of the above, and an automatic focusing apparatus, a digital camera, and a portable information input capable of accurately detecting a focusing position in a short time even when a high-luminance subject is present An object is to provide an apparatus.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problem, the invention according to
[0007]
According to the above invention, the lens system forms a subject image at a predetermined position, the imaging unit images the subject image input through the lens system, outputs image data, and the first in-focus position detection unit. Uses the imaging means to move the lens system from the infinity side to the close side to sample the contrast of the subject to detect the in-focus position, and the second in-focus position detecting means is a photoelectric conversion different from the imaging means. To detect the in-focus position of the lens system by detecting the distance to the subject, The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means, The in-focus position determining means is the first in-focus position detecting means. Near the in-focus position The contrast of the sampled subject changes so as to continue to increase with the movement from the infinity side, which is the movement start position of the lens system, to the close side, which is the movement end position, and becomes the maximum at the movement end position of the lens system. In this case, when the in-focus position detected by the second in-focus position detecting unit is determined as the final in-focus position, and the contrast of the subject is maximized at other positions, the contrast of the subject is The maximum position is determined as the final focus position.
[0010]
[0012]
[0013]
Claims 4 The invention according to
[0014]
[0015]
Claims 6 The invention according to
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an automatic focusing device, a digital camera, and a portable information terminal device according to the present invention will be described below in detail with reference to the accompanying drawings.
[0017]
FIG. 1 is a block diagram of a digital camera to which an automatic focusing device according to the present invention is applied. In the figure,
[0018]
The lens unit includes a
[0019]
The focus driver 131 drives the
[0020]
A CCD (charge coupled device) 103 converts an image input via the lens unit into an electrical signal (analog image data). A CDS (correlated double sampling)
[0021]
In addition, the
[0022]
Further, an IPP (Image Pre-Processor) 107, a DCT (Discrete Cosine Transform) 108, and a coder (Huffman Encoder / Decoder) 109, which are digital signal processing units, are provided for digital image data input from the A /
[0023]
Further, an MCC (Memory Card Controller) 110 temporarily stores the compressed image and records it on the
[0024]
The
[0025]
Camera power is input from a
[0026]
The
[0027]
The above-described digital camera 100 (CPU 121) includes a recording mode in which image data obtained by imaging a subject is recorded on the
[0028]
FIG. 2 is a diagram illustrating an example of a specific configuration of the
[0029]
Further, the
[0030]
The
[0031]
In this specification, the operation of detecting the in-focus position using the
[0032]
Next, an operation example (operation example 1 and operation example 2) related to AF of the digital camera having the above configuration will be described. The operation example 1 shows an operation example when the CCD-AF and the external AF are executed substantially simultaneously, and the operation example 2 shows an operation example when the external AF is executed prior to the CCD-AF.
[0033]
(Operation example 1)
An operation example 1 relating to AF of a digital camera will be described with reference to FIGS. FIG. 5 is a flowchart for explaining an operation example 1 related to AF of the digital camera executed under the control of the
[0034]
In FIG. 5, first, the
[0035]
Then, the
[0036]
Thereafter, the
[0037]
In step S8, the
[0038]
Here, a final in-focus position determination method will be described based on the sampling result of the AF evaluation value of the CCD-AF (the state of contrast of the subject).
[0039]
6 to 9 are explanatory diagrams for explaining a final method of determining the in-focus position, and show an example of the contrast (AF evaluation value) of the subject sampled by the CCD-AF. 6 to 9, the horizontal axis represents the lens extension amount (lens position), and the vertical axis represents the contrast of the subject (AF evaluation value). The sampling width indicates the range in which the contrast (AF evaluation value) of the subject is detected.
[0040]
FIG. 6 shows a case where there is a peak (maximum) in the contrast (AF evaluation value) of the subject between the closest side and the infinite side. FIG. 7 shows a case where there is no peak (maximum) in the contrast (AF evaluation value) of the subject. FIG. 8 shows a case where the contrast (AF evaluation value) of the subject is maximized on the close side. FIG. 9 shows a case where the contrast (AF evaluation value) of the subject is maximized on the infinity side.
[0041]
As shown in FIG. 6, when there is a peak (maximum) in the contrast (AF evaluation value) of the subject between the closest side and the infinity side, the
[0042]
Also, as shown in FIG. 7, when there is no peak (maximum) in the contrast (AF evaluation value) of the subject, the
[0043]
Also, as shown in FIG. 8, the contrast (AF evaluation value) of the subject is The direction in which the focus lens is moving (scan direction) Near side Continue to rise In this case, the
[0044]
Further, as shown in FIG. 9, the contrast (AF evaluation value) of the subject is The focus lens is on the movement start side (scan start side) Maximum on infinity side Will continue to fall In this case, the
[0045]
The
[0046]
FIG. 10 is a timing chart for explaining execution timings of the external AF and the CCD-AF in the first operation example. FIG. 6A shows the timing when the distance measurement result of the external AF and the shooting distance corresponding to the start position (reference position) of the CCD-AF differ by a predetermined value or more. In FIG. 6B, the distance measurement result of the external AF and the shooting distance corresponding to the start position (reference position) of the CCD-AF are different from each other by a predetermined value, and the CCD-AF is interrupted and measured by the
[0047]
(Operation example 2)
An operation example 2 relating to AF of the digital camera will be described with reference to FIGS. FIG. 11 is a flowchart for explaining an operation example 2 regarding AF of the digital camera executed under the control of the
[0048]
In FIG. 11, first, when the power is turned on (step S21), the
[0049]
In step S24, the
[0050]
Here, a method for calculating the start position (reference position) of the CCD-AF based on the distance measurement result of the external AF will be described. For example, a method of predicting the reference position from the distance measurement results of the past two points of the external AF can be used. This makes it possible to determine whether the subject is approaching, moving away, or stopped.
[0051]
FIG. 12 is an explanatory diagram for explaining a case where the CCD-AF start position (reference position) is calculated from the distance measurement results of the last two points of the external AF. In this figure, Lccd is the predicted subject distance (CCD-AF reference position), L2 is the subject distance by the external AF immediately before the release operation, L1 is the subject distance by the external AF one time before L2, and t1 is the continuity. The interval between the numeric external AF and t2 indicates the time from the external AF to the release immediately before the release operation. The predicted subject distance (CCD-AF reference position) Lccd is calculated by the following equation. Then, the lens system position corresponding to the calculated predicted subject distance Lccd is determined as the start position (reference position) of the CCD-AF.
[0052]
Lccd = L2 + t2 × (L2-L1) / t1
For example, when t1 = t2, if the past two times are 2 m and 3 m, the next is predicted to be 4 m, while if the past two times is 4 m and 3 m, the next is predicted to be 2 m. Therefore, CCD-AF is performed at the position of the lens system corresponding to around 4 m and around 2 m, respectively.
[0053]
Here, the reference position of the CCD-AF is determined from the past two points, but time series data of the past three points or more may be used. Thereby, a finer moving object prediction becomes possible. For example, when determining the CCD-AF reference position from the past three points, it is possible to determine whether the subject is approaching, moving away, stopped, or swinging back and forth. For example, by comparing the first, second, second, and third subject distances, the acceleration component of the subject movement can also be detected. In this case, a method of approximating with a quadratic curve (such as a subject falling from above), a method of approximating with a trigonometric function (such as a subject on a swing), or the like can be used.
[0054]
Then, the
[0055]
In step S28, the
[0056]
Thereafter, the
[0057]
With reference to FIG. 13, the execution timing of the external AF and the CCD-AF in the second operation example will be described. FIG. 13 is a timing chart for explaining execution timings of the external AF and the CCD-AF in the second operation example. (A) in the figure is when the release is pressed at the execution timing of the external AF, (b) is when the release is pressed during the pause of the external AF, and (c) is the release during the external AF operation. When (1) is pressed, (d) shows the timing when the release is pressed during external AF operation (2).
[0058]
As shown in FIG. 6A, when the release is pressed at the external AF execution timing, the external AF and the CCD-AF are executed at the release ON timing. Also, as shown in FIG. 5B, when the release is pressed while the external AF is stopped, the external AF is stopped and the external AF and CCD-AF are executed at the release ON timing. . When the release is pressed during the external AF operation, the timing shown in FIG. 10C and the timing shown in FIG. 10D are considered, and any timing may be used.
[0059]
When the release is pressed during the external AF operation, the external AF (3) may be stopped at the time of release and re-driven as shown in FIG. In this case, the data of the external AF (3) is not acquired, and the final focus position is determined based on the data of the external AF (4) and the result of the CCD-AF.
[0060]
If the release button is pressed during the external AF operation, as shown in FIG. 4D, the external AF (3) is not interrupted even at the time of release, and the external AF (3) data and the CCD- The final in-focus position is determined based on the result of AF. Usually, since the external AF operation time is 0.1 second or less, there is no problem in practical use even in the method (d). However, when the subject is at a low luminance, the method of (c) is more reliable because it takes about 0.1 seconds even with external AF.
[0061]
If the distance measurement result detected by the external AF and the shooting distance corresponding to the in-focus position detected by the CCD-AF differ by a predetermined value or more in step S28, as shown in FIG. The CCD-AF may be performed again by changing the start position (reference position) of the CCD-AF.
[0062]
As described above, in this embodiment, in the operation example 1, when the release key is pressed halfway and RL-1 is turned on, the CCD-AF and the external AF are executed substantially simultaneously. After executing AF, it is possible to shorten the AF time as compared with the case where CCD-AF is executed based on the result of external AF.
[0063]
In the present embodiment, in the operation example 2, when the power is turned on, the external AF is measured at a predetermined interval even before the release key is pressed, that is, even when the release key is not pressed. When a distance process is performed and the release key is pressed, a reference position for performing the CCD-AF is calculated based on the distance measurement result of the external AF, and the CCD-AF is performed in the vicinity of the reference position. Therefore, the AF time can be shortened as compared with the case where the external AF is executed after the release key is pressed and then the CCD-AF is executed based on the result of the external AF.
[0064]
Further, in the present embodiment, when the final focus position is detected, the focus result of the CCD-AF or the contrast of the subject sampled by the CCD-AF (AF evaluation value) Since the final focus position is determined by selecting the focus result of the external AF, the focus position can be accurately detected even when a high-luminance subject exists.
[0065]
Further, in the present embodiment, when there is a peak (maximum) in the contrast (AF evaluation value) of the subject between the closest side and the infinite side, the peak position of the CCD-AF is determined as the final in-focus position. Therefore, it is possible to detect the in-focus position more accurately.
[0066]
In this embodiment, when there is no peak (maximum) in the contrast (AF evaluation value) of the object detected by the CCD-AF, the focus position detected by the external AF is set as the final focus position. Therefore, even when the peak position of the contrast of the subject cannot be detected by the CCD-AF, it is possible to accurately detect the in-focus position.
[0067]
In this embodiment, when the contrast (AF evaluation value) of the object detected by the CCD-AF is maximum on the close side, the focus position detected by the external AF is used as the final focus. Since the position is determined, it is possible to accurately detect the in-focus position even when there is a high brightness subject on the close side.
[0068]
In the present embodiment, when the contrast (AF evaluation value) of the object detected by the CCD-AF is maximum on the infinite side, the maximum position of the CCD-AF is finally focused. Since the position is determined, it is possible to accurately detect the in-focus position even when there is a high brightness subject on the infinite side.
[0069]
In the present embodiment, since a passive distance measuring sensor is used as the external AF sensor, it is possible to reduce the size, reduce the cost, and simplify the processing.
[0070]
Note that the present invention is not limited to the above-described embodiment, and can be appropriately modified and executed without changing the gist of the invention. For example, in the present embodiment, an example in which the automatic focusing device according to the present invention is applied to a digital camera has been described. However, the present invention is not limited to this, and the present invention is also applied to a portable information input device such as a PDA. Applicable. In short, the present invention can be applied to all apparatuses that perform AF when inputting an image.
[0071]
【The invention's effect】
According to the automatic focusing device of the first aspect, the lens system forms a subject image at a predetermined position, and the imaging means captures the subject image input through the lens system and outputs image data. The first focus position detection means uses an imaging means to move the lens system from the infinity side to the closest side, sample the contrast of the subject to detect the focus position, and the second focus position detection means Using a photoelectric conversion means different from the imaging means, the distance to the subject is detected to detect the in-focus position of the lens system, The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means, The in-focus position determining means is the first in-focus position detecting means. Near the in-focus position The contrast of the sampled subject changes so as to continue to increase with the movement from the infinity side, which is the movement start position of the lens system, to the close side, which is the movement end position, and becomes the maximum at the movement end position of the lens system. In this case, when the in-focus position detected by the second in-focus position detector is determined as the final in-focus position, and the contrast of the subject is maximized at other positions, the contrast of the subject is Since the maximum position is determined as the final focusing position, an automatic focusing device capable of accurately detecting the focusing position in a short time even when a high-luminance subject exists is provided. There is an effect that can be.
[0074]
[0076]
[0077]
Claims 4 According to the automatic focusing device according to
[0078]
[0079]
Claims 6 According to the portable information input device according to
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital camera according to an embodiment.
FIG. 2 is a diagram illustrating an example of a specific configuration of the IPP in FIG. 1;
3 is a diagram showing a schematic configuration of the external AF sensor of FIG. 1. FIG.
FIG. 4 is an explanatory diagram for explaining a distance measuring principle of an external AF sensor.
FIG. 5 is a flowchart for explaining a first operation example regarding AF;
FIG. 6 is a diagram illustrating a case where there is a peak (maximum) in the contrast (AF evaluation value) of an object between the closest side and the infinite side.
FIG. 7 is a diagram illustrating a case where there is no peak (maximum) in the contrast (AF evaluation value) of an object.
FIG. 8 is a diagram illustrating a case where the contrast (AF evaluation value) of a subject is maximized on the close side.
FIG. 9 is a diagram illustrating a case where the contrast (AF evaluation value) of a subject is maximized on the infinite side.
FIG. 10 is a timing chart for explaining execution timings of external AF and CCD-AF in the first operation example;
FIG. 11 is a flowchart for explaining a second operation example regarding AF;
FIG. 12 is an explanatory diagram for explaining a case where the CCD-AF start position (reference position) is calculated from the distance measurement results of the last two points of the external AF.
FIG. 13 is a timing chart for explaining execution timings of external AF and CCD-AF in the second operation example;
FIG. 14 is a timing chart for explaining execution timings of external AF and CCD-AF in the second operation example;
FIG. 15 is an explanatory diagram for explaining a conventional CCD-AF system.
FIG. 16 is an explanatory diagram for explaining a conventional CCD-AF system.
[Explanation of symbols]
100 digital camera
101 Lens system
101a Focus lens system
101b Zoom lens system
102 Mechanical mechanism including autofocus
103 CCD (Charge Coupled Device)
104 CDS (correlated double sampling) circuit
105 Variable Gain Amplifier (AGC Amplifier)
106 A / D converter
107 IPP (Image Pre-Processor)
108 DCT (Discrete Cosine Transform)
109 Coder (Huffman Encoder / Decoder)
110 MCC (Memory Card Controller)
111 RAM (internal memory)
112 PC card interface
121 CPU
122 Display section
123 Operation unit
126 SG Department
127 Strobe
128 battery
129 DC-DC converter
130 EEPROM
131 Focus driver
132 Pulse motor
133 Zoom driver
134 Pulse motor
135 Motor driver
136 External AF sensor
150 PC card
151 lens
152 Photosensor Array
1071 Color separation unit
1072 Signal interpolation unit
1073 Pedestal adjustment unit
1074 White balance adjustment section
1075 Digital gain adjustment unit
1076 γ converter
1077 Matrix part
1078 Video signal processor
1079 Y operation part
1080 BPF
1081 AF evaluation value circuit
1082 AE evaluation value circuit
1083 Y operation part
1084 AWB evaluation value circuit
1085 CPU I / F
1086 DCTI / F
1075r, 1075g, 1075b multiplier
Claims (6)
前記レンズ系を介して入力される被写体像を撮像して画像データを出力する撮像手段と、
前記撮像手段を使用して、前記レンズ系を無限側から至近側に移動させて被写体のコントラストをサンプリングして合焦位置を検出する第1の合焦位置検出手段と、
前記撮像手段とは異なる光電変換手段を使用して、被写体との距離を検出して前記レンズ系の合焦位置を検出する第2の合焦位置検出手段と、
前記第1の合焦位置検出手段は、前記第2の合焦位置検出手段で検出された合焦位置の近傍で被写体のコントラストをサンプリングし、
前記第1の合焦位置検出手段で前記合焦位置の近傍でサンプリングされた被写体のコントラストが、前記レンズ系の移動開始位置である前記無限側から移動終了位置である前記至近側までの移動に伴って上昇を続けるように変化し、前記レンズ系の移動終了位置で最大となる場合には、前記第2の合焦位置検出手段で検出された合焦位置を最終的な合焦位置に決定し、それ以外の位置で前記被写体のコントラストが最大となる場合には、前記被写体のコントラストが最大となる位置を最終的な合焦位置に決定する合焦位置決定手段と、
を備えたことを特徴とする自動合焦装置。A lens system including a focus lens system for forming a subject image at a predetermined position;
Imaging means for capturing an image of a subject input via the lens system and outputting image data;
First focus position detecting means for detecting the focus position by moving the lens system from the infinity side to the closest side and sampling the contrast of the subject using the imaging means;
Second focus position detection means for detecting a focus position of the lens system by detecting a distance to a subject using a photoelectric conversion means different from the imaging means;
The first focus position detection means samples the contrast of the subject in the vicinity of the focus position detected by the second focus position detection means;
The contrast of the subject sampled in the vicinity of the in- focus position by the first in-focus position detecting means is changed from the infinite side which is the movement start position of the lens system to the close side which is the movement end position. When the lens system changes so as to continue to rise and becomes the maximum at the movement end position of the lens system, the focus position detected by the second focus position detection means is determined as the final focus position. And, when the contrast of the subject is maximized at other positions, a focus position determining means for determining a position where the contrast of the subject is maximized as a final focus position;
An automatic focusing device characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000064200A JP3914367B2 (en) | 2000-03-08 | 2000-03-08 | Automatic focusing device, digital camera, and portable information input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000064200A JP3914367B2 (en) | 2000-03-08 | 2000-03-08 | Automatic focusing device, digital camera, and portable information input device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006168651A Division JP4343192B2 (en) | 2006-06-19 | 2006-06-19 | Automatic focusing device, digital camera, and portable information input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001255453A JP2001255453A (en) | 2001-09-21 |
JP3914367B2 true JP3914367B2 (en) | 2007-05-16 |
Family
ID=18583933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000064200A Expired - Fee Related JP3914367B2 (en) | 2000-03-08 | 2000-03-08 | Automatic focusing device, digital camera, and portable information input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3914367B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101551181B1 (en) | 2013-11-07 | 2015-09-09 | 티.비.티. 주식회사 | Portable focus detection apparatus and method |
-
2000
- 2000-03-08 JP JP2000064200A patent/JP3914367B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101551181B1 (en) | 2013-11-07 | 2015-09-09 | 티.비.티. 주식회사 | Portable focus detection apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
JP2001255453A (en) | 2001-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6430368B1 (en) | Autofocus apparatus | |
JP4444927B2 (en) | Ranging apparatus and method | |
JP4980982B2 (en) | Imaging apparatus, imaging method, focus control method, and program | |
US20190086768A1 (en) | Automatic focusing apparatus and control method therefor | |
JP4727534B2 (en) | Imaging device | |
JP2005241805A (en) | Autofocus device and program thereof | |
JP3820076B2 (en) | Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium | |
TWI492618B (en) | Image pickup device and computer readable recording medium | |
JP2003307669A (en) | Camera | |
JP3761383B2 (en) | Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium | |
JPH11215426A (en) | Automatic focusing system | |
US7710492B2 (en) | Imaging device and imaging method for performing automatic focus detection | |
JP5092673B2 (en) | Imaging apparatus and program thereof | |
JP2001255451A (en) | Automatic focusing device, digital camera and portable information input device | |
JP2001221945A (en) | Automatic focusing device | |
JP2014106324A (en) | Autofocus device and imaging device | |
JP4555255B2 (en) | Automatic focusing device, digital camera, portable information input device, focusing position detection method, and computer-readable recording medium | |
JP5045538B2 (en) | Imaging apparatus and program | |
JP3795723B2 (en) | Automatic focusing device, digital camera, portable information input device and focusing position detection method | |
JP2004085964A (en) | Automatic focusing device, digital camera, and portable information input device | |
US20140168467A1 (en) | Focus adjustment apparatus and method, and image capturing apparatus | |
JP2004151183A (en) | Automatic focusing device, digital camera and portable information terminal equipment equipped with the automatic focusing device | |
JP3914367B2 (en) | Automatic focusing device, digital camera, and portable information input device | |
JP4612512B2 (en) | Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium | |
JP2006157604A (en) | Camera device and automatic photographing control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040712 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20050325 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20050622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060306 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060619 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070202 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110209 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120209 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130209 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130209 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140209 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |