[go: up one dir, main page]

JP2753544B2 - Focus detection device - Google Patents

Focus detection device

Info

Publication number
JP2753544B2
JP2753544B2 JP3136862A JP13686291A JP2753544B2 JP 2753544 B2 JP2753544 B2 JP 2753544B2 JP 3136862 A JP3136862 A JP 3136862A JP 13686291 A JP13686291 A JP 13686291A JP 2753544 B2 JP2753544 B2 JP 2753544B2
Authority
JP
Japan
Prior art keywords
focus detection
image shift
shift amount
amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3136862A
Other languages
Japanese (ja)
Other versions
JPH08211284A (en
Inventor
健 歌川
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP3136862A priority Critical patent/JP2753544B2/en
Publication of JPH08211284A publication Critical patent/JPH08211284A/en
Application granted granted Critical
Publication of JP2753544B2 publication Critical patent/JP2753544B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、一対の光電素子アレイ
上にそれぞれ結像されたほぼ同一物体の光像の相対的変
位を検出する焦点検出装置に係わり、特に、カメラ等の
焦点検出装置や測距装置に使用される。 【0002】 【従来の技術】図1(a)は一般のカメラ等の焦点検出
装置の光学系を示すもので被写体100は撮影レンズ1
01によりフィールドレンズ102の近傍に結像され
る。この被写体100の一次像は第1、第2の再結像レ
ンズ103、104によりそれぞれ第1、第2の光電素
子アレイ105、106上に2次像として結像される。
このアレイ105、106上の2次像の相対的位置関係
がアレイのイメージ出力から検出される。 【0003】この検出された2次像の相対的位置関係か
ら焦点検出を行う。 【0004】 【発明が解決しようとする課題】このようにして焦点検
出を行う場合、従来は被写体の一つの部分のみについて
焦点検出を行っていたために焦点検出可能な場所が限定
されていた。また、その検出領域に検出可能な被写体が
無い場合には焦点検出が不能であった。このようなこと
を避けるために焦点検出領域を広く取ると奥行きのある
被写体が一つの焦点検出領域の中に存在する場合が増え
て焦点検出が不能となってしまうと言う問題が生じてい
た。 【0005】 【0006】以上のような問題は図1の瞳分割式焦点検
出装置に限らず、同一物体に関する一対の光像を光電検
出しその相対位置から測距又は焦点検出する装置におい
て、光電的像変位検出を行う際に共通するものである。
本発明の目的は被写体の複数の部分について焦点検出を
可能とし、求められた複数の像ずれ量検出結果から被写
体の奥行きの存在を配慮して、最も撮影者の意図を反映
していると考えられる被写体に焦点を合わせるようにす
ることにある。この目的を達成するために本発明では、
第一の方法として複数の像ずれ量の検出結果からカメラ
に最も近い被写体を選択して、該被写体に焦点合わせを
行うようにしている。また、第二の方法として複数の像
ずれ量の検出結果からほぼ等しい値を取る領域すなわち
広い範囲を占める被写体に焦点を合わせるようにしてい
る。 【0007】 【実施例】以下、本発明の一実施例を図面を参照して説
明する。図2において、光電変換部201にはそれぞれ
CCD等のイメージセンサーから成る一対の光電素子ア
レイ105、106が並置されている。この各光電素子
アレイには図1と同様の焦点検出光学系により同一被写
体の像が結像される。アレイ105からのイメージ出力
a1…aNは順次時系列的にA/Dコンバータ202に
よりA/D変換され、マイクロコンピュータ203内の
データメモリ手段204に記憶され、全く同様にアレイ
106からのイメージ出力b1…bNもA/Dコンバー
タ202を介してデータメモリ手段204に記憶され
る。 【0008】像ずれ演算手段205は前記一対のイメー
ジ出力a1…aN、b1…bNに基づき両イメージ出力
の相対的ずれ量、即ち、一対のアレイ上の光像の相対的
ずれ量を演算する。もちろん、像ずれ演算に用いるデー
タは必ずしもアレイの直接のイメージ出力である必要は
なく,これらの出力を適当にフィルタリング処理したり
サンプリングしたイメージ出力であってもよい。 【0009】補正データ記憶手段207は、上記像ずれ
演算手段205の出力を補正する補正データを記憶して
いる。この補正データは以下のように定められている。
即ち、焦点検出装置の製造の際に焦点検出光学系の一応
の調整が済んだ後に、合焦状態時におけるアレイ10
5、106上の光像の対応する各像点毎の相対的位置ず
れ量を測定しこのアレイ上の各像点毎の相対的位置ずれ
量を上記補正量として記憶手段207に記憶する。 【0010】具体的な一例を述べると、図1(b)に示
すようにアレイ105、106の光電素子の配列方向の
位置をxとし、各アレイ105、106の中心xoとし
た時、アレイ105、106上の光像の対応する像点が
アレイの中心xoにおいて合焦時に合致するように調整
することは比較的容易である。そこでこの様に調整する
と各点の相対的位置ずれ量は、例えば図3に示すように
合焦点には実線に示す特性S(x)を、非合焦時には特
性Z(x)をそれぞれ持つ。 【0011】ここで合焦時の特性S(x)は上記調整に
よりアレイ中心xoで相対的位置ずれ量が零でありここ
からアレイ周辺に向かって一次関数的に大きくなること
を示し、非合焦点の特性Z(x)はその非合焦の程度に
応じた量ZTだけ、特性S(x)から平行移動されたも
のとなっている。この合焦点の位置ずれS(x)が補正
データ記憶手段207に記憶される。 【0012】この記憶の仕方としてアレイの場所x毎の
S(x)の値をすべて記憶することは記憶データの数が
多くなり好ましくない。このため、図3のように位置ず
れ量S(x)がほぼ原点xoを通る直線で近似できる時
には、この直線の傾きのみによりこの位置ずれ量S
(x)を特定出来るので、記憶手段207にはこの傾き
を表すデータを記憶すればよい。この場合、補正データ
記憶手段207は極めて簡単化でき、図4(a)に示す
ようにポテンショメータ401の値を前記特性直線S
(x)の傾きを表すように調整し、このポテンショメー
タ401の出力をA/Dコンバータ402を介してマイ
コン203に入力する構成とすることができる。 【0013】また補正データ記憶手段207として図4
(a)の如き上記傾きを記憶したROMを用いてもよ
い。このROMは、出力端子P1〜P8の各々も電源ラ
インVccとアースラインEtとに夫々接続していたも
のと、記憶すべきデータに応じて各出力端子P1〜P8
が電源ラインとアースラインとの一方のみに接続するよ
うに処理したものである。また、補正データ記憶手段2
07としてマイコン203内のROMを用いることもで
きる。 【0014】補正データS(x)が直線でなく図5に示
すように曲線となる場合にはこの曲線をn次式で近似し
て、これを(n+1)個の数値で特定するようにすれば
よい。あるいは、数個の所定の位置xiに関する補正デ
ータを記憶しておき、その中間の位置の補正データが必
要であれば、例えばラグランジエ補間を使用してもよ
い。 【0015】再び図2に戻って、補正演算手段206は
像ずれ演算手段205の出力Z(x)を補正データ記憶
手段207の補正データS(x)で補正し、具体的には
Z(x)−S(x)の演算を行って、補正された像ずれ
量ZTを算出する。この補正済像ずれ量ZTは、補正演
算手段206でデフォーカス量(被写体像と撮影レンズ
の所定結像面との間のずれ量)に換算され、表示駆動手
段208に送られる。この手段208はデフォーカス量
に基づき焦点調節状態を表示しまた撮影レンズを合焦位
置に駆動する。 【0016】この作用を以下に述べる。一対のアレイ1
05、106からのイメージ出力a1…aN、b1…b
NはA/D変換後にデータメモリ手段204に記憶され
る。データメモリ手段204に記憶されたイメージ出力
a1…aNを図6(a)に例示する。像ずれ演算手段2
05は、このイメージ出力を図6(b)又は(c)に示
すように例えば5個の領域X−2、X−1、X0、X
1、X2に分割し、全く同様にイメージ出力b1…bN
をも5個の領域X−2、X−1、X0、X1、X2に分
割し、各部分領域X1のイメージ出力から部分領域Xi
の中心xiに関する部分像ずれ量Z(xi)を個々に演
算する。 【0017】補正演算手段206は補正データ記憶手段
207の内容から場所xiの部分補正量S(xi)を算
出する。この部分補正量S(xi)は図3に示すように
関数S(x)にx=xiを代入したものである。この
後、補正演算手段206は部分像ずれ量Z(xi)から
部分補正量S(xi)を減じて、補正済部分像ずれ量Z
T(xi)を得る。即ち、ZT(xi)=Z(xi)−
S(xi)を得る。 【0018】こうして、補正演算手段206は各部分領
域Xiに関する補正済部分像ずれ量ZT(xi)を求
め、例えば、これらの値の単純平均ΣZT(xi)/5
を最終像ずれ量として算出して、これをデフォーカス量
に換算し表示駆動手段208に送出する。尚、各部分領
域Xiに関する部分像ずれ量ZT(xi)から最終像ず
れ量ZTを求める方法はその目的に応じて種々考えられ
るが、以下にいくつかの例を示す。 (A1) 上述の如く補正済部分像ずれ量ZT(xi)
の平均値を最終像ずれ量ZTとする。 (A2) 補正済部分像ずれ量ZT(xi)の最大と最
小のものを除いた残りの補正済部分像ずれ量の平均値を
最終像ずれ量ZTとする。 (A3) 補正済部分像ずれ量ZT(xi)を大きい順
にならべた時の中央のものを最終像ずれ量ZTとする。 (A4) 後述する情報量E(x)が最大の部分領域に
関する補正済部分像ずれ量ZTを最終像ずれ量ZTとす
る。 (A5) 上記情報量が相対的に大きい複数の部分領域
に関する補正済部分像ずれ量ZT(xi)の平均値を又
は情報量に応じて加重加算した平均値を最終像ずれ量Z
Tとする。 【0019】尚、各部分領域Xiのデータから部分像ず
れ演算を行うアルゴリズムとしては、例えばイメージ出
力をフーリエ変換し位相を比較する手段(特開昭54−
104859号公報)や相関演算を行い最大相関を与え
るシフト量を求める手段(特開昭57−45510号公
報)を用いることが可能である。部分領域Xiに含まれ
る光電変換素子数の少ない時は上記フーリエ変換法を用
いる方が精度がよい。 【0020】アレイ上に奥行きのある被写体が結像され
ている場合、アレイの全領域のイメージ出力を用いて像
ずれ量を算出すると、奥行き被写体のどの部分に自動合
焦されるかは全く不明となる。このような奥行き被写体
に関する問題は、上述のように部分領域Xi毎の部分像
ずれ量Z(xi)を演算することにより以下の如く解決
できる。 (B1) 複数の部分像ずれ量Z(xi)のうちから最
も像ずれ量の小さいものを選択し、これに基づき最終像
ずれ量ZTを求めれば、奥行き被写体の最も近い部分に
ついてのデフォーカス量を得ることができ、逆に部分像
ずれ量の最も大きいものの選択により遠方部分について
のデフォーカス量を、更に中間のものの選択により中間
距離の部分についてのデフォーカス量を得ることができ
る。 (B2) 複数の部分像ずれ量Z(xi)のうちでほぼ
等しい値をとるものがあれば、その値を選択しこれに基
づき最終像ずれ量ZTを求めれば、比較的広い領域を占
める被写体についてのデフォーカス量を得ることができ
る。 (B3) 後述する情報量の最も大きい部分領域Xiで
の部分像ずれ量を選択しこれに基づき最終像ずれ量ZT
を求めれば、焦点検出の為の情報が最も多い被写体、一
般的にはコントラストの最も良い被写体についてのデフ
ォーカス量を得ることができる。 【0021】次に上述のように部分像ずれ量を算出する
場合の具体例をフローチャートを用いて説明する。図7
においてステップで各部分領域Xiにおける部分像ず
れ量Z(xi)と情報量E(xi)とを像ずれ演算手段
205によって算出する。ここで情報量E(xi)とは
対応する部分像ずれ量Z(xi)の信頼度を表すもの
で、この情報量の値が大きい程、対応する部分像ずれ量
の精度が高くなる。具体的には、情報量としては像ずれ
演算がフーリエ変換後の位相比較により行われるのであ
るならば、フーリエ変換後の振幅に関連した値(特開昭
55−98710号公報のr1、r1' 、r2、r2'
が該当する。)を用いることができ、また像ずれ演算が
相関法である場合には後述の自己相関値Wmを用いるこ
とができる。 【0022】ステップにおいて、上記各部分領域Xi
の情報量E(xi)を所定閾値Ethと比較し、この閾
値よりも大きい値の情報量E(xj)の部分領域Xiを
選択する。ステップにおいて、補正データ記憶手段2
07の内容S(x)から上記選択された部分領域xjに
おける部分補正量S(xj)を算出すると共に、選択部
分領域Xjでの部分像ずれ量Z(xj)を部分像ずれ量
Z(xi)から選択する。 【0023】ステップにおいて選択領域Xjに関する
補正された部分像ずれ量ZT(xj)をZT(xj)=
Z(xj)−S(xj)から求める。ステップにおい
て、ステップで求めた補正済部分像ずれ量ZT(x
j)のバラツキが所定値ΔZより小さいか否か、具体的
には、補正済部分像ずれ量ZT(xj)のうちの最大値
と最小値との差が所定値より小さいか否かを判別し、小
である時、被写体に奥行きがないとしてステップへ移
り、小でない時、奥行きある被写体と判定しステップ
へ移る。 【0024】ステップでは、例えば前記(A1)〜
(A5)のいずれかの処理により最終ずれ量ZTを求め
る。ステップでは、例えば上述の(B1)〜(B3)
のいずれかの処理で最終像ずれ量ZTを求める。この最
終像ずれ量をデフォーカス量に換算して表示、駆動が行
われる。なお、像ずれ量とデフォーカス量とは比例関係
にあるので、複数の像ずれ量を複数のデフォーカス量に
変換してから前記の比較、選択を行いこの結果に基づい
て表示、駆動を行うようにしても良い。次に一つの検出
領域内において前記補正量S(x)が大きく変わる場合
の補正の方法について説明する。 【0025】図8(a)は図2のデータメモリ手段20
4に記憶される一対のデータ列A1…AN、B1…BN
の一方を示す。このデータ列としては、前述の如く光電
素子アレイのイメージ出力そのものでも、またそれをフ
ィルタリングやサンプリング処理したイメージ出力であ
ってもよい。図2において、像ずれ演算手段205はデ
ータメモリ手段204に記憶された一対のデータ列A1
…AN、B1…BNを用い、一方のデータ列A1…AN
を他方のデータ列B1…BNに対して所定量ずつシフト
しながら、各シフト量L毎の相関量C(L)を求める。 【0026】即ち、 【0027】 【数1】 【0028】この関数C(L)が最小となるシフト量L
m を像ずれ量として求める。このように相関演算により
求めた像ずれ量Lm は上述のような光学系の調整不足等
に起因する誤差を含んでいるので、この像ずれ量Lm
補正データS(x)で補正しなければならない。しかし
ながら、この像ずれ量はデータ列A1…AN、B1…B
Nの全領域から算出しているので、補正量として補正デ
ータS(x)のどの領域を用いるかが問題となる。 【0029】この問題は、次のように解決される。デー
タ列A1…AN、B1…BNは、そのどの部分も上記相
関量C(L)に等しく寄与しているのでなく、図8
(a)に示した如くデータ列の変化の激しい部分Yが大
きく寄与し変化のゆるやかな部分は寄与が小さい。即ち
各部分のコントラストの大小に依存している。従ってデ
ータ列A1…AN、B1…BNの場所x毎の上記寄与の
程度(以下寄与度と称する。)を求め、この場所に応じ
た寄与度補正データS(x)とから補正量を求めればよ
い。この寄与度Wm は、例えばデータ列の隣接するデー
タの差分から求め得る。 【0030】 即ち、Wm =|Am −Am+1 |又は|Bm −Bm+1 |。 この値Wm を図8(b)に示す。 もちろんWm として|Am −Am+1 |+|Bm −Bm+1
|を用いることもできる。補正量STは、 【0031】 【数2】 【0032】ここでSm は、x=mとしたときのs
(x)である。従って、補正済像ずれ量ZTは次式より
求まる。ZT=Lm −ST 尚、第1光電素子アレイとそれ上の光像との相対位置
と、第2光電素子アレイとそれ上の光像との相対位置と
の間の場所に応じた位置ずれ量が著しく大きい場合に
は、補正データS(x)により像ずれ量を高精度で補正
することは困難となることがある。そこで、第1及び第
2光電素子アレイの光電素子のピッチを場所に応じて変
化させることにより上記位置ずれ量を予め或る程度補正
し、それでも残存した位置ずれ量を補正データとして記
憶するようにすることが望ましい。 【0033】 【発明の効果】以上のように本発明によれば、被写体の
複数の部分について焦点検出を行い、求められた複数の
像ずれ量の検出結果から被写体の奥行きの存在を配慮し
て、最も撮影者に近いものもしくは広い範囲を占めるも
のを選択して、これにより焦点検出結果の表示もしくは
撮影レンズの駆動を行うので、撮影者の意図を反映して
いると考えられる被写体に焦点を合わせることが出来
る。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detecting device for detecting a relative displacement of optical images of substantially the same object formed on a pair of photoelectric element arrays, respectively. In particular, it is used for a focus detection device such as a camera and a distance measuring device. 2. Description of the Related Art FIG. 1A shows an optical system of a focus detection device such as a general camera.
01 forms an image near the field lens 102. The primary image of the subject 100 is formed as a secondary image on the first and second photoelectric element arrays 105 and 106 by the first and second re-imaging lenses 103 and 104, respectively.
The relative positional relationship between the secondary images on the arrays 105 and 106 is detected from the image output of the arrays. [0003] Focus detection is performed from the relative positional relationship between the detected secondary images. [0004] When focus detection is performed in this manner, conventionally, focus detection is performed on only one portion of a subject, so that the places where focus detection can be performed are limited. Further, when there is no detectable subject in the detection area, focus detection cannot be performed. In order to avoid such a problem, if the focus detection area is widened, there is a problem that an object having a depth increases in one focus detection area and focus detection becomes impossible. The above problem is not limited to the pupil division type focus detection device shown in FIG. 1, but a device for photoelectrically detecting a pair of light images of the same object and performing distance measurement or focus detection from the relative position. This is common when target image displacement detection is performed.
An object of the present invention is to enable focus detection for a plurality of portions of a subject, and to consider the existence of the depth of the subject from the obtained plurality of image shift amount detection results, and to consider the intention of the photographer most. The purpose is to focus on the subject to be taken. In order to achieve this object, in the present invention,
As a first method, a subject closest to the camera is selected from a plurality of image shift amount detection results, and focusing is performed on the subject. Further, as a second method, the focus is set on a region that takes substantially the same value from the detection results of the plurality of image shift amounts, that is, a subject occupying a wide range. An embodiment of the present invention will be described below with reference to the drawings. In FIG. 2, a pair of photoelectric element arrays 105 and 106 each including an image sensor such as a CCD are arranged in the photoelectric conversion unit 201 in parallel. An image of the same subject is formed on each photoelectric element array by the same focus detection optical system as in FIG. The image outputs a1... AN from the array 105 are sequentially A / D-converted by the A / D converter 202 in time series and stored in the data memory means 204 in the microcomputer 203. .., BN are also stored in the data memory means 204 via the A / D converter 202. The image shift calculating means 205 calculates the relative shift between the two image outputs, that is, the relative shift between the optical images on the pair of arrays, based on the pair of image outputs a 1... AN and b 1. Of course, the data used for the image shift calculation need not necessarily be the direct image output of the array, but may be an image output obtained by appropriately filtering or sampling these outputs. The correction data storage means 207 stores correction data for correcting the output of the image shift calculating means 205. This correction data is determined as follows.
That is, after the tentative adjustment of the focus detection optical system is completed during the manufacture of the focus detection device, the array 10 in the focused state is adjusted.
The relative displacement of each of the corresponding image points of the light images on the arrays 5 and 106 is measured, and the relative displacement of each of the image points on the array is stored in the storage means 207 as the correction amount. A specific example will be described. As shown in FIG. 1B, when the position of the array of photoelectric elements in the arrays 105 and 106 is x, and the center xo of the arrays 105 and 106 is the array 105, , 106 is relatively easy to adjust so that the corresponding image points of the light images on the center xo of the array coincide when focused. Therefore, when adjusted in this way, the relative positional deviation amount of each point has a characteristic S (x) indicated by a solid line at the focal point and a characteristic Z (x) at the out-of-focus state, as shown in FIG. Here, the characteristic S (x) at the time of focusing shows that the relative displacement amount at the array center xo is zero due to the above adjustment and increases linearly from here toward the periphery of the array. The focus characteristic Z (x) is translated from the characteristic S (x) by an amount ZT corresponding to the degree of out-of-focus. The focus shift S (x) is stored in the correction data storage unit 207. As a storage method, it is not preferable to store all the values of S (x) for each location x of the array because the number of stored data increases. Therefore, as shown in FIG. 3, when the displacement S (x) can be approximated by a straight line passing substantially through the origin xo, the displacement S (x) is determined only by the inclination of the straight line.
Since (x) can be specified, the storage means 207 may store data representing this inclination. In this case, the correction data storage means 207 can be extremely simplified, and as shown in FIG.
Adjustment may be made so as to represent the slope of (x), and the output of the potentiometer 401 may be input to the microcomputer 203 via the A / D converter 402. FIG. 4 shows the correction data storage means 207.
A ROM storing the above inclination as shown in FIG. In this ROM, each of the output terminals P1 to P8 is also connected to the power supply line Vcc and the ground line Et, and each of the output terminals P1 to P8 depends on the data to be stored.
Is connected to only one of the power supply line and the ground line. The correction data storage means 2
07, a ROM in the microcomputer 203 can be used. When the correction data S (x) is not a straight line but a curve as shown in FIG. 5, this curve is approximated by an n-th order equation, and this is specified by (n + 1) numerical values. I just need. Alternatively, correction data relating to several predetermined positions xi may be stored, and if correction data at an intermediate position is required, for example, Lagrange interpolation may be used. Returning to FIG. 2, the correction calculation means 206 corrects the output Z (x) of the image shift calculation means 205 with the correction data S (x) of the correction data storage means 207. Specifically, Z (x ) -S (x) is calculated to calculate the corrected image shift amount ZT. The corrected image shift amount ZT is converted into a defocus amount (a shift amount between a subject image and a predetermined image forming surface of the photographing lens) by the correction calculation unit 206 and sent to the display drive unit 208. This means 208 displays the focus adjustment state based on the defocus amount, and drives the taking lens to the in-focus position. This operation will be described below. A pair of arrays 1
AN, b1... B from the image outputs 05 and 106
N is stored in the data memory means 204 after A / D conversion. FIG. 6A illustrates the image outputs a1... AN stored in the data memory means 204. Image shift calculating means 2
In FIG. 5, for example, as shown in FIG. 6B or FIG. 6C, the image output includes five areas X-2, X-1, X0, X
1, X2, and image output b1.
Is also divided into five regions X-2, X-1, X0, X1, and X2, and a partial region Xi is obtained from the image output of each partial region X1.
, The partial image shift amount Z (xi) with respect to the center xi is calculated individually. The correction calculation means 206 calculates the partial correction amount S (xi) at the location xi from the contents of the correction data storage means 207. The partial correction amount S (xi) is obtained by substituting x = xi into the function S (x) as shown in FIG. Thereafter, the correction calculating means 206 subtracts the partial correction amount S (xi) from the partial image shift amount Z (xi), and obtains the corrected partial image shift amount Z (xi).
T (xi) is obtained. That is, ZT (xi) = Z (xi)-
Obtain S (xi). In this manner, the correction calculating means 206 obtains the corrected partial image shift amount ZT (xi) for each partial area Xi. For example, a simple average of these values 値 ZT (xi) / 5
Is calculated as a final image shift amount, which is converted into a defocus amount and sent to the display driving means 208. Although there are various methods for obtaining the final image shift amount ZT from the partial image shift amount ZT (xi) for each partial area Xi according to the purpose, some examples will be described below. (A1) Corrected partial image shift amount ZT (xi) as described above
Is the final image shift amount ZT. (A2) The average value of the remaining corrected partial image shift amounts excluding the maximum and minimum corrected partial image shift amounts ZT (xi) is defined as the final image shift amount ZT. (A3) The final image shift amount ZT is the center value when the corrected partial image shift amounts ZT (xi) are arranged in descending order. (A4) The corrected partial image shift amount ZT regarding the partial area where the information amount E (x) described later is the maximum is defined as the final image shift amount ZT. (A5) The final image shift amount Z is the average value of the corrected partial image shift amounts ZT (xi) for the plurality of partial regions having a relatively large information amount or the average value obtained by weighted addition according to the information amount.
Let it be T. As an algorithm for performing a partial image shift operation from the data of each partial area Xi, for example, a means for performing a Fourier transform of an image output and comparing phases (Japanese Patent Application Laid-Open No. 54-1979).
No. 104859) or means for performing a correlation operation to determine a shift amount that gives the maximum correlation (Japanese Patent Laid-Open No. 57-45510) can be used. When the number of photoelectric conversion elements included in the partial area Xi is small, it is better to use the Fourier transform method. When an object having a depth is imaged on the array, if the amount of image shift is calculated using the image output of the entire area of the array, it is completely unknown which part of the depth object is to be automatically focused. Becomes Such a problem relating to the depth subject can be solved as follows by calculating the partial image shift amount Z (xi) for each partial region Xi as described above. (B1) By selecting a partial image shift amount Z (xi) having the smallest image shift amount and calculating the final image shift amount ZT based on the selected partial image shift amount Z (xi), the defocus amount of the closest part of the depth subject can be obtained. On the contrary, the defocus amount for the distant portion can be obtained by selecting the one having the largest partial image shift amount, and the defocus amount for the intermediate distance portion can be obtained by selecting the intermediate one. (B2) If any of the plurality of partial image shift amounts Z (xi) has substantially the same value, the value is selected and the final image shift amount ZT is determined based on the value. Can be obtained. (B3) A partial image shift amount in a partial area Xi having the largest information amount described later is selected, and the final image shift amount ZT is determined based on the partial image shift amount.
Is obtained, it is possible to obtain a defocus amount for a subject having the largest amount of information for focus detection, generally a subject having the best contrast. Next, a specific example of calculating the partial image shift amount as described above will be described with reference to a flowchart. FIG.
In step, the partial image shift amount Z (xi) and the information amount E (xi) in each partial area Xi are calculated by the image shift calculating unit 205. Here, the information amount E (xi) represents the reliability of the corresponding partial image shift amount Z (xi), and the greater the value of this information amount, the higher the accuracy of the corresponding partial image shift amount. Specifically, if the image shift calculation is performed by phase comparison after Fourier transform as the information amount, values related to the amplitude after Fourier transform (r1, r1 'in JP-A-55-98710). , R2, r2 '
Is applicable. ) Can be used, and when the image shift calculation is a correlation method, an autocorrelation value Wm described later can be used. In the step, each of the partial areas Xi
Is compared with a predetermined threshold value Eth, and a partial area Xi of the information amount E (xj) having a value larger than the threshold value is selected. In the step, the correction data storage means 2
07, the partial correction amount S (xj) in the selected partial area xj is calculated, and the partial image shift amount Z (xj) in the selected partial area Xj is calculated as the partial image shift amount Z (xi ). In the step, the corrected partial image shift amount ZT (xj) for the selected area Xj is calculated as ZT (xj) =
It is determined from Z (xj) -S (xj). In the step, the corrected partial image shift amount ZT (x
j) is determined whether the variation is smaller than a predetermined value ΔZ, specifically, whether the difference between the maximum value and the minimum value of the corrected partial image shift amount ZT (xj) is smaller than a predetermined value. If the subject is small, the process proceeds to the step assuming that the subject has no depth. If not, the subject is determined to be a subject having the depth and the process proceeds to the step. In the step, for example, the above (A1)-
The final deviation amount ZT is obtained by any one of the processes (A5). In the step, for example, the above (B1) to (B3)
The final image shift amount ZT is obtained by any one of the above processes. The final image shift amount is converted into a defocus amount and displayed and driven. Since the image shift amount and the defocus amount are in a proportional relationship, a plurality of image shift amounts are converted into a plurality of defocus amounts, and the above comparison and selection are performed, and display and driving are performed based on the result. You may do it. Next, a description will be given of a correction method when the correction amount S (x) greatly changes in one detection area. FIG. 8A shows the data memory means 20 of FIG.
4 and a pair of data strings A1... AN, B1.
Is shown. This data string may be the image output of the photoelectric element array itself as described above, or an image output obtained by filtering or sampling the same. In FIG. 2, the image shift calculating unit 205 includes a pair of data strings A1 stored in the data memory unit 204.
.. AN, B1... BN, and one data string A1.
Are shifted by a predetermined amount with respect to the other data strings B1... BN, and the correlation amount C (L) for each shift amount L is obtained. That is, ## EQU1 ## The shift amount L at which the function C (L) is minimized
m is obtained as an image shift amount. This image shift amount L m as determined by the correlation calculation as contains errors due to insufficient adjustment of an optical system as described above, to correct the image shift amount L m in the correction data S (x) There must be. However, this image shift amount is determined by the data sequence A1... AN, B1.
Since the calculation is performed from the entire region of N, there is a problem in which region of the correction data S (x) is used as the correction amount. This problem is solved as follows. The data strings A1... AN and B1... BN do not all contribute equally to the correlation amount C (L).
As shown in (a), the portion Y where the data sequence changes rapidly greatly contributes, and the portion where the change slowly changes has small contribution. That is, it depends on the contrast of each part. Therefore, the degree of the contribution (hereinafter referred to as contribution) for each location x of the data strings A1... AN, B1... BN is determined, and the correction amount is determined from the contribution correction data S (x) corresponding to this location. Good. The contribution W m may be, for example determined from a difference between adjacent data in the data string. That is, W m = | A m −A m + 1 | or | B m −B m + 1 |. The value W m shown in Figure 8 (b). Of course, as W m | A m −A m + 1 | + | B m −B m + 1
| Can also be used. The correction amount ST is given by: Here, S m is s when x = m.
(X). Therefore, the corrected image shift amount ZT is obtained from the following equation. ZT = L m -ST Note that the positional deviation between the relative position between the first photoelectric element array and the optical image thereon and the relative position between the second photoelectric element array and the optical image thereon is dependent on the location. If the amount is extremely large, it may be difficult to correct the image shift amount with high accuracy using the correction data S (x). Therefore, by changing the pitch of the photoelectric elements of the first and second photoelectric element arrays in accordance with the location, the above-described positional shift amount is corrected to some extent in advance, and the remaining positional shift amount is stored as correction data. It is desirable to do. As described above, according to the present invention, focus detection is performed on a plurality of portions of a subject, and the depth of the subject is taken into consideration from the detection results of the obtained plurality of image shift amounts. Select the one closest to the photographer or the one that occupies a wide area, and then display the focus detection result or drive the photographing lens, so that the focus is on the subject considered to reflect the photographer's intention Can be combined.

【図面の簡単な説明】 【図1】(a)は一般的な焦点検出光学系と光電素子ア
レイとの関係を示す光学図。 (b)は光電素子上の光像位置を示す正面図。 【図2】本発明の一実施例を示すブロック図。 【図3】相対的位置ずれ量の一例を示すグラフ。 【図4】(a)及び(b)は補正データ記憶手段の具体
的構成例を示す回路図。 【図5】相対的位置ずれ量の別の例を示すグラフ。 【図6】(a)はイメージ出力の一例を示すグラフ。 (b)及び(c)はイメージ出力を複数の領域に分割す
る様子を示す図。 【図7】第1実施例の具体的な作用を示すフローチャー
ト。 【図8】(a)はイメージ出力の別の例を示すグラフ。 (b)はイメージ出力の変化の激しさを示すグラフであ
る。 【主要部分の符号の説明】 105、106…光電素子アレイ 205…像ずれ演算手段 206…補正演算手段 207…補正データ記憶手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is an optical diagram showing a relationship between a general focus detection optical system and a photoelectric element array. (B) is a front view showing a light image position on the photoelectric element. FIG. 2 is a block diagram showing one embodiment of the present invention. FIG. 3 is a graph showing an example of a relative displacement amount. FIGS. 4A and 4B are circuit diagrams showing a specific configuration example of a correction data storage unit. FIG. 5 is a graph showing another example of the relative displacement amount. FIG. 6A is a graph showing an example of an image output. (B) and (c) are figures showing a situation where an image output is divided into a plurality of areas. FIG. 7 is a flowchart showing a specific operation of the first embodiment. FIG. 8A is a graph showing another example of an image output. (B) is a graph showing the degree of change in image output. [Description of Signs of Main Parts] 105, 106: photoelectric element array 205: image shift calculation means 206: correction calculation means 207: correction data storage means

Claims (1)

(57)【特許請求の範囲】 (1) 撮影光学系の視差を有する領域を通過した一対の
光束を再結像して、焦点検出のための2像を焦点検出セ
ンサ上に形成し、前記撮影光学系を通して導かれる被写
界の複数の異なる焦点検出領域についてそれぞれ前記2
像を形成する焦点検出光学系と、 前記焦点検出センサから得られた前記それぞれの2像に
関する光電出力から前記複数の焦点検出領域に関する複
数の像ずれ量を算出する演算手段とを備え、 前記複数の像ずれ量のうち、最も近距離に対応する像ず
れ量に基づいて表示、もしくはレンズ駆動をすることを
特徴とする焦点検出装置。 (2) 撮影光学系の視差を有する領域を通過した一対の
光束を再結像して、焦点検出のための2像を焦点検出セ
ンサ上に形成し、前記撮影光学系を通して導かれる被写
界の複数の異なる焦点検出領域についてそれぞれ前記2
像を形成する焦点検出光学系と、 前記焦点検出センサから得られた前記それぞれの2像に
関する光電出力から前記複数の焦点検出領域に関する複
数の像ずれ量を算出する演算手段とを備え、 前記複数の像ずれ量からほぼ等しい値を複数採るものを
選択して、最終の像ずれ量として、該最終の像ずれ量に
基づいて表示もしくはレンズ駆動をすることを特徴とす
る焦点検出装置。
(57) [Claims] (1) A pair of luminous fluxes that have passed through an area having parallax of the imaging optical system are re-imaged to form two images for focus detection on a focus detection sensor. For each of a plurality of different focus detection areas of the object field guided through the photographing optical system,
A focus detection optical system that forms an image; and a calculating unit that calculates a plurality of image shift amounts related to the plurality of focus detection regions from photoelectric outputs of the respective two images obtained from the focus detection sensor. A focus detection device that performs display or lens driving based on the image shift amount corresponding to the shortest distance among the image shift amounts. (2) A pair of light beams that have passed through the region having parallax of the photographing optical system are re-imaged to form two images for focus detection on a focus detection sensor, and an object field guided through the photographing optical system 2 for each of a plurality of different focus detection areas
A focus detection optical system that forms an image; and a calculating unit that calculates a plurality of image shift amounts related to the plurality of focus detection regions from photoelectric outputs of the respective two images obtained from the focus detection sensor. A focus detection device which selects one that takes a plurality of substantially equal values from among the image shift amounts and performs display or lens driving based on the final image shift amount as a final image shift amount.
JP3136862A 1991-06-07 1991-06-07 Focus detection device Expired - Lifetime JP2753544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3136862A JP2753544B2 (en) 1991-06-07 1991-06-07 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3136862A JP2753544B2 (en) 1991-06-07 1991-06-07 Focus detection device

Publications (2)

Publication Number Publication Date
JPH08211284A JPH08211284A (en) 1996-08-20
JP2753544B2 true JP2753544B2 (en) 1998-05-20

Family

ID=15185259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3136862A Expired - Lifetime JP2753544B2 (en) 1991-06-07 1991-06-07 Focus detection device

Country Status (1)

Country Link
JP (1) JP2753544B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3147002B2 (en) * 1996-09-26 2001-03-19 富士電機株式会社 Correction method of distance detection value
JP2006133515A (en) * 2004-11-05 2006-05-25 Olympus Corp Camera having focus detector
JP2006145862A (en) * 2004-11-19 2006-06-08 Olympus Corp Camera with range finder, and range-finding method for camera
JP5066893B2 (en) * 2006-05-17 2012-11-07 株式会社ニコン Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP6457776B2 (en) 2014-10-14 2019-01-23 オリンパス株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5678811A (en) * 1979-12-03 1981-06-29 Ricoh Co Ltd Automatic focus controlling device
US4423936A (en) * 1982-07-26 1984-01-03 Polaroid Corporation Photographic exposure control system and method
JPS6036906A (en) * 1983-08-09 1985-02-26 Konishiroku Photo Ind Co Ltd Photoelectric distance measuring device

Also Published As

Publication number Publication date
JPH08211284A (en) 1996-08-20

Similar Documents

Publication Publication Date Title
US8736742B2 (en) Image pickup apparatus that performs automatic focus control and control method for the image pickup apparatus
JPH01237610A (en) Auto focus device
JP5845023B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
JP6014452B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
JPH0684890B2 (en) Focus detection device
JP2003247823A (en) Method and device for detecting phase difference, range finder, and image pickup device
JP2753544B2 (en) Focus detection device
JPH0328691B2 (en)
JPH06103182B2 (en) Focus detection device
JP2545758B2 (en) Focus detection device
JPH06100466B2 (en) Focus detection device
JPH11109218A (en) Automatic focus detector
JPH06100465B2 (en) Focus detection device
JP3230759B2 (en) Distance measuring device
JP4817552B2 (en) Phase difference detection method, phase difference detection device, distance measuring device, and imaging device
JPH0588445B2 (en)
JPH0693059B2 (en) Focus detection device
JP2017223879A (en) Focus detector, focus control device, imaging apparatus, focus detection method, and focus detection program
JP2558377B2 (en) Focus detection device
JP4615912B2 (en) Camera focus calculation device
JP2005147959A (en) Distance-measuring method and distance-measuring device
JP2005010353A (en) Projector
JP2005348379A (en) Projector and distance data correction method
JPH0527161A (en) Focus detecting device
US9354056B2 (en) Distance measurement apparatus, distance measurement method, and camera

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term