[go: up one dir, main page]

JPS58202671A - Auto focus method - Google Patents

Auto focus method

Info

Publication number
JPS58202671A
JPS58202671A JP57084805A JP8480582A JPS58202671A JP S58202671 A JPS58202671 A JP S58202671A JP 57084805 A JP57084805 A JP 57084805A JP 8480582 A JP8480582 A JP 8480582A JP S58202671 A JPS58202671 A JP S58202671A
Authority
JP
Japan
Prior art keywords
image
image sensor
signal
imaging
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP57084805A
Other languages
Japanese (ja)
Inventor
Manabu Yamamoto
学 山本
Shuhei Tanaka
修平 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Denki Electric Inc
Original Assignee
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Denshi KK filed Critical Hitachi Denshi KK
Priority to JP57084805A priority Critical patent/JPS58202671A/en
Publication of JPS58202671A publication Critical patent/JPS58202671A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To attain a proper focusing function regardless of the F value, etc. of an image pickup optical system, by using plural image contrast signals obtained from plural image pickup elements, applying a logical to these image contrast signals to obtain a focusing control signal and controllng the lens position with the focusing control signal. CONSTITUTION:A subject image is formed on an image pickup element 21 through an image pickup lens 11 and at the same time projected to two image pickup elements 31 and 41 via a beam splitter 12. The high-pass filters (HPFs) 22, 32 and 42 are connected to three image pickup elements 21, 31 and 41 respectively. The high frequency component amplitude of a video signal varies in response to the image contrast, and each amplitude has the maximum value when the correct focusing is obtained to each image pickup surface. The outputs of the HPFs are led to wave detectors 24, 34 and 44 via gates 23, 33 and 43 respectively, and outputs R, P and Q are obtained in response to maximum values. These outputs are used to operate a controller 50 and then to control the lens 11.

Description

【発明の詳細な説明】 本発明は主さしてテレビジョンカメラのように。[Detailed description of the invention] The present invention is mainly used as a television camera.

光電変換撮像素子を有するカメラを対象とした自動合焦
方式に関するものである。ここで自動合焦とは、レンズ
や反射鏡によって構成された撮像光学系のピント合わせ
を人間の目によらず自動的に行う光学的調節機能を指す
The present invention relates to an automatic focusing method for a camera having a photoelectric conversion image sensor. Here, automatic focusing refers to an optical adjustment function that automatically focuses an imaging optical system made up of lenses and reflecting mirrors without relying on the human eye.

自動合焦手段として従来公知の諸技術は基本的に次のよ
うに分類される。
Conventionally known techniques for automatic focusing means are basically classified as follows.

Fal  像鮮明度検知型:撮像面またはこれと光学的
に等価な位置に形成された像の鮮明度を検知し。
Fal Image sharpness detection type: Detects the sharpness of an image formed on the imaging surface or a position optically equivalent thereto.

この検知信号に依り撮像光学系を調節する。像の鮮明度
を表す信号としては、映像信号のコントラスト、あるい
は映像信号の高周波成分の振幅を利用する。
The imaging optical system is adjusted based on this detection signal. The contrast of the video signal or the amplitude of the high frequency component of the video signal is used as a signal representing the sharpness of the image.

(b)  測距型:撮像光学系から被写体才での距離を
三角測量その他の手段で検知し、この距離信号によって
撮像光学系を調節する。
(b) Distance measurement type: The distance from the imaging optical system to the subject is detected by triangulation or other means, and the imaging optical system is adjusted based on this distance signal.

上記2方式のうち2本発明装置において採用するのは像
鮮明度検知型である。その理由は、(])合焦とは鮮明
な像を得ることであるから、像鮮明度を検知するのがも
っとも合理的である。(2)光学測距型では周期的繰り
返しパターンの被写体に対し測距精度が低下することが
ある。などである。
Of the above two methods, two of the methods employed in the apparatus of the present invention are the image sharpness detection type. The reason for this is (]) Since focusing means obtaining a clear image, it is most rational to detect the image clarity. (2) In the optical distance measuring type, the distance measuring accuracy may decrease for objects with a periodically repeating pattern. etc.

第1図に従来公知の、像鮮明度検知型テレビジョンカメ
ラ合焦装置の一例を示す。撮像レンズ11に依り、被写
体の像は撮像管″□または固体撮像板の撮像面21(以
下撮像素子と呼ぶ)の上に生じる。
FIG. 1 shows an example of a conventionally known image clarity detection type television camera focusing device. Depending on the imaging lens 11, an image of the subject is formed on an imaging tube "□" or an imaging surface 21 (hereinafter referred to as an imaging device) of a solid-state imaging plate.

撮像素子21からの映像信号出力は、高周波信号成分の
みを通過さぜる高域フィルタ22.検波器27゜および
信号処理器28を経て駆動電源29に入力され。
The video signal output from the image sensor 21 is passed through a high-pass filter 22 that passes only high-frequency signal components. The signal is inputted to the drive power source 29 via the detector 27° and the signal processor 28.

その出力に従って駆動機構61はレンズ11を移動さぜ
る。
The drive mechanism 61 moves the lens 11 according to the output.

この装置の動作原理は次の通りである。即ち正しく合焦
したとき、像鮮明度は最大となり、したがって映像信号
の高域成分は最大になる。したがって高域フィルタ22
の出力を検波器27に通してその振幅を測定し、レンズ
11を移動したときの振幅の増減を信号処理器28によ
って判定しつつ、振幅が最大値をとるようにレンズ11
を移動すれば合焦する。
The operating principle of this device is as follows. That is, when the image is properly focused, the image clarity is maximized, and therefore the high frequency components of the video signal are maximized. Therefore, the high-pass filter 22
The output of the lens 11 is passed through a detector 27 to measure its amplitude, and the signal processor 28 judges whether the amplitude increases or decreases when the lens 11 is moved.
If you move it, it will focus.

この方式の欠点は、レンズ11の位置が正しい合焦位置
から著しく離れているとき、いいかえると甚しくデフォ
ーカスになった状態では、第一に映像信号高域成分の振
幅が小さくなり、第二にレンズ11を少し移動させたと
きのその振幅の変化量も小さくなり、それらの結果とし
て信号処理器部に焦点ずれ信号を供給することが不可能
になることである。レンズのF値が大きいとき、即ち焦
点深度が大きいときにも上記第二のに題が生じる。また
この方式では被写体やカメラの移動が速いと合焦動作が
追従できないこともある。
The disadvantage of this method is that when the position of the lens 11 is significantly far from the correct in-focus position, or in other words, in a state of severe defocus, firstly the amplitude of the high-frequency components of the video signal becomes small, and secondly the amplitude of the high-frequency component of the video signal becomes small. When the lens 11 is moved a little, the amount of change in its amplitude also becomes small, and as a result, it becomes impossible to supply a defocus signal to the signal processor section. The second problem also occurs when the F number of the lens is large, that is, when the depth of focus is large. Additionally, with this method, if the subject or camera moves quickly, the focusing action may not be able to follow it.

本発明は従来技術における上記の欠点を除去し。The present invention obviates the above-mentioned drawbacks in the prior art.

撮像光学系のF値やデフォーカス量にかかわらず適正な
合焦機能を果せると共に、被写体の動きゃカメラの移動
に敏速に追従できる合焦装置を提供することを目的とす
る。
It is an object of the present invention to provide a focusing device that can perform an appropriate focusing function regardless of the F value or defocus amount of an imaging optical system, and can quickly follow the movement of a subject or a camera.

この目的を達成するため本発明合焦方式には以下のよう
な新規な原理が用いられている。即ち撮像光学系光路上
の異る位置に配置された主撮像素子および単一または複
数個の撮像素子から得られる複数個の像鮮明度信号を用
い、これにある特定の論理判断処理を施すことによって
合焦制御信号を発生し、この信号によってレンズ位置を
制御する。
In order to achieve this objective, the following novel principle is used in the focusing method of the present invention. That is, using a plurality of image sharpness signals obtained from a main image sensor and a single image sensor or a plurality of image sensors disposed at different positions on the optical path of the imaging optical system, and subjecting the signals to a certain logical judgment process. A focus control signal is generated by the lens, and the lens position is controlled by this signal.

第2図に本発明の一実施例を示す。撮像レンズ11によ
って被写体像は撮像素子21上に結像すると共に、ビー
ムスプリッタ12を介して2個の撮像素子31および4
1上にも投影される。これら撮像素子に入射する光量は
、必要に応じて絞り13によって調節される。撮像素子
21はテレビジョンカメラ等の主撮像素子であり、かつ
そこから発生する2次元映像信号の一部は自動合焦信号
としても利用される。また2個の撮像素子31および4
1は自動合焦信号を発生するための副撮像素子で、多数
の微小固体光電検出素子を一直線上に配列した1次元撮
像素子がこの目的のために有用である。被写体が主撮像
素子21上に正しく合焦したとき、副撮像素子31はそ
れよりある光路長だけレンズ11に近い位置(以下前方
位置と表す)に、逆に副撮像素子41は副撮像素子31
の場合とほぼ同じ光路長だけレンズから遠い位置(以下
後方位置と表す)に配置されている。
FIG. 2 shows an embodiment of the present invention. A subject image is formed by the imaging lens 11 onto the imaging device 21, and is also transmitted to the two imaging devices 31 and 4 via the beam splitter 12.
It is also projected onto 1. The amount of light incident on these image sensors is adjusted by the aperture 13 as necessary. The image sensor 21 is the main image sensor of a television camera or the like, and a part of the two-dimensional video signal generated therefrom is also used as an autofocus signal. In addition, two image sensors 31 and 4
Reference numeral 1 denotes a sub-imaging element for generating an automatic focusing signal, and a one-dimensional imaging element having a large number of minute solid-state photoelectric detection elements arranged in a straight line is useful for this purpose. When the subject is correctly focused on the main image sensor 21, the sub image sensor 31 is positioned closer to the lens 11 by a certain optical path length (hereinafter referred to as the front position);
It is located at a position far from the lens (hereinafter referred to as the rear position) by approximately the same optical path length as in the case of .

これら3つの撮像素子21.31.41は同期して走査
される。即ち主撮像素子21がある特定の1水平走査線
を走査するとき、それと同期して副撮像素子31と41
も走査され、そのとき得られる3つの映像信号は被写体
の同一部分に対応するように調整されている。
These three image sensors 21.31.41 are scanned synchronously. That is, when the main image sensor 21 scans one specific horizontal scanning line, the sub image sensors 31 and 41
The three video signals obtained at that time are adjusted to correspond to the same part of the object.

3つの撮像素子21.31.4]にはそれぞれ高域フィ
ルタ22,32および42が接続されている。映像信号
の高周波成分振幅は像鮮明度に従って変化し、それぞれ
の撮像面に正しく合焦したときにそれぞれの振幅は極大
値をきる。ただし固体撮像素子を、駆動するときに発生
する高周波スイッチング・ノイズはフィルタまたはゲー
トによって除去する。
High-pass filters 22, 32, and 42 are connected to the three image sensors 21, 31, 4, respectively. The high frequency component amplitude of the video signal changes according to the image clarity, and each amplitude reaches its maximum value when each imaging plane is correctly focused. However, high frequency switching noise generated when driving the solid-state image sensor is removed by a filter or gate.

高域フィルタ22.32および42の出力はゲ゛−42
3゜33および43に入力される。このゲートは1本の
水平走査線からその特定の一部分だけを抜き取るための
もので、これにより画面は水平方向に制限され9画面の
中の特定の被写体に対してのみ合焦が行われるようにな
る。ゲー1−23.33および43の出力は検波器24
.34および44に入力される。検波器24 、34お
よび44の出力は映像信号高周波成分振幅の波高値に対
応する信号となる。なお主撮像素子21は2次元撮像素
子で、1水平走査線ごとにそのパ・:1 波高値が検波器24から出力されるので、その中から副
撮像素子31と41に同期する特定の1本のみをゲート
25により抜き取る。
The outputs of the high-pass filters 22, 32 and 42 have a gain of −42
3° 33 and 43. This gate is used to extract only a specific part of one horizontal scanning line, and this allows the screen to be restricted horizontally and focus only on a specific subject within the nine screens. Become. Gate 1-23. The outputs of 33 and 43 are sent to the detector 24.
.. 34 and 44. The outputs of the detectors 24, 34 and 44 are signals corresponding to the peak value of the high frequency component amplitude of the video signal. The main image sensor 21 is a two-dimensional image sensor, and its peak value is output from the detector 24 for each horizontal scanning line. Only the book is extracted through the gate 25.

ここで主撮像素子21から得られる波高値をP。Here, the peak value obtained from the main image sensor 21 is P.

副撮像素子31と41から得られる波高値をQとRとす
る。これらの信号は入力端子’rp、’rqおよびTr
を介して制御器50に入力される。制御器50の出力は
端子Wに現れ、その電圧をWで表丈。この信号Wにより
駆動機構61を介してレンズ1】が駆動される。レンズ
11の位置は必要に応じて位置検知器62によって検知
され、入力端子Tsを介して制御器50に入力される。
It is assumed that the peak values obtained from the sub-imaging elements 31 and 41 are Q and R. These signals are present at the input terminals 'rp, 'rq and Tr.
The signal is input to the controller 50 via. The output of the controller 50 appears at the terminal W, and its voltage is represented by W. This signal W drives the lens 1 through the drive mechanism 61. The position of the lens 11 is detected by a position detector 62 as required, and is input to the controller 50 via an input terminal Ts.

なお必要に応じて手動スイッチ71によりレンズ駆動を
停止することができる。
Note that the lens drive can be stopped using the manual switch 71 if necessary.

つぎに制御器50の構成と動作を説明する。波高値P、
QおよびRは次のように規格化されている。
Next, the configuration and operation of the controller 50 will be explained. Wave height P,
Q and R are standardized as follows.

即ち被写体が撮像素子21上に合焦したときのPの値を
Po、撮像素子31上に合焦したときのQの値をQo、
撮像素子41上に合焦したときのRの値をROとすると
き、 Qo=RoでかつPo = Qoとなるように調
整されている。P、  QおよびRは算術演算ユニット
51によっぞ:r(P、 Q、 R)ヨ(P−Q)2十
(P−R)2なる量に変換され、ついで比較器52によ
って判別条件 F(P、Q、R)=(P−Q)2+(p−R,)2:)
a   (1)が満されるかどうかが判別される。ここ
でaは所定の基準電圧で、その値は信号P、  Qおよ
びRに含まれるノイズレベルより大きく、かつ前記Po
That is, the value of P when the subject is focused on the image sensor 21 is Po, the value of Q when the subject is focused on the image sensor 31 is Qo,
When the value of R when focused on the image sensor 41 is RO, it is adjusted so that Qo=Ro and Po=Qo. P, Q, and R are converted by the arithmetic operation unit 51 into the quantities r(P, Q, R) yo(P-Q)20(P-R)2, and then by the comparator 52 according to the discrimination condition F. (P, Q, R)=(P-Q)2+(p-R,)2:)
It is determined whether a (1) is satisfied. Here, a is a predetermined reference voltage, the value of which is greater than the noise level contained in the signals P, Q, and R, and
.

QOおよびROよりは小さくなるように設定される。It is set to be smaller than QO and RO.

ただし合焦波高値Po、 QoおよびRoは被写体のコ
ンI・ラストによって変化するので、比較的低コントラ
スト 望ましい。またaの値を映像信号の振幅に応じて変動さ
せてもよい。
However, since the in-focus peak values Po, Qo and Ro change depending on the contrast of the subject, a relatively low contrast is desirable. Further, the value of a may be varied depending on the amplitude of the video signal.

比較器52の出力Xは(1)式の条件が満されたとき高
電圧レベル(以下Hと表す)をとり、それ以外の場合,
即ちF(P,’Q, R)≦aのとき低電圧レベル(以
下りと表す)をとる。この出力Xは論理演算ユニット5
3に入力される。
The output X of the comparator 52 takes a high voltage level (hereinafter referred to as H) when the condition of equation (1) is satisfied; otherwise,
That is, when F(P,'Q,R)≦a, a low voltage level (hereinafter expressed as below) is assumed. This output X is the logical operation unit 5
3 is input.

一方減算器54にはQおよびRが入力され,差信号Q−
Rが出力される。信号Q−R,は比較器55に入力され
,判別条件 Δ(Q, R) 21 Q−R1>b        
 (2)が満されるかどうかが判別される。ここでbは
所定の基準電圧で,信号QおよびRに含まれるノイズよ
り大きく設定される。この値は波高値QoおよびRoよ
りはるかに小さいので,(2)式の条件は事実上Q\R
即ちQとRに差があることを判別する事と等価である。
On the other hand, Q and R are input to the subtracter 54, and the difference signal Q-
R is output. The signal Q-R is input to the comparator 55, and the discrimination condition Δ(Q, R) 21 Q-R1>b
It is determined whether (2) is satisfied. Here, b is a predetermined reference voltage, which is set to be larger than the noise contained in the signals Q and R. Since this value is much smaller than the peak values Qo and Ro, the condition of equation (2) is effectively Q\R
In other words, this is equivalent to determining that there is a difference between Q and R.

比較器55の出力Yは(2)式の判別条件が満されたと
きH,逆に (Q,R・)≦b即ちQ=,RのときLと
なり,この出力Yは論理演算ユニット53に入力される
The output Y of the comparator 55 becomes H when the discrimination condition of equation (2) is satisfied, and conversely becomes L when (Q, R.)≦b, that is, Q=,R. is input.

論理演算ユニット53の入力XとY,およびそれに対す
る出力Zの関係を表1に表す。
Table 1 shows the relationship between the inputs X and Y of the logical operation unit 53 and the output Z thereto.

表1.  論理演算ユニット53の入力と出力の関係表
1から明らかなように,状態■の場合のみ,即ちF(P
, Q, R)=(P−Q)2+(P−R)2≦aで,
かつΔ(Q、R)≦b即ちQ−=RのときにのみZ =
 Lで、それ以外の状態r、 n、 mではZ=Hであ
る。
Table 1. As is clear from Table 1, the relationship between the input and output of the logical operation unit 53, only in the case of state ■, that is, F(P
, Q, R)=(P-Q)2+(P-R)2≦a,
and Z = only when Δ(Q, R)≦b, that is, Q−=R.
In other states r, n, and m, Z=H.

また減算器54の出力Q−Rは合焦制御信号発生器56
にも入力され1合焦制御信号U=f(Q−R)を発生す
る。関数f (Q−R)のもっとも簡単な形は比例関係
で U=c (Q−R)             (3)
である。ここでCは比例係数で、その値は出力電圧Uが
駆動機構61を駆動するのに適当な値となるように調整
される。
Further, the output Q-R of the subtracter 54 is output from the focus control signal generator 56.
is also input to generate a single focus control signal U=f(QR). The simplest form of the function f (Q-R) is the proportional relationship U=c (Q-R) (3)
It is. Here, C is a proportionality coefficient, and its value is adjusted so that the output voltage U becomes an appropriate value for driving the drive mechanism 61.

なお、実際には出力電圧Uが過大な値となるのを防ぐた
め9合焦制御信号発生器56に飽和特性を持たせ、IQ
−R1が比較的小さい範囲では出力Uは(3)式に従っ
てQ−Rに比例するが、IQ−1alが大きくなると出
力は飽和してU−一定となるようにした方が好適である
。Uの符号はQ−Rの符号に一致し、U〉0のときレン
ズ11は引込まれて撮像素子21に近づき、U<Oaら
レンズ11は繰出されて同じく遠ざかる。U=0ならば
静止する。
Note that in practice, in order to prevent the output voltage U from becoming an excessive value, the focus control signal generator 56 is provided with a saturation characteristic, and the IQ
In a range where -R1 is relatively small, the output U is proportional to Q-R according to equation (3), but as IQ-1al increases, it is preferable that the output saturates and becomes U-constant. The sign of U matches the sign of QR, and when U>0, the lens 11 is retracted and approaches the image pickup device 21, and when U<Oa, the lens 11 is extended and similarly moves away. If U=0, it stands still.

論理演算器53の出力Z2合焦制御信号発生器56の出
力Uは切換スイッチ57に入力される。また切換スイッ
チ57には捜索信号発生器58の出力■も入力される。
The output Z2 of the logical operator 53 and the output U of the focus control signal generator 56 are input to the changeover switch 57. In addition, the output (2) of the search signal generator 58 is also input to the changeover switch 57.

捜索信号■は正または負の一定電圧で。The search signal ■ is a constant positive or negative voltage.

その極性はレンズ位置検知器62から発生する信号Sに
よって制御される。
Its polarity is controlled by a signal S generated by lens position sensor 62.

切換スイッチ57は次のように作動する。すなわち入力
Zの信号レベルによって端子間の接続が変化し、Z=H
のときには出力端Twは合焦制御信号Uの入力端に接続
され、その結果W=Uとなる。
The changeover switch 57 operates as follows. In other words, the connection between the terminals changes depending on the signal level of input Z, and Z=H.
When , the output terminal Tw is connected to the input terminal of the focus control signal U, and as a result, W=U.

Z=LのときにはTwは捜索信号Vの入力端に接続され
、W=Vとなる。
When Z=L, Tw is connected to the input terminal of the search signal V, and W=V.

次に本発明合焦装置の動作を説明する。はじめにレンズ
11とその結像点、ならびに3つの撮像素子21.31
および41の等測的位置関係を第3図によって示す。レ
ンズ11がもっとも前に繰り出されて図の11Aの位置
に来たとき、至近距離の被写体は撮像素子21上に結像
し、無限遠の被写体は図の点Mに結像すると?6゜もし
レンズ11が図のIIBの位置に移動すると、無限遠点
は撮像素子21上に。
Next, the operation of the focusing device of the present invention will be explained. First, the lens 11, its imaging point, and the three image sensors 21.31
The isometric positional relationship of and 41 is shown in FIG. When the lens 11 is extended to the front and reaches the position 11A in the figure, an object at close range will be imaged on the image sensor 21, and an object at infinity will be imaged at point M in the figure? 6° If the lens 11 moves to position IIB in the figure, the point at infinity will be on the image sensor 21.

至近点4ま図の点Nに結像する。したがって一般にレン
ズ11の位置にかかわらず、至近から無限に至るすべて
の被写体は点MからNに至る区間に結像する。
The closest point 4 is imaged at point N in the figure. Therefore, regardless of the position of the lens 11, all objects ranging from close to infinity are generally imaged in the area from point M to N.

いま仮りに被写体が撮像素子21上に正しく合焦したと
する。このとき信号Pは極大値をとり、かつQ=R(P
となる。このときF(P、Q、R);(PQ)2+(P
−R)”)a 即ちX=Hでかつ、Q−R=O即ちY=
L となり9表1の状態■が実現する。したがってとなり、
レンズ11は合焦位置に静止したままである。
Assume now that the subject is correctly focused on the image sensor 21. At this time, the signal P takes a local maximum value, and Q=R(P
becomes. At this time, F(P, Q, R); (PQ)2+(P
-R)")a, that is, X=H, and Q-R=O, that is, Y=
L, and the state ■ in Table 1 is realized. Therefore,
The lens 11 remains stationary at the focused position.

もし結像点がずれて撮像素子31の近傍に合焦したとす
る。このとき Q > P > R(51 であるから。
Suppose that the imaging point shifts and focuses near the image sensor 31. At this time, Q > P > R (because 51).

F(P、Q、R)==(P−Q)2+(P−R)2 >
a即ちX=H でかつ、 Q=R’−<0  即ち Y=Hとなり2表
1の状態■が実現する。したがってZ=H となり、レンズ11は第3図において右に移動して撮像
素子21上に正しく合焦したさき静止する。逆に合焦点
が撮像素子41近傍にずれれはU(Oとなり、やはり正
しい合焦位置に引きもどされる。
F(P,Q,R)==(P-Q)2+(P-R)2>
a, that is, X=H, and Q=R'-<0, that is, Y=H, and the state (2) in Table 1 is realized. Therefore, Z=H, and the lens 11 moves to the right in FIG. 3 and stops after correctly focusing on the image sensor 21. Conversely, if the in-focus point deviates to the vicinity of the image sensor 41, it becomes U(O), and the focus point is returned to the correct in-focus position.

つぎに結像点が大きく左にずれて図の点M近傍に来たと
する。これはレンズ11が一番繰り出されて、かつ被写
体は無限遠点にあることに相当する。
Next, suppose that the imaging point has shifted significantly to the left and has come near point M in the figure. This corresponds to the lens 11 being fully extended and the subject being at infinity.

このとき3つの撮像素子21.31および41に生じる
像はいずれも非常にぼけていて、との撮像素子からも非
常に小さな高周波成分しか得られない。即ちP=Q=R
,=Qとなるので。
At this time, the images produced by the three image sensors 21, 31 and 41 are all extremely blurred, and only very small high frequency components can be obtained from the two image sensors. That is, P=Q=R
,=Q.

F(P、 Q、 R)=(P−Q)2+(P−R)2<
a即ちX=Lでかつ、 Q−R,==Q  即ち Y=
Lトナリ2表1の状態■が実現する。したがってとなり
、レンズ11は捜索信号発生器58の出力■によって駆
動されることになる。しかるに信号Vは正または負の一
定値であるから、仮りにその時の信号■の極性が正極性
であればレンズ11は第3図で右へ向って引込まれて行
き、遂には無限遠端に達する。この位置で位置検知器6
2が作動し、捜索信号発生器58に信号を送り、これに
よりその出力の極性は反転される。これに応じて駆動機
構61は逆転をはじめ、レンズ11は第3図で左に繰り
出され、至近端に達すると再び位置検知器62から信号
が送られてレンズ移動方向が反転する。実際にはこのよ
うな移動の途中で結像点が撮像素子31または41に近
づき、このときF(P、Q、R)ミ(P−Q)2十(P
 −R)2) a、 Q −R\0の2つの条件が満さ
れるので2表1の状態Tが実現し、  Z=H,W=U
となって自動合焦制御が作動しレンズ11は正しい合焦
位置に引き込まれる。
F(P, Q, R)=(P-Q)2+(P-R)2<
a, that is, X=L, and Q-R, ==Q, that is, Y=
L Tonary 2 State ■ in Table 1 is realized. Therefore, the lens 11 is driven by the output (2) of the search signal generator 58. However, since the signal V is a constant positive or negative value, if the polarity of the signal (2) at that time is positive, the lens 11 will be pulled toward the right in FIG. 3, and will finally reach the infinity end. reach At this position position detector 6
2 is activated and sends a signal to the search signal generator 58, which inverts the polarity of its output. In response to this, the drive mechanism 61 begins to rotate in reverse, and the lens 11 is extended to the left in FIG. 3. When it reaches the close end, a signal is sent from the position sensor 62 again and the direction of lens movement is reversed. In reality, the imaging point approaches the image sensor 31 or 41 during such movement, and at this time F (P, Q, R) mi (P-Q) 20 (P
-R) 2) Since the two conditions of a, Q -R\0 are satisfied, the state T in Table 1 is realized, and Z=H, W=U
Then, automatic focusing control is activated and the lens 11 is pulled into the correct focusing position.

ここで、被写体のコン1−ラストが低い場合やし7□’
11(7)焦点4度ヵ3大きいとべ:′・、νは、27
才位置にかかわらず常にF(P、 Q、 R)=(P−
Q)2+(P−l()、2.=Q、P=Qとなる場合が
ある。このような場合には常にW−■となってレンズ1
1は際限なく前進後退を繰り返す。これを避けるにはレ
ンズ11がほぼ合焦位置に来たとき2手動によってスイ
ッチ71を切ればレンズ11は停止する。
Here, if the contrast of the subject is low, palm 7□'
11(7) Focal point 4 degrees / 3 large aperture: '・, ν is 27
Regardless of the position, F(P, Q, R) = (P-
Q)2+(P-l(), 2.=Q, P=Q. In such cases, it always becomes W-■ and the lens 1
1 repeats forwards and backwards endlessly. To avoid this, when the lens 11 almost reaches the in-focus position, turn off the switch 71 manually to stop the lens 11.

なお、結像点が撮像素子21.31および41から大き
くずれてP(P、 Q、 R)ミ(P−Q)2+(P−
R)2<aであってもIQ−R1>bであればZ=H,
W=Uとなって自動合焦機能が作動する。これは表1の
状態■に相当する。
Note that the imaging point is largely shifted from the image sensors 21, 31 and 41, resulting in P(P, Q, R)mi(P-Q)2+(P-
R) Even if 2<a, if IQ-R1>b, Z=H,
When W=U, the autofocus function is activated. This corresponds to state (■) in Table 1.

第4図に本発明の他の実施例を示す。前記実施例におい
ては2個の副撮像素子を用いていたが。
FIG. 4 shows another embodiment of the invention. In the embodiment described above, two sub-imaging elements were used.

本実施例においては単一の副撮像素子31Aを用いてい
る。副撮像素子3]、 Aは駆動装置37によって光軸
方向に駆動され、前方位置31.Aと後方位置41Aの
間を往復運動する。前方位置において発生した映像信号
高周波成分波高値をQ、後方位置において発生したもの
をRとすると、これらは前記実施例におけるQおよ′r
JRに対応する。主撮像素子21から発生する映像信号
高周波成分波高値は前記実施例と同じくPである。即ち
前記実施例において2個の固定副撮像素子から得られて
いた像鮮明度信号を2本実施例においては単一の副撮像
素子を撮像光学系軸上の異る位置に逐次移動することに
より9時系列的な像鮮明度信号として得ているのである
In this embodiment, a single sub-image sensor 31A is used. Sub-imaging device 3], A is driven in the optical axis direction by a drive device 37, and is positioned at a front position 31. A and the rear position 41A. Let Q be the peak value of the high frequency component of the video signal generated at the front position, and R be the peak value of the high frequency component of the video signal generated at the rear position, these are Q and 'r in the above embodiment.
Compatible with JR. The peak value of the high frequency component of the video signal generated from the main image sensor 21 is P, as in the previous embodiment. That is, the image clarity signals obtained from the two fixed sub-imaging devices in the above embodiment can be improved by sequentially moving a single sub-imaging device to different positions on the axis of the imaging optical system. 9 is obtained as a time-series image clarity signal.

主撮像素子21から得られる信号は制御器50の入力端
子Tpに入力される。副撮像素子31Aから得られる信
号は、駆動装置37に同期して作動する切換スイッチ3
6に入力され、前方位置における信号は入力端子Tqに
、後方位置における信号は入力端子Trに入力される。
A signal obtained from the main image sensor 21 is input to an input terminal Tp of the controller 50. The signal obtained from the sub-imaging device 31A is transmitted to the changeover switch 3 which operates in synchronization with the drive device 37.
6, the signal at the front position is input to the input terminal Tq, and the signal at the rear position is input to the input terminal Tr.

以後の信号処理は前記実施例と同じである。The subsequent signal processing is the same as in the previous embodiment.

以上述べた実施例に対し、下記のような変形が可能であ
る。
The following modifications can be made to the embodiments described above.

(1)撮像素子 本装置は主撮像素子より前方および後方位置での映像信
号を発生する複数個の副撮像素子を必要とする。あるい
は単一の副撮像素子を空間的に移動して、前方信号と後
方信号を時間的に交互に発生してもよい。その際2個の
副撮像素子はレンズから相異る光路長能れた位置に配置
されるが、そのちょうど中央に主撮像素子を配置するの
がもっとも好適である。このように配置すればQ=R,
の条件が満されたとき自動的に主撮像素子は正しい合焦
位置に来る。もし主撮像素子の光学的位置が2個の副撮
像素子の中点からずれているときには。
(1) Image sensor This device requires a plurality of sub image sensors that generate video signals at positions in front and behind the main image sensor. Alternatively, a single sub-imaging element may be moved spatially to generate forward signals and backward signals alternately in time. In this case, the two sub-imaging elements are arranged at different optical path lengths from the lens, but it is most preferable to arrange the main imaging element exactly in the center thereof. If arranged like this, Q=R,
When the following conditions are met, the main image sensor automatically comes to the correct focus position. If the optical position of the main image sensor is shifted from the midpoint of the two sub image sensors.

主撮像素子に距離的に近い副撮像素子につながる電子回
路の利得を低く、逆に遠い副撮像素子の回路利得を高く
なるように2個の副撮像素子につながる電子回路の利得
を調整することにより、電気的に主撮像素子の合焦点で
Q=Rとなるようにすることができる。
To adjust the gain of the electronic circuit connected to two sub-imaging elements so that the gain of the electronic circuit connected to the sub-imaging element which is close to the main imaging element is lowered, and conversely the gain of the electronic circuit connected to the sub-imaging element further away from the main imaging element is increased. Accordingly, it is possible to electrically achieve Q=R at the focal point of the main image sensor.

(2)論理処理器 上記実施例にて示した関数。(2) Logic processor Functions shown in the above examples.

F(P、 Q、 R)ヨ(P−Q)2+(P−R)2(
8)は、2個の副撮像素子の信号QおよびRと、主撮像
素子の信号Pとの不一致の程度を表すものと考えてよい
。FQ値が大きいときには、レンズの結像点は正しい合
焦点すなわち主撮像素子の近傍にある。このときにはレ
ンズの位置を合焦制御信号Uによって制御することによ
り、より精密な合焦を行う。逆にFの値が小さいという
ことは、レンズの結像位置が主撮像素子から大きく離れ
ていることを意味する。このときレンズは初め捜索信号
Vによって駆動され2次いで制御信号Uによって精密に
位置制御される。
F(P, Q, R) Yo(P-Q)2+(P-R)2(
8) may be considered to represent the degree of mismatch between the signals Q and R of the two sub-image sensors and the signal P of the main image sensor. When the FQ value is large, the imaging point of the lens is at the correct focal point, that is, near the main image sensor. At this time, more precise focusing is achieved by controlling the position of the lens using the focus control signal U. Conversely, a small value of F means that the imaging position of the lens is far away from the main image sensor. At this time, the lens is first driven by the search signal V and then precisely controlled in position by the control signal U.

このように関数F(P、 Q、 R)の値によってレン
ズ結像点の位置が示され、その結果によってレンズの駆
動信号が選択される。
In this way, the position of the lens imaging point is indicated by the value of the function F(P, Q, R), and the lens drive signal is selected based on the result.

レンズの合焦状態を指示する関数としては、上記の関数
F(P、 Q、 R)のほかにも種々の形が考えられる
。例えばA、Bを任意の定数として2次の関数を用いて
もよい。
In addition to the above-mentioned function F (P, Q, R), various forms can be considered as the function that indicates the in-focus state of the lens. For example, a quadratic function may be used with A and B being arbitrary constants.

レンズ位置を知るために、より簡便には別の関数。Another function is more convenient to know the lens position.

F(P、 Q、  R,) :αp十βQ+γR(10
)1′ を用いてよい。ここにα、βおよびγは定数である。α
−β−γ−1となるように回路の利得を調整すれは。
F (P, Q, R,): αp + βQ + γR (10
)1' may be used. Here α, β and γ are constants. α
Adjust the gain of the circuit so that -β-γ-1.

F(P、Q、R)= P+Q−111)となる。F(P, Q, R)=P+Q-111).

上記実施例においては副撮像素子として1次元固体撮像
素子を用いる例を示した。しかじ像鮮明度検知手段とし
てはこのほかにも各種の技術が公知であり、これら公知
技術を副撮像素子に適用してもよい。たとえば光電変換
素子の前にスリッI・または空間フィルタを設け、これ
を走査する方法。
In the above embodiment, an example is shown in which a one-dimensional solid-state image sensor is used as the sub-image sensor. Various other techniques are known as image sharpness detection means, and these known techniques may be applied to the sub-imaging device. For example, a method in which a slit I or a spatial filter is provided in front of a photoelectric conversion element and the filter is scanned.

光電素子の非線形応答特性により9合焦点でその抵抗が
極値をとる性質を利用する方法などを本発明副撮像素子
に適用してもよい。さらに被写体に発光ダイオードから
光を照射し、被写体からの散乱光を受光してもよい。
A method that utilizes the property that the resistance of the photoelectric element takes an extreme value at nine focal points due to the nonlinear response characteristic of the photoelectric element may be applied to the sub-imaging element of the present invention. Furthermore, the subject may be irradiated with light from a light emitting diode, and scattered light from the subject may be received.

本発明の特徴は、主撮像素子および副撮像素子から得ら
れる像鮮明度信号を論理入力として用い。
A feature of the present invention is that image sharpness signals obtained from the main image sensor and the sub image sensor are used as logic inputs.

それら入力にある特定の論理演算処理をおこなって得ら
れる出力によってレンズの位置を制御するということで
ある。この方法に依れば、被写体の遠近、コントラスト
および移動にかかわらず、レンズは常に正しい合焦位置
に引き込まれる。また副撮像素子として主撮像素子の一
部を兼用させることもできる。これは次のような理由に
依る。一般に撮像素子の感光面周辺部には若干の余裕が
ある。この余裕部分は撮像素子としての機能を有してい
るが走査が行われていないか、又は走査が行われていて
も実際に観視される画像として受像面に現れない部分で
ある。この余裕部分は画面の上下および左右に存在する
ので、この部分を副撮像素子として利用することができ
る。この場合には当然、副撮像素子部分に主画面が投影
されるのを防止するための遮光が必要である。又利用す
る部分が通常状態では走査されない部分であれば、帰線
期間を利用してその部分を別途走査することにより、副
撮像素子としての機能を持たせる必要がある。
This means that the position of the lens is controlled by the output obtained by performing certain logical operations on these inputs. According to this method, the lens is always drawn into the correct focus position regardless of the distance, contrast, or movement of the subject. Further, a part of the main image sensor can also be used as the sub image sensor. This is due to the following reasons. Generally, there is some margin around the photosensitive surface of an image sensor. This extra portion has a function as an image sensor, but is not scanned, or even if scanned, does not appear on the image receiving surface as an image to be actually viewed. Since this extra portion exists on the top, bottom, left and right sides of the screen, this portion can be used as a sub-imaging device. In this case, of course, light shielding is required to prevent the main screen from being projected onto the sub-imaging element portion. Furthermore, if the part to be used is a part that is not scanned in the normal state, it is necessary to provide the function as a sub-imaging element by separately scanning that part using the retrace period.

第5図に示すのは主撮像素子の周辺部を副撮像素子とし
て兼用する場合の一実施例である。ビームスブリック1
2によって分離された光の一部は反射鏡12L副光学系
122を経り主撮像素子21の外辺部である第1の副撮
像素子部31上に結像する。
FIG. 5 shows an embodiment in which the periphery of the main image sensor is also used as a sub-image sensor. beam brick 1
A part of the light separated by the mirror 2 passes through the sub-optical system 122 of the reflecting mirror 12L and forms an image on the first sub-imaging element section 31, which is the outer side of the main image-sensing element 21.

この副撮像素子部31は主撮像素子21に比べて光学的
に前方位置に配置されている。ビームスブリック12に
よって分離された光の他の一部は反射鏡123、副光学
系124を経て、主撮像素子21の外辺部で上記副撮像
素子部31とは別の部分である第2の副撮像素子部41
上に結像する。この副撮像素子部41は主撮像素子21
に比べて光学的に後方位置に配置されている。上記以外
の部分に関しては既述の実施例と同じであるため、動作
説明を省略する。
This sub-image sensor section 31 is optically arranged at a forward position compared to the main image sensor 21. The other part of the light separated by the beam subricter 12 passes through a reflecting mirror 123 and a sub-optical system 124, and then passes through a second part of the light separated from the sub-image sensor part 31 at the outer edge of the main image sensor 21. Sub image sensor section 41
image on top. This sub image sensor section 41 is the main image sensor 21
It is optically located at a rearward position compared to the Since the parts other than those mentioned above are the same as those of the previously described embodiments, the explanation of the operation will be omitted.

第6図に示すのは主撮像素子の外周部分を副撮像素子と
して利用する場合の他の実施例である。
FIG. 6 shows another embodiment in which the outer peripheral portion of the main image sensor is used as a sub image sensor.

本例の撮像光学系はズームレンズである場合を例示しで
ある。このスームレンズは変倍光学系111とリレーレ
ンズ系112から構成され、その中間にビームスプリッ
タ12が配置されている。ビームスプリッタ12によっ
て分離された光は反射面】21゜副光学系122を経て
、主撮像素子21の外周部を構成する副撮像素子部31
に結像する。副光学系122の構成レンズを移動機構1
25によって往復運動させることにより、副撮像素子部
31上に結像する映像は前方結像状態と後方結像状態の
間を往復する。
The imaging optical system in this example is a zoom lens. This zoom lens is composed of a variable magnification optical system 111 and a relay lens system 112, and a beam splitter 12 is arranged in between. The light separated by the beam splitter 12 passes through the reflective surface 21° sub optical system 122 and then passes through the sub image sensor section 31 that forms the outer periphery of the main image sensor 21.
image is formed. Mechanism 1 for moving the constituent lenses of the sub-optical system 122
25, the image formed on the sub-imaging element section 31 reciprocates between the front imaging state and the rear imaging state.

即ち本例の場合、副撮像素子部の光学的位置の制御は、
副光学系122の構成レンズの位置を制御することによ
って行われる。したがって副撮像素子の位置は等測的に
は上記レンズの位置によって表される。
That is, in the case of this example, the control of the optical position of the sub-imaging element section is as follows:
This is done by controlling the positions of the constituent lenses of the sub optical system 122. Therefore, the position of the sub-imaging element is isometrically represented by the position of the lens.

上記以外の点に関しては既述の実施例と同じであるため
、説明を省略する。
Since the points other than those mentioned above are the same as those of the previously described embodiments, their explanations will be omitted.

なお、上記実施例に挙げた関数P(P、 Q、 R)以
外の関数であっても、PとQまたはPとRの間に差があ
ることを表す関数であれば、すべて本発明に適用できる
It should be noted that any function other than the function P (P, Q, R) listed in the example above is included in the present invention as long as it represents a difference between P and Q or P and R. Applicable.

上記実施例では、レンズを移動させることによって撮像
光学系の合焦状態を制御する例を示した。
In the above embodiment, an example was shown in which the focusing state of the imaging optical system is controlled by moving the lens.

しかしレンズを移動する代りに撮像素子側を移動させて
もよい事は自明である。なぜなら光学系の合焦状態はレ
ンズと撮像素子の相対距離に依って決まるので、レンズ
の移動は梅、像素子の移動と等価であるからである。撮
像素子の位置を移動可能ならしめる機構は、レンズを可
動ならしめる機構あるいは第4図の副撮像素子を可動な
らしめる機構と原理的に同じである。
However, it is obvious that the image sensor side may be moved instead of moving the lens. This is because the focusing state of the optical system is determined by the relative distance between the lens and the image sensor, so movement of the lens is equivalent to movement of the image element. The mechanism for making the position of the image pickup element movable is the same in principle as the mechanism for making the lens movable or the mechanism for making the sub image pickup element movable in FIG.

以上説明したように本発明合焦方式は、被写体の種類2
位置、輝度、コン]・ラスト、および動きに影響される
ことの少ない高精度の合焦を行えるのが特徴で、テレビ
カメラの合焦装置として有用である。
As explained above, the focusing method of the present invention can be used for two types of subjects.
It is characterized by its ability to perform highly accurate focusing that is less affected by position, brightness, contrast, and movement, making it useful as a focusing device for television cameras.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来技術による自動合焦装置の一例を示すフロ
ック図、第2図は本発明の一実施例を示すブロック図、
第3図は本発明装置の動作原理を説明するために用いる
光学系模式図、第4図、第5図、第6図は本発明の他の
実施例を示すブロック図である。 11:撮像レンズ、21:主撮像素子、 31.31A
、 41:副撮像素子、 22,32,42 :高域フ
ィルタ、5o:佃」御器、 51.:算術演算ユニット
、・二゛52,55:比較器。 53:論理演算ユニット、54:減算器、56:合焦制
御信号発生器、57:切換スイッチ、58:捜索信号発
生器、61:駆動機構。 第9図 第2図 L                      J第
3図 第5図 第6図
FIG. 1 is a block diagram showing an example of an automatic focusing device according to the prior art, FIG. 2 is a block diagram showing an embodiment of the present invention,
FIG. 3 is a schematic diagram of an optical system used to explain the operating principle of the apparatus of the present invention, and FIGS. 4, 5, and 6 are block diagrams showing other embodiments of the present invention. 11: Imaging lens, 21: Main image sensor, 31.31A
, 41: Sub-image sensor, 22, 32, 42: High-pass filter, 5o: Tsukuda Goki, 51. : Arithmetic operation unit, ・2゛52,55: Comparator. 53: Logical operation unit, 54: Subtractor, 56: Focus control signal generator, 57: Changeover switch, 58: Search signal generator, 61: Drive mechanism. Figure 9 Figure 2 L J Figure 3 Figure 5 Figure 6

Claims (1)

【特許請求の範囲】 1)撮像光学系の光路上に所定の位置関係で配置された
光電変換型の主撮像素子およびすくなくとも一つの光電
変換型の副撮像素子と、これら撮像素子に投影される映
像の鮮明度をそれぞれ電気信号に変換する手段と、該各
像鮮明度信号に対する所定演算により、上記撮像光学系
の合焦状態を判定し、この判定結果に応じた撮像光学系
と撮像面との位置関係調整用の制御信号を発生する手段
とを有することを特徴とする自動合焦方式。 2、特許請求の範囲第1項記載の自動合焦装置において
、上記撮像光学系位置関係調整用制御手段の所定演算に
よる合焦状態判定のための入力信号として、上記主撮像
素子および副撮像素子から得た各像鮮明度信号間のレベ
ル比較関数と、上記副撮像素子から得た複数個の像鮮明
度信号間のレベル比較関数を用いることを特徴とする自
動合焦方式。 3)特許請求の範囲第1項または第2項記載の自動合焦
装置において、上記撮像光学系位置関係調整用制御手段
から発生する制御信号として9合焦制御範囲内の場合上
記副撮像素子の像鮮明度信号から算出した合焦制御信号
を、また合焦制御範囲外の場合上記撮像光学系と撮像面
との位置関係を強制的に現在の位置関係から移動させる
捜索信号を、それぞれ切換え送出するようにしたことを
特徴とする自動合焦方式。
[Scope of Claims] 1) A photoelectric conversion type main image sensor and at least one photoelectric conversion type sub image sensor arranged in a predetermined positional relationship on the optical path of the imaging optical system, and images projected onto these image sensors. A means for converting each image sharpness into an electrical signal, and a predetermined calculation for each image sharpness signal to determine the focusing state of the imaging optical system, and to adjust the imaging optical system and imaging surface according to the determination result. and means for generating a control signal for adjusting the positional relationship of the automatic focusing system. 2. In the automatic focusing device according to claim 1, the main image sensor and the sub image sensor are used as an input signal for determining a focus state by a predetermined calculation of the control means for adjusting the positional relationship of the imaging optical system. An automatic focusing method characterized by using a level comparison function between each image definition signal obtained from the sub-imaging device and a level comparison function between a plurality of image definition signals obtained from the sub-imaging device. 3) In the automatic focusing device according to claim 1 or 2, when the control signal generated from the imaging optical system positional relationship adjustment control means is within the 9 focus control range, Switches and sends a focus control signal calculated from the image clarity signal, and a search signal that forcibly moves the positional relationship between the imaging optical system and the imaging surface from the current positional relationship when the focus is outside the focus control range. An automatic focusing system that is characterized by the ability to
JP57084805A 1982-05-21 1982-05-21 Auto focus method Pending JPS58202671A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57084805A JPS58202671A (en) 1982-05-21 1982-05-21 Auto focus method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57084805A JPS58202671A (en) 1982-05-21 1982-05-21 Auto focus method

Publications (1)

Publication Number Publication Date
JPS58202671A true JPS58202671A (en) 1983-11-25

Family

ID=13840922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57084805A Pending JPS58202671A (en) 1982-05-21 1982-05-21 Auto focus method

Country Status (1)

Country Link
JP (1) JPS58202671A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51147336A (en) * 1975-06-13 1976-12-17 Hitachi Ltd Auto-focus adjustment appliance for microscope
JPS5772116A (en) * 1980-10-23 1982-05-06 Canon Inc Signal processing circuit for focus detector
JPS5773707A (en) * 1980-10-24 1982-05-08 Toshiba Corp Focusing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51147336A (en) * 1975-06-13 1976-12-17 Hitachi Ltd Auto-focus adjustment appliance for microscope
JPS5772116A (en) * 1980-10-23 1982-05-06 Canon Inc Signal processing circuit for focus detector
JPS5773707A (en) * 1980-10-24 1982-05-08 Toshiba Corp Focusing device

Similar Documents

Publication Publication Date Title
US8446519B2 (en) Focus control apparatus and optical apparatus
US7852398B2 (en) Image-taking apparatus
KR950003569B1 (en) Photographic apparatus and automatic focusing control device using the same
JP4094458B2 (en) Image input device
US7423685B2 (en) Image-taking apparatus with first control method in which focus lens is driven based upon signal from image-pickup device and second control method in which focus lens is driven based on signal representing object distance
US7570298B2 (en) Image-taking apparatus with first focus control such that in-focus position is searched for based on first signal and second focus control such that one of in-focus position and drive amount is determined based on second signal
JP3733228B2 (en) Imaging device with tilt mechanism, method, and storage medium
JP4334784B2 (en) Autofocus device and imaging device using the same
JP2756293B2 (en) Automatic focusing device
JPH09211308A (en) Mechanism for detecting object of automatic focusing image pickup unit
JP2004038114A (en) Auto-focus camera
JPS58202671A (en) Auto focus method
JP2004258085A (en) Autofocus system
JP2868834B2 (en) Auto focus device
JP4900134B2 (en) Focus adjustment device, camera
JPH04161912A (en) Automatic focusing device for electronic camera
JP2810403B2 (en) Automatic focusing device
JP2004151608A (en) Autofocus system
JPS63217879A (en) Electronic still video camera
JPH0614239A (en) Automatic focus adjusting device and its method and anamorphic lens unit
JP2981481B2 (en) Video camera with automatic focusing means
JP2650625B2 (en) Video camera with automatic focusing means
JPH0332172A (en) Focusing device for solid-state image pickup camera
JP3525438B2 (en) Auto focus device
JPH0495476A (en) Video tape recorder with built-in camera