[go: up one dir, main page]

JP4721395B2 - LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD - Google Patents

LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD Download PDF

Info

Publication number
JP4721395B2
JP4721395B2 JP2003361291A JP2003361291A JP4721395B2 JP 4721395 B2 JP4721395 B2 JP 4721395B2 JP 2003361291 A JP2003361291 A JP 2003361291A JP 2003361291 A JP2003361291 A JP 2003361291A JP 4721395 B2 JP4721395 B2 JP 4721395B2
Authority
JP
Japan
Prior art keywords
lens
lens unit
focus
information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003361291A
Other languages
Japanese (ja)
Other versions
JP2005128107A (en
JP2005128107A5 (en
Inventor
裕人 大川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003361291A priority Critical patent/JP4721395B2/en
Priority to US10/965,472 priority patent/US7415200B2/en
Publication of JP2005128107A publication Critical patent/JP2005128107A/en
Publication of JP2005128107A5 publication Critical patent/JP2005128107A5/ja
Priority to US12/060,033 priority patent/US7616876B2/en
Application granted granted Critical
Publication of JP4721395B2 publication Critical patent/JP4721395B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Lens Barrels (AREA)
  • Studio Devices (AREA)

Description

本発明は、ビデオカメラ等の光学機器におけるレンズ制御に関するものである。   The present invention relates to lens control in an optical apparatus such as a video camera.

民生用のレンズ一体型カメラでは、小型化や、被写体からできるだけ近い位置での撮影を可能とする等の要請がある。このため、補正レンズと変倍レンズをカムで機械的に連動させるのではなく、補正レンズの移動軌跡を予めマイクロコンピュータ内にレンズカムデータとして記憶させておき、このレンズカムデータにしたがって補正レンズを駆動し、さらにこの補正レンズによってフォーカスも合わせる、いわゆるインナーフォーカスタイプのレンズが主流になってきている。   Consumer-use lens-integrated cameras are required to be compact and to be able to shoot at a position as close as possible to the subject. For this reason, the correction lens and the variable magnification lens are not mechanically linked by a cam, but the movement locus of the correction lens is stored in advance in the microcomputer as lens cam data, and the correction lens is determined according to the lens cam data. A so-called inner focus type lens, which is driven and further adjusted in focus by this correction lens, has become mainstream.

図7は、従来のインナーフォーカスタイプレンズシステムの構成を示す図である。同図において、901は固定されている前玉レンズ、902は変倍を行なうためのズームレンズ(バリエータレンズともいう:第1レンズユニット)、903は絞り、904は固定されている固定レンズ、905は焦点調節機能と変倍による像面の移動を補正する機能(いわゆるコンペンセータ機能)とを兼ね備えた補正レンズとしてのフォーカスレンズ(第2レンズユニット)である。また、906は撮像面である。   FIG. 7 is a diagram showing a configuration of a conventional inner focus type lens system. In the figure, 901 is a fixed front lens, 902 is a zoom lens (also referred to as a variator lens: first lens unit) for zooming, 903 is an aperture, 904 is a fixed lens, 905 Is a focus lens (second lens unit) as a correction lens having both a focus adjustment function and a function (so-called compensator function) for correcting movement of the image plane due to zooming. Reference numeral 906 denotes an imaging surface.

図7のように構成されたレンズシステムでは、フォーカスレンズ905がコンペンセータ機能と焦点調節機能とを兼ね備えているため、焦点距離が等しくても、撮像面906に合焦するためのフォーカスレンズ905の位置は、被写体距離によって異なる。各焦点距離において被写体距離を変化させたとき、被写体像を撮像面906上に合焦させるためのフォーカスレンズ905の位置を連続してプロットすると、図8のようになる。変倍中は、図8に示された複数の軌跡の中から、被写体距離に応じた軌跡を選択し、選択した軌跡通りにフォーカスレンズ905を移動させれば、合焦状態を維持したままの変倍(ズーム)が可能になる。   In the lens system configured as shown in FIG. 7, since the focus lens 905 has both a compensator function and a focus adjustment function, the position of the focus lens 905 for focusing on the imaging surface 906 even when the focal lengths are equal. Depends on the subject distance. When the subject distance is changed at each focal length, the position of the focus lens 905 for focusing the subject image on the imaging surface 906 is continuously plotted as shown in FIG. During zooming, if a trajectory corresponding to the subject distance is selected from the plurality of trajectories shown in FIG. 8 and the focus lens 905 is moved along the selected trajectory, the in-focus state is maintained. Scaling (zoom) becomes possible.

なお、前玉レンズでフォーカスを行うタイプのレンズシステムでは、ズームレンズに対して独立したフォーカスレンズが設けられており、さらにはズームレンズとフォーカスレンズとがカム環に機械的に結合されている。従って、例えばカム環を手動で回転させて焦点距離を変えようとした場合、カム環をいくら速く動かしても、カム環はこれに追従して回転する。ズームレンズとフォーカスレンズはカム環に形成されたカムに沿って光軸方向に移動するので、フォーカスレンズが合焦位置にあれば、変倍によって像がぼけることはない。   In a lens system that performs focusing with the front lens, a focus lens independent of the zoom lens is provided, and the zoom lens and the focus lens are mechanically coupled to a cam ring. Therefore, for example, when the cam ring is manually rotated to change the focal length, the cam ring follows the rotation no matter how fast the cam ring is moved. Since the zoom lens and the focus lens move in the optical axis direction along the cam formed on the cam ring, if the focus lens is at the in-focus position, the image is not blurred by zooming.

これに対し、インナーフォーカスタイプのレンズシステムにおいては、図8に示した複数の軌跡(電子カム軌跡とも称される)情報又はこれに対応する情報(すなわち、軌跡そのものを示す情報でもレンズ位置を変数とした関数でもよい)を記憶しておき、フォーカスレンズとズームレンズの位置に基づいて軌跡を選択して、この選択した軌跡上をたどりながらズーミングを行うのが一般的である。   On the other hand, in the inner focus type lens system, the lens position is variable even with the information of a plurality of trajectories (also referred to as electronic cam trajectories) shown in FIG. 8 or information corresponding thereto (that is, information indicating the trajectory itself). In general, the function is stored in advance, a locus is selected based on the positions of the focus lens and the zoom lens, and zooming is performed while following the selected locus.

ただし、ズームレンズがテレからワイド方向に移動する場合には、図8から明らかなように複数の軌跡がある程度の間隔を持った状態から収束する方向であるので、上述した軌跡追従方法でも合焦は維持できる。しかしながら、ワイドからテレ方向では、収束点にいたフォーカスレンズがどの軌跡をたどるべきかが判らない(ワイド側では無限遠から数10cmまで同じフォーカス位置が合焦ポイントとなる)ので、同様な軌跡追従方法では合焦を維持できない。   However, when the zoom lens moves from the tele to the wide direction, as shown in FIG. 8, the plurality of trajectories are converged from a state having a certain interval. Can be maintained. However, in the wide-to-tele direction, it is not known which locus the focus lens at the convergence point should follow (the same focus position is the focal point from infinity to several tens of centimeters on the wide side). Then we cannot maintain focus.

そこで、特許文献1には、TV−AF方式で映像信号の高周波成分から得られるAF評価値信号(鮮鋭度信号)を用いて、ズームレンズの移動(変倍)の際に、フォーカスレンズを合焦位置よりピントをずらすように強制的に移動させ、さらにフォーカスレンズを合焦方向に向かうように切換え移動させる(軌跡に対する追従速度を変化させる)制御を繰り返し行う制御方法(ジグザグ動作)が開示されている。これにより、追従軌跡が補正される。また、特許文献1には、被写体や焦点距離、被写界深度に応じて追従速度の変化量を変化させることにより、鮮鋭度信号の増減周期を変化させ、追従軌跡の選択(特定)精度向上を図った手法も開示されている。
特許第2795439号公報(特許請求の範囲、図3,図4およびその説明)
Therefore, in Patent Document 1, an AF evaluation value signal (sharpness signal) obtained from a high-frequency component of a video signal by the TV-AF method is used to adjust the focus lens when the zoom lens is moved (magnification). Disclosed is a control method (zigzag operation) that forcibly moves the focus lens so that it is out of focus and then switches the focus lens so that it moves in the in-focus direction (changes the tracking speed with respect to the trajectory). ing. As a result, the tracking locus is corrected. In Patent Document 1, the change rate of the tracking speed is changed in accordance with the subject, the focal length, and the depth of field, thereby changing the sharpness signal increase / decrease period and improving the selection (specification) accuracy of the tracking locus. The technique which aimed at is also disclosed.
Japanese Patent No. 2795439 (Claims, FIGS. 3, 4 and description thereof)

上記特許文献1にて開示されているジグザグ動作では、AF評価値の変化に基づいて追従軌跡を特定する。しかしながら、AF評価値は像のぼけ状態によって変化するだけでなく、被写体の絵柄変化によっても変化する。このため、フォーカスレンズの移動方向を切り換える際に誤った方向に切り換わってしまう場合がある。そして、本来の追従すべき軌跡から外れてしまうと、再び正しい軌跡に戻るまでに像ぼけが発生することになる。また、フォーカスレンズレンズの移動方向を間違った場合において、特にAF評価値レベルが大きく低下するような像ぼけ状態が発生したり、低コントラストの被写体を撮影しているときには、正しい軌跡を見つけることができず、像ぼけを引きずったままテレ端まで行き着くという現象も発生する可能性がある。   In the zigzag operation disclosed in Patent Document 1, the tracking locus is specified based on the change in the AF evaluation value. However, the AF evaluation value not only changes depending on the blurred state of the image, but also changes depending on the pattern change of the subject. For this reason, when the moving direction of the focus lens is switched, it may be switched to an incorrect direction. If the trajectory deviates from the original trajectory, image blur will occur before returning to the correct trajectory. In addition, when the moving direction of the focus lens is wrong, a correct locus can be found, particularly when an image blur state that greatly reduces the AF evaluation value level occurs or when a low-contrast subject is shot. There is also a possibility that the phenomenon of reaching the tele end while dragging the image blur may occur.

特に、カム軌跡の間隔が詰まっているワイド側からズーミングを開始する際、ジグザグ駆動による駆動開始方向が、特定すべきカム軌跡(合焦軌跡)の方向と逆方向となってしまうと、合焦軌跡からの位置ずれ量が小さくても、ワイド側では焦点深度が浅いため、像ぼけが目に付きやすい。さらに、前述したように無限から数10cmまでの被写体が同一フォーカス位置で合焦状態となるワイド側において、被写体距離の異なる複数の物体がワイド画角内に存在すると、これらの被写体の像が同時にぼけてしまい、画像の品位がきわめて悪くなる。   In particular, when starting zooming from the wide side where the intervals of the cam trajectory are narrow, if the driving start direction by zigzag driving is opposite to the direction of the cam trajectory (focusing trajectory) to be specified, focusing is performed. Even if the amount of positional deviation from the trajectory is small, image blur is likely to be noticeable because the depth of focus is shallow on the wide side. Furthermore, as described above, if a plurality of objects with different subject distances exist within a wide angle of view on the wide side where subjects from infinity to several tens of centimeters are in focus at the same focus position, the images of these subjects are simultaneously displayed. The image will be blurred and the quality of the image will be extremely poor.

本発明は、高速ズームにおいても、確実に合焦状態を維持しつつ、撮影シーンやカメラワークに左右されることなく高品位なズーミングが行えるレンズ制御装置、光学機器およびレンズ制御方法を提供することを目的とする。   The present invention provides a lens control device, an optical device, and a lens control method capable of performing high-quality zooming without being influenced by a shooting scene or camera work while reliably maintaining an in-focus state even in high-speed zoom. With the goal.

上記の目的を達成するために、本発明、変倍用の第1レンズユニットの移動に際して、像面移動を補正するために第2レンズユニットの移動を制御するレンズ制御装置であって、所定の合焦距離に対して作成された前記第1レンズユニットの位置に応じた前記第2レンズユニットの位置を示すデータを記憶した記憶手段と、前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得手段と、前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御手段と、合焦対象物までの距離に対応する第2の情報を検出する距離検出手段とを有する。そして、前記制御手段は、変倍動作中に、前記データと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動動作に重み付けを行う。

To achieve the above object, the present invention is, upon movement of the first lens unit for zooming, a lens control apparatus for controlling the movement of the second lens unit for correcting image plane movement, a predetermined including the storage means for storing data indicating the position of the second lens unit according to the created position of the first lenses unit relative to the focusing distance, the first lens unit and the second lens unit Based on first information indicating a movement target position of the second lens unit, an acquisition unit that acquires a focus signal representing a focused state of the optical system based on a photoelectric conversion signal of an optical image formed by the optical system. a control means for controlling the movement of said second lens unit, and a distance detecting means for detecting a second information corresponding to a distance to the focusing target. The control unit weights the moving operation of the second lens unit based on the second information when generating the first information according to the data and the focus signal during the zooming operation. I do.

また、本発明、変倍用の第1レンズユニットの移動に際して、像面移動を補正するために第2レンズユニットの移動を制御するレンズ制御方法であって、前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得ステップと、前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御ステップと、合焦対象物までの距離に対応する第2の情報を検出するステップとを有する。そして、前記制御ステップにおいて、変倍動作中に、記憶手段に記憶された所定の合焦距離に対して作成された前記第1レンズユニットの位置と前記第2レンズユニットの位置とを示すデータと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動動作に重み付けを行う。
The present invention also relates to a lens control method for controlling the movement of the second lens unit in order to correct the movement of the image plane when the first lens unit for zooming is moved, and includes the first lens unit and the second lens unit. An acquisition step of acquiring a focus signal representing an in-focus state of the optical system based on a photoelectric conversion signal of an optical image formed by an optical system including the lens unit; and a first indicating a movement target position of the second lens unit . and a step of detecting a control step for controlling the movement of the second lens unit on the basis of the information, the second information corresponding to a distance to focus the object. In the control step, data indicating the position of the first lens unit and the position of the second lens unit created for a predetermined focusing distance stored in the storage means during the zooming operation; When generating the first information according to the focus signal, the moving operation of the second lens unit is weighted based on the second information .

ここで、上記重み付けとしては、第2レンズユニットの駆動方向や駆動速度に関する重み付けや、前記第2レンズユニットをその駆動条件(駆動速度や駆動方向等)を切り換えながら駆動する場合の該駆動条件を切り換えるための条件(焦点信号に基づいて第2レンズユニットの駆動条件を切り換えながら駆動する場合の該焦点信号の条件)に関する重み付けが挙げられる。   Here, as the weighting, weighting related to the driving direction and driving speed of the second lens unit, and driving conditions when driving the second lens unit while switching its driving conditions (driving speed, driving direction, etc.) are used. There is a weight related to the condition for switching (the condition of the focus signal when driving while switching the driving condition of the second lens unit based on the focus signal).

また、上記第1の情報は、第1レンズユニットに対する第2レンズユニットの位置を表す軌跡情報若しくは該軌跡を特定するためのパラメタであってもよいし、第2レンズユニットを駆動すべき位置情報であってもよい。 The first information may be trajectory information indicating the position of the second lens unit with respect to the first lens unit or a parameter for specifying the trajectory, or position information for driving the second lens unit. It may be.

本発明によれば、上記第1の情報(軌跡情報等)生成のために第2レンズユニットの駆動を制御する際に、検出した合焦対象物までの距離に対応する第2の情報に基づいた重み付けを行うので、像ぼけが大きくなるような第2レンズユニットの駆動を抑制することができる。 According to the present invention, when controlling the driving of the second lens unit for generating the first information (trajectory information or the like), based on the second information corresponding to the detected distance to the in- focus object. Since the weighting is performed, it is possible to suppress the driving of the second lens unit that increases the image blur.

例えば、上記第1の情報生成のための第2レンズユニットの駆動方向に関して上記第2の情報に基づく重み付けを行うようにすれば、第2レンズユニットの像ぼけが大きくなる方向への駆動を回避できる。 For example, if weighting based on the second information is performed with respect to the driving direction of the second lens unit for generating the first information, driving in the direction in which the image blur of the second lens unit increases is avoided. it can.

また、上記第1の情報生成のための第2レンズユニットの駆動速度に関して上記第2の情報に基づく重み付けを行うようにすれば、像ぼけを小さくする方向に速く駆動することができる。 Further, if weighting based on the second information is performed with respect to the driving speed of the second lens unit for generating the first information, the second lens unit can be driven faster in the direction of reducing the image blur.

さらに、上記第1の情報を生成するために第2レンズユニットをその駆動条件を切り換えながら駆動する場合に、該駆動条件を切り換えるための条件に関して上記第2の情報に基づく重み付けを行うようにすれば、該第2の情報に応じて第2レンズユニットの駆動条件の切り換えを行うことができ、迅速に上記情報を生成することができる。 Further, when the second lens unit is driven while switching its driving conditions in order to generate the first information , weighting based on the second information is performed with respect to the conditions for switching the driving conditions. For example, the driving condition of the second lens unit can be switched according to the second information , and the information can be generated quickly.

以上のように、本発明によれば、上記第1の情報生成に際しての第2レンズユニットの駆動制御に合焦対象物までの距離に対応する第2の情報に応じた重み付けをすることができ、像ぼけの発生を抑制しつつ、迅速かつ円滑な情報生成が可能となる。その結果、合焦対象物に対して確実に合焦を維持(第1レンズユニットによる変倍に追従)することができる。 As described above, according to the present invention, it is possible to perform weighting according to the second information corresponding to the distance to the in- focus object in the drive control of the second lens unit when generating the first information. This makes it possible to generate information quickly and smoothly while suppressing the occurrence of image blur. As a result, the in-focus object can be reliably maintained in focus (following zooming by the first lens unit).

そして、本発明を、第1および第2レンズユニットを含む光学系により形成された光学像の光電変換信号から得られる上記光学系の焦点状態を表す焦点信号を用いて上記情報を生成する際(例えば、再生成処理)における第2レンズユニットの駆動制御や、いわゆるジグザク動作における第2レンズユニットの駆動条件切換えの条件の設定に対して適用することにより、焦点信号が距離変化だけでなく合焦対象物の絵柄の変化でも影響を受けて第2レンズユニットが駆動され、像ぼけが目立つといった問題を回避することができる。   And when this invention produces | generates the said information using the focus signal showing the focus state of the said optical system obtained from the photoelectric conversion signal of the optical image formed by the optical system containing the 1st and 2nd lens unit ( For example, the focus signal is focused not only on the distance change but also on the setting of the driving control of the second lens unit in the regeneration process) and the setting of the driving condition switching condition of the second lens unit in the so-called zigzag operation. The second lens unit is driven under the influence of the change in the pattern of the object, and the problem that the image blur is conspicuous can be avoided.

以下、本発明の実施例について図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(前提技術)
まず本発明の実施例の説明に先立って、本発明の前提となる技術について説明する。
(Prerequisite technology)
First, prior to the description of the embodiments of the present invention, a technique which is a premise of the present invention will be described.

図9は、インナーフォーカスタイプのレンズシステムにおけるフォーカスレンズの軌跡追従方法の一例を説明するための図である。   FIG. 9 is a diagram for explaining an example of a locus tracking method of the focus lens in the inner focus type lens system.

図9において、Z,Z,Z,・・Zはズームレンズの位置を示しており、a,a,a,・・a およびb,b,b,・・b は、不図示のマイクロコンピュータに予め記憶されている被写体距離に応じたフォーカスレンズの位置である。これらのフォーカスレンズ位置の集まり(a,a,a,・・aおよびb,b,b,・・b)が、代表的な被写体距離ごとのフォーカスレンズが追従すべき合焦軌跡(代表軌跡)となる。 9, Z 0 , Z 1 , Z 2 ,... Z 6 indicate the positions of the zoom lenses, and a 0 , a 1 , a 2 ,... A 6 and b 0 , b 1 , b 2 , · · b 6 is a position of the focus lens in accordance with the subject distance stored in advance in a microcomputer (not shown). A group of these focus lens positions (a 0 , a 1 , a 2 ,... A 6 and b 0 , b 1 , b 2 ,... B 6 ) follow the focus lens for each representative subject distance. It becomes a power focus locus (representative locus).

また、p,p,p,・・pは、上記2つの代表軌跡を基に算出された、フォーカスレンズが追従すべき合焦軌跡上の位置である。この合焦軌跡上の位置の算出式を以下に示す。 Further, p 0 , p 1 , p 2 ,... P 6 are positions on the in-focus locus that the focus lens should follow, calculated based on the two representative loci. A formula for calculating the position on the in-focus locus is shown below.

(n+1)
=|p(n)-a(n)|/|b(n)-a(n)|×|b(n+1)-a(n+1)|+a(n+1) …(1)
上記(1)式によれば、例えば図9においてフォーカスレンズがpにある場合、pが線分b−aを内分する比を求め、 この比に従って線分b−aを内分する点をpとする。このp−pの位置差と、ズームレンズがZ〜Zまで移動するのに要する時間から、合焦を保つためのフォーカスレンズの移動速度が分かる。
p (n + 1)
= | P (n) -a (n) | / | b (n) -a (n) | × | b (n + 1) -a (n + 1) | + a (n + 1) (1)
According to the above equation (1), for example, when the focus lens is at p 0 in FIG. 9, the ratio that p 0 internally divides the line segment b 0 -a 0 is obtained, and the line segment b 1 -a 1 is calculated according to this ratio. Let p 1 be the point that internally divides. From the position difference of p 1 -p 0 and the time required for the zoom lens to move from Z 0 to Z 1 , the moving speed of the focus lens for maintaining the focus can be found.

次に、ズームレンズの停止位置が、記憶された代表軌跡データを有するズームエリアの境界上のみという制限がないとした場合について説明する。図10はズームレンズの移動方向の内挿方法を説明するための図であり、図9の一部を抽出してズームレンズの位置を任意としたものである。   Next, a case where there is no restriction that the stop position of the zoom lens is only on the boundary of the zoom area having the stored representative trajectory data will be described. FIG. 10 is a diagram for explaining an interpolation method in the moving direction of the zoom lens. A part of FIG. 9 is extracted to arbitrarily set the position of the zoom lens.

図10において、縦軸はフォーカスレンズの位置、横軸はズームレンズの位置を示している。マイクロコンピュータで記憶している代表軌跡上のフォーカスレンズ位置を、ズームレンズの位置を Z,Z,・・Zk−1,Z・・Zとしたとき、フォーカスレンズ位置を被写体距離別に、
,a,・・ak−1,a・・a
,b,・・bk−1,b・・b
としている。
In FIG. 10, the vertical axis indicates the position of the focus lens, and the horizontal axis indicates the position of the zoom lens. When the focus lens position on the representative trajectory stored in the microcomputer is Z 0 , Z 1 ,... Z k-1 , Z k ..Z n , the focus lens position is the subject distance. Apart from
a 0, a 1, ·· a k-1, a k ·· a n
b 0, b 1, ·· b k-1, b k ·· b n
It is said.

今、ズームレンズ位置がズームエリア境界上でないZにあり、フォーカスレンズ位置がpである場合にa,bを求めると、
=a−(Z−Z)×(a−ak−1)/(Z−Zk−1) …(2)
=b−(Z−Z)×(b−bk−1)/(Z−Zk−1) …(3)
となる。つまり現在のズームレンズ位置とそれを挟む2つのズームエリア境界位置(例えば、図10におけるZとZk−1)とから得られる内分比に従い、記憶している4つの代表軌跡データ(図11でのa,ak−1,b,bk−1)のうち同一被写体距離のものを上述の内分比で内分することにより、a,bを求めることができる。
Now, there is a Z x zoom lens position is not on the zoom area boundary, the seek a x, b x when the focus lens position is p x,
a x = a k - (Z k -Z x) × (a k -a k-1) / (Z k -Z k-1) ... (2)
b x = b k − (Z k −Z x ) × (b k −b k−1 ) / (Z k −Z k−1 ) (3)
It becomes. That is, according to the internal ratio obtained from the current zoom lens position and the two zoom area boundary positions (for example, Z k and Z k-1 in FIG. 10) between them, the stored four representative trajectory data (FIG. 11 ak , a k−1 , b k , b k−1 ) at the same subject distance is internally divided by the above internal ratio, whereby a x , b x can be obtained.

そして、 a,p,bから得られる内分比に従い、予め記憶されている上記4つの代表データのうち、同一焦点距離のものを(1)式のように上述の内分比で内分することにより、p,pk−1を求めることができる。 Then, according to the internal ratio obtained from a x , p x , b x , among the four representative data stored in advance, the data with the same focal length is expressed by the above internal ratio as shown in the equation (1). By dividing internally, p k and p k−1 can be obtained.

そして、ワイドからテレへのズーム時には、追従移動先のフォーカス位置p および現在のフォーカス位置pの差と、ズームレンズがZ〜Z まで移動するのに要する時間とから、合焦を保つために必要なフォーカスレンズの移動速度が分かる。 At the time of zooming from the wide to telephoto, the difference between the follow-up the destination of the focus position p k and the current focus position p x, zoom lens and a time required to move to the Z x to Z k, the focus You can see the moving speed of the focus lens necessary to keep.

また、テレからワイドへのズーム時には、 追従移動先のフォーカス位置pk−1および現在のフォーカス位置p の差と、ズームレンズがZ〜Zk−1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が分かる。 From Further, at the time of zooming to wide from the telephoto, the difference between the follow-up the destination of the focus position p k-1 and the current focus position p x, the zoom lens is the time required to move to the Z x ~Z k-1 The moving speed of the focus lens for maintaining the in-focus state can be known.

このとき、マイクロコンピュータ内に予め記憶されている合焦軌跡情報のテーブルデータの例を図11に示す。図11は、ズームレンズ位置により変化する、被写体距離別のフォーカスレンズ位置データA(n,v)を示している。 変数nの列方向に被写体距離、変数vの行方向にズームレンズ位置(焦点距離)が変化している。ここでは、n=0が無限遠の被写体距離を表し、nが大きくなるに従って被写体距離は最至近距離側に変化する。n=mは1cmの被写体距離を示している。 At this time, an example of table data of focusing locus information stored in advance in the microcomputer is shown in FIG. FIG. 11 shows focus lens position data A (n, v) for each subject distance, which varies depending on the zoom lens position. The subject distance changes in the column direction of the variable n, and the zoom lens position (focal length) changes in the row direction of the variable v. Here, n = 0 represents a subject distance at infinity, and the subject distance changes to the closest distance side as n increases. n = m indicates a subject distance of 1 cm.

一方、v=0はワイド端を表す。さらに、vが大きくなるに従って焦点距離が増し、v=sがテレ端のズームレンズ位置を表している。従って、1列のテーブルデータで1本の代表軌跡が描かれることになる。   On the other hand, v = 0 represents the wide end. Furthermore, the focal length increases as v increases, and v = s represents the zoom lens position at the tele end. Therefore, one representative trajectory is drawn with one column of table data.

次に、前述したように、ワイドからテレ方向におけるズーミング時にフォーカスレンズがどの軌跡をたどるべきかが判らなくなる問題を解消するための軌跡追従方法について説明する。   Next, as described above, a locus tracking method for solving the problem that it becomes difficult to know which locus the focus lens should follow during zooming from wide to telephoto will be described.

図12(A),(B)において、横軸は変倍レンズの位置を示している。また、図12(A)において、縦軸はTV−AF方式により撮像信号から得られるAF評価信号を示す。このAF評価信号は、撮像信号の高周波成分(鮮鋭度信号)のレベルを示している。また、図12(B)において、軸はフォーカスレンズの位置を示している。図12(B)において、ある距離に位置する被写体に対して合焦を得ながらズーミングを行う際にフォーカスレンズがた辿るべきカム軌跡(フォーカスレンズ位置の集まり)が1304であるとする。
12A and 12B, the horizontal axis indicates the position of the zoom lens. In FIG. 12A, the vertical axis indicates the AF evaluation signal obtained from the image pickup signal by the TV-AF method. This AF evaluation signal indicates the level of the high-frequency component (sharpness signal) of the imaging signal. Further, in FIG. 12 (B), the vertical axis represents the position of the focus lens. In FIG. 12B, it is assumed that 1304 is a cam locus (collection of focus lens positions) that the focus lens should follow when performing zooming while focusing on a subject located at a certain distance.

ここで、ズームレンズの位置1306(Z14)よりもワイド側での合焦軌跡追従のための標準移動速度を正(フォーカスレンズ至近方向に移動)、位置1306よりもテレ側でフォーカスレンズが無限遠方向に移動する際の合焦軌跡追従のための標準移動速度を負とする。合焦を維持しながらフォーカスレンズが目標軌跡1304を辿るときに、AF評価信号の大きさは、図12(A)に1301で示すレベルとなる。一般に、合焦を維持したズーミングでは、 AF評価信号レベルはほぼ一定値となる。 Here, the standard moving speed for tracking the in-focus locus on the wide side from the zoom lens position 1306 (Z 14 ) is positive (moves in the direction closer to the focus lens), and the focus lens is infinite on the telephoto side from the position 1306. The standard moving speed for following the in-focus locus when moving in the far direction is negative. When the focus lens follows the target locus 1304 while maintaining the in-focus state, the magnitude of the AF evaluation signal becomes a level indicated by 1301 in FIG. In general, in zooming while maintaining in-focus, the AF evaluation signal level is a substantially constant value.

図12(B)において、ズーミング時に、目標軌跡1304をトレースするフォーカスレンズの標準移動速度をVf0とする。実際のフォーカスレンズの移動速度をVとし、該移動速度Vを標準移動速度をVf0 に対して大小させながらズーミングすると、その軌跡は1305のようにジグザグな軌跡となる(以下、これを「ジクザク補正動作」という)。 In FIG. 12B, the standard moving speed of the focus lens that traces the target locus 1304 during zooming is V f0 . When the actual moving speed of the focus lens is set to V f and zooming is performed while the moving speed V f is made larger or smaller than the standard moving speed V f0 , the locus becomes a zigzag locus as 1305 (hereinafter referred to as this). "Zigzag correction operation").

このとき、AF評価信号レベルは、図12(A)に1303で示すように、山と谷を生ずるように変化する。ここで、目標軌跡1304と実際のジグサグな軌跡1305が交わる位置でAF評価信号レベル1303は最大レベル1301となり( Z,Z,Z,・・Z16の偶数のポイント)、実際の軌跡1305の移動方向ベクトルが切り換わる Z,Z,Z,・・Z16の奇数のポイントでAF評価信号レベル1303は最小レベル1302となる。 At this time, the AF evaluation signal level changes so as to generate peaks and valleys as indicated by reference numeral 1303 in FIG. Here, at the position where the target locus 1304 and the actual zigzag locus 1305 intersect, the AF evaluation signal level 1303 becomes the maximum level 1301 (even points of Z 0 , Z 1 , Z 2 ,... Z 16 ), and the actual locus The AF evaluation signal level 1303 becomes the minimum level 1302 at odd points of Z 0 , Z 1 , Z 2 ,... Z 16 where the moving direction vector of 1305 switches.

そして、逆に、AF評価信号レベル1303の最小レベル1302の値TH1を予め設定し(すなわち、合焦とみなせる最小レベルTH1のAF評価信号を下限とする合焦許容範囲を設定し)、AF評価信号レベル1303の大きさがTH1と等しくなる毎に、軌跡1305の移動方向ベクトルを切り換えれば、切り換え後のフォーカスレンズの移動方向は、目標軌跡1304に近づく方向に設定できる。つまり、AF評価信号の最大レベル1301と最小レベル1302(TH1)の差分だけ像がぼける毎に、該ぼけを減らすようにフォーカスレンズの駆動条件である駆動方向および駆動速度を制御することで、ぼけ量の発生を抑制したズーミングが行える。   On the contrary, the value TH1 of the minimum level 1302 of the AF evaluation signal level 1303 is set in advance (that is, an in-focus allowable range with the lower limit of the AF evaluation signal of the minimum level TH1 that can be regarded as in-focus is set), and AF evaluation is performed. If the moving direction vector of the locus 1305 is switched every time the signal level 1303 becomes equal to TH1, the moving direction of the focus lens after switching can be set to a direction approaching the target locus 1304. That is, every time an image is blurred by the difference between the maximum level 1301 and the minimum level 1302 (TH1) of the AF evaluation signal, the driving direction and the driving speed, which are driving conditions of the focus lens, are controlled so as to reduce the blur. Zooming can be performed while suppressing the generation of the amount.

このような手法を用いることにより、図8に示したように、被写体距離別の合焦軌跡が収束から発散していくワイドからテレへのズーミングにおいて、仮に合焦を維持する標準移動速度Vf0がそのときの被写体距離に対して最適でなくとも、標準移動速度((1)式より求まるp(n+1) を使って算出する)に対して、フォーカスレンズの移動速度V を制御しながら、AF評価信号レベルの変化に従って軌跡1305で示すような切り換え動作を繰り返すことにより、AF評価信号レベルが最小レベル1302(TH1)より下がらない、つまり一定量以上のぼけを生じず、合焦軌跡の再特定(再生成)が行える。また、TH1を適切に設定することにより、見た目には像ぼけが判らないズーミングが可能である。 By using such a method, as shown in FIG. 8, in the zooming from wide to tele, where the focus locus for each subject distance diverges from convergence, the standard movement speed V f0 that maintains the focus temporarily. Is not optimal for the subject distance at that time, while controlling the moving speed V f of the focus lens with respect to the standard moving speed (calculated using p (n + 1) obtained from the equation (1)), By repeating the switching operation as indicated by the locus 1305 according to the change in the AF evaluation signal level, the AF evaluation signal level does not fall below the minimum level 1302 (TH1), that is, no blur of a certain amount or more occurs, and the in-focus locus is restored. Can be identified (regenerated). Further, by appropriately setting TH1, zooming in which image blur is not apparent to the eye is possible.

ここで、フォーカスレンズの移動速度Vは、標準移動速度に対して加える正方向の補正速度をVf+、負方向の補正速度をVf−とすると、
=Vf0+Vf+ …(4)
又は、
=Vf0+Vf− …(5)
となる。このとき、補正速度Vf+,Vf−は、上記ズーミング手法による追従軌跡の選択時に片寄りが生じないように、(4),(5)式により得られるVの2つの方向ベクトルの内角が、Vf0の方向ベクトルにより2等分されるように決定される。
Here, the moving speed V f of the focus lens is V f + as the correction speed in the positive direction applied to the standard movement speed, and V f− as the correction speed in the negative direction.
V f = V f0 + V f + (4)
Or
V f = V f0 + V f− (5)
It becomes. At this time, the correction velocities V f + and V f− are the internal angles of the two direction vectors of V f obtained by the expressions (4) and (5) so that no deviation occurs when the tracking locus is selected by the zooming method. Is bisected by the direction vector of V f0 .

以上説明してきたズーミング制御は、撮像素子からの撮像信号を用いて焦点検出を行う関係から、映像の垂直同期信号に同期して処理が行われるのが一般的である。   The zooming control described above is generally performed in synchronization with the vertical synchronization signal of the video because of focus detection using the image pickup signal from the image pickup device.

図6は、マイクロコンピュータ内で行われるズーミング制御のフローチャートである。ステップ(図ではSと記す)701で処理が開始されると、S702で初期設定が行われる。初期設定では、マイクロコンピュータ内のRAMや各種ポートの初期化を行う。   FIG. 6 is a flowchart of zooming control performed in the microcomputer. When processing is started in step (denoted as S) 701, initial setting is performed in S702. In the initial setting, the RAM and various ports in the microcomputer are initialized.

S703では、カメラ本体の操作系の状態を検出する。マイクロコンピュータは、ここで撮影者が操作するズームスイッチユニットの情報を受け取り、撮影者にズーミング実行中を知らせるための、ズームレンズ位置などの変倍動作情報をディスプレイに表示する。   In S703, the state of the operation system of the camera body is detected. The microcomputer receives information on the zoom switch unit operated by the photographer here, and displays on the display zooming operation information such as the zoom lens position for notifying the photographer that zooming is being performed.

S704では、AF処理を行う。すなわちAF評価信号の変化に応じて自動焦点調節処理を行う。   In S704, AF processing is performed. That is, automatic focus adjustment processing is performed in accordance with changes in the AF evaluation signal.

S705では、ズーミング処理を行う。すなわち変倍に際して合焦を維持するためのコンペセータ動作の処理を行う。具体的には、図9に示す軌跡をほぼトレースするために、フォーカスレンズの標準駆動方向および標準駆動速度を算出を行う。   In S705, zooming processing is performed. That is, a compensator operation process is performed to maintain the focus during zooming. Specifically, the standard drive direction and standard drive speed of the focus lens are calculated in order to substantially trace the locus shown in FIG.

S706では、AFやズーミングに際して、S704からS705の処理ルーチンで算出されるズームレンズやフォーカスレンズの駆動方向や駆動速度のうちいずれを使用するかを選択し、ズームレンズやフォーカスレンズを、それぞれがメカ端に当たらないようにソフト的に設けている制御上のテレ端およびワイド端の間または制御上の至近端および無限端の間で駆動するルーチンである。   In S706, during AF or zooming, it is selected which of the driving direction and driving speed of the zoom lens and focus lens calculated in the processing routine of S704 to S705 is used, and the zoom lens and the focus lens are respectively mechanically operated. This is a routine that is driven between the telephoto end and the wide end on the control, or between the close end and the infinite end on the control, which are provided so as not to hit the end.

S707では、S706で定めたズームおよびフォーカス用の駆動方向情報、駆動速度情報に応じて、モータドライバに制御信号を出力し、レンズの駆動/停止を制御する。S707の処理終了後はS703に戻る。   In step S707, a control signal is output to the motor driver according to the zoom and focus drive direction information and drive speed information determined in step S706 to control driving / stopping of the lens. After the process of S707 ends, the process returns to S703.

なお、図6に示した一連の処理は、垂直同期信号に同期して実行される(S703の処理の中で次の垂直同期信号が入力されるまで待機する)。   Note that the series of processing shown in FIG. 6 is executed in synchronization with the vertical synchronization signal (wait until the next vertical synchronization signal is input in the processing of S703).

図3〜図5には、1垂直同期時間に1回、マイクロコンピュータ内で実行される制御フローを示しており、図6のS705で実行される処理の内容を詳細に示している。   3 to 5 show a control flow executed in the microcomputer once in one vertical synchronization time, and show details of the processing executed in S705 of FIG.

以下、図3〜図5、さらには図9を用いて説明を行う。   Hereinafter, description will be made with reference to FIGS. 3 to 5 and FIG. 9.

図3のS400では、ズームスイッチユニットの操作情報に応じて、自然な変倍動作が行えるようズームモータの駆動速度Zspを設定する。 In S400 of FIG. 3, the zoom motor drive speed Zsp is set in accordance with the operation information of the zoom switch unit so that a natural zooming operation can be performed.

S401では、現在のズームレンズおよびフォーカスレンズの位置から、撮影している被写体までの距離(被写体距離)を特定(推定)し、その被写体距離情報を3つの軌跡パラメタ(情報)α、β、γとしてRAMなどのメモリ領域に記憶する。ここでは、図4に示した処理が行われる。なお、以下、説明を簡単にするために、現在のレンズ位置にて合焦状態が維持されているものとして図4に示した処理を説明する。   In S401, the distance (subject distance) from the current zoom lens and focus lens positions to the subject being photographed is specified (estimated), and the subject distance information is obtained as three trajectory parameters (information) α, β, γ. Is stored in a memory area such as a RAM. Here, the process shown in FIG. 4 is performed. For the sake of simplicity, the processing shown in FIG. 4 will be described below assuming that the in-focus state is maintained at the current lens position.

図4のS501では、現在のズームレンズ位置Z が、図11に示したデータテーブル上で、ワイド端からテレ端までをs等分したうちの何番目のズームエリアvに存在するのかを算出する。その算出方法を図5を用いて説明する。 In S501 of FIG. 4, calculates the current zoom lens position Z x is on the data table shown in FIG. 11, whether present in the ordinal number of the zoom area v of which were s aliquoted from the wide-angle end to the telephoto end To do. The calculation method will be described with reference to FIG.

S601では、ズームエリア変数vをクリアする。S602では、次に示す(6)式に従って、ズームエリアvの境界上のズームレンズ位置Z(v)を算出する。このZ(v)は、図9で示したズームレンズ位置Z,Z,Z,・・に相当する。 In S601, the zoom area variable v is cleared. In S602, the zoom lens position Z (v) on the boundary of the zoom area v is calculated according to the following equation (6). This Z (v) corresponds to the zoom lens positions Z 0 , Z 1 , Z 2 ,... Shown in FIG.

(v)=(テレ端ズームレンズ位置−ワイド端ズームレンズ位置)×v/s
+ワイド端ズームレンズ位置 …(6)
S603では、S602で求めたZ(v) が現在のズームレンズ位置Zと等しいかどうか判別する。等しければ、ズームレンズ位置Z はズームエリアvの境界上に位置するとして、S607で境界フラグに1を立てる。
Z (v) = (tele end zoom lens position−wide end zoom lens position) × v / s
+ Wide end zoom lens position (6)
In S603, Z (v) obtained in S602, it is determined whether or equal to the current zoom lens position Z x. If they are equal, it is assumed that the zoom lens position Z x is located on the boundary of the zoom area v, and 1 is set to the boundary flag in S607.

S603で等しくなければ、S604で、Z<Z(v)かどうかを判別する。 S604がYesならば、ZはZ(v−1)とZ(v)との間にあることになり、S606で境界フラグを0とする。S604でNoならば、S605でズームエリアvをインクリメントしてS602に戻る。 If they are not equal in S603, it is determined in S604 whether Z x <Z (v) . S604 is If Yes, Z x will be in the between Z (v-1) and Z (v), the boundary flag to 0 in S606. If No in S604, the zoom area v is incremented in S605 and the process returns to S602.

以上の処理を繰り返し行うことにより、図5のフローを抜けるときには、現在のズームレンズ位置Zが、図11のデータテーブル上におけるv=k番目のズームエリアに存在し、さらにZがズームエリア境界上か否かを知ることができる。 By repeating the above processing, when exiting the flow of FIG. 5, the current zoom lens position Z x is present in v = k th zoom area on the data table in FIG. 11, further Z x zoom area You can know if it is on the boundary.

図4に戻って、S501で図5の処理により現在のズームエリアが定まったので、以下の処理ではフォーカスレンズが図11のデータテーブル上のどこに位置するのかを算出する。   Returning to FIG. 4, since the current zoom area is determined by the processing of FIG. 5 in S501, the following processing calculates where the focus lens is located on the data table of FIG.

まず、S502では、被写体距離変数nをクリアし、S503では、現在のズームレンズ位置がズームエリアの境界上に存在しているかどうかを判別する。境界フラグが0ならば境界上にいないとしてS505からの処理に進む。   First, in S502, the subject distance variable n is cleared, and in S503, it is determined whether or not the current zoom lens position exists on the boundary of the zoom area. If the boundary flag is 0, it is determined that the boundary is not on the boundary, and the process proceeds to S505.

S505では、Z にZ(v)をセットし、またZk−1にZ(v−1)をセットする。次に、S506では、4つのテーブルデータA(n,v−1)、A(n,v)、A(n+1,v−1)、A(n+1,v)を読み出し、S507で、上述した(2),(3)式からa,b を算出する。 In S505, sets the Z (v) the Z k, also sets Z (v-1) to Z k-1. Next, in S506, four table data A (n, v-1) , A (n, v) , A (n + 1, v-1) , A (n + 1, v) are read, and in S507, the above-mentioned ( A x and b x are calculated from the equations 2) and (3).

一方、S503で境界フラグが1と判断された場合は、S504で、被写体距離nでのズームレンズ位置(ここではvとなる )に対する合焦位置A(n,v)および被写体距離n+1でのズームレンズ位置に対するA(n+1,v)を呼び出し、それぞれをa,b としてメモリする。 On the other hand, if the boundary flag is determined to be 1 in S503, in S504, the zoom is performed at the focusing position A (n, v) and the subject distance n + 1 with respect to the zoom lens position (here , v) at the subject distance n. Call A (n + 1, v) for the lens position and store them as a x and b x respectively.

S508では、現在のフォーカスレンズ位置pがa以上であるかを判別する。a 以上であるときは、S509で現在のフォーカスレンズ位置pがb以上か否かを判別する。b以上でないときは、フォーカスレンズ位置p は被写体距離nとn+1の間にあることになり、このときの軌跡パラメタをS513からS515でメモリに格納する。S513では、α=p−a とし、 S514でβ=b−a、S515でγ=nとする。 In S508, the current focus lens position p x is determined whether there are more than a x. When it is a x or more, the current focus lens position p x at S509 it is determined whether or b x. If not b x or more, the focus lens position p x will be located between the object distance n and n + 1, it stores the locus parameters at this time from the S513 to the memory in S515. In S513, α = p x −a x is set, β = b x −a x is set in S514, and γ = n is set in S515.

S508でNoとなるのは、フォーカスレンズ位置p が超無限遠位置である場合である。このとき、S512で、α=0としてS514からの処理へ進み、無限遠の軌跡パラメタを記憶する。 S508 of the No In a case where the focus lens position p x is ultra infinity position. At this time, in S512, α = 0 is set, and the process proceeds to S514 to store a trajectory parameter at infinity.

S509でYesとなる場合は、フォーカスレンズ位置p がより至近側である場合であり、この場合、S510で被写体距離nをインクリメントして、S511でnが最至近距離に対応した位置mより無限遠側であるかを判別する。最至近距離位置mより無限遠側であればS503へ戻る。S511でNoとなる場合は、フォーカスレンズ位置p が超至近位置である場合で、このときS512からの処理へ進むことにより、最至近距離に対する軌跡パラメタをメモリする。 If the Yes at S509, a case where the focus lens position p x is more close side, in this case, increments the object distance n in S510, infinite from position m to n is in correspondence to the closest distance S511 Determine whether it is the far side. If it is infinitely far from the closest distance position m, the process returns to S503. If the No in S511 is a case where the focus lens position p x is very short position, the processing proceeds to the S512 this time, the memory locus parameters for the closest distance.

図3に戻って説明を続ける。前述したようにS401では、現在のズームレンズ位置およびフォーカスレンズ位置が図8に示したどの軌跡上の位置なのかを知るための軌跡パラメタの記憶を行った。   Returning to FIG. 3, the description will be continued. As described above, in S401, a trajectory parameter for knowing which trajectory shown in FIG. 8 is the current zoom lens position and focus lens position is stored.

そして、S402では、1垂直同期時間(1V)後にズームレンズが到達しているズームレンズ位置(現在位置からの移動先の位置)Z’を算出する。 ここで、S400で決定されたズーム速度をZsp (pps) とすると、1垂直同期時間後のズームレンズ位置Z’は以下の(7)式で与えられる。ppsは、ステッピングモータの回転速度を表す単位で、1秒間当たりの回転するステップ量(1ステップ=1パルス)を示している。また、(7)式の符号は、ズームレンズの移動方向によってそれぞれ、テレ方向は+、ワイド方向は−としている。 In step S402, the zoom lens position (the position of the movement destination from the current position) Z x ′ reached by the zoom lens after one vertical synchronization time (1 V) is calculated. Here, assuming that the zoom speed determined in S400 is Z sp (pps), the zoom lens position Z x ′ after one vertical synchronization time is given by the following equation (7). pps is a unit representing the rotation speed of the stepping motor, and indicates a step amount (1 step = 1 pulse) to be rotated per second. Further, in the sign of the expression (7), the tele direction is + and the wide direction is −, depending on the moving direction of the zoom lens.

’=Z±Zsp/垂直同期周波数 …(7)
次に、Z’がどのズームエリアv’に存在するのかをS403で決定する。 S403では、図5の処理と同様の処理を行い、図5におけるZをZ’に、vをv’に置き換えたものである。
Z x '= Z x ± Z sp / vertical synchronization frequency (7)
Next, in which zoom area v ′ Z x ′ is present is determined in S403. In S403, performs processing similar to the processing of FIG. 5 is obtained by replacing the Z x in FIG. 5 ', v and v' Z x on.

次にS404で、1垂直同期時間後のズームレンズ位置Z’ がズームエリアの境界上に存在しているかどうかを判別し、境界フラグ=0ならば境界上ではないとして、S405からの処理に進む。 Next, in S404, it is determined whether or not the zoom lens position Z x ′ after one vertical synchronization time exists on the boundary of the zoom area. If the boundary flag = 0, it is determined that the zoom lens position is not on the boundary. move on.

S405では、Z←Z(v’),Zk−1←Z(v’−1)と設定する。次に、S406では、図4の処理により被写体距離γが特定された4つのテーブルデータA(γ,v’−1)、A(γ,v’)、A(γ+1,v’−1)、A(γ+1,v’)を読み出し、S407で上述した(2),(3)式からa’,b’を算出する。一方、S40でYesと判断された場合は、S408で、被写体距離γでのズームエリアv’に対する合焦位置A(γ,v’)、および被写体距離γ+1でのズームエリアv’に対する合焦位置A(γ+1,v’)を呼び出し、それぞれをa’,b’としてメモリする。
In S405, Z k ← Z (v ′) and Z k−1 ← Z (v′−1) are set. Next, in S406, four table data A (γ, v′−1) , A (γ, v ′) , A (γ + 1, v′−1) , in which the subject distance γ is specified by the processing of FIG. A (γ + 1, v ′) is read, and a x ′ and b x ′ are calculated from the expressions (2) and (3) described above in S407. Meanwhile, S40 if it is determined Yes at 4, at S408, the focus for the zoom area v of the object distance gamma 'focus with respect to the position A (γ, v'), and the zoom area v of the object distance gamma + 1 ' Call position A (γ + 1, v ′) and store each as a x ′, b x ′.

そして、S409では、ズームレンズ位置がZ’ に達したときのフォーカスレンズの合焦位置(目標位置)p’ を算出する。(1)式を用いて、1垂直同期時間後の追従目標位置は(8)式のように表せる。 Then, in S409, 'focus position of the focus lens when reaching the (target position) p x' zoom lens position Z x is calculated. Using the equation (1), the follow target position after one vertical synchronization time can be expressed as the following equation (8).

’=(b’−a’)×α/β+a’ …(8)
したがって、追従目標位置と現在のフォーカスレンズ位置との差ΔFは、
ΔF=(b’−a’)×α/β+a’−p
となる。
p x ′ = (b x ′ −a x ′) × α / β + a x ′ (8)
Therefore, the difference ΔF between the tracking target position and the current focus lens position is
ΔF = (b x ′ −a x ′) × α / β + a x ′ −p x
It becomes.

次に、S410では、フォーカス標準移動速度Vf0を算出する。Vf0はフォーカスレンズ位置差ΔFを、この距離を移動するのに要するズームレンズの移動時間で除算して得られる。 Next, in S410, a focus standard movement speed Vf0 is calculated. V f0 is obtained by dividing the focus lens position difference ΔF by the zoom lens moving time required to move this distance.

以下、図12(B)に示したフォーカスレンズの移動速度補正(ジグザグ動作)を行うための補正速度の算出方法を説明する。   Hereinafter, a correction speed calculation method for performing the movement speed correction (zigzag operation) of the focus lens shown in FIG.

S411では、各種パラメタの初期値化を行い、以後の処理で用いる「反転フラグ」のクリアを行う。S412では、S410で得たフォーカス標準移動速度Vf0から、「ジグザグ補正動作」用の補正速度Vf+,Vf−を算出する。 In S411, various parameters are initialized and “inversion flag” used in the subsequent processing is cleared. In S412, correction speeds V f + and V f− for “zigzag correction operation” are calculated from the focus standard movement speed V f0 obtained in S410.

ここで、補正量パラメタδおよび補正速度Vf+,Vf−は以下のように算出される。図13は、補正量パラメタδに応じた補正速度Vf+,Vf−の計算方法を説明するための図である。図13では、横軸にズームレンズ位置を、縦軸にフォーカスレンズ位置を示している。1304は追従すべき目標軌跡である。 Here, the correction amount parameter δ and the correction speeds V f + and V f− are calculated as follows. FIG. 13 is a diagram for explaining a method of calculating the correction speeds V f + and V f− according to the correction amount parameter δ. In FIG. 13, the horizontal axis indicates the zoom lens position, and the vertical axis indicates the focus lens position. Reference numeral 1304 denotes a target locus to be followed.

今、ズームレンズ位置がxだけ変化するとき、フォーカスレンズ位置がy変化する(すなわち、目標位置に到達する)フォーカス速度が1403で算出された標準速度Vf0であり、ズームレンズ位置がx変化するときフォーカスレンズ位置が、変位yを基準としてn又はmだけ変化するフォーカス速度がそれぞれ、求めたい補正速度Vf+,Vf−である。ここで、変位yよりさらに至近側に駆動する速度(標準速度Vf0に正方向の補正速度Vf+を加算した速度)の方向ベクトル1401と、変位yより無限遠側に駆動する速度(標準速度Vf0に負方向の補正速度Vf−を加算した速度)の方向ベクトル1402とが、標準速度Vf0の方向ベクトル1403に対して等しい角度δだけ離れた方向ベクトルを持つようにn,mを決定する。 Now, when the zoom lens position changes by x, the focus lens position changes by y (that is, reaches the target position), the focus speed is the standard speed V f0 calculated in 1403, and the zoom lens position changes by x. The focus speed at which the focus lens position changes by n or m with respect to the displacement y is the correction speeds V f + and V f− to be obtained , respectively. Here, a direction vector 1401 of a speed that drives further closer to the displacement y (a speed obtained by adding a correction speed V f + in the positive direction to the standard speed V f0 ), and a speed that drives to the infinity side from the displacement y (standard speed). the direction vector 1402 of the velocity) obtained by adding the negative direction compensation velocity V f- the V f0 is, n to have an equal angle δ away direction vector with respect to the direction vector 1403 standard speed V f0, the m decide.

まずm,nを求める。図13より図形的に、
tanθ=y/x , tan(θ-δ) = (y-m)/x ,tan(θ+δ) = (y+n)/x …(9)
また、
tan(θ±δ) = (tanθ±tanδ)/{1±(-1)×tanθ×tanδ) …(10)
が成り立つ。
First, m and n are obtained. From FIG.
tanθ = y / x, tan (θ-δ) = (ym) / x, tan (θ + δ) = (y + n) / x (9)
Also,
tan (θ ± δ) = (tanθ ± tanδ) / {1 ± (-1) × tanθ × tanδ) (10)
Holds.

そして、(9),(10)式より、
m= (x 2 +y 2 )/(x/k+y) …(11)
n= (x 2 +y 2 )/(x/k-y) …(12)
但し、tanδ=k
となり、n,mを算出できる。

From the equations (9) and (10),
m = (x 2 + y 2 ) / (x / k + y) ... (11)
n = ( x 2 + y 2 ) / (x / ky) (12)
However, tanδ = k
Thus, n and m can be calculated.

ここで補正角度δは、被写界深度の深さや、焦点距離等をパラメタとした変数としている。これにより、フォーカスレンズの駆動状態に応じて変化するAF評価信号レベルの増減周期を、所定のフォーカスレンズ位置変化量に対して一定に保つことができ、ズーミング中にフォーカスレンズが追従すべき合焦軌跡を見逃す可能性を低減することが可能となる。   Here, the correction angle δ is a variable having parameters such as the depth of field and the focal length. Thereby, the increase / decrease period of the AF evaluation signal level that changes according to the driving state of the focus lens can be kept constant with respect to a predetermined focus lens position change amount, and the focus that the focus lens should follow during zooming. It is possible to reduce the possibility of missing the locus.

δの値に応じてマイクロコンピュータのメモリ内に、データテーブルとしてkの値を記憶し、必要に応じて読み出すことにより、(11),(12)式の計算を行う。   According to the value of δ, the value of k is stored as a data table in the memory of the microcomputer and is read out as necessary, thereby calculating the equations (11) and (12).

ここで、ズームレンズ位置が単位時間当たりx変化する場合、
ズーム速度Zsp=x
フォーカス標準速度Vf0=y
補正速度Vf+=n,Vf−=m
となり、(11),(12)式により、補正速度Vf+,Vf−(負の速度)が得られる。
Here, when the zoom lens position changes by x per unit time,
Zoom speed Zsp = x
Focus standard speed V f0 = y
Correction speed V f + = n, V f− = m
Thus, the correction speeds V f + and V f− (negative speed) are obtained from the equations (11) and (12).

S413では、図6のS703で得られたズームスイッチユニットの操作状態を示す情報に応じて、ズーミング中かどうかを判断する。ズーミング中であれば、S416からの処理を行う。ズーミング中でなければ、S414でAF評価信号レベルの現在値から任意の定数μを減算した値をTH1とする。このTH1は、図12(A)で説明した、補正方向のベクトルの切換基準(ジグザグ補正動作の切換基準)となるAF評価信号レベルが決定される。このTH1はズーミング開始直前に決まることになり、この値が図12(A)の1302の最小レベルに対応する。   In S413, it is determined whether zooming is being performed according to the information indicating the operation state of the zoom switch unit obtained in S703 of FIG. If it is during zooming, the processing from S416 is performed. If not during zooming, a value obtained by subtracting an arbitrary constant μ from the current value of the AF evaluation signal level in S414 is set to TH1. This TH1 determines the AF evaluation signal level that serves as the reference for switching the vector in the correction direction (switching reference for the zigzag correction operation) described with reference to FIG. This TH1 is determined immediately before the start of zooming, and this value corresponds to the minimum level 1302 in FIG.

次に、S415では、補正フラグをクリアし、本処理を抜ける。ここで、補正フラグとは、軌跡追従状態が正方向の補正がかかった状態(補正フラグ=1)なのか、負方向の補正状態(補正フラグ=0)であるのかを示すフラグである。   Next, in S415, the correction flag is cleared and the present process is exited. Here, the correction flag is a flag indicating whether the trajectory tracking state is a state where correction in the positive direction is applied (correction flag = 1) or a correction state in the negative direction (correction flag = 0).

S413でズーミング中と判断されると、S414でズーミング方向がワイドからテレ方向であるか否か判別を行う。テレからワイド方向であればS419でVf+=0,Vf−=0とし、S420からの処理を行う。ワイドからテレ方向であれば、S417で現在のAF評価信号レベルが、TH1より小さいか否かを判別する。TH1以上であればS420へ進み、TH1より小さければ、現在のAF評価信号レベルが図12(A)のTH1(1302)のレベルを下回ったので、補正方向の切り換えを行うため、S418で反転フラグに1をセットする。 If it is determined in S413 that zooming is in progress, it is determined in S414 whether the zooming direction is from wide to tele. If the direction is tele to wide, V f + = 0 and V f− = 0 in S419, and the processing from S420 is performed. If the direction is wide to tele, it is determined in S417 whether or not the current AF evaluation signal level is lower than TH1. If it is equal to or higher than TH1, the process proceeds to S420. If it is smaller than TH1, the current AF evaluation signal level is lower than the level of TH1 (1302) in FIG. Set 1 to.

S420では、反転フラグが1かどうかを判別し、反転フラグ=1であればS421で補正フラグが1かどうかを判別する。S421で補正フラグ=1でなければ、S424で補正フラグ=1(正方向の補正状態)とし、さらに(4)式により、
フォーカスレンズの移動速度V=Vf0+Vf+(但し、Vf+≧0)
とする。
In S420, it is determined whether or not the reverse flag is 1. If the reverse flag = 1, it is determined whether or not the correction flag is 1 in S421. If the correction flag is not 1 in S421, the correction flag is set to 1 (correction state in the positive direction) in S424, and further according to the equation (4),
Focus lens moving speed V f = V f0 + V f + (where V f + ≧ 0)
And

一方、S421で補正フラグ=1であれば、S423で補正フラグ=0(負方向の補正状態)とし、(5)式により、
フォーカスレンズの移動速度V=Vf0+Vf−(但し、Vf−≦0)
とする。
On the other hand, if the correction flag = 1 in S421, the correction flag = 0 (negative correction state) in S423, and the equation (5):
Focus lens moving speed V f = V f0 + V f− (where V f− ≦ 0)
And

また、S420で反転フラグが1でなければ、S422で補正フラグ=1かどうかを判別する。補正フラグ=1であればS424へ、そうでなければS423へ進む。   If the reverse flag is not 1 in S420, it is determined in S422 whether the correction flag = 1. If the correction flag = 1, the process proceeds to S424, and if not, the process proceeds to S423.

本処理の終了後、図6に示すS706で、動作モードに応じて、フォーカスレンズおよびズームレンズの駆動方向と駆動速度が選択される。ズーミング動作の場合、ここではS423またはS424で求めたフォーカスレンズ移動速度Vf が正であるのか負であるのかにより、フォーカスレンズの駆動方向がそれぞれ、至近方向、無限遠方向に設定される。このようにフォーカスレンズのジグザグ駆動を行いながら、トレースすべき軌跡の再特定を行うよう動作する。   After the completion of this process, the driving direction and driving speed of the focus lens and zoom lens are selected according to the operation mode in S706 shown in FIG. In the zooming operation, the focus lens drive direction is set to the near direction and the infinity direction depending on whether the focus lens moving speed Vf obtained in S423 or S424 is positive or negative, respectively. In this way, the zigzag drive of the focus lens is performed, and the locus to be traced is re-specified.

以上が本発明の前提技術であり、以下、本発明の実施例について前提技術との差異を中心に説明する。   The above is the base technology of the present invention, and the embodiments of the present invention will be described below with a focus on differences from the base technology.

図1には、本発明の実施例であるレンズ制御装置を搭載した撮像装置(光学機器)としてのビデオカメラの構成を示す。なお、本実施例は、撮影レンズ一体型の撮像装置に本発明を適用した例を説明するが、本発明は、交換レンズとこれが装着されるカメラ本体とを有する撮像システムの交換レンズ(光学機器)にも適用できる。この場合、カメラ本体側から送信された信号に応答してレンズ内のマイクロコンピュータが以下に説明するズーミング動作を行う。また、本発明は、ビデオカメラに限らず、デジタルスチルカメラ等、各種の撮像装置に適用できる。   FIG. 1 shows a configuration of a video camera as an image pickup apparatus (optical apparatus) equipped with a lens control apparatus according to an embodiment of the present invention. In this embodiment, an example in which the present invention is applied to an imaging device integrated with a photographing lens will be described. ). In this case, the microcomputer in the lens performs a zooming operation described below in response to a signal transmitted from the camera body side. The present invention is not limited to a video camera and can be applied to various imaging devices such as a digital still camera.

図1において、物体側から順に、101は固定されている前玉レンズユニット101、102は光軸方向に移動して変倍を行うズームレンズユニット(第1レンズユニット)、103は絞り、104は固定されている固定レンズユニット、105は焦点調節機能と変倍による像面移動を補正するコンペセータ機能とを兼ね備え、光軸方向に移動するフォーカスレンズユニット(第2レンズユニット)である。これらレンズユニットにより構成される撮影光学系は、物体側(図の左側)から順に、正、負、正、正の光学パワーを有する4つのレンズユニットで構成されたリアフォーカス光学系である。なお、図中には、各レンズユニットが1枚のレンズにより構成されているように記載されているが、実際には、1枚のレンズにより構成されていてもよいし、複数枚のレンズにより構成されていてもよい。   In FIG. 1, in order from the object side, 101 is a front lens unit 101 and 102 that are fixed, a zoom lens unit (first lens unit) that moves in the direction of the optical axis and performs zooming, 103 is an aperture, and 104 is A fixed lens unit 105, which is fixed, is a focus lens unit (second lens unit) that moves in the optical axis direction and has a focus adjustment function and a compensator function that corrects image plane movement due to zooming. The photographing optical system constituted by these lens units is a rear focus optical system constituted by four lens units having positive, negative, positive and positive optical powers in order from the object side (left side in the figure). In the drawing, each lens unit is described as being configured by a single lens, but in actuality, it may be configured by a single lens or by a plurality of lenses. It may be configured.

106はCCDやCMOSセンサにより構成される撮像素子である。撮影光学系を通ってきた物体からの光束はこの撮像素子106上に結像する。撮像素子106は、結像した物体像を光電変換して撮像信号を出力する。撮像信号は、増幅器(AGC)107で最適なレベルに増幅されてカメラ信号処理回路108へと入力される。カメラ信号処理回路108は、入力された撮像信号を標準テレビ信号に変換した後、増幅器110に出力する。増幅器110で最適レベルに増幅されたテレビ信号は、磁気記録再生装置111に出力され、ここで磁気テープ等の磁気記録媒体に記録される。記録媒体としては、半導体メモリや光ディスク等、他のものを用いてもよい。   Reference numeral 106 denotes an image sensor constituted by a CCD or CMOS sensor. The light beam from the object that has passed through the photographing optical system forms an image on the image sensor 106. The imaging element 106 photoelectrically converts the formed object image and outputs an imaging signal. The imaging signal is amplified to an optimum level by an amplifier (AGC) 107 and input to the camera signal processing circuit 108. The camera signal processing circuit 108 converts the input imaging signal into a standard television signal, and then outputs it to the amplifier 110. The television signal amplified to the optimum level by the amplifier 110 is output to the magnetic recording / reproducing apparatus 111 where it is recorded on a magnetic recording medium such as a magnetic tape. Other recording media such as a semiconductor memory and an optical disk may be used as the recording medium.

また、増幅器110で増幅されたテレビ信号は、LCD表示回路114にも送られ、LCD115に撮影画像として表示される。なお、LCD115には、撮影モードや撮影状態、警告等を撮影者に知らせる画像も表示される。このような画像は、カメラマイクロコンピュータ116がキャラクタジェネレータ113を制御して、ここからの出力信号をLCD表示回路114でテレビ信号にミックスすることで、撮影画像に重畳して表示される。   The television signal amplified by the amplifier 110 is also sent to the LCD display circuit 114 and displayed on the LCD 115 as a photographed image. The LCD 115 also displays an image that informs the photographer of the shooting mode, shooting state, warning, and the like. Such an image is displayed by being superimposed on the photographed image by the camera microcomputer 116 controlling the character generator 113 and mixing the output signal therefrom with the television signal by the LCD display circuit 114.

一方、カメラ信号処理回路108に入力された撮像信号を、同時に内部メモリを使って圧縮処理した後、カードメディア等の静止画記録媒体112に記録することもできる。   On the other hand, the image pickup signal input to the camera signal processing circuit 108 can be simultaneously compressed using an internal memory and then recorded on a still image recording medium 112 such as a card medium.

また、カメラ信号処理回路108に入力された撮像信号は、焦点情報生成手段としてのAF信号処理回路109へも入力される。AF信号処理回路109で生成されたAF評価値信号(焦点信号)は、カメラマイクロコンピュータ116との通信によりデータとして読み出される。   The imaging signal input to the camera signal processing circuit 108 is also input to the AF signal processing circuit 109 serving as focus information generating means. The AF evaluation value signal (focus signal) generated by the AF signal processing circuit 109 is read as data by communication with the camera microcomputer 116.

また、カメラマイクロコンピュータ116は、ズームスイッチ130およびAFスイッチ131の状態を読み込み、さらにフォトスイッチ134の状態も検出する。   Further, the camera microcomputer 116 reads the states of the zoom switch 130 and the AF switch 131 and further detects the state of the photo switch 134.

フォトスイッチ134が半押しの状態では、AFによる合焦動作が開始され、合焦状態にてフォーカスロックされる。さらに、全押し(深押し)状態では、合焦非合焦に関わらずフォーカスロックして、カメラ信号処理回路108内のメモリ(不図示)に画像を取り込み、磁気テープや静止画記録媒体112に静止画記録を行う。   When the photo switch 134 is half-pressed, the focusing operation by AF is started and the focus is locked in the focused state. Further, in the fully-pressed (deep-pressed) state, the focus is locked regardless of the in-focus state, the image is taken into a memory (not shown) in the camera signal processing circuit 108, and is stored in the magnetic tape or the still image recording medium 112 Record still images.

なお、カメラマイクロコンピュータ116は、モードスイッチ133の状態に応じて動画撮影モードか静止画撮影モードかを判別し、カメラ信号処理回路108を介して磁気記録再生装置111や静止画記録媒体112を制御する。これにより記録媒体に適したテレビ信号をこれに供給したり、モードスイッチ133が再生モードにセットされている場合には磁気記録再生装置111や静止画記録媒体112からこれらに記録されたテレビ信号の再生制御を行う。   The camera microcomputer 116 determines whether the moving image shooting mode or the still image shooting mode is selected according to the state of the mode switch 133, and controls the magnetic recording / reproducing device 111 and the still image recording medium 112 via the camera signal processing circuit 108. To do. As a result, a television signal suitable for the recording medium is supplied thereto, or when the mode switch 133 is set to the reproduction mode, the television signal recorded on the magnetic recording / reproduction device 111 or the still image recording medium 112 is stored in the reproduction mode. Perform playback control.

カメラマイクロコンピュータ116内のコンピュータズームユニット(制御手段)119は、AFスイッチ131がオフで、ズームスイッチ130が操作されているときは、コンピュータズームユニット119内のプログラムによってズームモータドライバ122に対し、ズームレンズユニット102をズームスイッチ130の操作されている方向に対応したテレまたはワイド方向に駆動するための信号を出力する。ズームモータドライバ122はこの信号を受けて、ズームモータ121を介してズームレンズユニット102を該方向に駆動する。またこのとき、コンピュータズームユニット119は、カムデータメモリ120に予め記憶されたレンズカムデータ(図8に示したような複数の被写体距離に応じた代表軌跡のデータや軌跡パラメタのデータ)に基づいて、フォーカスモータドライバ126を介してフォーカスモータ125を駆動し、変倍に伴う像面移動を補正するようフォーカスレンズユニット106を駆動する。   The computer zoom unit (control means) 119 in the camera microcomputer 116 zooms with respect to the zoom motor driver 122 according to a program in the computer zoom unit 119 when the AF switch 131 is off and the zoom switch 130 is operated. A signal for driving the lens unit 102 in the tele or wide direction corresponding to the direction in which the zoom switch 130 is operated is output. The zoom motor driver 122 receives this signal and drives the zoom lens unit 102 in this direction via the zoom motor 121. At this time, the computer zoom unit 119 is also based on lens cam data (representative trajectory data and trajectory parameter data corresponding to a plurality of subject distances as shown in FIG. 8) stored in advance in the cam data memory 120. Then, the focus motor 125 is driven via the focus motor driver 126, and the focus lens unit 106 is driven so as to correct the image plane movement accompanying the zooming.

また、カメラマイクロコンピュータ116内のAF制御ユニット117は、AFスイッチ131がオンで、ズームスイッチ130が操作されているときは、合焦状態を保ち続けつつ変倍動作を行う必要があるので、コンピュータズームユニット119が、内部プログラムにより、カムデータユニット120に記憶されたレンズカムデータのみならず、AF信号処理回路109から送られてくるAF評価値信号や被写体距離検出回路127からの出力から得られた被写体(合焦対象物)までの距離情報とに基づいて、ズームレンズユニット102およびフォーカスレンズユニット105を駆動する。   Further, the AF control unit 117 in the camera microcomputer 116 needs to perform a zooming operation while keeping the focused state when the AF switch 131 is on and the zoom switch 130 is operated. The zoom unit 119 is obtained not only from the lens cam data stored in the cam data unit 120 but also from the AF evaluation value signal sent from the AF signal processing circuit 109 and the output from the subject distance detection circuit 127 by an internal program. The zoom lens unit 102 and the focus lens unit 105 are driven based on the distance information to the subject (focused object).

なお、被写体距離検出回路127からの出力信号は、カメラマイクロコンピュータ116内の距離情報処理部128で演算処理され、被写体距離情報としてコンピュータズームユニット119に出力される。   The output signal from the subject distance detection circuit 127 is processed by the distance information processing unit 128 in the camera microcomputer 116 and output to the computer zoom unit 119 as subject distance information.

また、AFスイッチ131がオンで、ズームスイッチ130が操作されていないときは、AF制御ユニット117は、AF信号処理回路109から送られてきたAF評価値信号が最大になるようにフォーカスレンズ105を駆動するようフォーカスモータドライバ126に信号を出力し、フォーカスモータ125を介してフォーカスレンズレンズユニット105を駆動する。これにより、自動焦点調節動作が行われる。   When the AF switch 131 is on and the zoom switch 130 is not operated, the AF control unit 117 moves the focus lens 105 so that the AF evaluation value signal sent from the AF signal processing circuit 109 is maximized. A signal is output to the focus motor driver 126 to drive, and the focus lens lens unit 105 is driven via the focus motor 125. Thereby, an automatic focus adjustment operation is performed.

ここで、被写体距離検出回路127は、アクティブセンサを用いた三角測距方式で被写体までの距離を測定し、その測定結果である距離情報を出力する。この場合のアクティブセンサとしては、コンパクトカメラによく使用される赤外線センサを用いることができる。   Here, the subject distance detection circuit 127 measures the distance to the subject by a triangulation method using an active sensor, and outputs distance information that is the measurement result. As an active sensor in this case, an infrared sensor often used for a compact camera can be used.

なお、本実施形態では三角測距方式で距離検出を行う場合を例として説明するが、本発明における距離検出手段としてはこれ以外のものを用いることができる。例えば、TTL位相差検出方式による距離検出を行ってもよい。この場合、撮影レンズの射出瞳を通ってきた光を分割する素子(ハーフプリズム又はハーフミラー)を設け、該素子から射出した光をサブミラーや結像レンズを介して少なくとも2つのラインセンサへと導き、これらラインセンサの出力の相関を取って、これら出力のずれ方向およびずれ量を検出し、これら検出結果から被写体までの距離を求める。   In this embodiment, a case where distance detection is performed by the triangulation method will be described as an example. However, other distance detection means in the present invention can be used. For example, distance detection by a TTL phase difference detection method may be performed. In this case, an element (half prism or half mirror) that divides the light that has passed through the exit pupil of the photographing lens is provided, and the light emitted from the element is guided to at least two line sensors via the sub mirror and the imaging lens. Then, the correlation between the outputs of these line sensors is taken to detect the deviation direction and deviation amount of these outputs, and the distance to the subject is obtained from these detection results.

三角測距および位相差検出方式による距離演算の原理図をそれぞれ図14および15に示す。図14において、201は被写体、202は第1の光路用の結像レンズ、203は第1の光路用のラインセンサ、204は第2の光路用の結像レンズ、205は第2の光路用のラインセンサである。両ラインセンサ203,204は基線長Bだけ離れて設置されている。被写体201からの光のうち、結像レンズ202によって第1の光路を通った光がラインセンサ203上に結像し、結像レンズ204によって第2の光路を通った光がラインセンサ205上に結像する。ここで、第1と第2の光路を通って結像した2つの被写体像を受けたラインセンサ203,205から読み出した信号の例を示したものが図15である。2つのラインセンサは基線長Bだけ離れているため、図15から分かるように、被写体像信号は画素数Xだけずれたものとなる。そこで2つの信号の相関を、画素をずらしながら演算し、相関が最大になる画素ずらし量を求めることでXが演算できる。このXと基線長B、および結像用レンズ202,204の焦点距離fより、三角測量の原理で被写体までの距離Lが、L=B×f/Xにより求められる。   FIGS. 14 and 15 show the principle of distance calculation by the triangulation and the phase difference detection method, respectively. In FIG. 14, 201 is a subject, 202 is an imaging lens for the first optical path, 203 is a line sensor for the first optical path, 204 is an imaging lens for the second optical path, and 205 is for the second optical path. This is a line sensor. Both line sensors 203, 204 are installed apart by a base line length B. Of the light from the subject 201, the light passing through the first optical path by the imaging lens 202 forms an image on the line sensor 203, and the light passing through the second optical path by the imaging lens 204 is applied to the line sensor 205. Form an image. Here, FIG. 15 shows an example of signals read from the line sensors 203 and 205 that have received two subject images formed through the first and second optical paths. Since the two line sensors are separated by the base line length B, the subject image signal is shifted by the number of pixels X as can be seen from FIG. Therefore, X can be calculated by calculating the correlation between the two signals while shifting the pixels and obtaining the pixel shift amount that maximizes the correlation. From this X, the base length B, and the focal length f of the imaging lenses 202 and 204, the distance L to the subject is determined by L = B × f / X based on the principle of triangulation.

さらに、距離検出手段として、超音波センサを用いてその伝搬速度を測定して被写体までの距離を検出する方法も採用することができる。   Furthermore, as a distance detection means, a method of detecting the distance to the subject by measuring the propagation speed using an ultrasonic sensor can be employed.

被写体距離検出回路127からの距離情報は、距離情報処理部128に送られる。距離情報処理部128では、以下の3種類の処理を行っている。   The distance information from the subject distance detection circuit 127 is sent to the distance information processing unit 128. The distance information processing unit 128 performs the following three types of processing.

1.現在のズームレンズユニット102およびフォーカスレンズユニット105の位置が、図8上のどの距離のカム軌跡上の対応するかを算出する。カム軌跡の算出は、例えば、図3の処理S401で説明したように、現在のレンズユニット位置を基に、軌跡パラメタα、β、γなりの、図11の列方向のγ列とγ+1列のカム軌跡をα/βの比率に内分する仮想的なカム軌跡が被写体距離として、何mに相当するのかを出力する。軌跡パラメタα、β、γと、被写体距離とは、所定の相関テーブルデータで変換され、主被写体の実距離が出力できるようになっている。   1. It is calculated which distance on the cam locus in FIG. 8 corresponds to the current positions of the zoom lens unit 102 and the focus lens unit 105. For example, as described in step S401 in FIG. 3, the cam locus is calculated based on the current lens unit position in the γ column and γ + 1 column in the column direction of FIG. 11 using the locus parameters α, β, and γ. It outputs how many meters the virtual cam trajectory that internally divides the cam trajectory into the ratio of α / β corresponds to the subject distance. The trajectory parameters α, β, γ and subject distance are converted by predetermined correlation table data so that the actual distance of the main subject can be output.

2.被写体距離検出回路127からの被写体の実距離を、上記1の相関テーブルの逆変換を行うことで、軌跡パラメタα、β、γで表現される図8上のカム軌跡を求める。このとき、相関テーブルの逆変換処理は、図8のカム軌跡が収束しているワイド側のデータは使用せず、軌跡が分散している、出来るだけテレ側のデータを用いて行われ、最も分解能の高い軌跡パラメタが得られるようにしている。   2. The actual trajectory of the subject from the subject distance detection circuit 127 is inversely transformed in the above correlation table 1 to obtain the cam trajectory in FIG. 8 represented by the trajectory parameters α, β, γ. At this time, the inverse conversion processing of the correlation table is performed using data on the tele side as much as possible, with the locus being dispersed, without using the data on the wide side where the cam locus in FIG. 8 is converged. A trajectory parameter with high resolution is obtained.

3.上記1.2の実距離差と差分方向を算出する。   3. The actual distance difference and the difference direction of 1.2 are calculated.

これら1,2,3の処理の内、上記2の処理により、被写体距離検出回路127で検出された検出距離に相当するカム軌跡データの特定が行える。   Of these 1, 2, and 3 processes, the above-described process 2 can identify cam trajectory data corresponding to the detected distance detected by the subject distance detection circuit 127.

一方、カメラマイコン116は、露出制御も行う。カメラマイコン116は、カメラ信号処理回路108で生成されたテレビ信号の輝度レベルを参照し、輝度レベルが露出に適正となるようアイリスドライバ124を制御してIGメータ123を駆動し、絞り103の開口を制御する。絞り103の開口量は、アイリスエンコーダ129により検出され、絞り103のフィードバック制御が行われる。また、絞り103のみでは適正な露出制御ができない場合には、撮像素子106の露光時間をタイミングジェネレータ(TG)132により制御し、高速シャッターから所謂スローシャッターと呼ばれる長時間露光まで対応する。さらに、低照度下での撮影など露出が不足する際には、増幅器107を通じてテレビ信号のゲインを制御する。   On the other hand, the camera microcomputer 116 also performs exposure control. The camera microcomputer 116 refers to the luminance level of the television signal generated by the camera signal processing circuit 108, controls the iris driver 124 so that the luminance level is appropriate for exposure, drives the IG meter 123, and opens the aperture 103. To control. The opening amount of the diaphragm 103 is detected by an iris encoder 129, and feedback control of the diaphragm 103 is performed. In addition, when appropriate exposure control cannot be performed only with the aperture 103, the exposure time of the image sensor 106 is controlled by a timing generator (TG) 132, and it corresponds to a high-speed shutter to a long-time exposure called a so-called slow shutter. Further, when the exposure is insufficient such as shooting under low illumination, the gain of the television signal is controlled through the amplifier 107.

撮影者は、メニュースイッチユニット135を操作することで、撮影条件に適した撮影モードやカメラの機能切換えをマニュアル操作できる。   The photographer can manually operate the shooting mode and camera function switching suitable for the shooting conditions by operating the menu switch unit 135.

次に、ズーミング動作時のアルゴリズムを図2Aおよび図2Bを用いて説明する。本実施例では、カメラマイクロコンピュータ116内のコンピュータズームユニット119が、前述した各動作フロー(プログラム)を含めて、以下に説明する動作フローの処理を実行する。なお、図2Aおよび2Bにおいて、同じ丸囲み数字が付された部分は互いにつながっている。   Next, an algorithm during the zooming operation will be described with reference to FIGS. 2A and 2B. In the present embodiment, the computer zoom unit 119 in the camera microcomputer 116 executes the processing of the operation flow described below including each operation flow (program) described above. In FIGS. 2A and 2B, portions with the same circled numbers are connected to each other.

また、本実施例では、被写体距離検出回路127より得られる距離情報(第2の情報)に応じて、追従すべきカム軌跡(第1の情報)を特定(生成)し、ズーミング動作を行う。図3の動作フローは、距離情報を用いて、追従すべきカム軌跡であるズームトラッキングカーブを精度良く特定(生成)しながらズーミング動作する方法の例である。特にこの方法は、ズーミング動作の開始時における像ぼけの低減や、ズーミング中にフォーカスレンズユニット105が合焦カム軌跡から外れた場合の像ぼけのリカバリングに有効である。 In this embodiment, the cam locus (first information) to be followed is specified (generated) according to the distance information (second information) obtained from the subject distance detection circuit 127, and the zooming operation is performed. The operation flow of FIG. 3 is an example of a method of performing a zooming operation while accurately identifying (generating) a zoom tracking curve that is a cam locus to be followed using distance information. In particular, this method is effective for reducing image blur at the start of the zooming operation and for recovering image blur when the focus lens unit 105 deviates from the focus cam locus during zooming.

図2Aおよび図2Bは、本実施例において、先に説明した図6のS705で行われる処理であり、図3と同様な処理(ステップ)については、同一符号を付して説明を省略する。   2A and 2B are the processes performed in S705 of FIG. 6 described above in the present embodiment, and the same processes (steps) as those in FIG.

S400では、ズーム動作時のズーム速度を決定する。S401では、現在のズームレンズ位置およびフォーカスレンズ位置から、撮影している主被写体が、図8のカム軌跡上でどの位置に相当するのかを決定する。ここでは、図8に示す代表軌跡を離散的データとして記憶しているカム軌跡データテーブル(図11)を基にした補間処理により、仮想的なカム軌跡も含め、現在のズームレンズ、フォーカスレンズ位置が存在しているカム軌跡、つまりは該カム軌跡に対応した被写体距離を3つの軌跡パラメタα、β、γとして算出し、RAMなどのメモリ領域に記憶する。この処理は、先に図4を用いて説明した処理と同じである。   In S400, the zoom speed during the zoom operation is determined. In S401, from the current zoom lens position and focus lens position, it is determined which position on the cam locus in FIG. 8 corresponds to the main subject being shot. Here, the current zoom lens and focus lens positions including the virtual cam trajectory are obtained by interpolation processing based on the cam trajectory data table (FIG. 11) storing the representative trajectory shown in FIG. 8 as discrete data. Is calculated as three trajectory parameters α, β, and γ, and stored in a memory area such as a RAM. This process is the same as the process described above with reference to FIG.

S300では、算出した軌跡パラメタα、β、γを、一旦αnow、βnow、γnowとして保存し、且つ軌跡パラメタα、β、γが、実際の被写体距離(推定距離)では何mになるのかを算出する。軌跡パラメタと推定距離の相関は、予め代表的な被写体距離のカムカーブ形状が均一な範囲で、推定距離と軌跡パラメタとの相関をテーブルデータ化しておき、軌跡パラメタを入力として算出することができる。カムカーブ形状が変化する被写体距離では、別の相関関係を表すルックアップテーブルとし、これらテーブルを複数持つことで、全てのズームレンズ位置およびフォーカスレンズ位置毎に推定距離Bが得られる。 In S300, the calculated trajectory parameters α, β, and γ are temporarily stored as α now , β now , and γ now , and the trajectory parameters α, β, and γ are how many m in actual subject distance (estimated distance). Is calculated. The correlation between the trajectory parameter and the estimated distance can be calculated in advance by making the correlation between the estimated distance and the trajectory parameter into table data in a range where the cam curve shape of a typical subject distance is uniform, and inputting the trajectory parameter. At the subject distance where the cam curve shape changes, a lookup table representing another correlation is used, and by having a plurality of these tables, the estimated distance B can be obtained for every zoom lens position and focus lens position.

次に、S301では、被写体距離検出回路127からの出力を得る。そして、被写体距離検出回路127の出力が示す撮影被写体までの距離(実距離)Aと、S300で現在のレンズ位置より求めた推定距離Bとを比較し、実距離Aが推定距離Bに比べて近距離側(至近方向)なのか、遠距離側(無限遠方向)なのかを確認する。   Next, in S301, an output from the subject distance detection circuit 127 is obtained. Then, the distance (actual distance) A to the photographing subject indicated by the output of the subject distance detection circuit 127 is compared with the estimated distance B obtained from the current lens position in S300, and the actual distance A is compared with the estimated distance B. Check whether it is near side (closest direction) or far side (infinity direction).

次に、S302では、「AF補正フラグ」がセット状態か否かを判別する。セット状態であれば、S303に進み、後述するS311において決定される軌跡パラメタαAF、βAF、γAF をそれぞれ、α、β、γに設定(メモリに格納)する。ここで、軌跡パラメタαAF、βAF、γAF は、フォーカスレンズユニット105のジグザグ動作を行いながらAF評価信号の変化を検出して、図12(A)のピークレベル1301となったときのカム軌跡パラメタである。つまり、ジグザグ動作を行いつつ、AF評価信号のピークレベルが検出されたカム軌跡情報そのものであり、真の合焦カム軌跡とマイコン116が認識したカム軌跡とを表現している。 Next, in S302, it is determined whether or not the “AF correction flag” is set. If it is in the set state, the process proceeds to S303, and trajectory parameters α AF , β AF , and γ AF determined in S311 described later are set (stored in the memory) to α, β, and γ, respectively. Here, the trajectory parameters α AF , β AF , and γ AF are cams when the change of the AF evaluation signal is detected while the focus lens unit 105 performs the zigzag operation and the peak level 1301 in FIG. It is a trajectory parameter. That is, the cam locus information itself in which the peak level of the AF evaluation signal is detected while performing the zigzag operation, and represents the true in-focus cam locus and the cam locus recognized by the microcomputer 116.

こうしてS303で更新された軌跡パラメタα、β、γは、AF評価信号に基づいて再特定されたカム軌跡を表し、以下連続するズーミング動作で、繰り返しカム軌跡の再特定を行い続けることで、結果的にフォーカスレンズユニット105に真の合焦カム軌跡をトレース(追従)させることができる。
The trajectory parameters α, β, and γ updated in S303 in this way represent cam trajectories re-specified based on the AF evaluation signal, and the result of continuing to re-specify cam trajectories repeatedly in a continuous zooming operation is obtained as a result. Thus, the focus lens unit 105 can be traced (followed) with the true focus cam locus.

一方、S302で、「補正フラグ」がクリアであった場合は、S300で既に決定している、被写体距離検出回路127による距離情報を基に特定された軌跡パラメタα、β、γを保持し、該軌跡パラメタα、β、γにより特定されるカム軌跡をトレースするようにフォーカスレンズ105を制御する。   On the other hand, if the “correction flag” is clear in S302, the trajectory parameters α, β, γ specified based on the distance information by the subject distance detection circuit 127 already determined in S300 are held, The focus lens 105 is controlled to trace the cam trajectory specified by the trajectory parameters α, β, γ.

ここで、「補正フラグ」は、後述するAF評価信号によって追従すべきカム軌跡が再特定されたか否かを表すフラグであり、一旦セットされると(追従カム軌跡が再特定されると)、ズーミング方向の切り換えやズーミング動作が停止されない限りクリアされることはない。再特定されたカム軌跡の情報(α、β、γ)は、AF評価信号の検出結果に基づいて連続的に再特定(更新)され、カム軌跡が分散する焦点距離となると、合焦軌跡に特定されることになる。   Here, the “correction flag” is a flag indicating whether or not a cam locus to be followed is re-specified by an AF evaluation signal described later, and once set (when the following cam locus is re-specified), It is not cleared unless the switching of the zooming direction or the zooming operation is stopped. The information (α, β, γ) of the re-specified cam track is continuously re-specified (updated) based on the detection result of the AF evaluation signal. Will be identified.

以下、図3と同様な処理を行う。S402では、1垂直同期時間後にズームレンズ102が到達している位置(現在位置からの移動先の位置)Z’を算出する。S400で決定されたズーム速度をZsp (pps) とすると、1垂直同期時間後のズームレンズ位置Z’は前述の(7)式で与えられる。ここで、ppsはズームモータ121であるステッピングモータの回転速度を表す単位で、1秒間当たりの回転ステップ量(1ステップ=1パルス)を示している。(7)式の符号は、ズームレンズ102の移動方向によってそれぞれ、テレ方向なら+、ワイド方向なら−としている。 Thereafter, the same processing as in FIG. 3 is performed. In step S402, a position (position of movement destination from the current position) Z x ′ reached by the zoom lens 102 after one vertical synchronization time is calculated. If the zoom speed determined in S400 is Z sp (pps), the zoom lens position Z x ′ after one vertical synchronization time is given by the above-described equation (7). Here, pps is a unit representing the rotation speed of the stepping motor, which is the zoom motor 121, and indicates a rotation step amount per second (1 step = 1 pulse). The sign of equation (7) is + for the tele direction and-for the wide direction, depending on the moving direction of the zoom lens 102, respectively.

’=Z±Zsp/垂直同期周波数 …(7)
次に、S403で、Z’がどのズームエリアv’に存在するのかを判別する。S403は、図5に示した処理と同様な処理であり、図5におけるZ をZ’にvをv’に置き換えたものである。
Z x '= Z x ± Z sp / vertical synchronization frequency (7)
Next, in S403, it is determined in which zoom area v ′ Z x ′ is present. S403 is the same process as the process shown in FIG. 5, in which Z x in FIG. 5 is replaced with Z x ′ and v is replaced with v ′.

次に、S404で、1垂直同期時間(1V)後のズームレンズ位置Z’がズームエリアの境界上に存在しているかどうかを判別し、境界フラグ=0ならば境界上にいないとして、S405からの処理に進む。S405では、Z にZ(v')をセットし、Zk−1 にZ(v'−1) をセットする。 Next, in S404, it is determined whether or not the zoom lens position Z x ′ after one vertical synchronization time (1V) exists on the boundary of the zoom area. If the boundary flag = 0, it is determined that the zoom lens position Z x ′ is not on the boundary. Proceed to processing from. In S405, it sets Z (v ') to Z k, sets the Z (v'-1) to Z k-1.

次に、S406では、図4に示す処理により、被写体距離γが特定された4つのテーブルデータA(γ,v’−1)、A(γ,v’)、A(γ+1,v’−1)、A(γ+1,v’)を読み出し、S407では、上述した(2),(3)式からa’,b’を算出する。 Next, in S406, four table data A (γ, v′−1) , A (γ, v ′) , A (γ + 1, v′−1 ) in which the subject distance γ is specified by the processing shown in FIG. ) , A (γ + 1, v ′) are read out, and in step S407, a x ′ and b x ′ are calculated from the above-described equations (2) and (3).

一方、S403でYesと判断された場合には、S408で被写体距離γでのズームエリアv’に対するフォーカスレンズ位置A(γ,v')およびA(γ+1,v')を呼び出し、それぞれa’,b’としてメモリする。そして、S409では、ズームレンズ位置がZ’に達したときのフォーカスレンズ105の合焦位置(目標位置)p’を算出する。(1)式を用いて1垂直同期時間後のフォーカスレンズ105の目標位置は(8)式の様に表せる。 On the other hand, if YES is determined in S403, the focus lens positions A (γ, v ′) and A (γ + 1, v ′) with respect to the zoom area v ′ at the subject distance γ are called in S408, and a x ', b x' memory as. Then, in S409, 'in-focus position of the focus lens 105 when reaching the (target position) p x' zoom lens position Z x is calculated. Using the equation (1), the target position of the focus lens 105 after one vertical synchronization time can be expressed as the following equation (8).

’=(b’−a’)×α/β+a’ …(8)
したがって、目標位置と現在のフォーカスレンズ位置との差は、
ΔF=(b’−a’)×α/β+a’−p
となる。
p x ′ = (b x ′ −a x ′) × α / β + a x ′ (8)
Therefore, the difference between the target position and the current focus lens position is
ΔF = (b x ′ −a x ′) × α / β + a x ′ −p x
It becomes.

次に、S410では、フォーカス標準移動速度Vf0を算出する。Vf0はフォーカスレンズ位置差ΔFを、この距離を移動するのに要するズームレンズユニット102の移動時間で除算して得られる。 Next, in S410, a focus standard movement speed Vf0 is calculated. V f0 is obtained by dividing the focus lens position difference ΔF by the moving time of the zoom lens unit 102 required to move this distance.

そして本処理を終了して、図6のS706に進み、ズーミング動作中であれば、S410で決定したフォーカス速度で、該フォーカス速度の符号方向(至近方向を正、無限遠方向を負とする)に移動し、コンペンセータ動作が行われる。   Then, the process is terminated, and the process proceeds to S706 in FIG. 6. If the zooming operation is being performed, the sign direction of the focus speed at the focus speed determined in S410 (the close direction is positive and the infinity direction is negative). And the compensator operation is performed.

S411では、各種パラメタの初期値化を行う。ここでは、以後の処理で用いる「反転フラグ」のクリアを行う。S412では、S410で得たフォーカス標準移動速度Vf0 から、ジグザグ動作用の補正速度Vf+,Vf− を算出する。ここで、補正量パラメタδおよび補正速度Vf+,Vf−は、図13を用いて前述したように、(9)〜(12)式を用いて算出される。 In S411, various parameters are initialized. Here, the “inversion flag” used in the subsequent processing is cleared. In S412, correction speeds V f + and V f− for zigzag operation are calculated from the focus standard movement speed Vf0 obtained in S410. Here, the correction amount parameter δ and the correction speeds V f + and V f− are calculated using the equations (9) to (12) as described above with reference to FIG.

S413では、図6に示したS703で得られたズームスイッチ130の操作状態を示す情報に応じて、ズーミング中かどうかを判断する。YesならばS416からの処理を行う。Noと判断したときは、S313で「ズームフラグ」および「AF補正フラグ」をクリアして、次回のワイドからテレ方向のズーミング動作の準備をする。そしてS414では、AF評価信号レベルの現在値から任意の定数μを減算した値をTH1(図12(A)に1302で示したレベル)とし、前述した補正方向のベクトルの切換基準(ジグザグ動作の切換基準)となるAF評価信号レベルを決定する。このTH1は、ズーミングの開始直前に決まることになり、この値が図12(a)の1302のレベルである。
In S413, it is determined whether zooming is being performed according to the information indicating the operation state of the zoom switch 130 obtained in S703 shown in FIG. If Yes, the processing from S416 is performed. If it is determined No, the “zoom flag” and “ AF correction flag” are cleared in S313, and the zooming operation in the tele direction from the next wide is prepared. In S414, the value obtained by subtracting an arbitrary constant μ from the current value of the AF evaluation signal level is set to TH1 (the level indicated by 1302 in FIG. 12A), and the above-described correction direction vector switching reference (zigzag operation is performed). The AF evaluation signal level that is the switching reference) is determined. This TH1 is determined immediately before the start of zooming, and this value is the level 1302 in FIG.

次に、S415では、「補正フラグ」をクリアし、本処理を抜ける。ここで「補正フラグ」とは、前述したように、カム軌跡の追従状態が正方向の補正がかかった状態(補正フラグ=1)なのか、負方向の補正がかかった状態(補正フラグ=0)であるのかを示すフラグである。   Next, in S415, the “correction flag” is cleared and the process is exited. Here, as described above, the “correction flag” is a state in which the follow-up state of the cam trajectory is a state where correction in the positive direction is applied (correction flag = 1) or a state where correction in the negative direction is applied (correction flag = 0). ) Is a flag indicating whether or not.

S413でズームミング中と判断すると、S414で、ズーミング方向がワイドからテレ方向であるか否かを判別する。NoならばS313と同様に、「ズームフラグ」および「補正フラグ」をクリアして、次回のワイドからテレ方向のズーミング動作の準備を行う(S312)。そして、S419で、Vf+=0,Vf−=0とし、S420からの処理を行ってジグザグ駆動を実質行わない。 If it is determined in S413 that zooming is in progress, it is determined in S414 whether the zooming direction is from wide to tele. If No, as in S313, the “zoom flag” and “correction flag” are cleared, and the zooming operation in the tele direction from the next wide is prepared (S312). In step S419, V f + = 0 and V f− = 0 are set, and the processing from step S420 is performed to substantially not perform the zigzag driving.

S413でYesならば、S304で、「ズームフラグ」がクリア状態かどうかを判別する。クリアの場合、今回初めてワイドからテレ方向にズームされた場合であるので、S305へ進み、「ズームフラグ」をセットし、さらにS306で、ズームスタート時のAF評価信号の検出結果に基づくジグザグ動作の補正方向(フォーカスレンズユニット105の駆動開始方向)を、主被写体の物体距離方向に正しく合わせるべく、被写体距離検出回路127の出力から得た距離情報が、現在のフォーカスレンズ位置に対応する距離に比べて、至近方向なのか無限遠方向なのかを判別する。   If Yes in S413, it is determined in S304 whether the “zoom flag” is in a clear state. In the case of clear, since this is the first time that the zoom has been zoomed from the wide to the tele direction for the first time, the process proceeds to S305 to set the “zoom flag”. The distance information obtained from the output of the subject distance detection circuit 127 is compared with the distance corresponding to the current focus lens position in order to correctly match the correction direction (drive start direction of the focus lens unit 105) with the object distance direction of the main subject. Then, it is determined whether the direction is close or infinity.

ここで、S306の処理は、S300で決定したレンズ位置に基づく推定距離Bと、S301で決定した被写体距離検出回路127の出力に基づく実距離Aとの関係を判定するものである。実距離Aのほうが推定距離Bよりも近距離側、つまりは至近方向であった場合にはS424に進み、ジグザグ動作正の補正方向を至近方向から開始する。S306でNo、つまりは実距離Aが推定距離Bよりも遠距離側にある場合には、無限遠方向から補正動作を開始するためにS423に進む。   Here, the process of S306 is to determine the relationship between the estimated distance B based on the lens position determined in S300 and the actual distance A based on the output of the subject distance detection circuit 127 determined in S301. If the actual distance A is closer to the estimated distance B than the estimated distance B, that is, the closest direction, the process proceeds to S424, and the correction direction in which the zigzag operation is positive is started from the close direction. If No in S306, that is, if the actual distance A is farther than the estimated distance B, the process proceeds to S423 to start the correction operation from the infinity direction.

このように、本実施例では、ズーミングの開始時に、AF評価信号を用いたカム軌跡の特定動作のための補正方向を、フォーカスレンズユニット105の位置に対応する距離(推定距離B)が、被写体距離検出回路127の出力に基づく距離(実距離A)に近づくように設定する、すなわちフォーカスレンズユニット105の駆動方向に関して重み付け設定を行うことを第1の特徴とする。   As described above, in this embodiment, when zooming is started, the distance (estimated distance B) corresponding to the position of the focus lens unit 105 is set as the correction direction for the cam locus specifying operation using the AF evaluation signal. The first feature is that the distance is set so as to approach the distance (actual distance A) based on the output of the distance detection circuit 127, that is, the weighting is set for the drive direction of the focus lens unit 105.

このような動作を行わせることで、特にカム軌跡の間隔が詰まっているワイド側からズーミングを開始する際に、ジグザグ動作におけるフォーカスレンズユニット105の駆動開始方向が合焦カム軌跡のある方向とは逆方向となってしまうために生ずる、合焦軌跡からの位置ずれが小さくても焦点深度が浅いために像ぼけが目立つという現象を回避するすることが可能となる。したがって、ワイド側で合焦カム軌跡の方向とフォーカスレンズユニット105の駆動方向(補正方向)とが逆方向となった場合に、様々な被写体距離の物体の像が同時にぼけてしまい撮影画像の品位が悪くなるという問題の発生を未然に防ぐことができる。   By performing such an operation, especially when starting zooming from the wide side where the interval of the cam trajectory is narrow, the driving start direction of the focus lens unit 105 in the zigzag operation is the direction in which the focus cam trajectory is present. Even if the positional deviation from the in-focus locus is small due to the reverse direction, it is possible to avoid the phenomenon that the image blur is conspicuous because the depth of focus is shallow. Accordingly, when the direction of the focusing cam locus on the wide side and the driving direction (correction direction) of the focus lens unit 105 are reversed, the images of objects at various subject distances are blurred simultaneously, and the quality of the captured image is reduced. It is possible to prevent the occurrence of the problem of worsening.

S304に戻って説明を続ける。S306で一旦「ズームフラグ」がセットされると、次回からのS304での判別結果(ズームフラグ=1)によってS307に進む。S307では、S306と同様に、被写体距離検出回路127の出力に基づく距離情報(実距離A)が、推定距離Bより至近方向かどうかを判別する。Yesならばジグザグ動作を至近方向優先に重み付けすべく、S309でVf+を2倍の値に設定する。一方、S307でNoである場合には、S308に進み、Vf-を2倍して重み付けをする。これは、検出した実距離Aに基づいて(実距離Aと推定距離Bとの関係に応じて)、AF評価信号を用いたカム軌跡の再特定のための補正動作に重み付けをするという本実施例の第2の特徴である。 Returning to S304, the description will be continued. Once the “zoom flag” is set in S306, the process proceeds to S307 according to the determination result (zoom flag = 1) in S304 from the next time. In S307, as in S306, it is determined whether the distance information (actual distance A) based on the output of the subject distance detection circuit 127 is closer to the estimated distance B. If Yes, Vf + is set to a double value in S309 in order to weight the zigzag operation with priority in the near direction. On the other hand, if No in S307, the process proceeds to S308, in which V f− is doubled and weighted. This is based on the detected actual distance A (according to the relationship between the actual distance A and the estimated distance B), and the correction operation for respecifying the cam trajectory using the AF evaluation signal is weighted. It is the 2nd characteristic of an example.

この重み付け補正処理により、例えば、AF評価信号の変化に基づいてカム軌跡を特定する際に、AF評価信号が像ぼけ状態によって変化するだけでなく、被写体の絵柄の変化によっても変化することから、補正方向の切り換えを間違えてしまうという問題(再び正しい軌跡に戻るまでに長時間像ぼけが続いたり、像ぼけを引きずったままテレ端まで行き着いたりする問題)を回避できる。   With this weighting correction process, for example, when specifying a cam trajectory based on a change in the AF evaluation signal, the AF evaluation signal not only changes depending on the image blurring state, but also changes due to a change in the pattern of the subject. It is possible to avoid the problem that the correction direction is switched incorrectly (the problem that the image blurs for a long time before returning to the correct trajectory again, or the camera reaches the telephoto end while dragging the image blur).

本実施例では、重み付け処理の一例として、検出した実距離Aに基づいて、補正処理におけるフォーカスレンズユニット105の駆動速度(補正速度)を2倍にする場合について説明したが、本発明ではこれに限らない。   In this embodiment, as an example of the weighting process, the case where the driving speed (correction speed) of the focus lens unit 105 in the correction process is doubled based on the detected actual distance A has been described. Not exclusively.

例えば、検出した実距離Aとレンズ位置に基づく推定距離Bとの差分とその方向に応じて、補正速度の重み付け比率を変化させてもよい。   For example, the weighting ratio of the correction speed may be changed according to the difference between the detected actual distance A and the estimated distance B based on the lens position and the direction thereof.

また、実距離Aに近づく方向への補正速度を増加させるのではなく、逆方向への補正速度を減らすようにしてもよい。   Further, instead of increasing the correction speed in the direction approaching the actual distance A, the correction speed in the reverse direction may be decreased.

また、図12(A)に示した、補正方向を切り換える条件としてのAF評価値の切り換えレベル(TH1)1302を、実距離Aに対応するフォーカスレンズ位置に近づく方向には該レベル1302を低く設定し、実距離Aに対応するフォーカスレンズ位置から離れる補正方向には該レベル1302を高く設定して、実距離Aに対応するフォーカスレンズ位置に近づく方向への補正動作の頻度が増加するようにしてもよい。   Also, the AF evaluation value switching level (TH1) 1302 as a condition for switching the correction direction shown in FIG. 12A is set low in the direction approaching the focus lens position corresponding to the actual distance A. The level 1302 is set high in the correction direction away from the focus lens position corresponding to the actual distance A so that the frequency of the correction operation in the direction approaching the focus lens position corresponding to the actual distance A is increased. Also good.

こうして、検出した距離情報に基づいてジグザグ動作の重み付け処理をズーム動作中に行いながら、S417以降の処理を行うことでジグザグ動作を実行する。まずS417で現在のAF評価信号レベルがTH1より小さいか否かを判別する。Yesならば、現在のAF評価信号レベルが図12(A)のTH1(1302)のレベルを下回ったので、補正方向の切り換えを行うためにS418で反転フラグをセットする。   In this way, the zigzag operation is executed by performing the processing after S417 while performing the weighting process of the zigzag operation during the zoom operation based on the detected distance information. First, in S417, it is determined whether or not the current AF evaluation signal level is lower than TH1. If Yes, the current AF evaluation signal level is lower than the level of TH1 (1302) in FIG. 12A. Therefore, in order to switch the correction direction, an inversion flag is set in S418.

S420では、反転フラグ=1かどうかを判別し、YesならばS421に進み、補正フラグが1か否かを判別する。S421でNoならば、S424に進み、補正フラグに1(正方向の補正状態)をセットし、(4)式により、
フォーカス速度V=Vf0+Vf+(但し、Vf+≧0)
とする。
In S420, it is determined whether or not the inversion flag = 1. If Yes, the process proceeds to S421, and it is determined whether or not the correction flag is 1. If No in S421, the process proceeds to S424, and 1 (correction state in the positive direction) is set in the correction flag,
Focus speed V f = V f0 + V f + (however, V f + ≧ 0)
And

一方、S421でYesならば、S42に進み、補正フラグに0(負方向の補正状態)をセットし、(5)式により、
フォーカス速度V=Vf0+Vf−(但し、Vf−≦0)
とする。
On the other hand, if Yes at S421, the process proceeds to S42 3, sets 0 (negative correction state) to the correction flag, the (5),
Focus speed V f = V f0 + V f− (where V f− ≦ 0)
And

S420でNoと判断された場合は、S422で補正フラグが1であるか否かを判別し、YesならS424へ、NoならS423へ進む。   If it is determined No in S420, it is determined in S422 whether the correction flag is 1. If Yes, the process proceeds to S424, and if No, the process proceeds to S423.

本処理の終了後、図6に示したS706で、動作モードに応じて、フォーカスレンズ105およびズームレンズ102の駆動方向と駆動速度が選択される。   After the completion of this process, the driving direction and the driving speed of the focus lens 105 and the zoom lens 102 are selected according to the operation mode in S706 shown in FIG.

ズーミング動作の場合、ここでは、S423又はS424で求めたフォーカス速度Vf が正であるのか負であるのかによって、フォーカスレンズ105の駆動方向をそれぞれ、至近方向又は無限方向に設定する。このようにしてフォーカスレンズ105のジグザグ駆動を行いながらトレースすべきカム軌跡の再特定を行う。   In the zoom operation, here, the driving direction of the focus lens 105 is set to the closest direction or the infinite direction depending on whether the focus speed Vf obtained in S423 or S424 is positive or negative. In this way, the cam locus to be traced is re-specified while performing the zigzag drive of the focus lens 105.

ジグザグ駆動を行いながらS417からS424の処理で、TV−AFにおけるAF評価信号が、図12(A)に示したピークレベル1301になったことが検出される。S417でNoのときは、S310でピークレベル1301が検出されたか否かを判別する。ピークレベルが検出された場合には、S311で、「補正フラグ=1」および軌跡パラメタの現在値をTV−AFによる再特定軌跡パラメタとして、
αAF←αnow、βAF←βnow、γAF←γnow
とセットする。そして、次回のS302では「AF補正フラグ=1」と判別されるので、S303で、特定カム軌跡が更新される。
While performing zigzag driving, it is detected that the AF evaluation signal in the TV-AF has reached the peak level 1301 shown in FIG. 12A by the processing from S417 to S424. If No in S417, it is determined whether or not a peak level 1301 is detected in S310. When the peak level is detected, in S311, "correction flag = 1" and the current value of the trajectory parameter are used as the re-specific trajectory parameter by TV-AF.
α AF ← α now , β AF ← β now , γ AF ← γ now
And set. Then, in the next S302, it is determined that “ AF correction flag = 1”, so that the specific cam locus is updated in S303.

今回、S303で更新され再特定された軌跡パラメタは、ズーミング動作が停止したり、ズーミング方向が逆転したりしない限り、新たにピークレベルが検出されるごとに(S310)、S311でαAF、βAF、γAFの更新を繰り返しつつ、ズーミング動作中に最適なカム軌跡が随時更新される。 This time, the re-specified locus parameters updated in S303, or stopped zooming operation, unless the zooming direction is not or reverse, each time a new peak level is detected (S310), alpha AF in S311, beta While repeatedly updating AF and γ AF , the optimal cam locus is updated at any time during the zooming operation.

なお、S310でAF評価値レベルがピークレベルになったことが検出されない場合には、そのままS420に進み、ジグザグ動作による補正方向の切り換えを行わずに、前回決定済の補正方向に補正しながらフォーカスレンズ105を駆動する。   If it is not detected in S310 that the AF evaluation value level has reached the peak level, the process directly proceeds to S420, and the focus is corrected while correcting to the previously determined correction direction without switching the correction direction by the zigzag operation. The lens 105 is driven.

以上のように本実施例によれば、ジグザグ動作におけるフォーカスレンズユニット105の駆動開始方向に関して、検出した距離情報に基づく重み付け設定がなされるのでジグザグ動作時における像ぼけの発生を抑制することができる。   As described above, according to the present embodiment, since the weighting setting is made based on the detected distance information with respect to the driving start direction of the focus lens unit 105 in the zigzag operation, the occurrence of image blur during the zigzag operation can be suppressed. .

しかも、ズーミング動作中に、主被写体は距離が変動する可能性もあるが、本実施例では、検出距離に対応するフォーカスレンズ位置に近づく方向への駆動や駆動速度に対して重み付けがなされるので、カム軌跡の乗り写りを迅速かつ円滑に行える。さらに、AF評価信号による補正動作で仮に追従すべき正しいカム軌跡から離れる方向に誤ってフォーカスレンズユニット105が駆動されている際にも、像ぼけの発生を低減しつつ、正しいカム軌跡にスムーズに戻ることが可能となる。   In addition, during the zooming operation, there is a possibility that the distance of the main subject may fluctuate, but in this embodiment, weighting is performed for driving in the direction approaching the focus lens position corresponding to the detection distance and the driving speed. , Cam trajectory can be captured quickly and smoothly. Furthermore, even when the focus lens unit 105 is erroneously driven in a direction away from the correct cam locus that should be followed by the correction operation by the AF evaluation signal, the occurrence of image blur is reduced and the correct cam locus is smoothly achieved. It is possible to return.

また、本実施例の手法を用いることで、TV−AF信号(AF評価信号)に基づく追従カム軌跡の特定精度を向上させることができる。このため、被写体距離検出回路127の検出精度をある程度粗くすることが可能となり、被写体距離検出回路127を小型で安価なタイプを選定することが可能となる。   Further, by using the method of the present embodiment, it is possible to improve the accuracy of specifying the tracking cam locus based on the TV-AF signal (AF evaluation signal). For this reason, the detection accuracy of the subject distance detection circuit 127 can be roughened to some extent, and a small and inexpensive type of the subject distance detection circuit 127 can be selected.

本発明の実施例であるビデオカメラの構成を示すブロック図。1 is a block diagram illustrating a configuration of a video camera that is an embodiment of the present invention. 実施例のビデオカメラにおける動作を示すフローチャート。The flowchart which shows the operation | movement in the video camera of an Example. 実施例のビデオカメラにおける動作を示すフローチャート。The flowchart which shows the operation | movement in the video camera of an Example. 本発明の前提技術を示すフローチャート。The flowchart which shows the premise technique of this invention. 本発明の前提技術を示すフローチャート。The flowchart which shows the premise technique of this invention. 本発明の前提技術を示すフローチャート。The flowchart which shows the premise technique of this invention. 本発明の前提技術を示すフローチャート。The flowchart which shows the premise technique of this invention. 従来の撮影光学系の構成を示す概略図。Schematic which shows the structure of the conventional imaging | photography optical system. 被写体距離に応じた合焦軌跡を示す概念図。The conceptual diagram which shows the focusing locus | trajectory according to to-be-photographed object distance. 合焦軌跡を説明する図。The figure explaining a focus locus. ズームレンズの移動方向の内挿方法を説明するための図。The figure for demonstrating the interpolation method of the moving direction of a zoom lens. 合焦軌跡のデータテーブルの例を示す図。The figure which shows the example of the data table of a focus locus | trajectory. (A),(B)とも本発明の前提技術を示す概念図。(A), (B) is a conceptual diagram which shows the premise technique of this invention. 本発明の前提技術を示す概念図。The conceptual diagram which shows the premise technique of this invention. 三角測距法を説明するための図。The figure for demonstrating the triangulation method. 位相差検出による距離測定方法を説明するための図。The figure for demonstrating the distance measurement method by phase difference detection.

符号の説明Explanation of symbols

102 ズームレンズユニット
105 フォーカスレンズユニット
106 撮像素子
116 カメラマイクロコンピュータ
117 AF制御ユニット
120 カムデータメモリ
127 被写体距離検出回路

DESCRIPTION OF SYMBOLS 102 Zoom lens unit 105 Focus lens unit 106 Image pick-up element 116 Camera microcomputer 117 AF control unit 120 Cam data memory 127 Subject distance detection circuit

Claims (14)

変倍用の第1レンズユニットの移動に際して、像面移動を補正するために第2レンズユニットの移動を制御するレンズ制御装置であって、
所定の合焦距離に対して作成された前記第1レンズユニットの位置に応じた前記第2レンズユニットの位置を示すデータを記憶した記憶手段と、
前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得手段と、
前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御手段と、
合焦対象物までの距離に対応する第2の情報を検出する距離検出手段とを有し、
前記制御手段は、変倍動作中に、前記データと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動動作に重み付けを行うことを特徴とするレンズ制御装置。
A lens control device that controls movement of the second lens unit to correct image plane movement when the first lens unit for zooming is moved,
Storage means for storing data indicating the position of the second lens unit in accordance with the position before Symbol first lenses units created for a given focus distance,
An acquisition means for acquiring a focus signal representing a focused state of the optical system based on a photoelectric conversion signal of an optical image formed by an optical system including the first lens unit and the second lens unit;
Control means for controlling movement of the second lens unit based on first information indicating a movement target position of the second lens unit;
Distance detecting means for detecting second information corresponding to the distance to the in-focus object;
The control unit weights the moving operation of the second lens unit based on the second information when generating the first information according to the data and the focus signal during the zooming operation. A lens control device.
前記第1の情報は、前記第1レンズユニットに対する前記第2レンズユニットの位置を表す軌跡情報であることを特徴とする請求項1に記載のレンズ制御装置。   The lens control device according to claim 1, wherein the first information is locus information representing a position of the second lens unit with respect to the first lens unit. 前記制御手段は、前記第2の情報に基づいて前記第2レンズユニットを移動させる際の移動方向に重み付けを行うことを特徴とする請求項1又は2に記載のレンズ制御装置。 The lens control device according to claim 1, wherein the control unit weights a moving direction when moving the second lens unit based on the second information . 前記制御手段は、前記第2レンズユニットの移動を開始する際の移動方向を、前記第2の情報に応じた方向に設定することを特徴とする請求項3に記載のレンズ制御装置。 The lens control device according to claim 3, wherein the control unit sets a moving direction when starting the movement of the second lens unit to a direction corresponding to the second information. 前記制御手段は、前記第2の情報に基づいて前記第2レンズユニットを移動させる移動速度に重み付けを行うことを特徴とする請求項1又は2に記載のレンズ制御装置。 The lens control device according to claim 1, wherein the control unit weights a moving speed for moving the second lens unit based on the second information . 前記制御手段は、前記第2の情報に応じた方向への前記第2レンズユニットの移動速度を、その反対方向への移動速度よりも速い速度に設定することを特徴とする請求項5に記載のレンズ制御装置。 The said control means sets the moving speed of the said 2nd lens unit to the direction according to the said 2nd information to a speed faster than the moving speed to the opposite direction. Lens control device. 前記制御手段は、前記第2の情報に基づいて前記第2レンズユニットを移動させる際の移動方向を反転させる条件に重み付けを行うことを特徴とする請求項1又は2に記載のレンズ制御装置。 3. The lens control device according to claim 1, wherein the control unit weights a condition for reversing a moving direction when moving the second lens unit based on the second information . 前記制御手段は、前記生成された第1の情報を基準として前記第2レンズユニットを移動させることにより、新たな前記第1の情報を生成する再生成処理を行い、前記再生成処理における前記第2レンズユニットの移動制御に関して前記第2の情報に基づく重み付けを行うことを特徴とする請求項1からのいずれか1つに記載のレンズ制御装置。 The control means performs regeneration processing for generating new first information by moving the second lens unit with reference to the generated first information, and performs the regeneration processing in the regeneration processing. lens control apparatus according to any one of claims 1 to 7, characterized in that performs weighting based on the second information on the movement control of the second lens unit. 前記制御手段は、前記データと前記第2の情報に基づいて前記第1の情報を生成し、前記第1および第2レンズユニットを含む光学系により形成された光学像の光電変換信号から得られる前記光学系の焦点状態を表す焦点信号を用いて前記再生成処理を行うことを特徴とする請求項に記載のレンズ制御装置。 The control means generates the first information based on the data and the second information, and is obtained from a photoelectric conversion signal of an optical image formed by an optical system including the first and second lens units. The lens control device according to claim 8 , wherein the regeneration process is performed using a focus signal representing a focus state of the optical system. 前記制御手段は、前記再生成処理において、前記焦点信号が最も合焦した状態を示す位置に向かって前記第2レンズユニットが移動させるように、前記第2レンズユニットをその移動条件を切り換えながら移動させ、該移動条件を切り換えるための前記焦点信号の条件に関して、前記第2の情報に基づく重み付けを行うことを特徴とする請求項に記載のレンズ制御装置。 Moving the control means, wherein the regeneration process, the focus signal so that the most-focus toward state the position shown the second lens unit causes movement, while switching the movement condition of the second lens unit is allowed, the lens control apparatus according to claim 9 with respect to the conditions of the focus signal for switching the moving condition, and performing the weighting based on the second information. 前記制御手段は、前記第2の情報に基づいて、前記第1の情報を生成するために前記第2レンズユニットの移動を制御する際、前記第2レンズユニットの現在位置において合焦する対象物の距離と前記距離検出手段により検出された合焦対象物までの距離とが近づく方向への前記第2レンズユニットの移動動作に重み付けを行うことを特徴とする請求項1又は2に記載のレンズ制御装置。The control means is configured to focus on the current position of the second lens unit when controlling the movement of the second lens unit to generate the first information based on the second information. 3. The lens according to claim 1, wherein weighting is performed on the movement operation of the second lens unit in a direction in which the distance of the second lens unit approaches the distance to the in-focus object detected by the distance detection unit. Control device. 前記第1および第2レンズユニットを含む光学系と、請求項1から11のいずれか1つに記載のレンズ制御装置とを備えたことを特徴とする光学機器。   An optical apparatus comprising: an optical system including the first and second lens units; and the lens control device according to any one of claims 1 to 11. 前記光学系により形成された光学像を光電変換する撮像手段を有することを特徴とする請求項12に記載の光学機器。   The optical apparatus according to claim 12, further comprising an imaging unit that photoelectrically converts an optical image formed by the optical system. 変倍用の第1レンズユニットの移動に際して、像面移動を補正するために第2レンズユニットの移動を制御するレンズ制御方法であって、
前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得ステップと、
前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御ステップと、
合焦対象物までの距離に対応する第2の情報を検出するステップとを有し、
前記制御ステップにおいて、変倍動作中に、記憶手段に記憶された所定の合焦距離に対して作成された前記第1レンズユニットの位置と前記第2レンズユニットの位置とを示すデータと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動動作に重み付けを行うことを特徴とするレンズ制御方法。
A lens control method for controlling movement of the second lens unit in order to correct image plane movement when moving the first lens unit for zooming,
An acquisition step of acquiring a focus signal representing an in-focus state of the optical system based on a photoelectric conversion signal of an optical image formed by an optical system including the first lens unit and the second lens unit;
A control step for controlling movement of the second lens unit based on first information indicating a movement target position of the second lens unit;
Detecting second information corresponding to the distance to the in-focus object,
In the control step, during the zooming operation, the data indicating the position of the first lens unit and the position of the second lens unit created with respect to the predetermined focusing distance stored in the storage means and the focus A lens control method , wherein when generating the first information in response to a signal, weighting is performed on the movement operation of the second lens unit based on the second information .
JP2003361291A 2003-10-14 2003-10-21 LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD Expired - Lifetime JP4721395B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003361291A JP4721395B2 (en) 2003-10-21 2003-10-21 LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
US10/965,472 US7415200B2 (en) 2003-10-14 2004-10-13 Imaging device
US12/060,033 US7616876B2 (en) 2003-10-14 2008-03-31 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003361291A JP4721395B2 (en) 2003-10-21 2003-10-21 LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD

Publications (3)

Publication Number Publication Date
JP2005128107A JP2005128107A (en) 2005-05-19
JP2005128107A5 JP2005128107A5 (en) 2006-12-07
JP4721395B2 true JP4721395B2 (en) 2011-07-13

Family

ID=34641278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003361291A Expired - Lifetime JP4721395B2 (en) 2003-10-14 2003-10-21 LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4721395B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5335445B2 (en) 2009-01-06 2013-11-06 キヤノン株式会社 LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP5328384B2 (en) * 2009-01-14 2013-10-30 キヤノン株式会社 LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP7527792B2 (en) * 2019-02-27 2024-08-05 キヤノン株式会社 Image capture device and method for controlling image capture device
EP3703357A3 (en) * 2019-02-27 2020-10-21 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3038595B2 (en) * 1990-10-05 2000-05-08 株式会社リコー Focus lens control device
JPH0560962A (en) * 1991-08-30 1993-03-12 Mitsubishi Electric Corp Focusing device
JP3208492B2 (en) * 1991-09-26 2001-09-10 株式会社リコー Varifocal lens controller
KR0147572B1 (en) * 1992-10-09 1998-09-15 김광호 Subject tracking method and device therefor for auto zooming
JP3576784B2 (en) * 1996-12-27 2004-10-13 キヤノン株式会社 Imaging device, imaging method, and lens control device

Also Published As

Publication number Publication date
JP2005128107A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
JP4478419B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP5328384B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
US7616876B2 (en) Imaging device
JP5335445B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP4669170B2 (en) Zoom lens control device, zoom lens control method, and program
JP5247044B2 (en) Imaging device
JP2013130827A (en) Lens control device
JPH0341878A (en) Camera
JP2011257699A (en) Imaging device
JP3610167B2 (en) Lens control method and apparatus
JP6639117B2 (en) Optical equipment and focus control program
JP4721394B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP4721395B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP2017181979A (en) Lens controller and control method
JP4868434B2 (en) LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD
JP5698499B2 (en) Focus adjustment device and imaging device
JP5930979B2 (en) Imaging device
JP3270493B2 (en) Lens control device
JP3253983B2 (en) Lens control device
JPH075356A (en) Lens position controller

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061020

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081010

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4721395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150