[go: up one dir, main page]

JPH10153409A - Range finding device - Google Patents

Range finding device

Info

Publication number
JPH10153409A
JPH10153409A JP8313412A JP31341296A JPH10153409A JP H10153409 A JPH10153409 A JP H10153409A JP 8313412 A JP8313412 A JP 8313412A JP 31341296 A JP31341296 A JP 31341296A JP H10153409 A JPH10153409 A JP H10153409A
Authority
JP
Japan
Prior art keywords
sensor
subject image
correlation
output
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8313412A
Other languages
Japanese (ja)
Other versions
JP3847390B2 (en
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP31341296A priority Critical patent/JP3847390B2/en
Publication of JPH10153409A publication Critical patent/JPH10153409A/en
Application granted granted Critical
Publication of JP3847390B2 publication Critical patent/JP3847390B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to precisely focus a camera or video by switching the range finding range by arithmetic processing using the correlation value of a prescribed part of a subject signal sequence obtained by a pair of light receiving element trains having a parallax. SOLUTION: In the passive type range finding device used for camera, first, a correlation area such as sensor array is designated (S1), and a correlation operation for examining slippage by sensor pitch unit is performed (S2) to provide a correlation result S. When S is larger than a prescribed value S1 , it is judged that a subject is near (S3), and an interpolation operation for calculating the slippage by finer resolution is performed in a wide area (S16) to calculate the distance (S11). When S is smaller than a prescribed value 31, the interpolation operation is performed in a prescribed method with respect to a narrow correlation area (S4-8). When the operation result does not satisfy a prescribed condition, S is corrected (S13-15), and the procedure is returned to S3. When the prescribed condition is satisfied, the distance is calculated according to the operation result (S10-11), and focusing is performed (S12).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はカメラやビデオ等に
使われる測距装置に係わり、より正確な距離測定とピン
ト合せが可能な装置を提供するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device used for a camera, a video, and the like, and more particularly to a technique for providing a device capable of more accurate distance measurement and focusing.

【0002】[0002]

【従来の技術】一般にカメラ等に使われる測距装置では
光を利用する方式が多く、例えば測距装置側から信号光
を投射する方式の「アクティブタイプ」と、対象物の輝
度分布像を利用する方式の「パッシブタイプ」に大別さ
れる。これらの方式は共に三角測距を基本原理としてお
り、アクティブタイプでは投光と受光の位置間隔を基本
の長さ(即ち基線長)とし、パッシブタイプでは二つの
受光位置を基準としその視差による対象物の像の相対位
置差にしたがって対象物までの距離を求めている。この
対象物の像を観察するためには受光位置ごとの光量を測
定する必要があることから、複数の光センサを並べて成
るラインセンサを利用している。
2. Description of the Related Art In general, a distance measuring device used for a camera or the like often uses light. For example, an "active type" in which a signal light is projected from the distance measuring device side and a luminance distribution image of an object are used. The method is roughly divided into "passive type". Both of these methods use triangulation as the basic principle. In the active type, the distance between the light emission and the light reception is set to the basic length (that is, the base line length). The distance to the object is determined according to the relative position difference between the images of the object. Since it is necessary to measure the amount of light at each light receiving position in order to observe the image of the object, a line sensor formed by arranging a plurality of optical sensors is used.

【0003】まず、このパッシブタイプの測距装置の測
距方法について図1を用い説明する。1a,1bは二つ
の受光レンズであり、基線長Bだけ離して配置してあ
る。被写体6からこれらのレンズを介して入射した光
は、それぞれラインセンサ2a,2b上に曲線パターン
3a,3bに示したような光パターンを形成するが、こ
のパターンは被写体6上の輝度分布と両方の受光レンズ
の相対位置関係に依存し、得られる両パターン3a,3
bの相対位置差xは、上記Bとレンズ、センサ間距離f
および被写体距離Lに依存する。つまり次の関係が成立
する。 x = B×f/L …(式a) このようなラインセンサの出力から演算によって相対位
置差を算出する方法(以下、相関演算と称す)について
は、特公平7−54371号公報などが知られている。
First, a distance measuring method of the passive type distance measuring device will be described with reference to FIG. Reference numerals 1a and 1b denote two light receiving lenses which are arranged apart from each other by a base line length B. Light incident from the subject 6 through these lenses forms light patterns as shown by curved patterns 3a and 3b on the line sensors 2a and 2b, respectively. Patterns 3a and 3 obtained depending on the relative positional relationship between the light receiving lenses of
The relative position difference x of b is the distance f between B and the lens and sensor.
And the subject distance L. That is, the following relationship is established. x = B × f / L (Equation a) A method of calculating the relative position difference from the output of the line sensor by calculation (hereinafter, referred to as correlation calculation) is disclosed in Japanese Patent Publication No. 7-54371. Have been.

【0004】また、この光パターンのどの部分を利用し
て測距するのかも重要な技術であり、例えば図5に示す
ように6aの人物を測距しようとしても、もし、センサ
アレイ2aのRn2の部分に入射した光を加味してしまう
と、遠方に在る背景の山6bの輝度が混入し(これを遠
近混在と称す)、正しい測距ができなくなる。つまり、
図中R1 〜Rn1までのセンサに入射する光だけは利用し
ても、Rn2のセンサ信号は利用しないようにする技術
が、正しく測距するには必要となる。このような技術の
提案としては特公平5−88445号公報などが知られ
ている。
It is also an important technique to determine which part of the light pattern is used to measure the distance. For example, as shown in FIG. 5, even if an attempt is made to measure a person 6a as shown in FIG. When the light incident on the portion is taken into account, the luminance of the background mountain 6b in the distance is mixed (this is referred to as mixed distance), and correct distance measurement cannot be performed. That is,
In the figure, a technique for using only the light incident on the sensors R1 to Rn1 but not using the sensor signal of Rn2 is necessary for correct distance measurement. As a proposal of such a technique, Japanese Patent Publication No. 5-88445 is known.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、特公平
7−54371号公報に開示の技術は上記「遠近混在」
の問題には触れておらず、他方、特公平5−88445
号公報に開示の技術では、相関演算後はこの結果が不適
当の場合にセンサのエリアを切り替えるというものであ
り、その分余計な時間を要しかつデータを何度も加工し
直す関係上、マイクロコンピュータ(以下、マイコンと
略称す)等を利用して判定や演算をするのにもメモリ容
量やプログラムの容量が増加する等の不具合があった。
つまり、これらの従来技術を単に組み合わせたとして
も、高速かつ高精度の測距装置は提供することは困難で
ある。
However, the technique disclosed in Japanese Patent Publication No. 7-54371 discloses the above-mentioned "mixed distance".
Does not mention the issue of
In the technology disclosed in Japanese Patent Laid-Open Publication No. H11-264, after the correlation operation, the area of the sensor is switched when the result is inappropriate, and because of the extra time required and the need to reprocess the data many times, The determination and calculation using a microcomputer (hereinafter abbreviated as a microcomputer) also have problems such as an increase in memory capacity and program capacity.
That is, even if these conventional techniques are simply combined, it is difficult to provide a high-speed and high-accuracy distance measuring device.

【0006】本発明は以上の点に鑑みてなされたもので
あり、パッシブタイプの測距装置の測距範囲を適切に切
り替え、不必要な測定領域は測距することなく、なおか
つ高速演算を可能とする測距装置を提供することを目的
とするものであり、例えばカメラやビデオのピント合せ
用に応用する際には、正確に対象物のピント合せができ
るようにするための発明である。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and appropriately switches the range of a passive-type distance measuring apparatus, thereby enabling high-speed calculation without measuring unnecessary areas. It is an object of the present invention to provide an accurate distance measuring apparatus when it is applied to, for example, focusing of a camera or a video.

【0007】[0007]

【課題を解決するための手段】そこで本発明は、上述し
た課題を解決し目的を達成するために次のような手段を
講じている。すなわち、 [1] 視差を有する一対の受光素子列によりそれぞれ
被写体像を受光して、一対の被写体像信号列を出力する
受光手段と、この受光手段の出力を受け、上記一対の被
写体像信号列の第1の部分の相関値を出力する相関手段
と、この一対の受光素子列のいずれか一方の受光素子列
の全部の被写体像信号列および、他方の受光素子列の被
写体像信号列のうち、第1の部分より狭い第2の部分の
部分的データのみを選択的に入力するデータ入力手段
と、当該入力されたデータに基づいて所定の補間演算を
行う補間手段とを備える測距装置を提供する。 [2] 視差を有する一対の受光素子列によりそれぞれ
被写体像を受光して、一対の被写体像信号列を出力する
受光手段と、この一対の被写体像信号列を第1の画素数
を有する複数のブロックに分割する手段と、上記受光手
段の出力を受け、上記一対の被写体像信号列の相関値を
出力する相関手段と、当該相関値が所定の条件を満たす
場合、上記ブロックを第1の画素数よりも小さい第2の
画素数に再設定する手段と、上記一対の受光素子列のい
ずれか一方の受光素子列の全部の被写体像信号列およ
び、他方の受光素子列の被写体像信号列のうち、上記第
2の画素数のデータのみを選択的に入力するデータ入力
手段と、当該入力されたデータに基づいて所定の補間演
算を行う補間手段とを備える測距装置を提供する。 [3] 視差を有する異なる視野から観測した被写体像
の輝度分布に従った二つの光パターン信号を出力する二
つのラインセンサと、上記二つの光パターン信号を比較
して上記被写体像の視差に基づく相対位置差を上記ライ
ンセンサの配列ピッチの単位で算出するピッチ差算出手
段と、上記ピッチ差算出手段の出力結果に基づいて、上
記ラインセンサの出力信号を選択し、この結果に基づき
上記二つの光パターンの相対位置差を上記センサピッチ
よりも細かい精度にて算出する演算制御手段とを備え、
上記ピッチ差算出手段はハードロジック回路で構成さ
れ、上記演算制御手段はマイクロコンピュータ及びソフ
トウェアで構成されていることを特徴とする測距装置を
提供する。
Accordingly, the present invention employs the following means in order to solve the above-mentioned problems and achieve the object. That is, [1] light receiving means for receiving a subject image by a pair of light receiving element rows having parallax and outputting a pair of subject image signal rows; A correlation means for outputting a correlation value of the first portion of the above, a subject image signal sequence of all the light receiving element rows of one of the pair of light receiving element rows, and a subject image signal sequence of the other light receiving element row. A distance measuring apparatus including data input means for selectively inputting only partial data of a second portion narrower than the first portion, and interpolation means for performing a predetermined interpolation operation based on the input data. provide. [2] Light receiving means for receiving a subject image by a pair of light receiving element rows having parallax and outputting a pair of subject image signal rows, and converting the pair of subject image signal rows into a plurality of pixels having a first number of pixels Means for dividing into blocks, correlating means for receiving the output of the light receiving means and outputting a correlation value of the pair of subject image signal strings, and, when the correlation value satisfies a predetermined condition, dividing the block into a first pixel Means for resetting the number of pixels to a second number of pixels smaller than the number of the pixels, and all the subject image signal rows of one of the pair of light receiving element rows and the subject image signal rows of the other light receiving element row. The present invention provides a distance measuring apparatus including a data input unit for selectively inputting only the data of the second pixel number and an interpolation unit for performing a predetermined interpolation operation based on the input data. [3] Two line sensors that output two light pattern signals in accordance with the luminance distribution of the subject image observed from different visual fields having parallax, and compare the two light pattern signals based on the parallax of the subject image. A pitch difference calculating means for calculating a relative position difference in units of an array pitch of the line sensor; and an output signal of the line sensor based on an output result of the pitch difference calculating means. Calculation control means for calculating the relative position difference of the light pattern with an accuracy finer than the sensor pitch,
The pitch difference calculating means is constituted by a hard logic circuit, and the arithmetic control means is constituted by a microcomputer and software.

【0008】[0008]

【発明の実施の形態】以下に関連する図面を参照しなが
ら本発明に係わる複数の実施形態について説明する。 (第1実施形態)本発明に係わるパッシブタイプの測距
装置における光パターンの相対位置差算出の方法につい
て、まず図1(a)〜(b)に基づき説明する。図1
(a)において、受光レンズ1a,1bの位置の差B
(基線長)により、センサアレイ2a,2b上に入射す
る光分布の相対位置差xは、被写体距離Lに依存して変
化する。各受光レンズの焦点距離をfとすると、被写体
距離Lは次式で求められる。 L = B×f/x …(式b) センサアレイの各センサは光の入射量にしたがった電流
信号を出力するので、これらをA/D変換器4によりデ
ィジタル信号に変換すれば、像ずれ量を算出する演算部
5による相関演算によって上記相対位置差xが検出でき
る。この結果をワンチップマイコン等からなる演算制御
手段( CPU) 10に入力して上記式bに基づき演算す
ることで被写体距離Lが求められる。以上がパッシブタ
イプの三角測距方式の基本原理と一般的な装置構成であ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A plurality of embodiments according to the present invention will be described below with reference to the accompanying drawings. (First Embodiment) A method of calculating a relative position difference between light patterns in a passive type distance measuring apparatus according to the present invention will be described first with reference to FIGS. 1 (a) and 1 (b). FIG.
In (a), the difference B between the positions of the light receiving lenses 1a and 1b
Due to the (base line length), the relative position difference x of the light distribution incident on the sensor arrays 2a and 2b changes depending on the subject distance L. Assuming that the focal length of each light receiving lens is f, the subject distance L is obtained by the following equation. L = B × f / x (Equation b) Since each sensor of the sensor array outputs a current signal according to the amount of incident light, if these are converted into a digital signal by the A / D converter 4, image shift occurs. The relative position difference x can be detected by the correlation calculation by the calculation unit 5 that calculates the amount. The object distance L is obtained by inputting the result to an arithmetic control means (CPU) 10 comprising a one-chip microcomputer or the like and calculating based on the above equation b. The above is the basic principle of the passive type triangulation and the general device configuration.

【0009】上記のずれ量演算機能は、一般的に後述の
ように二つのプロセスから成るが、これらはCUP10
内に制御プログラムとして内蔵していてもよい。このよ
うな技術を用いてカメラのピント合わせを行う場合、こ
のCPU10がカメラの動作を制御し、撮影用ピント合
わせ用レンズ等をモータなどのアクチュエータを介して
適宜制御すれば自動焦点( AF) 機能付きカメラが提供
できる。
The above-described shift amount calculation function generally includes two processes as described later.
May be built in as a control program. When the camera is focused using such a technique, the CPU 10 controls the operation of the camera, and if the lens for photographing is appropriately controlled through an actuator such as a motor, an automatic focus (AF) function is provided. With camera can be provided.

【0010】像のずれ量の演算のためには、両方のライ
ンセンサにおけるセンサピッチの単位でどれだけ像がず
れているかを調べる演算ステップ(即ち相関演算)を必
要とする。そして、これより細かい分解能でさらに正確
にずれ量を算出する演算ステップ(以下、補間演算と称
す)を必要とする。センサアレイ2a上に図1(a)が
示す波形3aのようなパターンで光が入射した場合は、
各センサR1 〜R6 の出力の大きさは、図2(b)に棒
グラフで示したような分布3aとなる。なおここで"
R" は右側センサを示し," L" は左側センサを示し、
これらに付された添え字の1〜6が例えば受光レンズ光
軸基準でのセンサの位置の絶対位置を示しているとする
と、左側センサの出力L1 〜L6 から出力R1 〜R6 と
同じ信号が出る場合には、上記相対位置差xは0となる
ので、求める被写体距離Lは「無限遠」になる。また、
被写体が「有限距離」に存在すると、上記xとセンサピ
ッチSPから決るセンサの数Sだけシフトしたところの
左側センサLには、図2(c)に示すような上記出力R
1 〜R6 に類似する値の出力信号が得られる。
In order to calculate the amount of image shift, an operation step (that is, a correlation operation) for checking how much the image shifts in units of sensor pitch in both line sensors is required. Then, an operation step (hereinafter, referred to as an interpolation operation) for calculating the shift amount more precisely with a finer resolution is required. When light is incident on the sensor array 2a in a pattern like a waveform 3a shown in FIG.
The magnitude of the output of each of the sensors R1 to R6 has a distribution 3a as shown by a bar graph in FIG. Where "
"R" indicates the right sensor, "L" indicates the left sensor,
Assuming that the suffixes 1 to 6 appended thereto indicate, for example, the absolute position of the sensor with respect to the optical axis of the light receiving lens, the same signals as the outputs R1 to R6 are output from the outputs L1 to L6 of the left sensor. In this case, since the relative position difference x is 0, the subject distance L to be obtained is “infinity”. Also,
When the subject exists at the “finite distance”, the output R as shown in FIG. 2C is applied to the left sensor L shifted by the number S of sensors determined from the x and the sensor pitch SP.
Output signals having values similar to 1 to R6 are obtained.

【0011】図2(a)のグラフにおける縦軸の値FF
(i) は次式に従って求められる。 FF(i) = Σ|R(i) −L(i) | …(式c) すなわち、あるRのセンサの出力から対応するLのセン
サの出力を引き算し、その絶対値を各センサごとに加算
した結果FFを用いればよい。すなわち、まずRi から
Li を引き算してその絶対値をとり、ある幅でiを変化
させこれらを加算する。
The value FF on the vertical axis in the graph of FIG.
(i) is obtained according to the following equation. FF (i) = Σ | R (i) −L (i) | (Expression c) That is, the output of the corresponding L sensor is subtracted from the output of a certain R sensor, and the absolute value is calculated for each sensor. The result of the addition may be FF. That is, first, Li is subtracted from Ri to obtain the absolute value, i is changed in a certain width, and these are added.

【0012】次に、Ri またはLi の一方のセンサを1
単位だけずらして先に差をとった隣接するセンサと同様
に差をとると、次のような式でFF(i+1) は表現でき
る。 FF(i+1) = Σ|R(i+1) −L(i) | …(式d) このように順次、ずらし量(以下、SIFT量と称す)
を変更しながらFFを得られるが、RとLとの差の和で
あるFFが最小値(Fmin )となるSIFT量の所が最
もよく対応がとれている位置と考えられるため、この場
合のSIFT量が上記Sとして求められる。以上が相関
演算に関するプロセスの概略手順である。
Next, one of the sensors Ri and Li is set to 1
If the difference is taken in the same way as the adjacent sensor which takes the difference first by shifting the unit, FF (i + 1) can be expressed by the following equation. FF (i + 1) = Σ | R (i + 1) −L (i) | (Equation d) As described above, the shift amount (hereinafter, referred to as SIFT amount)
Can be obtained while changing the amount of SIFT, where the SIFT amount at which the FF, which is the sum of the difference between R and L, has the minimum value (Fmin) is considered to be the position where the best correspondence is obtained. The SIFT amount is obtained as S. The above is the schematic procedure of the process regarding the correlation operation.

【0013】また、上記Sを加味して両センサアレイの
出力分布を図示すると、図2(b)のように、L側のS
だけずれた各センサから対応する添え字の付いたR側各
センサと同様の出力が得られる。
FIG. 2B shows the output distribution of both sensor arrays taking the above S into consideration, as shown in FIG.
Outputs similar to those of the R-side sensors with corresponding suffixes are obtained from the respective sensors shifted by only a certain amount.

【0014】続いて、図2(b)〜(d)を用いて「補
間演算」プロセスについて詳しく説明すると、実際の二
つのセンサアレイ上の像のズレ量はぴったりとセンサの
ピッチでずれるわけではなく、また正確な測距にはピッ
チより細かい精度にて像ズレ量を検出しなければならな
い。そこで補間演算を行う。図2(b),(c)中のR
とLは各々図1中のセンサアレイ2a,2bを構成する
一部のセンサ出力を表わしている。また、図2(d)に
は、すでに「相関演算」が終了した上記Sだけシフトさ
せた後で比較しやすい状態に直したグラフを示してあ
る。すなわち、L0 〜L4 は正確にはLs 〜Ls+4 と記
述するべきであるが、記載上繁雑になるのを避けてこの
Sは省略して記してある。ここで、Lのセンサには上記
Sだけシフトした後もR基準でまだxだけずれた光が入
射しているとする。このとき例えば、L1 のセンサには
R0 とR1 に入射する光が混じり合って入射し、同様
に、各LのセンサにもR基準でxだけずれた光が順次に
入射するので、各Lの出力(L1 〜L3 )は、図15の
[式1]に示したように表現されることがわかる。
Next, the "interpolation operation" process will be described in detail with reference to FIGS. 2 (b) to 2 (d). The actual image shift amount on the two sensor arrays is not exactly shifted by the sensor pitch. For accurate distance measurement, the amount of image shift must be detected with an accuracy smaller than the pitch. Therefore, an interpolation operation is performed. R in FIGS. 2B and 2C
And L represent the outputs of some of the sensors constituting the sensor arrays 2a and 2b in FIG. FIG. 2D shows a graph obtained by shifting the S by which the “correlation calculation” has already been completed, and then converting the S to a state where comparison is easy. That is, L0 to L4 should be accurately described as Ls to Ls + 4, but this S is omitted to avoid complication in description. Here, it is assumed that light shifted by x on the R reference is still incident on the L sensor after shifting by S. At this time, for example, the light incident on R0 and R1 is mixed and incident on the L1 sensor, and similarly, the light shifted by x with respect to the R reference is sequentially incident on each L sensor. It can be seen that the outputs (L1 to L3) are represented as shown in [Equation 1] of FIG.

【0015】上記Fmin と、Fmin から上記シフト量を
プラス方向とマイナス方向にずらしたFFの値F-1とF
+1は、この各Rn ,Ln の出力を用いて表現すると、図
16の[式2]のように表される。さらに、[式1]を
用いて[式2]を展開すると、値Fmin ,F-1,F+1の
それぞれは図17の[式3]のように表される。また、
この[式3]中の{|R0 −R1 |+|R1 −R2 |+
|R2 −R3 |}を(ΣΔR)として表現すると、この
(ΣΔR)に依存せず、先のズレ量xが図18の[式
4]に示す演算によって求められる。これが「補間演
算」である。
The above-mentioned Fmin and the FF values F-1 and F-1 obtained by shifting the shift amount from Fmin in the plus direction and the minus direction.
When +1 is expressed using the outputs of Rn and Ln, it is expressed as [Equation 2] in FIG. Further, when [Expression 2] is expanded using [Expression 1], each of the values Fmin, F-1, and F + 1 is expressed as [Expression 3] in FIG. Also,
{| R0−R1 | + | R1−R2 | +
If | R2 -R3 | と し て is expressed as (ΣΔR), the aforementioned deviation amount x is obtained by the calculation shown in [Equation 4] of FIG. 18 without depending on (ΣΔR). This is the "interpolation operation".

【0016】なお、これらの演算は、図1中の演算手段
5にて行われるが、ワンチップマイコン等の演算制御手
段(CPU)10において所定のプログラムに従って行
ってもよい。
Although these calculations are performed by the calculation means 5 in FIG. 1, they may be performed by a calculation control means (CPU) 10 such as a one-chip microcomputer according to a predetermined program.

【0017】上述した演算のプロセスの概要を示すと図
3(b)のフローチャートのように表せる。すなわち、
センサアレイのどの領域に入射する光を用いて上記「相
関演算」を行うかをまず指定する(S101)。次に、
演算手段5による図2(a)にて説明した「相関演算」
を行い、シフト量を求める(S102)。また、その結
果から更に[式4]で説明した「補間演算」を行って上
記xを求める(S103)。
An outline of the above-described calculation process can be represented as shown in the flowchart of FIG. That is,
First, it is specified which area of the sensor array is to be used to perform the above “correlation calculation” using light (S101). next,
“Correlation calculation” described with reference to FIG.
Is performed to determine the shift amount (S102). Further, from the result, “x” is further obtained by performing “interpolation operation” described in [Equation 4] (S103).

【0018】このように得られた値Sとxに基づいて、
CPU10がピント合わせレンズの繰り出し量を算出
し、制御すればオートフォーカス( AF) カメラが提供
できる。なお、この演算手段は論理(ロジック)回路に
よっても構成できるが、前述のようにこのようなハード
ウエアによる演算手段を用いずに、これらの演算をCP
U10が内蔵する所定のプログラムに従って行ってもよ
い。このような場合は、図3(b)に示すようなフロー
チャートで表される。すなわち、センサアレイの各セン
サの出力をCPU10が入力し(S105)、CPU1
0が所定のプログラムによって上記のような相関演算
(S106)および、補間演算(S107)を行って、
その結果に基づいてズームレンズ等の繰出し量を算出し
てピント合わせ制御を行う(S108)。
Based on the values S and x thus obtained,
If the CPU 10 calculates and controls the extension amount of the focusing lens, an autofocus (AF) camera can be provided. Note that this operation means can also be constituted by a logic circuit, but as described above, these operations are performed by CP without using such hardware operation means.
This may be performed according to a predetermined program incorporated in U10. Such a case is represented by a flowchart as shown in FIG. That is, the output of each sensor of the sensor array is input by the CPU 10 (S105), and the CPU 1
0 performs the above-described correlation operation (S106) and interpolation operation (S107) by a predetermined program,
The amount of extension of the zoom lens or the like is calculated based on the result, and focus control is performed (S108).

【0019】なお、論理回路(即ちハードロジック回
路)による演算は、回路の規模の縮小と高速化が可能で
はあるが、データ内容を判定したり、測距エリアの幅を
切り換えたりすることは困難である。一方、マイコン制
御ではこのようなことが可能とはなるが、高速化は難し
いという一長一短な作用効果を奏する。
The arithmetic operation by a logic circuit (ie, a hard logic circuit) can reduce the scale of the circuit and increase the speed, but it is difficult to judge the data contents and switch the width of the distance measurement area. It is. On the other hand, such control is possible by the microcomputer control, but has the advantages and disadvantages that it is difficult to increase the speed.

【0020】例えば、図4に示すような人物と山のシー
ンにおいては、正しく被写体6a(人物)を測距しよう
とすると、測距エリアWは人物の顔の幅Kよりも狭い方
がよい、即ちW<Kの関係が成り立つ。この理由は、測
距エリアWが広いほど背景の山6bの光情報までが演算
に加味されてしまうために、高精度な測距が困難になる
からである(すなわち、遠近混在誤差の発生故に精度が
低下する)。
For example, in a scene of a person and a mountain as shown in FIG. 4, in order to correctly measure the distance of the subject 6a (person), the distance measurement area W is preferably smaller than the width K of the person's face. That is, the relationship of W <K holds. The reason is that, as the distance measurement area W is larger, even the light information of the background mountain 6b is added to the calculation, so that it is difficult to perform a highly accurate distance measurement (that is, because of the occurrence of a mixed perspective error). Accuracy will decrease).

【0021】この測距エリアWは、センサアレイのピッ
チSPや使用するセンサ数Eと距離L、センサ、レンズ
間の距離fに依存し次式の関係が成り立つ。 W = L×SP×E/f …(式e) この関係からわかるように、顔の幅Kは距離Lに対し一
定なのに対し、測距エリアWは距離Lに比例する。つま
り、被写体までの距離Lが変わっても測距エリアWを顔
の幅K以下にするためには、SP、fは一定であるの
で、センサ数Eを切り換える方法しかないことがわか
る。一方、遠近混在が無ければ、相関エリアは広いほう
がセンサのノイズが相殺されて高精度となる。したがっ
て、近距離撮影では相関エリアは広いほうが有利とな
る。このように、測距エリアの幅は可変にするほうが、
近距離から遠距離までの広範囲で高精度に測距が可能と
なる。
The distance measuring area W depends on the pitch SP of the sensor array, the number E of sensors to be used, the distance L, the distance f between the sensor and the lens, and the following relationship is established. W = L × SP × E / f (Equation e) As can be seen from this relationship, the width K of the face is constant with respect to the distance L, whereas the distance measurement area W is proportional to the distance L. In other words, even if the distance L to the subject changes, the SP and f are constant in order to keep the distance measurement area W equal to or less than the face width K, so that there is only a method of switching the number E of sensors. On the other hand, if there is no mixed perspective, the wider the correlation area, the higher the accuracy because the noise of the sensor is canceled. Therefore, in short-range shooting, a wider correlation area is advantageous. Thus, it is better to make the width of the ranging area variable.
Distance measurement can be performed with high accuracy over a wide range from a short distance to a long distance.

【0022】ただし、上述の遠近混在の問題は、多くの
場合、補間演算のレベルで生じるものであり、相関演算
への影響は少ない。そこで本発明の第1実施形態では、
比較的単純な論理回路で構成しても、また遠近混在があ
っても大きな誤差の生じない相関演算は高速のハードロ
ジック回路で行い、一方、厳密な精度で行うべき補間演
算は、CPUによるソフトウエアに従う演算によって精
密に行うように構成する。これにより、測距装置として
の高速化と高精度を共に達成したものが実現できる。
However, the problem of the mixed perspective is often caused at the level of the interpolation operation, and has little influence on the correlation operation. Therefore, in the first embodiment of the present invention,
Correlation calculation that does not cause a large error even if it is composed of a relatively simple logic circuit or has mixed perspectives is performed by a high-speed hard logic circuit, while interpolation calculation to be performed with strict accuracy is performed by software using a CPU. It is configured to perform precisely by the operation according to the wear. As a result, a distance measuring device that achieves both high speed and high accuracy can be realized.

【0023】図3(c)のフローチャートには、図3
(a)および図3(b)のフローチャートに比較し本発
明の第1実施形態としての演算処理に関する手順を示し
ている。すなわち、高速化と高精度を共に達成するた
め、図3(c)に示すように演算処理を制御する。まず
相関エリアの指定を行い(S109)、ハードロジック
演算回路により相関演算を行う(S110)。この結果
の相関値Sを基にしてCPU10はセンサアレイのデー
タを読み込み(S111)、マイコンによるソフトウエ
ア的な補間演算を行う(S112)。求まった結果に基
づいて、ズームレンズの繰り出し量を算出し、被写体に
対し適宜なピント制御を行う(S113)。
FIG. 3C shows a flowchart of FIG.
Compared with the flowchart of FIG. 3A and the flowchart of FIG. 3B, the procedure relating to the arithmetic processing as the first embodiment of the present invention is shown. That is, the arithmetic processing is controlled as shown in FIG. 3C to achieve both high speed and high accuracy. First, a correlation area is specified (S109), and a correlation operation is performed by a hard logic operation circuit (S110). Based on the resulting correlation value S, the CPU 10 reads the data of the sensor array (S111), and performs software-based interpolation calculation by the microcomputer (S112). The extension amount of the zoom lens is calculated based on the obtained result, and appropriate focus control is performed on the subject (S113).

【0024】(変形例1)本発明の目的からすれば、相
関演算を必ずしもハードロジック回路で行う必要はな
く、例えば相関をとるエリアのデータ数を少なくするな
ど、高速化ができれば、図3(b)のステップS106
のようにソフトウエアによって行ってもよい。また同様
にして、補間演算に関しても図3(a)のステップS1
03のようにハードウエアによって行ってもよい。いず
れの手法にせよ、相関演算と補間演算においては使用す
るデータまたは作業エリア等を別々にして、処理の高速
化と高精度化を図っている。
(Modification 1) According to the object of the present invention, it is not always necessary to perform the correlation operation by a hard logic circuit. If the speed can be increased, for example, by reducing the number of data in the area to be correlated, FIG. Step S106 of b)
Alternatively, it may be performed by software. Similarly, regarding the interpolation calculation, step S1 in FIG.
03 may be performed by hardware. In any case, in the correlation operation and the interpolation operation, the data used or the work area is separately used to increase the processing speed and accuracy.

【0025】ここで、例えば単純な明暗の光パターンの
センサピッチ単位の相関をとるだけなら、図5に示すよ
うな回路構成でもこの機能を満たすことはできる。受光
レンズ1aの光軸後方にはセンサアレイ20a、21b
が配置され、受光レンズ1bの後方にアレイ20b、2
1b、22bが配置されており、それぞれ、3a、3b
に示すような波形の光量分布の光が得られた場合を考え
る。トランジスタ23、24はカレントミラー回路を構
成し、センサ20aの光電流はトランジスタ24のコレ
クタ電流となる。したがって、後段に続くアンプ28に
は、センサ20a、21aの差の光電流が入力され、セ
ンサ20aの光電流がセンサ21aの光電流より大きい
場合には、このアンプ28に差電流が流れ込み、一方、
この大小関係が逆な場合はこのアンプ28から差電流が
流れ出す。つまり、これらの大小関係によってアンプ出
力はL(Low) になったりH(High)になったりする。
Here, for example, if the correlation of a simple light and dark light pattern is obtained in units of sensor pitch, this function can be satisfied even with the circuit configuration shown in FIG. Behind the optical axis of the light receiving lens 1a, sensor arrays 20a, 21b
Are arranged, and arrays 20b and 2 are arranged behind the light receiving lens 1b.
1b and 22b are arranged, and 3a and 3b, respectively.
Let us consider a case where light having a light quantity distribution having a waveform as shown in FIG. The transistors 23 and 24 form a current mirror circuit, and the photocurrent of the sensor 20a becomes the collector current of the transistor 24. Therefore, the photocurrent of the difference between the sensors 20a and 21a is input to the amplifier 28 that follows, and when the photocurrent of the sensor 20a is larger than the photocurrent of the sensor 21a, the difference current flows into the amplifier 28. ,
If the magnitude relation is reversed, a difference current flows out of the amplifier 28. In other words, the amplifier output becomes L (Low) or H (High) depending on the magnitude relation.

【0026】同様にして、レンズ1b側のセンサもトラ
ンジスタ25、26、27のカレントミラー回路に接続
されており、センサ21bの出力を基準にしてアンプ2
9、30に差の光電流が流れ込んだり流れ出したりする
ので、これらのアンプ出力は、センサアレイ上の明暗に
よって上記アンプ28と同様にその出力がH(High)にな
ったりL(Low) になったりする。
Similarly, the sensor on the side of the lens 1b is also connected to the current mirror circuit of the transistors 25, 26 and 27, and the amplifier 2 is connected to the output of the sensor 21b.
Since the difference photocurrent flows into and out of the sensors 9 and 30, the outputs of these amplifiers become H (High) or L (Low) in the same manner as the amplifier 28 depending on the brightness on the sensor array. Or

【0027】このアンプ29は、センサ20bよりセン
サ21bの光電流が大きい場合にLになるが、インバー
タ31の作用により反転され、後段に続くAND回路3
2に入力される。また、センサ22bよりセンサ21b
の光電流が大きい場合にはアンプ30の出力はLになる
が、これをAND回路33に入力すると、レンズ1a側
の光パターンの大小関係が、センサ20b,21b上で
等しくなった場合には、AND回路32が、センサ21
b,22b上で等しくなった場合、AND回路33が、
Hの信号を出力する。上述のような構成により、明暗パ
ターンの変化が、センサアレイのどこで起きているかが
ロジック回路的に判別することができる。またこのよう
な回路をハーウエアとして複雑にしていくことによって
も単純な相関演算は可能である。
The amplifier 29 becomes L when the photocurrent of the sensor 21b is larger than that of the sensor 20b.
2 is input. In addition, the sensor 21b is
When the photocurrent is large, the output of the amplifier 30 becomes L. When this is input to the AND circuit 33, when the magnitude relation of the optical pattern on the lens 1a side becomes equal on the sensors 20b and 21b, , AND circuit 32 is connected to the sensor 21
b and 22b, the AND circuit 33 outputs
An H signal is output. With the above-described configuration, it is possible to determine where the change in the light and dark pattern occurs in the sensor array in a logic circuit manner. A simple correlation operation is also possible by making such a circuit complicated as hardware.

【0028】ここで、図6に本発明の実施形態の具体的
例としてカメラの構成を示す。ただし、レンズ1a,1
bやセンサアレイ2a,2b等からなる測距ユニット1
00についてはすでに説明してあるので詳説は省略す
る。また、相関回路5は図5で説明したようにハードロ
ジック回路で構成されている。A/D変換回路4は、セ
ンサアレイのアナログ出力をディジタルデータに変換す
る回路であり、ここでは変換データを記憶する機能も有
するものとする。出力回路7はシリアル通信で、この記
憶データをCPU10に対して出力する。このCPU1
0は、このシリアル通信用のポートや、カメラの各機能
を制御する端子等からなるポート手段19、これを制御
するレジスタ群14、18、演算部17に、データの一
時記憶用のRAM15、所定のアルゴリズムでこれらを
制御する命令のプログラムが入ったROM16等から構
成されている。
FIG. 6 shows the structure of a camera as a specific example of the embodiment of the present invention. However, the lenses 1a, 1
measuring unit 1 composed of sensor array 2a, sensor arrays 2a, 2b, etc.
Since 00 has already been described, a detailed description is omitted. Further, the correlation circuit 5 is constituted by a hard logic circuit as described with reference to FIG. The A / D conversion circuit 4 is a circuit for converting an analog output of the sensor array into digital data, and here has a function of storing the converted data. The output circuit 7 outputs the stored data to the CPU 10 by serial communication. This CPU1
0 denotes a port means 19 including a port for serial communication, a terminal for controlling each function of the camera, etc .; a group of registers 14 and 18 for controlling the port; a RAM 15 for temporarily storing data; The ROM 16 stores a program of instructions for controlling these by the above algorithm.

【0029】また、ポート制御によって、繰り出し制御
手段を介してピント合わせ用レンズ13の繰り出し制御
が行われ、シャッタ8などが駆動制御される。カメラの
部品のバラツキや、組み立て精度のバラツキによって生
じる誤差を補正するための補正係数を記憶するような電
気的に書込み可能なROM(EEPROM)9が設けら
れ、CPU10はこの補正データを参照しながらカメラ
の制御を行う。
Also, by the port control, the extension control of the focusing lens 13 is performed through the extension control means, and the drive of the shutter 8 and the like is controlled. An electrically writable ROM (EEPROM) 9 for storing a correction coefficient for correcting an error caused by a variation in camera parts or a variation in assembly accuracy is provided, and the CPU 10 refers to the correction data. Control the camera.

【0030】続いて、上述のような構成のカメラの測距
装置の動作について、図7のフローチャートを用いて説
明する。まず、相関エリアを指定する(S1)。ここ
で、図2(d)にR1 〜R3 として示したような相関エ
リアを指定してセンサアレイに入射する光パターンに基
づくデータをA/D変換手段4でA/D変換を行う。図
6中の相関手段5によってセンサピッチ単位で相関演算
して(S2)、この相関結果Sを得る。この値Sは被写
体の距離に依存する値なので、この値を基に判定するこ
とにより被写体距離の大まかな判定ができる(S3)。
例えば所定値S1 よりも大きい場合、この被写体は「近
距離」に在るとみなしステップS16に分岐して「広
い」エリアで補間演算を行い(S16)、ステップS1
1に進む。
Next, the operation of the distance measuring apparatus for a camera having the above-described configuration will be described with reference to the flowchart of FIG. First, a correlation area is specified (S1). Here, A / D conversion is performed by the A / D conversion means 4 on data based on the light pattern incident on the sensor array by designating a correlation area as indicated by R1 to R3 in FIG. Correlation calculation is performed for each sensor pitch by the correlation means 5 in FIG. 6 (S2), and the correlation result S is obtained. Since the value S depends on the distance to the subject, a rough determination of the subject distance can be made by making a determination based on this value (S3).
For example, if it is larger than the predetermined value S1, the subject is considered to be at "near distance" and the process branches to step S16 to perform an interpolation operation on a "wide" area (S16).
Proceed to 1.

【0031】一方、上記ステップS3において所定値S
1 以下の場合はステップS4に進んで「狭い」相関エリ
アにて補間演算を行う。詳しくは、まずR側のセンサか
ら所定の狭いエリアで測距するためのデータ(R0 〜R
4 )を読み込む(S4)。次に、本発明の特徴の一つと
なる読込みを行う。つまり、L側のデータをやみくもに
取り込むのではなく、[式3]に示した各計算式で用い
られるデータ(L1 ,L2 ,L3 )のみを入力する(S
5)。この手法は、相関がとれたシフト量Sを考慮した
値のデータをとなっているため必要以上にマイコン(C
PU)のRAMを浪費することはなく、シリアル通信に
よりデータ読込みに要する所要時間も短縮できる。こう
して読み込んだデータから、[式2]に示す各式に基づ
いた計算を行い、最小のFmin と、その両サイドのF-1
およびF+1 を求める(S6〜S8)。
On the other hand, in step S3, the predetermined value S
In the case of 1 or less, the process proceeds to step S4 to perform the interpolation calculation in the “narrow” correlation area. More specifically, first, data (R0 to R0) for distance measurement from a sensor on the R side in a predetermined narrow area
4) is read (S4). Next, reading which is one of the features of the present invention is performed. That is, instead of blindly taking in the data on the L side, only the data (L1, L2, L3) used in each calculation formula shown in [Equation 3] is input (S
5). In this method, since the data of the value taking into account the shift amount S with which the correlation is obtained is taken, the microcomputer (C
PU) RAM is not wasted, and the time required for data reading by serial communication can be reduced. From the data thus read, a calculation based on each equation shown in [Equation 2] is performed, and the minimum Fmin and the F-1 on both sides thereof are calculated.
And F + 1 are obtained (S6 to S8).

【0032】次に、相関演算時と補間演算時とでエリア
の範囲を切り換えたことによって、相関値Sに差異が生
じていないか否かを確認する(S9)。この判定では、
上記ステップS6〜S8の相関演算で得られたFmin ,
F-1,F+1のうちでFmin が最小値をとっているか否か
を判定する。もしFmin が最小でない場合は、さらにス
テップS13に分岐してF-1とF+1との大小関係を判別
し、もしF-1が最小ならSを1つ小さくし、また、F+1
が最小なら相関値Sを1つ大きくしてSを補正した後
(S14,S15)、上記ステップS3に戻る。
Next, it is confirmed whether or not a difference has occurred in the correlation value S due to switching of the area range between the correlation calculation and the interpolation calculation (S9). In this determination,
Fmin, obtained by the correlation operation in steps S6 to S8,
It is determined whether or not Fmin has a minimum value among F-1 and F + 1. If Fmin is not the minimum, the process further branches to step S13 to determine the magnitude relationship between F-1 and F + 1. If F-1 is the minimum, S is reduced by one, and F + 1
If is smaller, the correlation value S is increased by one to correct S (S14, S15), and the process returns to step S3.

【0033】続いて、ステップS10〜S12では、図
示の式に基づく補間演算(S10)と、距離Lの算出
(S11)および、この距離Lに在る被写体へのピント
合せ(S12)を行うステップである。なお、前述した
ステップS16でのx算出も、センサエリアが広い範囲
に関して求めるだけで、基本的には上記ステップS6〜
S10と同様の手法で行う。ただし、再度Fmin の大き
さを確認する為の処理ステップS9は不要である。
Subsequently, in steps S10 to S12, interpolation calculation based on the illustrated formula (S10), calculation of the distance L (S11), and focusing on the subject located at the distance L (S12) are performed. It is. Note that the calculation of x in step S16 described above is basically performed only for a wide range of the sensor area.
This is performed in the same manner as in S10. However, the processing step S9 for confirming the magnitude of Fmin again is unnecessary.

【0034】通常、ワンチップマイコンは、データの演
算には演算用のレジスタ14を用いてこれにデータを出
し入れして所定の順序に従って計算を行うので、多くの
データを用い複雑な計算をする場合には、一つずつデー
タをここに出し入れして計算するため、長大な時間と命
令とを要する。したがって、データを少しずつシフトし
ながらRとLのデータの差をとって所定のエリアにわた
って加算するというような図2(c)に示したような
「FF演算」は非常に効率の悪いプロセスとなる。しか
も、実際にその後の補間演算では、[式4]に示すよう
にFmin とその両サイドのF-1、F+1しか用いないの
で、せっかく多数のFFを計算しても、高精度の測距が
できるわけでもない。これは図6のように設けられたR
OM16の容量にとっても負荷が重いが、データを一時
記憶させるRAM容量の点からみても大きな問題であ
る。
Normally, a one-chip microcomputer uses a register 14 for calculation to input / output data and performs calculation in a predetermined order for data calculation. Requires a large amount of time and instructions to calculate by taking data in and out of the data one by one. Therefore, the "FF operation" as shown in FIG. 2C, which takes the difference between R and L data while shifting the data little by little and adds over a predetermined area, is a very inefficient process. Become. Moreover, in the subsequent interpolation calculation, as shown in [Equation 4], only Fmin and F-1 and F + 1 on both sides are used, so even if a large number of FFs are calculated, highly accurate measurement is possible. It doesn't mean you can do it. This corresponds to the R provided as shown in FIG.
Although the load is heavy for the capacity of the OM 16, it is a big problem in terms of the RAM capacity for temporarily storing data.

【0035】そこで、図8(a)に示す従来の測距装置
のRAMの使用形態に対比して、図8(b)には本実施
形態のRAMの使用形態を例示する。図示のように、従
来ではR0 〜R4 ,L0 〜L4+S ,… についての多く
を計算しなければならなかったのに比べて、本発明では
R0 〜R3 ,L1+S ,L2+S ,L3+S のみの計算で済む
と共に、メモリ空間も節約でき、よって、RAM等の利
用空間の削減効果が大きいことがわかる。
Therefore, FIG. 8B illustrates a usage mode of the RAM according to the present embodiment in comparison with a usage mode of the RAM of the conventional distance measuring apparatus shown in FIG. 8A. As shown in the figure, in contrast to the conventional case where much of R0 to R4, L0 to L4 + S,... Had to be calculated, in the present invention, R0 to R3, L1 + S, L2 + S, L3 It can be seen that the calculation of only + S is sufficient, and that the memory space can be saved, and the effect of reducing the space used such as the RAM is large.

【0036】(作用効果1)以上説明したように、本実
施形態によれば、高速かつ高精度、即ち、遠近混在の影
響が小で、しかもCPU中のプログラムや使用されるメ
モリ空間を少なくする効果も併せて有する測距装置が提
供できる。
(Function and Effect 1) As described above, according to the present embodiment, high-speed and high-precision, that is, the influence of mixed perspective is small, and the program in the CPU and the memory space used are reduced. A distance measuring device having an effect can be provided.

【0037】(第2実施形態)次に、本発明に係わる第
2実施形態を説明する。本実施形態の測距装置も前述の
図6のように構成された装置において実施される。本実
施形態の特徴は、左右のRとLのセンサアレイ間に図8
のようにオフセット誤差がのった場合に対策する1つの
実施形態であり、図9のフローチャートには本実施形態
の特徴的な演算処理の詳細を後述のように例示してい
る。
(Second Embodiment) Next, a second embodiment according to the present invention will be described. The distance measuring device of the present embodiment is also implemented in the device configured as shown in FIG. The feature of this embodiment is that the left and right R and L sensor arrays
This is one embodiment for coping with an offset error as described above, and the flowchart of FIG. 9 illustrates details of a characteristic calculation process of the present embodiment as described later.

【0038】また図11には、図2(d)に相当する各
センサの出力をグラフで示している。例示のように、L
を基準と考えて、Rには各センサにC11,C22,C33の
誤差が乗ったと考えると、これらを補正してから相関演
算と補間演算を行うことが好ましい。しかし、この誤差
が小さい時にはセンサピッチを「分解能」とする相関演
算までは正確にできる。そこで本発明の第2実施形態で
は、補間演算に先立ってこの補正を行い、補間は正確
に、かつ補正係数の数は最低に抑え、これを記憶するE
EPROMの容量を小さくすることを可能とする。ま
た、このような誤差は、測距エリアが小さい場合に影響
を及ぼしやすいので、狭いエリアで補間演算を行う場合
のみに上記の補正を行うようにして、さらに補正係数の
削減を図っている。
FIG. 11 is a graph showing the output of each sensor corresponding to FIG. 2D. As illustrated, L
When it is considered that R has an error of C11, C22, and C33 on each sensor, it is preferable that the correlation calculation and the interpolation calculation be performed after correcting these. However, when this error is small, it is possible to accurately perform the correlation calculation using the sensor pitch as “resolution”. Therefore, in the second embodiment of the present invention, this correction is performed prior to the interpolation operation, the interpolation is performed accurately, the number of correction coefficients is minimized, and this is stored.
It is possible to reduce the capacity of the EPROM. Further, since such an error tends to have an effect when the distance measurement area is small, the above correction is performed only when the interpolation calculation is performed in a narrow area, thereby further reducing the correction coefficient.

【0039】また、図10(a)に示す主要被写体の人
がどの距離にいるかの確率を表すグラフが示すように、
一般に撮られる写真を分析すると、ある距離L1 以遠で
は人が被写体になることは少なく、一方、図4に示すよ
うに、ある距離L2 以近では、特にエリアを狭くする必
要はない。そこで、このL1 からL2 の距離に在る被写
体を測距する場合だけ、センサ誤差の補正を行えばよい
と考える設計も可能である。この大まかな距離判定は、
相関演算結果Sによってある程度予測可能である。そこ
で、図9に示したフローチャートでは、このL1 〜L2
の距離にある被写体の相関値Sは、所定のS2 とS1 の
間の値をとると仮定して設計した具体例である。
As shown in FIG. 10A, as shown in the graph of FIG.
Analyzing a photograph taken in general, a person rarely becomes a subject at a distance longer than a certain distance L1. On the other hand, as shown in FIG. 4, it is not necessary to reduce the area particularly at a distance longer than a certain distance L2. Therefore, it is possible to design such that it is sufficient to correct the sensor error only when measuring the distance of the subject located at the distance from L1 to L2. This rough distance judgment is
It can be predicted to some extent by the correlation operation result S. Therefore, in the flowchart shown in FIG.
This is a specific example designed on the assumption that the correlation value S of the subject located at the distance of takes a value between predetermined S2 and S1.

【0040】図9中のステップS1〜S5までは既に説
明した第1実施形態の図7のフローチャートと同様であ
る。ただし、前述した理由により、ステップS3では相
関値SがS1 からS2 の間にある場合(即ちS2 <S<
S1 )だけ狭いエリアでの測距を行うように制御してい
る。R側のセンサデータ( R0 〜R4)の読込み(S4)
に続く、L側のセンサデータ( LS+1 〜LS+3)の読込み
(S5)に続き、ステップS5bでは、図8のL1,L2
,L3 基準のR1 ,R2 ,R3 の誤差C11、C22,C3
3などの補正係数をEEPROMから読み出す工程であ
る。また、ステップS6〜S8までは、これらの補正値
でRn ,Rn-1 ,Rn+1 とLn との誤差(同じ輝度を睨
んだ時に同じ出力にならない誤差)Cnn ,Cn(n-1),
Cn(n+1)を補正しながらFmin ,F-1,F+1を算出して
いく工程である。こうして得られたFmin ,F-1,F+1
より、図7のステップS10と同様に補間演算でxを求
め、ピント合わせを行う(S12)。
Steps S1 to S5 in FIG. 9 are the same as those in the flowchart of FIG. 7 of the first embodiment already described. However, for the reason described above, in step S3, when the correlation value S is between S1 and S2 (that is, S2 <S <
Control is performed so that distance measurement is performed in an area narrow only by S1). Reading of R side sensor data (R0 to R4) (S4)
Following the reading of the L-side sensor data (LS + 1 to LS + 3) (S5) following step S5b, in step S5b, L1 and L2 of FIG.
, L3, R1, R2, R3 errors C11, C22, C3
In this step, a correction coefficient such as 3 is read from the EEPROM. In steps S6 to S8, the errors between Rn, Rn-1, Rn + 1 and Ln (errors that do not result in the same output when the same luminance is viewed) Cnn, Cn (n-1),
This is a step of calculating Fmin, F-1, and F + 1 while correcting Cn (n + 1). Fmin, F-1, F + 1 thus obtained
Thus, x is obtained by interpolation as in step S10 in FIG. 7, and focusing is performed (S12).

【0041】(作用効果2)以上のように構成すること
により、従来、図10(b)のようにR、Lの各センサ
ごとに必要とした補正係数のメモリ容量が、この第2実
施形態では、図10(c)に示すようにメモリ容量が削
減できる。したがって本実施形態によれば、あらかじめ
高速で求めた相関結果Sを利用して被写体距離を判定
し、所定の遠距離の人物を重視した誤差補正を行うこと
ができ、これによって、補正係数の数を削減し、補正用
のプログラムやメモリ等の削減を可能とする。
(Function and Effect 2) With the above configuration, the memory capacity of the correction coefficient conventionally required for each of the R and L sensors as shown in FIG. Then, the memory capacity can be reduced as shown in FIG. Therefore, according to the present embodiment, the subject distance can be determined using the correlation result S obtained in advance at a high speed, and error correction can be performed with emphasis on a person at a predetermined long distance. And the number of correction programs and memories can be reduced.

【0042】(第3実施形態)続いて、本発明に係わる
第3実施形態を説明する。この実施形態の測距装置も前
述した図6のように構成された装置において実施され
る。本実施形態の特徴は、図12(a),(b)に示す
ように、測距エリアの一部が人物6からはずれた状態を
検出し、この場合は、はずれたセンサを除いて測距演算
を行うことによって、図4を用いて説明した遠近混在誤
差を対策するための実施形態である。これは、前述した
第1、第2実施形態に比べて、測距エリアをむやみに狭
くすることはないので、遠距離であっても人の顔よりも
大きな被写体などに対してはさらに高精度の距離測定が
可能となる実施形態である。図12(b)のような撮影
シーンでは、被写体から外れたセンサは、相関が悪くな
るので、図12(a)のグラフのように差分|Rn −L
n +s|の結果がこの被写体に対応したセンサに比べ異
なった値となる。このような原理を利用して図12
(a)の例でいえば中央のセンサR2 ,Ls+2 の差分F
c 以上のセンサ出力は除去して補間演算を行う。このよ
うな機能をもたせる為に、図13に示すフローチャート
のアルゴリズムを持ったプログラムをCPUに内蔵す
る。
Third Embodiment Next, a third embodiment according to the present invention will be described. The distance measuring apparatus of this embodiment is also implemented by the apparatus configured as shown in FIG. The feature of the present embodiment is that, as shown in FIGS. 12A and 12B, a state in which a part of the distance measurement area deviates from the person 6 is detected. In this case, the distance measurement is performed excluding the deviated sensor. This is an embodiment for taking measures against the mixed perspective error described with reference to FIG. 4 by performing calculations. Since the distance measurement area is not excessively narrowed as compared with the first and second embodiments described above, even higher distances can be obtained for objects larger than a human face even at a long distance. This is an embodiment that enables distance measurement. In a photographing scene as shown in FIG. 12B, a sensor deviating from the subject has a poor correlation, so that the difference | Rn-L as shown in the graph of FIG.
The result of n + s | has a different value compared to the sensor corresponding to this subject. Using such a principle, FIG.
In the example of (a), the difference F between the central sensors R2 and Ls + 2
c Interpolation operation is performed by removing the sensor output above. In order to provide such a function, a program having the algorithm of the flowchart shown in FIG. 13 is built in the CPU.

【0043】ステップS1〜S5は、既に説明した手順
と同じ処理ステップである。これに続いて、補間演算用
のFmin ,F-1,F+1等を0に初期化し(S20)、中
央のセンサを選択するためiに2を代入して(S2
1)、Ri すなわちR2 のデータを読み込む(S2
2)。差分Fi をとり(S23)、とったこの差分を差
分の基準値Fc とする(S24)。差分の各センサごと
の和がFmin なので、これをFi に加算する(S2
5)。これ以降の算出ステップ群でも順次、F+1,F-1
を求めるためにRi+1 ,Ri-1を読み出してLi との差
を求め、F+1,F-1を計算する(S26〜S29)。
Steps S1 to S5 are the same processing steps as those already described. Subsequently, Fmin, F-1, F + 1, etc. for the interpolation operation are initialized to 0 (S20), and 2 is substituted for i to select the center sensor (S2).
1) Read Ri, that is, the data of R2 (S2)
2). The difference Fi is obtained (S23), and the obtained difference is set as a reference value Fc of the difference (S24). Since the sum of the difference for each sensor is Fmin, this is added to Fi (S2
5). In the subsequent calculation step groups, F + 1, F-1
In order to find the difference, Ri + 1 and Ri-1 are read out, the difference from Li is found, and F + 1 and F-1 are calculated (S26 to S29).

【0044】次に、ステップS30〜S34では、まず
iを1つ減じてから(S30)、中央より左側の番号の
若いセンサについてRi ,Ri+1 ,Ri-1 を読み出し
(S31)、Li との差分を求めて、F+1,F-1をそれ
ぞれ計算する(S32)。なおここで、Ri ,Li の差
分Fi が基準値Fc を大きく外れたものは算出処理(S
34)の対象から除去し、外れていないものは加味する
ように、基準値Fc との大小関係を判定している(S3
3)。
Next, in steps S30 to S34, i is decremented by one (S30), and Ri, Ri + 1, Ri-1 are read out for the sensor with the smaller number on the left side from the center (S31), and Li and Ri are read. Are calculated, and F + 1 and F-1 are calculated (S32). Here, when the difference Fi between Ri and Li greatly deviates from the reference value Fc, the calculation processing (S
34), the magnitude relationship with the reference value Fc is determined so that those not removed from the target and those not deviated are taken into account (S3).
3).

【0045】同様に、ステップS35〜S40でも、中
央から右側の番号の1つ増加したセンサiについて(S
35,S36)、Ri ,Ri+1 ,Ri-1 を読み出し(S
37)、Li との差分を求めて、Fmin ,F+1,F-1を
それぞれ計算するが(S38)、ここでも同様に、Ri
,Li の差分Fi が基準値Fc を大きく外れたものは
算出処理(S40)の対象から除去するように、基準値
Fc との大小関係を判定している(S39)。このよう
にして得られた補間演算用のFmin ,F-1,F+1を用い
て、補間演算を行いxを求めた後(S10)、距離Lを
求めてピント合わせを行って(S12)一連の処理を終
了する。
Similarly, also in steps S35 to S40, for the sensor i whose number is increased by one on the right side from the center (S
35, S36), and read Ri, Ri + 1, Ri-1 (S35).
37), the difference from Li is calculated, and Fmin, F + 1, and F-1 are calculated (S38).
, Li are determined to have a magnitude relationship with the reference value Fc (S39) so that those whose difference Fi greatly deviates from the reference value Fc are excluded from the calculation processing (S40). Interpolation is performed by using the interpolation calculation Fmin, F-1, and F + 1 obtained in this way to obtain x (S10), and then the distance L is determined and focusing is performed (S12). A series of processing ends.

【0046】(作用効果3)以上のように本第3実施形
態では、遠近混在誤差に関して対策すると共に、人物以
外の被写体の場合は測距エリアを広くとることができ、
被写体に最適な測距エリアを選択してより高精度のピン
ト合わせを可能としている。
(Function and Effect 3) As described above, in the third embodiment, it is possible to take measures against a mixed error of distance and distance, and in the case of a subject other than a person, it is possible to increase the distance measurement area.
By selecting the optimal ranging area for the subject, more precise focusing is possible.

【0047】(その他の実施形態)以上に例示した第1
〜第3実施形態では、すべてセンサピッチ単位の相関量
Sを求める手段として、ハードロジック回路を用いた場
合を例として説明したが、この手段はマイコンが所定の
プログラムで演算するソフトウエア的な手段であっても
応用が可能である。そこでこの場合の具体例を図14に
フローチャートで示す。この処理手順は相関量Sを求め
るためのプロセスであり、前述の図2で説明したFFの
最小値を" FF1" とし、グラフの横軸であるシフト量
を" SFT" として表わしている。また、nはセンサの
番号を表す整数である。
(Other Embodiments) The first embodiment exemplified above
In the third to third embodiments, the case where a hard logic circuit is used as the means for obtaining the correlation amount S in the unit of the sensor pitch has been described as an example. However, this means is a software means that the microcomputer performs calculation using a predetermined program. However, application is possible. Therefore, a specific example in this case is shown in a flowchart in FIG. This processing procedure is a process for obtaining the correlation amount S, in which the minimum value of the FF described with reference to FIG. 2 is “FF1”, and the shift amount on the horizontal axis of the graph is “SFT”. Further, n is an integer representing the number of the sensor.

【0048】まずFF1を100に初期設定し(S5
1)、SFT,n,FFを0に初期設定する(S5
2)。続くステップS53〜S56までは、差分の算出
処理ループである。すなわち、差分FF1 をとり(S
53)、このとった差分をFFに加算する(S54)。
センサ番号nを1つインクリメントした後(S55)、
所定の限度数nc (即ち対象エリア数)との比較により
この処理ループの繰り返しを判定する(S56)。
First, FF1 is initialized to 100 (S5).
1), SFT, n, FF are initialized to 0 (S5)
2). Subsequent steps S53 to S56 are a difference calculation processing loop. That is, the difference FF1 is calculated (S
53), and adds the obtained difference to the FF (S54).
After incrementing the sensor number n by one (S55),
The repetition of this processing loop is determined by comparison with a predetermined limit number nc (that is, the number of target areas) (S56).

【0049】上記処理ループにより差分の各センサごと
の和がFFとして求まると、次に、FFとFF1との大
小比較を行い(S57)、FF1の方が大きい場合はF
FをFF1に代入する(S58)と共に、SFTをSに
代入する(S59)。SFTを1つインクリメントした
後(S60)、所定の限度値Smax になるまではステッ
プS53に戻って上述のステップを繰り返す。Smax に
なると図7中のステップS3に進む。
When the sum of the differences for each sensor is obtained as FF by the above processing loop, next, the magnitudes of FF and FF1 are compared (S57).
F is substituted for FF1 (S58), and SFT is substituted for S (S59). After incrementing the SFT by one (S60), the process returns to step S53 and repeats the above steps until a predetermined limit value Smax is reached. When it reaches Smax, the process proceeds to step S3 in FIG.

【0050】(作用効果4)このように、相関量を求め
る手段は上記ステップS51〜S61から成るプログラ
ムによるソフトウエア的手段によっても可能である。こ
のフローチャートでも明らかなように、相関の加算をと
る為の対象エリア数nc が小さければ、上記処理ループ
を繰り返す回数が少なくなって高速化できる。また、ピ
ッチ単位の相関演算は多少荒くても正しいSの値が求め
られるので、図3(b)のようなエリア切替えの無い演
算処理よりは更なる高速処理が可能となる。
(Function and Effect 4) As described above, the means for obtaining the correlation amount can be realized by software means using a program consisting of steps S51 to S61. As is clear from this flowchart, if the number of target areas nc for adding the correlation is small, the number of times the processing loop is repeated is reduced, and the speed can be increased. Further, since the correct S value is obtained even if the correlation calculation in the pitch unit is somewhat rough, further higher-speed processing can be performed than the calculation processing without area switching as shown in FIG.

【0051】(その他の変形例)なお本発明は、この他
にも実現方法として以上の要旨を逸脱しない範囲で種々
の変形実施が可能である。
(Other Modifications) The present invention can be variously modified as a method of realizing the present invention without departing from the gist of the present invention.

【0052】以上、実施形態に基づいて説明してきた
が、本明細書中には次の発明が含まれている。 [1] 視差を有する一対の受光素子列によりそれぞれ
被写体像を受光して、一対の被写体像信号列を出力する
受光手段と、前記受光手段の出力を受け、前記一対の被
写体像信号列の第1の部分の相関値を出力する相関手段
と、前記一対の受光素子列のいずれか一方の受光素子列
の全部の被写体像信号列および、他方の受光素子列の被
写体像信号列のうち第1の部分より狭い第2の部分の部
分的データのみを選択的に入力するデータ入力手段と、
当該入力されたデータに基づいて所定の補間演算を行う
補間手段と、を具備することを特徴とする測距装置。 [2] 視差を有する一対の受光素子列によりそれぞれ
被写体像を受光して、一対の被写体像信号列を出力する
受光手段と、前記一対の被写体像信号列を第1の画素数
を有する複数のブロックに分割する手段と、前記受光手
段の出力を受け、前記一対の被写体像信号列の相関値を
出力する相関手段と、前記相関値が所定の条件を満たす
場合、前記ブロックを第1の画素数よりも大きい第2の
画素数に再設定する手段と、前記一対の受光素子列のい
ずれか一方の受光素子列の全部の被写体像信号列およ
び、他方の受光素子列の被写体像信号列のうち、前記第
2の画素数のデータのみを選択的に入力するデータ入力
手段と、当該入力されたデータに基づいて所定の補間演
算を行う補間手段と、を具備することを特徴とする測距
装置。 [3] 視差を有する異なる視野から観測した被写体像
の輝度分布に従った二つの光パターン信号を出力する二
つのラインセンサと、前記二つの光パターン信号を比較
して前記被写体像の視差に基づく相対位置差を前記ライ
ンセンサの配列ピッチの単位で算出するピッチ差算出手
段と、前記ピッチ差算出手段の出力結果に基づいて、前
記ラインセンサの出力信号を選択し、この結果に基づき
前記二つの光パターンの相対位置差を前記センサピッチ
よりも細かい精度にて算出する演算制御手段と、を具備
し、前記ピッチ差算出手段はハードロジック回路で構成
され、前記演算制御手段はマイクロコンピュータ及びソ
フトウェアで構成されていることを特徴とする測距装
置。また、次の発明も含まれる。 (1) 視差を有する異なる視野から観測した被写体像
の輝度分布に従った二つの光パターン信号を出力する二
つのラインセンサと、上記二つの光パターン信号を比較
して上記被写体像の視差に基づく相対位置差を上記ライ
ンセンサの配列ピッチの単位で算出するピッチ差算出手
段と、上記ピッチ差算出手段の出力結果に基づいて、上
記ラインセンサの出力信号を選択し、この結果に基づき
上記二つの光パターンの相対位置差を上記センサピッチ
よりも細かい精度にて算出する演算制御手段と、を具備
することを特徴とする測距装置。 (2) 上記ピッチ差算出手段は、ハードロジック回路
で構成され、上記演算制御手段は、マイクロコンピュー
タ及びソフトウェアで構成されていることを特徴とする
(1)に記載の測距装置。 (3) 上記演算制御手段は、上記ラインセンサ出力を
記憶する記憶手段を具備し、かつ、上記ピッチ差算出手
段の出力結果に基づいて、上記二つのラインセンサの一
方の出力を選択し、もう一方の出力との差分の計算を行
い、この結果を上記記憶手段に記憶するように制御を行
うことを特徴とする(1)に記載の測距装置。 (4) 上記演算制御手段は、上記二つの光パターンの
相対位置差を上記センサピッチよりも細かい精度で算出
する過程において、上記二つの光パターンの差分を比較
して、上記ピッチ差算出手段の出力結果を判定する機能
を有し、上記ピッチ差算出手段の出力結果が正しくない
と判断した場合には、当該出力結果を変更することを特
徴とする(1)に記載の測距装置。
Although the embodiments have been described above, the present invention includes the following inventions. [1] A light receiving means for receiving a subject image by a pair of light receiving element rows having parallax and outputting a pair of subject image signal rows, and receiving an output of the light receiving means and receiving a signal from the pair of subject image signal rows. A correlation means for outputting a correlation value of a part 1; a subject image signal sequence of all the light receiving element rows of one of the pair of light receiving element rows; Data input means for selectively inputting only partial data of a second portion narrower than the portion,
An interpolating means for performing a predetermined interpolation operation based on the input data. [2] A light receiving unit that receives a subject image with a pair of light receiving element rows having parallax and outputs a pair of subject image signal rows, and converts the pair of subject image signal rows into a plurality of pixels having a first number of pixels. Means for dividing into blocks, correlating means for receiving the output of the light receiving means and outputting a correlation value of the pair of subject image signal strings, and, when the correlation value satisfies a predetermined condition, the block for the first pixel Means for resetting the number of pixels to a second number larger than the number of the pixels, and all the subject image signal rows of one of the pair of light receiving element rows and the subject image signal row of the other light receiving element row. And a data input means for selectively inputting only the data of the second number of pixels, and an interpolation means for performing a predetermined interpolation operation based on the input data. apparatus. [3] Two line sensors that output two light pattern signals in accordance with the luminance distribution of the subject image observed from different visual fields having parallax, and compare the two light pattern signals based on the parallax of the subject image. A pitch difference calculating means for calculating a relative position difference in units of an array pitch of the line sensor, and an output signal of the line sensor is selected based on an output result of the pitch difference calculating means, and the two signals are selected based on the result. Calculation control means for calculating the relative position difference of the light pattern with finer accuracy than the sensor pitch, wherein the pitch difference calculation means is constituted by a hard logic circuit, and the calculation control means is a microcomputer and software. A ranging device characterized by being configured. The following inventions are also included. (1) Two line sensors that output two light pattern signals in accordance with the luminance distribution of the subject image observed from different visual fields having parallax, and compare the two light pattern signals to determine based on the parallax of the subject image. A pitch difference calculating means for calculating a relative position difference in units of an array pitch of the line sensor; and an output signal of the line sensor based on an output result of the pitch difference calculating means. A distance measuring device, comprising: arithmetic and control means for calculating the relative position difference between the light patterns with an accuracy smaller than the sensor pitch. (2) The distance measuring apparatus according to (1), wherein the pitch difference calculating means is constituted by a hard logic circuit, and the arithmetic control means is constituted by a microcomputer and software. (3) The arithmetic control means includes a storage means for storing the output of the line sensor, and selects one of the outputs of the two line sensors based on an output result of the pitch difference calculating means. The distance measuring apparatus according to (1), wherein a difference from one output is calculated, and control is performed such that the result is stored in the storage means. (4) In the process of calculating the relative position difference between the two light patterns with a finer precision than the sensor pitch, the arithmetic control means compares the difference between the two light patterns, The distance measuring apparatus according to (1), further comprising a function of determining an output result, wherein when it is determined that the output result of the pitch difference calculating means is incorrect, the output result is changed.

【0053】(5) 視差を有する異なる視野から観測
した被写体像の精度分布に従って二つの光パターン信号
を出力する二つのラインセンサと、上記二つの光パター
ン信号を比較して上記被写体像の視差に基づく相対位置
差を、上記ラインセンサの配列ピッチの単位で算出する
ピッチ差算出手段と、上記ピッチ差算出手段の出力結果
に基づいて上記二つの光パターンの相対位置差を上記ピ
ッチよりも細かい精度で算出する演算制御手段とを具備
する測距装置であって、上記演算制御手段は、上記二つ
のラインセンサの出力信号を選択して減算を行い、この
減算結果に基づいて上記相対位置差を算出するためのセ
ンサ部分を決定することを特徴とする測距装置。 (6) 上記二つのラインセンサの出力アンバランス補
正情報を記憶する手段を具備し、上記算出されたピッチ
差に基づいて、上記出力アンバランス補正情報を選択
し、上記減算結果を補正する補正手段を有することを特
徴とする(5)に記載の測距装置。 (7) 視差を有する異なる視野から観測した被写体像
の輝度分布に基づいた二つの光パターン信号を出力する
二つのラインセンサと、上記二つの光パターン信号の第
一の部分同士を比較して上記被写体像の視差に基づく相
対位置差を、ラインセンサのピッチの単位で算出するピ
ッチ差算出手段と、上記ピッチ差算出手段の出力結果に
従って上記二つの光パターンの相対位置差を上記ライン
センサのピッチよりも細かい精度で算出する演算制御手
段と、を具備する測距装置であって、上記演算制御手段
は、上記ピッチよりも細かい精度で相対位置差を算出す
る場合に、上記ピッチ差算出結果に基づいて上記二つの
ラインセンサのうち上記第一の部分とは異なる第二の部
分を選択し、この部分の出力を比較して上記相対位置差
を演算することを特徴とする測距装置。 (8) 上記二つのラインセンサの出力アンバランス補
正情報を記憶する手段と、上記選択された位置差算出用
の第二部分の出力および上記出力アンバランス補正情報
に基づいて上記減算結果の補正の可否を決定する補正手
段と、を更に具備することを特徴とする(7)に記載の
測距装置。
(5) Two line sensors that output two light pattern signals in accordance with the accuracy distribution of the subject image observed from different visual fields having parallax, and compare the two light pattern signals to determine the parallax of the subject image. A pitch difference calculating means for calculating a relative position difference based on the unit of the arrangement pitch of the line sensor, and an accuracy finer than the pitch of the relative position difference between the two light patterns based on an output result of the pitch difference calculating means. And a calculation control means for calculating the relative position difference, wherein the calculation control means selects and subtracts the output signals of the two line sensors, and calculates the relative position difference based on the subtraction result. A distance measuring device for determining a sensor portion for calculation. (6) A means for storing the output imbalance correction information of the two line sensors, selecting the output imbalance correction information based on the calculated pitch difference, and correcting the subtraction result. The distance measuring apparatus according to (5), comprising: (7) The two line sensors that output two light pattern signals based on the luminance distribution of the subject image observed from different visual fields having parallax, and the first parts of the two light pattern signals are compared with each other. A pitch difference calculating means for calculating a relative position difference based on the parallax of the subject image in units of a pitch of the line sensor; and a relative position difference between the two light patterns according to an output result of the pitch difference calculating means. Calculation control means for calculating with a finer precision than the above, wherein the calculation control means calculates the relative position difference with a finer precision than the pitch, the calculation result of the pitch difference calculation result A second portion different from the first portion is selected from the two line sensors on the basis of the two line sensors, and the output of this portion is compared to calculate the relative position difference. The distance measuring device to be used. (8) means for storing output unbalance correction information of the two line sensors, and correction of the subtraction result based on the output of the selected position difference calculation second portion and the output unbalance correction information. (7) The distance measuring apparatus according to (7), further including: a correction unit that determines whether the distance is determined.

【0054】また、そのほかに次のような発明も含まれ
る。 (1' ) 視差を有する異なる視野から観測した被写体
像の輝度分布に従った二つの光パターン信号を出力する
二つのラインセンサと、上記二つの光パターン信号を比
較して上記被写体像の視差に基づく相対位置差を、上記
ラインセンサのピッチの単位で算出するピッチ差算出手
段と、上記ピッチ差算出手段の出力結果に従って、上記
ラインセンサの出力信号を選択し、その結果に従って上
記二つの光パターンの相対位置差を上記ラインセンサの
ピッチよりも細かい精度で算出する演算制御手段と、を
備えることを特徴とする測距装置。 (2' ) 上記ピッチ差算出手段は、ハードロジックの
電子回路で構成され、上記演算制御手段は、マイクロコ
ンピュータ及びソフトウェアで構成されていることを特
徴とする(1' )に記載の測距装置。 (3' ) 上記演算制御手段は、上記ラインセンサの出
力を記憶する記憶手段を具備し、上記ピッチ差算出手段
の出力結果に基づいて上記二つのラインセンサの一方の
出力を選択し、もう一方の出力との差の計算を行い、こ
の結果を上記記憶手段に記憶するように制御を行うこと
を特徴とする(1' )に記載の測距装置。 (4' ) 上記演算制御手段が、上記二つの光パターン
の相対位置差を上記ラインセンサのピッチよりも細かい
精度で算出する過程において、上記二つの光パターンの
差分を比較して上記ピッチ差算出手段の出力結果を判定
する機能を有し、上記ピッチ差算出手段の出力結果が正
しくないと判断した場合には、上記ピッチ差算出結果を
変更することを特徴とする(1' )に記載の測距装置。
In addition, the following inventions are also included. (1 ′) Two line sensors that output two light pattern signals according to the luminance distribution of the subject image observed from different visual fields having parallax, and compare the two light pattern signals to obtain a parallax of the subject image. A relative position difference based on the pitch sensor of the line sensor, and an output signal of the line sensor according to an output result of the pitch difference calculator, and the two light patterns according to the result. And a calculation control means for calculating the relative position difference with a precision finer than the pitch of the line sensor. (2 ') The distance measuring apparatus according to (1'), wherein the pitch difference calculating means is constituted by an electronic circuit of hard logic, and the arithmetic control means is constituted by a microcomputer and software. . (3 ′) The arithmetic control unit includes a storage unit that stores the output of the line sensor, selects one output of the two line sensors based on the output result of the pitch difference calculation unit, and selects the other output. The distance measuring apparatus according to (1 '), wherein the difference from the output of the distance measuring device is calculated, and control is performed such that the result is stored in the storage means. (4 ′) In the process in which the arithmetic control unit calculates the relative position difference between the two light patterns with a precision smaller than the pitch of the line sensor, the difference between the two light patterns is compared to calculate the pitch difference. (1 ') has a function of judging an output result of the means, and if the output result of the pitch difference calculating means is judged to be incorrect, the pitch difference calculation result is changed. Distance measuring device.

【0055】(5' ) 視差を有する異なる視野から観
測した被写体像の精度分布に従った二つの光パターン信
号を出力する二つのラインセンサと、上記二つの光パタ
ーン信号を比較して上記被写体像の視差に基づく相対位
置差を、上記センサの配列ピッチの単位で算出するピッ
チ差算出手段と、上記ピッチ差算出手段の出力結果に基
づいて上記二つの光パターンの相対位置差を上記ピッチ
よりも細かい精度で算出する演算制御手段と、から成る
測距装置において、上記演算制御手段は、上記二つのラ
インセンサの出力信号を選択して所定の減算を行い、こ
の減算結果に基づいて上記相対位置を算出するためのセ
ンサ部分を決定することを特徴とする測距装置。 (6' ) 上記二つのラインセンサの出力アンバランス
補正情報を記憶する手段を具備し、上記算出されたピッ
チの差に基づいて、上記出力アンバランス補正情報を選
択して上記減算結果を補正する補正手段を更に有するこ
とを特徴とする(5' )に記載の測距装置。
(5 ') Two line sensors for outputting two light pattern signals according to the precision distribution of the subject image observed from different visual fields having parallax, and comparing the two light pattern signals to obtain the subject image The relative position difference based on the parallax of the pitch difference calculating means for calculating in units of the array pitch of the sensor, the relative position difference between the two light patterns based on the output result of the pitch difference calculating means than the pitch And a calculation control means for calculating with fine precision, the calculation control means selects the output signals of the two line sensors and performs a predetermined subtraction, and based on the result of the subtraction, determines the relative position. A distance measuring device for determining a sensor part for calculating the distance. (6 ') means for storing the output imbalance correction information of the two line sensors, and selecting the output imbalance correction information based on the difference between the calculated pitches and correcting the subtraction result The distance measuring device according to (5 '), further comprising a correcting means.

【0056】(7' ) 視差を有する異なる視野から観
測した被写体像の輝度分布に従った二つの光パターン信
号を出力する二つのラインセンサと、上記二つの光パタ
ーン信号の第一の部分同士を比較して上記被写体像の視
差に基づく相対位置差を、上記ラインセンサのピッチの
単位で算出するピッチ差算出手段と、上記ピッチ差算出
手段の出力結果に基づいて上記二つの光パターンの相対
位置差を上記センサピッチよりも細かい精度で算出する
演算制御手段とから構成される測距装置において、上記
演算制御手段は、上記ラインセンサのピッチよりも細か
い精度で相対位置差を算出する場合に、上記ピッチ差算
出結果に基づいて二つの上記ラインセンサのうちの上記
第一の部分とは異なる第二の部分を選択し、この部分の
出力を比較して上記位置差を演算することを特徴とする
測距装置。 (8' ) 上記二つのラインセンサの出力アンバランス
補正情報を記憶する手段を更に備え、上記選択された位
置差算出用の第二の部分に基づいて、上記出力アンバラ
ンス補正情報を用いて上記減算結果を補正するか否かを
決定する補正手段を有することを特徴とする(7' )に
記載の測距装置。
(7 ′) Two line sensors that output two light pattern signals according to the luminance distribution of the subject image observed from different visual fields having parallax, and the first part of the two light pattern signals is connected to each other. A pitch difference calculating means for calculating a relative position difference based on the parallax of the subject image in units of a pitch of the line sensor; and a relative position of the two light patterns based on an output result of the pitch difference calculating means. A distance measuring device configured to calculate the difference with an accuracy smaller than the sensor pitch, wherein the arithmetic control unit calculates the relative position difference with an accuracy smaller than the pitch of the line sensor; Based on the pitch difference calculation result, select a second portion different from the first portion of the two line sensors, compare the output of this portion, and Distance measuring apparatus characterized by calculating the 置差. (8 ') means for storing output unbalance correction information of the two line sensors, and based on the selected position difference calculation second part, using the output unbalance correction information, The distance measuring apparatus according to (7 '), further comprising a correction means for determining whether to correct the subtraction result.

【0057】[0057]

【発明の効果】以上説明したように、本発明によれば、
パッシブタイプの測距装置の測距範囲を適切に切り替え
て、被写体の不必要な領域を測距することなく、なおか
つ高速な演算処理を可能とした測距装置が提供でき、こ
の適用により、正確なピント合わせが高速に行えるカメ
ラやビデオ等の撮影装置を提供することができる。ま
た、高速で高精度な測距が可能な電子システムとして、
必要となるメモリやプログラムの記憶容量が少なくても
構成できるカメラ等のための測距装置が提供できる。
As described above, according to the present invention,
By properly switching the range of the passive type distance measuring device, it is possible to provide a distance measuring device that enables high-speed arithmetic processing without measuring unnecessary areas of the subject. It is possible to provide a photographing device such as a camera and a video, which can perform high-speed focusing at high speed. In addition, as an electronic system capable of high-speed and high-accuracy ranging,
A ranging device for a camera or the like that can be configured with a small storage capacity of a required memory or program can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明の実施形態に係わる測距装置の
基本構造を示す構成図。
FIG. 1 is a configuration diagram showing a basic structure of a distance measuring apparatus according to an embodiment of the present invention.

【図2】 図2(a)〜(d)は本発明に係わる測距の
演算原理を示し、(a)は、焦点とずらし量との関係を
示すグラフ、(b)は、右側センサRのセンサ部分ごと
の信号出力を示すグラフ、(c)は、左側センサLのセ
ンサ部分ごとの信号出力を示すグラフ、(d)は、左右
のセンサ出力と隣接するセンサ部分の出力の関係を示す
グラフ。
FIGS. 2 (a) to 2 (d) show the calculation principle of distance measurement according to the present invention, FIG. 2 (a) is a graph showing a relationship between a focus and a shift amount, and FIG. (C) is a graph showing a signal output for each sensor portion of the left sensor L, and (d) is a graph showing a relationship between left and right sensor outputs and outputs of adjacent sensor portions. Graph.

【図3】 図3(a)〜(c)は相関演算と補間演算か
ら成る手順を示し、(a)は、ハードウエアによる処理
手順を示すフローチャート、(b)は、ソフトウエアに
よる処理手順を示すフローチャート、(c)は、ハード
ウエアとソフトウエアの組合せによる処理手順を示すフ
ローチャート。
FIGS. 3A to 3C show a procedure comprising a correlation operation and an interpolation operation, FIG. 3A is a flowchart showing a processing procedure by hardware, and FIG. 3B is a flowchart showing a processing procedure by software. FIG. 3C is a flowchart illustrating a processing procedure based on a combination of hardware and software.

【図4】図4は、ラインセンサと被写体との位置関係を
示す概念図。
FIG. 4 is a conceptual diagram showing a positional relationship between a line sensor and a subject.

【図5】図5は、本測距装置の相関手段としてのハード
ロジック回路を示す回路図。
FIG. 5 is a circuit diagram showing a hard logic circuit as a correlating means of the distance measuring apparatus.

【図6】図6は、本発明の測距装置の構成を詳しく示す
ブロック構成図。
FIG. 6 is a block diagram showing a detailed configuration of a distance measuring apparatus according to the present invention.

【図7】図7は、本測距装置の第1実施形態としての相
関演算の処理手順を示すフローチャート。
FIG. 7 is a flowchart illustrating a processing procedure of a correlation operation as the first embodiment of the distance measuring apparatus.

【図8】 図8(a),(b)は従来および本発明の使
用する演算エリアの比較を示し、(a)は、従来方式の
使用されるエリアを示す概念図、(b)は、本測距装置
で使用されるエリアを示す概念図。
8 (a) and 8 (b) show a comparison of operation areas used in the conventional method and the present invention, FIG. 8 (a) is a conceptual diagram showing an area used in the conventional method, and FIG. FIG. 3 is a conceptual diagram showing an area used in the distance measuring apparatus.

【図9】図9は、本測距装置の第2実施形態としての相
関演算の処理手順を示すフローチャート。
FIG. 9 is a flowchart illustrating a correlation calculation processing procedure according to the second embodiment of the distance measuring apparatus.

【図10】 図10(a)〜(c)は、被写体に関する
グラフと、従来および本発明の左右センサの誤差(補正
値)を格納するエリアを比較して示し、(a)は、被写
体が人物である場合の確率を示すグラフ、(b)は、従
来方式で使用される補正係数のエリアを示す概念図、
(c)は、本測距装置で使用されるエリアを示す概念
図。
FIGS. 10A to 10C show graphs related to a subject and areas for storing errors (correction values) of conventional and present left and right sensors, and FIG. A graph showing a probability of a person, (b) is a conceptual diagram showing an area of a correction coefficient used in a conventional method,
(C) is a conceptual diagram showing an area used in the present distance measuring device.

【図11】図11は、図2(d)に相当する各センサの
出力を示すグラフ。
FIG. 11 is a graph showing the output of each sensor corresponding to FIG. 2 (d).

【図12】 図12(a),(b)は、基準とする右セ
ンサと左右の各センサの出力を示し、(a)は、左右の
各センサの出力と差分を示すグラフ、(b)は、基準と
する右センサのセンサ単位と被写体との位置関係を示す
説明図。
12 (a) and 12 (b) show the outputs of the right sensor and the left and right sensors as references, FIG. 12 (a) is a graph showing the difference between the outputs of the left and right sensors and (b) FIG. 4 is an explanatory diagram showing a positional relationship between a sensor unit of a right sensor as a reference and a subject.

【図13】図13は、本測距装置の第3実施形態として
の補間演算の処理手順を示すフローチャート。
FIG. 13 is a flowchart illustrating a processing procedure of an interpolation calculation as a third embodiment of the distance measuring apparatus.

【図14】図14は、本測距装置のその他の実施形態と
しての相関演算の処理手順を示すフローチャート。
FIG. 14 is a flowchart illustrating a correlation calculation processing procedure as another embodiment of the distance measuring apparatus.

【図15】図15は、右センサを基準としずれ量の光が
左センサに入射する場合の各左センサ部分の出力を表す
[式1]を示す図。
FIG. 15 is a diagram showing [Equation 1] showing an output of each left sensor portion when light having a shift amount with respect to the right sensor is incident on the left sensor.

【図16】図16は、左右のセンサにおける差分による
[式2]を示す図。
FIG. 16 is a diagram showing [Equation 2] based on a difference between left and right sensors.

【図17】図17は、上記[式2]をさらに展開して表
した[式3]を示す図。
FIG. 17 is a diagram showing [Equation 3] obtained by further expanding and expressing the above [Equation 2].

【図18】図18は、補間演算により求まる最小値Fmi
n とSIFT量との関係を表す[式4]を示す図。
FIG. 18 is a diagram illustrating a minimum value Fmi obtained by an interpolation operation;
The figure which shows [Equation 4] showing the relationship between n and SIFT amount.

【符号の説明】[Explanation of symbols]

1a,1b…レンズ(センサ用)、 2a,2b…ラインセンサ、 3a,3b…信号出力波形、 4…A/D変換部、 5…演算部(相関手段)、 6…被写体、 7…出力部、 8…シャッタ、 9…EEPROM、 10…制御手段(CPU)、 12…繰り出し手段、 13…ズームレンズ、 14…演算用レジスタ、 15…RAM、 16…ROM、 17…演算手段、 18…レジスタ(汎用)、 19…ポート。 S1〜S16…本発明の第1、第2実施形態の処理ステ
ップ、 S1〜S40…本発明の第3実施形態の処理ステップ、 S51〜S61…本発明のその他の実施形態の処理ステ
ップ、 S101〜S104…ハードウエアによる演算処理ステ
ップ、 S105〜S108…ソフトウエアによる演算処理ステ
ップ、 S109〜S113…ハードウエアとソフトウエアによ
る演算処理ステップ。
1a, 1b: lens (for sensor), 2a, 2b: line sensor, 3a, 3b: signal output waveform, 4: A / D converter, 5: arithmetic unit (correlation means), 6: subject, 7: output unit Reference numeral 8 shutter, 9 EEPROM, 10 control means (CPU), 12 feeding means, 13 zoom lens, 14 calculation register, 15 RAM, 16 ROM, 17 calculation means, 18 register ( 19) port. S1 to S16: processing steps of the first and second embodiments of the present invention; S1 to S40: processing steps of the third embodiment of the present invention; S51 to S61: processing steps of other embodiments of the present invention; S104: arithmetic processing step by hardware; S105 to S108: arithmetic processing step by software; S109 to S113: arithmetic processing step by hardware and software.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 視差を有する一対の受光素子列によりそ
れぞれ被写体像を受光して、一対の被写体像信号列を出
力する受光手段と、 前記受光手段の出力を受け、前記一対の被写体像信号列
の第1の部分の相関値を出力する相関手段と、 前記一対の受光素子列のいずれか一方の受光素子列の全
部の被写体像信号列および、他方の受光素子列の被写体
像信号列のうち、第1の部分より狭い第2の部分の部分
的データのみを選択的に入力するデータ入力手段と、 当該入力されたデータに基づいて所定の補間演算を行う
補間手段と、を具備することを特徴とする測距装置。
1. A light receiving means for receiving a subject image by a pair of light receiving element rows having parallax and outputting a pair of subject image signal rows, and receiving the output of the light receiving means to receive the pair of subject image signal rows. A correlation means for outputting a correlation value of the first portion of the first and second light-receiving element arrays; Data input means for selectively inputting only partial data of a second part narrower than the first part, and interpolation means for performing a predetermined interpolation operation based on the input data. Characteristic ranging device.
【請求項2】 視差を有する一対の受光素子列によりそ
れぞれ被写体像を受光して、一対の被写体像信号列を出
力する受光手段と、 前記一対の被写体像信号列を第1の画素数を有する複数
のブロックに分割する手段と、 前記受光手段の出力を受け、前記一対の被写体像信号列
の相関値を出力する相関手段と、 前記相関値が所定の条件を満たす場合、前記ブロックを
第1の画素数よりも小さい第2の画素数に再設定する手
段と、 前記一対の受光素子列のいずれか一方の受光素子列の全
部の被写体像信号列および、他方の受光素子列の被写体
像信号列のうち、前記第2の画素数のデータのみを選択
的に入力するデータ入力手段と、 当該入力されたデータに基づいて所定の補間演算を行う
補間手段と、を具備することを特徴とする測距装置。
2. A light receiving means for receiving a subject image by a pair of light receiving element rows having parallax and outputting a pair of subject image signal rows, wherein the pair of subject image signal rows has a first number of pixels. Means for dividing into a plurality of blocks; correlation means for receiving an output of the light receiving means and outputting a correlation value of the pair of subject image signal strings; Means for resetting the number of pixels to a second number of pixels smaller than the number of pixels, and all of the object image signal rows of one of the pair of light receiving element rows and the subject image signal of the other light receiving element row Data input means for selectively inputting only the data of the second number of pixels in a column; and interpolating means for performing a predetermined interpolation operation based on the input data. Distance measuring device.
【請求項3】 視差を有する異なる視野から観測した被
写体像の輝度分布に従った二つの光パターン信号を出力
する二つのラインセンサと、 前記二つの光パターン信号を比較して前記被写体像の視
差に基づく相対位置差を前記ラインセンサの配列ピッチ
の単位で算出するピッチ差算出手段と、 前記ピッチ差算出手段の出力結果に基づいて、前記ライ
ンセンサの出力信号を選択し、この結果に基づき前記二
つの光パターンの相対位置差を前記センサピッチよりも
細かい精度にて算出する演算制御手段と、を具備し、 前記ピッチ差算出手段はハードロジック回路で構成さ
れ、前記演算制御手段はマイクロコンピュータ及びソフ
トウェアで構成されていることを特徴とする測距装置。
3. Two line sensors that output two light pattern signals according to a luminance distribution of a subject image observed from different visual fields having parallax; and comparing the two light pattern signals to generate a parallax of the subject image. Pitch difference calculating means for calculating a relative position difference based on the pitch of the line sensors in units of an array pitch, based on an output result of the pitch difference calculating means, selecting an output signal of the line sensor, and based on the result, Calculation control means for calculating the relative position difference between the two light patterns with a precision finer than the sensor pitch, wherein the pitch difference calculation means is constituted by a hard logic circuit, and the calculation control means is a microcomputer and A distance measuring device comprising software.
JP31341296A 1996-11-25 1996-11-25 Ranging device Expired - Fee Related JP3847390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31341296A JP3847390B2 (en) 1996-11-25 1996-11-25 Ranging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31341296A JP3847390B2 (en) 1996-11-25 1996-11-25 Ranging device

Publications (2)

Publication Number Publication Date
JPH10153409A true JPH10153409A (en) 1998-06-09
JP3847390B2 JP3847390B2 (en) 2006-11-22

Family

ID=18040980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31341296A Expired - Fee Related JP3847390B2 (en) 1996-11-25 1996-11-25 Ranging device

Country Status (1)

Country Link
JP (1) JP3847390B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100424579C (en) * 2004-03-08 2008-10-08 普立尔科技股份有限公司 The Fast Focusing Method of Digital Camera
JP2011170038A (en) * 2010-02-17 2011-09-01 Nikon Corp Correlation calculation device, correlation calculation method, focus detector and imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01191111A (en) * 1988-01-27 1989-08-01 Fuji Electric Co Ltd Relative position detection method for video pairs
JPH06308376A (en) * 1993-04-19 1994-11-04 Fuji Film Micro Device Kk Device and method for detecting phase-difference distance
JPH06308377A (en) * 1993-04-23 1994-11-04 Fuji Film Micro Device Kk Phase difference type distance detection device using both-phase shift type sensor
JPH0763552A (en) * 1993-08-27 1995-03-10 Omron Corp Photoelectric switch
JPH0798429A (en) * 1993-09-28 1995-04-11 Fuji Film Micro Device Kk Range finder
JPH07110436A (en) * 1993-10-13 1995-04-25 Fuji Film Micro Device Kk Range-finding device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01191111A (en) * 1988-01-27 1989-08-01 Fuji Electric Co Ltd Relative position detection method for video pairs
JPH06308376A (en) * 1993-04-19 1994-11-04 Fuji Film Micro Device Kk Device and method for detecting phase-difference distance
JPH06308377A (en) * 1993-04-23 1994-11-04 Fuji Film Micro Device Kk Phase difference type distance detection device using both-phase shift type sensor
JPH0763552A (en) * 1993-08-27 1995-03-10 Omron Corp Photoelectric switch
JPH0798429A (en) * 1993-09-28 1995-04-11 Fuji Film Micro Device Kk Range finder
JPH07110436A (en) * 1993-10-13 1995-04-25 Fuji Film Micro Device Kk Range-finding device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100424579C (en) * 2004-03-08 2008-10-08 普立尔科技股份有限公司 The Fast Focusing Method of Digital Camera
JP2011170038A (en) * 2010-02-17 2011-09-01 Nikon Corp Correlation calculation device, correlation calculation method, focus detector and imaging device

Also Published As

Publication number Publication date
JP3847390B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
US7474352B2 (en) Focus detection based on an opening pupil ratio
JP3491343B2 (en) Focus detection device and focus detection method
CN100357823C (en) Focus detection apparatus and control method thereof
JP4641502B2 (en) Focus detection apparatus and optical instrument
US10750079B2 (en) Focus adjustment device and focus adjustment method
JPH10153409A (en) Range finding device
US7154589B2 (en) Rangefinder apparatus
JP3806473B2 (en) Ranging device
JP3230759B2 (en) Distance measuring device
JP3938989B2 (en) Ranging device
JP2002250857A (en) Range finder
JP3798866B2 (en) Ranging device
JP2005250296A (en) Focusing device and focusing method
JP4632803B2 (en) Focus detection device
JP2005043256A (en) Distance measuring equipment
JP5065466B2 (en) Focus detection apparatus and optical instrument
JPH06103182B2 (en) Focus detection device
JP3211280B2 (en) Focus detection device
JPH09243358A (en) Passive type range finder
JP4069476B2 (en) Camera with focus detection device
JPH10122855A (en) Rangefinder
JPH06324258A (en) Passive type distance measuring instrument for autofocusing device
JPH1115048A (en) Range finder for camera
JPH0823624B2 (en) Focus detection device
JP2002228914A (en) Range finder

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130901

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees