[go: up one dir, main page]

JPH01214706A - Calibration method in three-dimensional shape measuring apparatus - Google Patents

Calibration method in three-dimensional shape measuring apparatus

Info

Publication number
JPH01214706A
JPH01214706A JP4015988A JP4015988A JPH01214706A JP H01214706 A JPH01214706 A JP H01214706A JP 4015988 A JP4015988 A JP 4015988A JP 4015988 A JP4015988 A JP 4015988A JP H01214706 A JPH01214706 A JP H01214706A
Authority
JP
Japan
Prior art keywords
dimensional
detection sensor
sensor unit
position detection
shape measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4015988A
Other languages
Japanese (ja)
Inventor
Kanji Hayashi
林 完爾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Original Assignee
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurabo Industries Ltd, Kurashiki Spinning Co Ltd filed Critical Kurabo Industries Ltd
Priority to JP4015988A priority Critical patent/JPH01214706A/en
Publication of JPH01214706A publication Critical patent/JPH01214706A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、対象物体の形状を測定する3次元形状計測
装置に用いられる1次元センサの設置位置を自動的に校
正するキャリブレーション法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a calibration method for automatically calibrating the installation position of a one-dimensional sensor used in a three-dimensional shape measuring device that measures the shape of a target object.

[従来の技術] まず、1次元位置検出センサユニットの原理を第3図(
A)を用いて説明する。
[Prior art] First, the principle of a one-dimensional position detection sensor unit is shown in Fig. 3 (
This will be explained using A).

Lは、円筒(シリンドリカル)レンズであす、円柱体を
両横方向から一様に押しつぶしたような形状をなし、そ
の中心軸方向Zは鉛直方向にセットされている。Sは、
円筒レンズLによる結像位置に水平方向に設けられた1
次元のラインセンサである。今、前記中心軸Zを中心と
して放射方向に延在する想像上の平面A、B、Cを想定
する。a、 b。
L is a cylindrical lens, which has the shape of a cylindrical body pressed uniformly from both lateral directions, and its central axis direction Z is set in the vertical direction. S is
1 provided horizontally at the image formation position by the cylindrical lens L.
It is a dimensional line sensor. Now, assume that imaginary planes A, B, and C extend in the radial direction about the central axis Z. a, b.

Cはそれぞれ平面A、B、C上に位置するドツトであり
、a+ 、 b+ 、 c+はそれぞれ円筒レンズLに
より結像した前記ドツトa、 b、 cに対する像であ
る。このように円筒レンズLを用いたとき、ドツトに対
する像は有限長のライン(焦線)となり、その向きは、
焦線と点光源を含む平面が光軸となす角によって決まる
C are dots located on the planes A, B, and C, respectively, and a+, b+, and c+ are images of the dots a, b, and c formed by the cylindrical lens L, respectively. When the cylindrical lens L is used in this way, the image for the dot becomes a line (focal line) of finite length, and its direction is
It is determined by the angle that the plane containing the focal line and the point light source makes with the optical axis.

今、ドツトaが平面A上で矢印に、に示すように下方向
に移動すると、この時の像a°は、矢印に1に示すよう
に上方向に移動する。又、前記ドラ)aが矢印に、に示
すように、円筒レンズLの方向に移動すれば、そのとき
の像a゛は同位置である。これよりわかるように、平面
A上のドツトaが移動しても、これに対する像a°にお
けるラインセンサSのライン方向(X方向)の位置は不
変である。言い替えれば、1次元位置検出センサユニッ
トの測定値である1次元座標Xがわかれば、ドラl−a
を含む平面Aを特定できる。それ故、第4図に示すごと
く、このような装置(以下センサユニットと言う)3台
(U、 U’、 U”)を異なる位置に、かつ、各々の
ラインセンサS、S”、S”が共に同一方向とならない
ように配しておき、スポット光を対象物JのP点に照射
した時、それぞれのセンサユニットU、 U’、 U”
で得た前記照射点Pに対するラインセンサs、s’、s
″上の結像位置S 11 S ’ II S″iからそ
れぞれ一つの平面が特定されれば、その3つの平面から
その交点を求め、前記P点の3次元物体座標を演算する
ことができる。このようなスポット光の照射点Pを対象
物J上に順次走査すれば対象物全体を3次元の座標とし
て捕らえることができる。
Now, when dot a moves downward as shown by arrow 1 on plane A, image a° at this time moves upward as shown by arrow 1. Moreover, if the said driver (a) moves in the direction of the cylindrical lens L as shown by the arrow, the image a' at that time is at the same position. As can be seen from this, even if the dot a on the plane A moves, the position of the line sensor S in the image a° relative to the dot a in the line direction (X direction) remains unchanged. In other words, if the one-dimensional coordinate X, which is the measured value of the one-dimensional position detection sensor unit, is known, the driver la
It is possible to specify a plane A that includes Therefore, as shown in Fig. 4, three such devices (hereinafter referred to as sensor units) (U, U', U'') are placed at different positions, and each line sensor S, S'', S'' are arranged so that they are not in the same direction, and when the spot light is irradiated on point P of the object J, the respective sensor units U, U', U''
Line sensors s, s', s for the irradiation point P obtained in
If one plane is specified from each of the imaging positions S 11 S ′ II S ″i on the image plane S 11 S ′ II S″i, it is possible to find the intersection of the three planes and calculate the three-dimensional object coordinates of the point P. By sequentially scanning the irradiation point P of such a spot light onto the object J, the entire object can be captured as three-dimensional coordinates.

第3図(B)は、1次元位置検出センサユニットとして
、凸レンズ31を用いたものを示していて、この場合は
、ドツトa、 b、 cに対する像は2次元の平面上に
結像するので、位置検出センサユニットとして1次元分
割型のエリアセンサ32を用いる必要がある。
FIG. 3(B) shows a one-dimensional position detection sensor unit using a convex lens 31. In this case, images of dots a, b, and c are formed on a two-dimensional plane, so , it is necessary to use a one-dimensionally divided area sensor 32 as a position detection sensor unit.

[発明が解決しようとする課題] このような計測装置においては、物体座標系におけるセ
ンサユニットU、 U’、 U”のレンズL、 L’。
[Problems to be Solved by the Invention] In such a measuring device, the lenses L and L' of the sensor units U, U', and U'' in the object coordinate system.

L”の中心の空間座標やその向きを検出するキャリブレ
ーションの作業が不可欠である。ところが、それぞれの
センサユニットをキャリブレーションするには、光学ベ
ンチ上で位置決めする等の大掛かりな計測系を用いなく
てはならず、しかも、光学ベンチで求めたセンサユニッ
トの位置姿勢をそのまま保持して移動することは極めて
困難であった。
Calibration work to detect the spatial coordinates of the center of L" and its orientation is essential. However, in order to calibrate each sensor unit, it is difficult to calibrate each sensor unit without using a large-scale measurement system such as positioning it on an optical bench. Furthermore, it is extremely difficult to move the sensor unit while maintaining its position and orientation determined on the optical bench.

この発明は、計測対象に対し現場で3つ以上の1次元位
置検出センサユニットを任意に配置したときに、計測対
象を含む任意の物体座標系における1次元位置検出セン
サユニットの位置及びその姿勢を自動的に決定するキャ
リブレーション法を提供する。
This invention enables the position and orientation of the one-dimensional position detection sensor unit in an arbitrary object coordinate system including the measurement target to be determined when three or more one-dimensional position detection sensor units are arbitrarily arranged in the field with respect to the measurement target. Provides a calibration method that automatically determines.

[課題を解決するための手段] この発明の3次元形状計測装置におけるキャリブレーシ
ョン法は、被測定対象物の表面にスポット光を照射する
スポット光照射手段と、3箇所以上に配した1次元位置
検出センサユニットとを備え、前記1次元位置検出セン
サユニット上の前記スポット光の結像位置からスポット
光の3次元座標を計測するための3次元形状計測装置に
おいて、物体座標系で座標位置が既知の複数の基準光源
を順次、1次元位置検出センサユニットで検出し、その
検出結果に基づき、測定対象物体に対し、自由な位置に
置いた該1次元位置検出センサユニットの設定位置及び
向きのキャリブレーションを行うことを特徴とする。
[Means for Solving the Problems] The calibration method in the three-dimensional shape measuring device of the present invention includes a spot light irradiation means that irradiates the surface of the object to be measured with spot light, and one-dimensional positioning means arranged at three or more locations. a detection sensor unit, the three-dimensional shape measuring device for measuring three-dimensional coordinates of the spot light from the imaging position of the spot light on the one-dimensional position detection sensor unit, wherein the coordinate position is known in an object coordinate system. A one-dimensional position detection sensor unit sequentially detects a plurality of reference light sources, and based on the detection results, calibrates the set position and orientation of the one-dimensional position detection sensor unit placed at a free position relative to the object to be measured. It is characterized by performing a tion.

[実施例] 第1図は、この発明のキャリブレーション法を適用した
3次元形状計測装置の1実施例を示している。
[Embodiment] FIG. 1 shows an embodiment of a three-dimensional shape measuring device to which the calibration method of the present invention is applied.

Uは、光点の1次元結像位置を検出するユニットで、既
述した1次元位置検出センサユニットS。
U is a unit that detects a one-dimensional imaging position of a light spot, and is the one-dimensional position detection sensor unit S described above.

ビデオアンプ11.ピークホールド回路12゜A/Dコ
ンバータ13.ピーク位置・波高値検出回路14からな
る。
Video amplifier 11. Peak hold circuit 12° A/D converter 13. It consists of a peak position/wave height value detection circuit 14.

14は、ピーク位置・波高値検出回路であり、A/Dコ
ンバータ13からの値に基づき1次元位置検出センサS
の画素の内、検出信号のピーク中心となった位置とその
波高値とを検出する。このようにピーク中心を求めるの
は、1次元位置検出センサS上に結像した照射点Pに対
する像は対象物Jとレンズ系との間の距離変化によるぼ
け9円筒レンズLの周辺歪、対象物Jの反射率等の影響
により一般に複数の画素にまたがった像を結ぶためであ
り、又、波高値を検出するのは、検出したデータが周囲
の照明等による反射光でなく、実際にスポット光による
ものかの判別を検出レベルにより行うためである。この
ピーク位置・波高値検出回路14で得られたデータは次
に説明する形状計測部100に入力される。
14 is a peak position/wave height value detection circuit, which detects a one-dimensional position detection sensor S based on the value from the A/D converter 13.
The position of the peak center of the detection signal and its peak value among the pixels are detected. The reason for finding the peak center in this way is that the image of the irradiation point P formed on the one-dimensional position detection sensor S is blurred due to changes in the distance between the object J and the lens system. This is because an image spanning multiple pixels is generally formed due to the influence of the reflectance of the object J, and the wave height value is detected because the detected data is not reflected light from surrounding lighting, etc., but is based on the actual spot. This is to determine whether it is caused by light or not based on the detection level. The data obtained by this peak position/crest value detection circuit 14 is input to a shape measuring section 100, which will be described next.

尚、第1図では1次元位置検出センサユニットUのみ示
したが他のセンサユニットU’、 U”も同一の構成の
ものであり、第4図に示したごとく配置されているもの
とする。
Although FIG. 1 shows only the one-dimensional position detection sensor unit U, it is assumed that the other sensor units U' and U'' have the same configuration and are arranged as shown in FIG. 4.

次に形状計測部100について説明する。21は、各1
次元位置検出センサユニットU、U’、U”で得られた
1次元の位置データから対象物Jの照射点Pの3次元座
標を演算するための物体表面座標演算回路である。
Next, the shape measuring section 100 will be explained. 21 is 1 each
This is an object surface coordinate calculation circuit for calculating the three-dimensional coordinates of the irradiation point P of the object J from the one-dimensional position data obtained by the dimensional position detection sensor units U, U', and U''.

今、物体座標系におけるP点に対する各ラインセンサs
、s’、s”上における結像位置を、Sα、S′α、S
”αとしたとき、各1次元位置検出ユニットの位置と姿
勢が知れていれば、物体座標系におけるP点の座標(X
α、Yα、2α)が計算できる。
Now, each line sensor s for point P in the object coordinate system
, s', s'' are expressed as Sα, S'α, S
If the position and orientation of each one-dimensional position detection unit are known, the coordinates of point P (X
α, Yα, 2α) can be calculated.

22は、各センサユニットU、 U’、 U”の座標及
び姿勢を表す上記の各パラメータを対象物Jの測定開始
前に自動的に計測するためのキャリブレーション演算回
路であり、ここでこの発明に係わるセンサユニットのキ
ャリブレーション法を述べる。
22 is a calibration calculation circuit for automatically measuring each of the above-mentioned parameters representing the coordinates and orientation of each sensor unit U, U', U'' before starting measurement of the object J; This section describes a method for calibrating the sensor unit related to this.

今、所定数の基準光源P、、P、・・・の既知の座標を
(X、、Y、、Zυ、(X2.Y、z、)・・・とじ、
そのときの各1次元位置検出センサs、 s’、 s”
での結像位置を、(s、、s’、、s”+)、(S t
、S’ t、S”、)・・・とすると、これらの値を用
いて各1次元位置検出センサユニットU、 U’、 U
”の位置及び姿勢を表すパラメータを得ている。その具
体的方法を次に説明する。
Now, the known coordinates of a predetermined number of reference light sources P,,P,... are bound to (X,,Y,,Zυ,(X2.Y,z,)...,
At that time, each one-dimensional position detection sensor s, s', s''
Let the imaging position at (s,,s',,s''+),(S t
, S' t, S'', )..., each one-dimensional position detection sensor unit U, U', U is calculated using these values.
We have obtained parameters representing the position and orientation of ``.The specific method will be explained next.

第2図において、Pは、1次元検出センサの前方に配し
た物体座標系での3次元座標が既知の基準光点の位置ベ
クトルであり、P、は、光軸と、P点より光軸に対して
下した垂線との交点を示す。
In Fig. 2, P is the position vector of a reference light point whose three-dimensional coordinates are known in the object coordinate system placed in front of the one-dimensional detection sensor, and P is the optical axis and the optical axis from the point P. Indicates the intersection with the perpendicular line drawn against.

また、レンズ中心の位置ベクトルQと、ラインセンサS
との距離をfとすれば、 が得られる。ここでU (uvr uvr uz)+ 
V (wx+ Wy+ Wz)は、レンズLの姿勢を示
す単位ベクトルであり、又、h=Q−W、  g=Q−
Uとすると、本来、1次元位置検出センサユニットの位
置と姿勢を定めるには、L h* f+ uvr uY
+ uvr Wx+ wv* Wzの10個の未知数を
知る必要があるが、上記(2)式ではそれらを組み合わ
せた次式の7個のパラメータjl+F+・・・t7を知
るだけで3次元計測ができることがわかる。
Also, the position vector Q of the lens center and the line sensor S
If the distance from Here U (uvr uvr uz)+
V (wx+Wy+Wz) is a unit vector indicating the attitude of the lens L, and h=Q-W, g=Q-
If U, originally, to determine the position and orientation of the one-dimensional position detection sensor unit, L h* f+ uvr uY
+ uvr Wx + wv* It is necessary to know the 10 unknowns Wz, but in the above equation (2), three-dimensional measurement can be performed just by knowing the seven parameters jl + F + ... t7 of the following equation that combines them. Recognize.

従って1次元位置検出センサユニットの姿勢パラメータ
t I+・・・t、を求める自動キャリブレーションは
以下の手順で行なえる。
Therefore, automatic calibration for determining the attitude parameters t I+ . . . t of the one-dimensional position detection sensor unit can be performed by the following procedure.

(3)式において、a、 b、 cは、基準光点源の3
次元座標、Sは当該基準光点を1次元位置検出センサで
測定した値であり、いずれも既知である。この(3)式
を掛は算の式に書き直せば、7個の姿勢パラメータを含
む一つの式になる。従って7個以上の基準光源P 1(
ai、 bi、 ci)をi = 1.2.−、 Nに
対して、(4)式を連立させて解くことにより、上記の
パラメータを得ることができる。
In equation (3), a, b, and c are the 3 points of the reference light point source.
The dimensional coordinates S are values measured by a one-dimensional position detection sensor at the reference light point, and both are known. If this equation (3) is rewritten as a multiplication equation, it becomes one equation including seven posture parameters. Therefore, seven or more reference light sources P1(
ai, bi, ci) with i = 1.2. −, N, the above parameters can be obtained by simultaneously solving equations (4).

N個の基準光点の既知座標とその測定値から得られる斉
次方程式は、 Dt=s        ・・・(4)以上により、未
知の姿勢パラメータベクトルであるtを求める最小自乗
解は、 t −(DtD)−ID’s    ・・・(5)但し
DはDの転置行列である。
The homogeneous equation obtained from the known coordinates of N reference light points and their measured values is: Dt=s... (4) From the above, the least squares solution for finding the unknown attitude parameter vector t is: t - (DtD)-ID's (5) where D is the transposed matrix of D.

このように(3)式の姿勢パラメータtI・・・t7は
N個の基準光点を順次測定するだけで(5)式より自動
的に定まる。すべての姿勢パラメータが定まった後、計
測点である未知の投影点の3次元座標(x、 y、 z
)を求めるには、(2)式を変形し、−s −t、  
 ・・・(6) とし、3つのセンシングユニットによって計測される測
定値S++82+83を上式に入れて3元連立方程式を
解いて計測点のX、 Y、 Zを求めることができる。
In this way, the posture parameters tI...t7 in equation (3) are automatically determined from equation (5) by simply measuring the N reference light points in sequence. After all posture parameters are determined, the three-dimensional coordinates (x, y, z
), by transforming equation (2), -s -t,
...(6) By putting the measured values S++82+83 measured by the three sensing units into the above equation and solving the three-dimensional simultaneous equations, it is possible to obtain the X, Y, and Z of the measurement point.

第1図に戻り、23は、物体表面座標演算回路21で逐
次演算された対象物Jの表面座標を記憶する記憶回路で
あり、ここで蓄えられたデータは外部の記憶装置に記憶
させたり、外部に記憶させたデータを該記憶回路23に
取り込めるようになっている。24は、3次元の座標デ
ータから、CRT表示管のような表示管に表示させるた
めの形状構成演算回路であり、例えばワイヤーフレーム
法を用いることにより3次元的なグラフィックス表示が
行えるようになっている。
Returning to FIG. 1, 23 is a memory circuit that stores the surface coordinates of the object J calculated sequentially by the object surface coordinate calculation circuit 21, and the data stored here can be stored in an external storage device or Data stored externally can be taken into the storage circuit 23. 24 is a shape configuration calculation circuit for displaying three-dimensional coordinate data on a display tube such as a CRT display tube; for example, three-dimensional graphics display can be performed by using the wire frame method. ing.

25は、前記スキャナ10を回動させてレーザー光源9
よりのスポット光を対象物J上に走査させるためのレー
ザースキャナ駆動装置であり、26は、前記レーザース
キャナ駆動装置25を制御するためのレーザースキャナ
制御回路である。27は、レーザースキャナ制御回路2
6に対して測定対象の計測範囲や計測パターンを予めジ
ョイスティック等により設定しておくための走査パス教
示、自動設定回路であり、これにより、予め教示したパ
ス域あるいは指定されたパスにそってスポット光の走査
が行えるようになっている。28は、前記物体表面座標
演算回路21で得られた座標データから対象物Jのエツ
ジや穴等の特徴点を抽出する特徴抽出回路であり、この
特徴抽出回路28より例えばエツジが抽出されたときに
は、このエツジ外で走査を打ち切り、別の位置にて走査
を行うといった適切な制御がなされるようになっている
25 rotates the scanner 10 to connect the laser light source 9
26 is a laser scanner control circuit for controlling the laser scanner driving device 25; 27 is the laser scanner control circuit 2
This is a scanning path teaching and automatic setting circuit for setting the measurement range and measurement pattern of the measurement target in advance using a joystick etc. Light scanning is possible. Reference numeral 28 denotes a feature extraction circuit that extracts feature points such as edges and holes of the object J from the coordinate data obtained by the object surface coordinate calculation circuit 21. When an edge is extracted by this feature extraction circuit 28, for example, , the scanning is stopped outside this edge, and the scanning is performed at another position.

次に上記の形状計測装置を用いた測定方法を述べる。Next, a measurement method using the above shape measuring device will be described.

まず、任意の位置に配置した3台のセンサユニットU、
U”、U”の物体座標系における位置及び姿勢をキャリ
ブレーションするために、センサユニットの測定領域内
に、座標が既知の校正用基準点光源mを複数個設けた光
源台Mを設置する。光源の個数は必要測定精度によって
決まり、必要測定精度が0.1%の場合には数十個用い
る。
First, three sensor units U placed at arbitrary positions,
In order to calibrate the positions and orientations of U'' and U'' in the object coordinate system, a light source stand M is installed within the measurement area of the sensor unit, which is provided with a plurality of calibration reference point light sources m whose coordinates are known. The number of light sources is determined by the required measurement accuracy, and if the required measurement accuracy is 0.1%, several dozen light sources are used.

そして、スイッチSWlを校正側に切り替えた後、基準
点光源mを順次点灯させ、その都度、3台のセンサユニ
ットU、 U’、 U”により各リニアセンサs、s’
、s”における点灯光源の結像位置を検出し、その検出
結果を自動キャリブレーション回路22に送出する。必
要数の基準点光源に対する計測が終了すれば、不図示の
演算開始釦を押すことにより、自動キャリブレーション
演算回路22にて、センサユニットU、 U’、 U”
の各座標及び姿勢が、既述したような方法により演算さ
れ、その演算結果はパラメータとして物体表面座標演算
回路21に送出される。これで、各センサユニットU、
 U’、 U’”の設置位置に対する校正が終了する。
Then, after switching the switch SWl to the calibration side, the reference point light source m is turned on in sequence, and each time, each linear sensor s, s' is detected by the three sensor units U, U', U''.
, s", and sends the detection result to the automatic calibration circuit 22. When the measurement for the required number of reference point light sources is completed, by pressing a calculation start button (not shown). , in the automatic calibration calculation circuit 22, the sensor units U, U', U''
The coordinates and orientation of the object are calculated by the method described above, and the calculation results are sent as parameters to the object surface coordinate calculation circuit 21. Now each sensor unit U,
The calibration for the installation positions of U' and U''' is completed.

次に対象物Jの表面座標を計測する際の手順について説
明する。
Next, a procedure for measuring the surface coordinates of the object J will be explained.

まず、前記切り替えスイッチSWlを測定側に切り替え
、そして切り替えスイッチSW、を操作バス教示、自動
設定回路側に切り替える。次に対象物Jを含む測定領域
に対してレーザ光源9よりのスポット光が照射されるよ
う、操作バス教示。
First, the changeover switch SWl is switched to the measurement side, and then the changeover switch SW is switched to the operation bus teaching/automatic setting circuit side. Next, the operation bus is taught so that the measurement area including the object J is irradiated with a spot light from the laser light source 9.

自動設定回路27からスキャナ10の回動範囲を設定す
る。その後、不図示のスキャナ開始釦を押す。これによ
り、スキャナ10は、レーザスキャナ駆動装置25によ
り駆動され、レーザ光源9よりのスポット光は、対象物
Jの表面に対してド。
The rotation range of the scanner 10 is set from the automatic setting circuit 27. After that, a scanner start button (not shown) is pressed. Thereby, the scanner 10 is driven by the laser scanner driving device 25, and the spot light from the laser light source 9 is directed onto the surface of the object J.

ト単位で照射され順次走査されるようになる。The light is irradiated in units of images and scanned sequentially.

このとき、対象物に対する各照射点が3台のセンサユニ
ットU、 U’、 U”により1次元の座標データとし
て計測され、形状計測部100の物体表面座標演算回路
21に送出される。物体表面座標演算回路21では、既
述した計算式に従って、3つの1次元の座標データと前
記パラメータとから、前記照射点に対する3次元座標が
演算され、その結果は記憶回路23に逐次記憶される。
At this time, each irradiation point on the object is measured as one-dimensional coordinate data by the three sensor units U, U', U'', and sent to the object surface coordinate calculation circuit 21 of the shape measurement section 100. The coordinate calculation circuit 21 calculates the three-dimensional coordinates of the irradiation point from the three one-dimensional coordinate data and the parameters according to the calculation formula described above, and the results are sequentially stored in the storage circuit 23.

このようにして対象物Jの全表面に対する計測が終了し
、記憶回路23にその全データが記憶されれば、そのデ
ータは、外部の磁気記憶装置等に保存したり、あるいは
、形状構成演算回路24を通して所定のデータに変換し
て外部の表示デイスプレィに3次元的に表示することが
できる。
When the measurement of the entire surface of the object J is completed in this way and all the data is stored in the storage circuit 23, the data can be stored in an external magnetic storage device or the like, or can be stored in the shape configuration calculation circuit. 24, the data can be converted into predetermined data and displayed three-dimensionally on an external display.

次に、対象物J上の穴の座標及び穴径を計測する場合に
ついて説明する。
Next, a case will be described in which the coordinates and hole diameter of a hole on the object J are measured.

前記スイッチSW、を特徴抽出回路側に切り替えると、
物体表面座標演算回路21からの検出データから、該特
徴抽出回路28内のアルゴリズムによりその形状特徴が
抽出され、その抽出したデータをレーザスキャナ制御回
路26にフィードバックさせることにより、エツジや穴
部の形状が都合よく計測できるようになっている。
When the switch SW is switched to the feature extraction circuit side,
From the detection data from the object surface coordinate calculation circuit 21, the algorithm in the feature extraction circuit 28 extracts its shape features, and by feeding back the extracted data to the laser scanner control circuit 26, the shape of edges and holes is extracted. can be conveniently measured.

[発明の効果コ この発明は、3次元形状計測装置のセンサユニットのキ
ャリブレーションに際し、座標が既知の複数の基準光源
を検出し、その検出結果に基づいてセンサユニットの位
置及び向きを自動演算するようにしたので、煩雑であっ
たキャリブレーションの作業が容易となり、その結果、
測定の毎にセンサユニットを任意の適切な場所に設置で
きるようになる。
[Effects of the Invention] This invention detects a plurality of reference light sources whose coordinates are known when calibrating a sensor unit of a three-dimensional shape measuring device, and automatically calculates the position and orientation of the sensor unit based on the detection results. As a result, the complicated calibration work has become easier, and as a result,
The sensor unit can be installed at any suitable location for each measurement.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、この発明を適用した3次元形状計測装置の制
御ブロック図、第2図は、この発明の詳細な説明するた
めの図、第3図(A)は、円筒レンズの機能を説明する
ための図、第3図(B)は、凸レンズ及び1次元分割型
エリアセンサを用いた1次元位置検出センサユニットの
概略図、第4図は、3次元形状計測装置の概略システム
図である。 U・・・センサユニット、S・・・1次元位置検出セン
サ、L・・・円筒レンズ、100・・・形状計測部、2
2・・・自動キャリブレーション演算回路、M・・・光
源台、m・・・基準光源。 特許出願人  倉敷紡績株式会社 代理人 弁理士  前出 葆 外2名 謝
FIG. 1 is a control block diagram of a three-dimensional shape measuring device to which this invention is applied, FIG. 2 is a diagram for explaining the invention in detail, and FIG. 3 (A) is for explaining the function of a cylindrical lens. Figure 3 (B) is a schematic diagram of a one-dimensional position detection sensor unit using a convex lens and a one-dimensional divided area sensor, and Figure 4 is a schematic system diagram of a three-dimensional shape measuring device. . U...Sensor unit, S...One-dimensional position detection sensor, L...Cylindrical lens, 100...Shape measurement unit, 2
2...Automatic calibration calculation circuit, M...Light source stand, m...Reference light source. Patent applicant: Kurashiki Boseki Co., Ltd. Agent: Patent attorney: Mr. Maeda, and two others:

Claims (1)

【特許請求の範囲】[Claims] (1)被測定対象物の表面にスポット光を照射するスポ
ット光照射手段と、3箇所以上に配した1次元位置検出
センサユニットとを備え、前記1次元位置検出センサユ
ニット上の前記スポット光の結像位置からスポット光の
3次元座標を計測するための3次元形状計測装置におい
て、物体座標系で座標位置が既知の複数の基準光源を順
次、1次元位置検出センサユニットで検出し、その検出
結果に基づき、測定対象物体に対し、自由な位置に置い
た該1次元位置検出センサユニットの設定位置及び向き
のキャリブレーションを行うことを特徴とする3次元形
状計測装置におけるキャリブレーション法。
(1) A spot light irradiation means for irradiating the surface of the object to be measured with spot light, and one-dimensional position detection sensor units arranged at three or more locations, and the spot light on the one-dimensional position detection sensor unit is provided. In a three-dimensional shape measuring device for measuring the three-dimensional coordinates of a spot light from an imaging position, a one-dimensional position detection sensor unit sequentially detects multiple reference light sources whose coordinate positions are known in an object coordinate system. A calibration method for a three-dimensional shape measuring device, characterized in that, based on the results, the set position and orientation of the one-dimensional position detection sensor unit placed at a free position with respect to the object to be measured are calibrated.
JP4015988A 1988-02-23 1988-02-23 Calibration method in three-dimensional shape measuring apparatus Pending JPH01214706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4015988A JPH01214706A (en) 1988-02-23 1988-02-23 Calibration method in three-dimensional shape measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4015988A JPH01214706A (en) 1988-02-23 1988-02-23 Calibration method in three-dimensional shape measuring apparatus

Publications (1)

Publication Number Publication Date
JPH01214706A true JPH01214706A (en) 1989-08-29

Family

ID=12572983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4015988A Pending JPH01214706A (en) 1988-02-23 1988-02-23 Calibration method in three-dimensional shape measuring apparatus

Country Status (1)

Country Link
JP (1) JPH01214706A (en)

Similar Documents

Publication Publication Date Title
US10573010B2 (en) Measuring device
US7177459B1 (en) Robot system having image processing function
JP4221768B2 (en) Method and apparatus for positioning an object in space
US5661671A (en) Bending angle detecting position setting device
US7502504B2 (en) Three-dimensional visual sensor
US20100131235A1 (en) Work system and information processing method
JPH02143309A (en) Operation method and apparatus
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
JPH06147863A (en) Bending angle detector for bending machine
JP2509357B2 (en) Work position detector
JP2001148025A5 (en)
JP2005509879A (en) Method for determining corresponding points in 3D measurement
JPH1038533A (en) Instrument and method for measuring shape of tire
JP2008014882A (en) 3D measuring device
GB2314621A (en) Calibrating camera image fields
JPH06229741A (en) Method and apparatus for inspecting transparent planar item
CN110109143B (en) Pose calibration method and device for multi-line laser radar and IMU
WO2003042924A1 (en) Connection of point clouds measured by a computer vision system
JPH01214706A (en) Calibration method in three-dimensional shape measuring apparatus
JP4077755B2 (en) POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD
JP2902608B2 (en) 3D measurement method
CN101113891A (en) Optical measuring machine
JP3195850B2 (en) Method and apparatus for measuring three-dimensional position on curved surface
JPH1047940A (en) Measuring plate, wheel alignment measuring device and wheel alignment measuring method
JP3007091B2 (en) Configuration of optical three-dimensional coordinate input device