JPH06229732A - Spot light beam scanning three-dimensional visual sensor - Google Patents
Spot light beam scanning three-dimensional visual sensorInfo
- Publication number
- JPH06229732A JPH06229732A JP3240793A JP3240793A JPH06229732A JP H06229732 A JPH06229732 A JP H06229732A JP 3240793 A JP3240793 A JP 3240793A JP 3240793 A JP3240793 A JP 3240793A JP H06229732 A JPH06229732 A JP H06229732A
- Authority
- JP
- Japan
- Prior art keywords
- light
- measurement
- dimensional
- scanning
- light beam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 99
- 230000003287 optical effect Effects 0.000 description 24
- 238000000034 method Methods 0.000 description 20
- 238000009826 distribution Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000004907 flux Effects 0.000 description 11
- 238000012951 Remeasurement Methods 0.000 description 8
- 238000005452 bending Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000002950 deficient Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- TVEXGJYMHHTVKP-UHFFFAOYSA-N 6-oxabicyclo[3.2.1]oct-3-en-7-one Chemical compound C1C2C(=O)OC1C=CC2 TVEXGJYMHHTVKP-UHFFFAOYSA-N 0.000 description 1
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Landscapes
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、例えばロボットによる
機械部品の組立作業のように、ロボットあるいは他の各
種FA機器を用いて自動化作業を行う製造ライン等にお
いて使用される視覚センサに関し、更に詳しく言えば、
所定形状の光を被計測対象物に投射し、それをビデオカ
メラで観測して被計測対象物の3次元的な位置、姿勢、
形状等を計測(以下、単に「3次元計測」という。)す
る3次元視覚センサに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a visual sensor used in a manufacturing line for performing automated work using a robot or other various FA equipment, such as a work for assembling mechanical parts by a robot. Speaking of
The light of a predetermined shape is projected onto the object to be measured, which is observed by a video camera, and the three-dimensional position and orientation of the object to be measured,
The present invention relates to a three-dimensional visual sensor that measures a shape or the like (hereinafter, simply referred to as “three-dimensional measurement”).
【0002】[0002]
【従来の技術】産業用ロボット、各種FA機器を用いて
各種作業を自動化するシステムを構築する場合や、知能
ロボットのインテリジェント化を図る場合においては、
視覚センサの果たす役割が大きい。特に、ロボットを含
むシステムによる作業の自動化において、ワークの位
置、姿勢、形状等の計測に視覚センサが多く用いられて
いる。2. Description of the Related Art In the case of constructing a system for automating various works by using an industrial robot or various FA equipments, or in the case of making an intelligent robot intelligent,
The visual sensor plays a large role. In particular, in automation of work by a system including a robot, visual sensors are often used to measure the position, posture, shape, etc. of a work.
【0003】このような用途を有する視覚センサは、そ
の機能によって、2次元測定用のものと、3次元測定用
のものとに分けられるが、被計測対象物の3次元的な位
置、姿勢、形状等を計測する必要がある場合には、後者
の3次元視覚センサが使用される。3次元視覚センサ
は、一般に、ビデオカメラで捕捉された2次元画像上の
点の3次元位置を定める為の手段を備えている。該手段
として種々の型のものが提案されているが、その内の多
くは三角測量の原理を応用したものであり、中でもスリ
ット状の光を対象物に所定の方向から投射し、対象物上
に周辺よりも高輝度の光帯を形成させ、これをビデオカ
メラで観測して対象物の3次元計測を行なうものが代表
的である。The visual sensor having such a purpose can be classified into a two-dimensional measuring one and a three-dimensional measuring one according to its function. The latter three-dimensional visual sensor is used when it is necessary to measure the shape and the like. A three-dimensional visual sensor generally comprises means for determining the three-dimensional position of a point on a two-dimensional image captured by a video camera. Various types have been proposed as the means, but most of them are based on the principle of triangulation. Above all, slit-shaped light is projected onto a target object from a predetermined direction to A typical example is one in which a light band having a higher brightness than that of the surrounding area is formed, and this is observed by a video camera to perform three-dimensional measurement of the object.
【0004】このような方式による3次元視覚センサ
は、ステレオ視の方式を採用した場合に不可避な対応点
検出の問題が無く、また、比較的高輝度の光帯を観測す
れば良いことから、周囲の明るさや対象物の色による影
響を受け難いという基本的長所を有している。The three-dimensional visual sensor of such a system does not have the problem of corresponding point detection, which is unavoidable when the stereoscopic system is adopted, and it suffices to observe a light band of relatively high brightness. It has the basic advantage that it is not easily affected by the brightness of the surroundings and the color of the object.
【0005】ところが、一定位置に設置した1台のスリ
ット光投光器からスリット光を被計測対象物に投射し、
これをビデオカメラ手段で観測する配置を採用すると、
被計測対象物の位置が変わってスリット光の投光範囲か
らはずれた場合に、位置計測が出来なくなるという問題
があった。そこで、被計測対象物の存在位置にばらつき
がある場合には、スリット光を走査することにより計測
範囲を拡げた走査型の3次元視覚センサを用いることも
行なわれている。However, one slit light projector installed at a fixed position projects slit light onto an object to be measured,
If you adopt the arrangement that observes this with video camera means,
When the position of the object to be measured changes and is out of the slit light projection range, there is a problem that position measurement cannot be performed. Therefore, when there are variations in the existing position of the object to be measured, a scanning type three-dimensional visual sensor in which the measurement range is expanded by scanning slit light is also used.
【0006】しかし、この走査型の3次元視覚センサを
用いても、設定されたスリット光によって形成される光
帯と平行な方向に延在するエッジ部分の計測を行なうこ
とが不可能であった。この欠点を解消する手段として、
スリットの方向が互いに異なる2台の投光器を利用する
方式が提案された。この方式は、スリット光束平行部計
測の問題を原理的に解決する手段を与えてはいるが、2
台の投光器を使用することによる装置全体の大型化は避
けられず、また、2台の投光器の光源(レーザ発振器)
を切替制御する為の機構が必要となるという短所を有し
ている。However, even with this scanning type three-dimensional visual sensor, it was impossible to measure the edge portion extending in the direction parallel to the optical band formed by the set slit light. . As a means to eliminate this drawback,
A method has been proposed in which two light projectors having different slit directions are used. Although this method provides a means for solving the problem of slit beam parallel part measurement in principle,
Increasing the size of the entire device by using two projectors is inevitable, and the light source of two projectors (laser oscillator)
It has a disadvantage that a mechanism for switching control is required.
【0007】ハーフプリズムを用いて、2本のレーザビ
ームをまとめる手法等も提案されているが、ハーフプリ
ズムを使用すると光強度が減衰するので、より強力な光
源が必要となるという問題がある。Although a method of combining two laser beams using a half prism has been proposed, the use of a half prism causes a problem that a stronger light source is required since the light intensity is attenuated.
【0008】更に、従来技術においては、スリット光束
を生成する手段として円柱レンズ(シリンドリカルレン
ズ)を用いることが通常であり、投光器と被計測対象物
の間の距離や被計測対象物の大小に応じてスリット光束
のサイズを変更する為には、円柱レンズを交換しなけれ
ばならず、極めて不便であった。また、遠方に置かれた
比較的大寸法の被計測対象物にスリット光を投射する為
にレーザ光源からの光を大きく拡張してスリット光束を
形成した場合には、投射される光帯の照度が低下するこ
とが避けられない。Further, in the prior art, it is usual to use a cylindrical lens (cylindrical lens) as a means for generating a slit light beam, and it is suitable for the distance between the projector and the object to be measured and the size of the object to be measured. In order to change the size of the slit light flux, it is necessary to replace the cylindrical lens, which is extremely inconvenient. When the slit light beam is formed by greatly expanding the light from the laser light source in order to project the slit light on the object to be measured that is relatively distant and has a relatively large size, the illuminance of the projected light band Is inevitable.
【0009】投射光束形状が一定方向を向いた固定的な
スリット形状であるということも、十分な光帯照度が得
られない因となる。即ち、被計測対象物のサイズ、形
状、姿勢、遠近等には多様性があるのに対して、投射ス
リット光束の形状と延在方向が固定的である為に、3次
元計測にとって重要な対象物部分(例えば、特定のエッ
ジ部分)に3次元計測に適合した方向に延びたスリット
光束が十分に照射されず、光束の大半が被計測対象物の
計測上重要でない部分や背景(壁、床、計測対象外物品
等)に投射されてしまうことより光エネルギーが無駄に
消費され、計測に必要な十分な照度を有し3次元計測に
適合した方向に延びたスリット光投射領域が確保されな
いという事態が起こり易い。The fact that the projected light beam shape is a fixed slit shape that is oriented in a certain direction also causes a reason that sufficient light band illuminance cannot be obtained. That is, there are various sizes, shapes, postures, perspectives, etc. of the measured object, but the shape and the extending direction of the projection slit light flux are fixed, so that the object important for three-dimensional measurement. The object part (for example, a specific edge part) is not sufficiently irradiated with the slit luminous flux extending in the direction suitable for the three-dimensional measurement, and most of the luminous flux is not important for measurement of the object to be measured or the background (wall, floor). , The light energy is wasted by being projected onto non-measurement target articles, etc., and a slit light projection area extending in a direction suitable for three-dimensional measurement having sufficient illuminance necessary for measurement is not secured. Things are easy to happen.
【0010】そして、背景や被計測対象物の3次元計測
に有用な情報が得られない部分に多くの光が投射される
こと自体、ビデオカメラ手段による観測とそれに続く画
像処理の妨げになり易く、正確な3次元位置計測を効率
的に実行する上で好ましいことではない。Then, a large amount of light is projected onto a background or a portion where information useful for three-dimensional measurement of the object to be measured is not obtained, which itself easily obstructs observation by the video camera means and subsequent image processing. However, this is not preferable for efficiently performing accurate three-dimensional position measurement.
【0011】また、後述するように、スリット光の延在
方向を自由に変えることが困難な為に被計測対象物に投
射される光帯の端部で光帯の中心点列が湾曲するという
問題が不可避的に生じていた(作用の説明の欄を参
照)。Further, as will be described later, since it is difficult to freely change the extending direction of the slit light, the center point array of the light band is curved at the end of the light band projected on the object to be measured. The problem was unavoidable (see description of action).
【0012】[0012]
【発明が解決しようとする課題】本発明は、上記した従
来の3次元視覚センサにおける諸問題を解決することを
企図するものであり、特に、種々の形状の被計測対象物
の3次元計測を広い計測レンジを以て単独の視覚センサ
を使用して行えるようにし、且つ、その際にスリット光
束形成に伴う光束拡張による光帯照度不足の問題や投射
光帯の中心点列湾曲の問題を回避することの出来るスポ
ット光ビーム走査型3次元視覚センサを提供せんとする
ものである。DISCLOSURE OF THE INVENTION The present invention is intended to solve the above-mentioned problems in the conventional three-dimensional visual sensor, and particularly, to perform three-dimensional measurement of an object to be measured of various shapes. It should be possible to use a single visual sensor with a wide measurement range, and avoid the problem of insufficient illuminance of the optical band due to the expansion of the luminous flux due to slit luminous flux formation and the problem of center point curve of the projected optical band at that time. It is intended to provide a spot light beam scanning type three-dimensional visual sensor capable of performing the above.
【0013】[0013]
【課題を解決するための手段】本発明は、ビデオカメラ
装置と、該ビデオカメラ装置に接続された画像処理装置
と、前記ビデオカメラ装置の撮像走査周期に比して十分
短い周期で帯状走査範囲内をスポット光ビームで偏向走
査する手段を有する投光装置とを備えたスポット光ビー
ム走査型3次元視覚センサによって、上記従来技術にお
ける種々の問題点を解決したものである。SUMMARY OF THE INVENTION The present invention is directed to a video camera device, an image processing device connected to the video camera device, and a strip scanning range at a period sufficiently shorter than the imaging scanning period of the video camera device. Various problems in the above prior art are solved by a spot light beam scanning type three-dimensional visual sensor provided with a light projecting device having a means for deflecting and scanning the inside with a spot light beam.
【0014】[0014]
【作用】本発明の3次元視覚センサは、従来のスリット
光投射型の3次元視覚センサと異なり、被計測対象物の
遠近、大きさ、形状等に応じた自在なパターン形状・寸
法及び延在方向を有する帯状の光投射領域をスポット光
ビームの高速偏向走査によって形成する点に大きな特徴
がある。これについて、図1〜図4を参照して説明す
る。The three-dimensional visual sensor of the present invention is different from the conventional slit light projection type three-dimensional visual sensor in that it has a flexible pattern shape, size and extension according to the distance, size, shape, etc. of the object to be measured. A major feature is that a band-shaped light projection region having a direction is formed by high-speed deflection scanning of a spot light beam. This will be described with reference to FIGS.
【0015】図1は、本発明に従った3次元視覚センサ
に使用可能な投光装置の基本構成を模式的に示したもの
で、レーザ光源1から出射されたスポット光ビームLを
X−スキャナ(X軸方向偏向器)2及びY−スキャナ
(Y軸方向偏向器)3によって高速偏向走査することに
よって、投射光パターンが形成される様子を描いたもの
である。説明の便宜上、スポット光ビームは、使用する
カメラのイメージプレーン(画素面をカメラレンズの外
側で仮想的に代表させた面)4の上で光帯パターンを描
くものとした。2M、3Mは、各々X−スキャナ2及び
Y−スキャナ3の偏向ミラーを表わしている。レーザ光
源1のオン・オフを制御しながらX、Y各スキャナのミ
ラー2M、3Mの振れ角を経時的に制御して繰り返し偏
向走査を行なえば、任意の投射範囲を持った任意形状の
投射光パターン、即ち光帯Hが形成される。このような
スポット光ビームの偏向走査が可能なスキャナ装置自体
は良く知られているものである。FIG. 1 schematically shows the basic structure of a light projecting device which can be used in a three-dimensional visual sensor according to the present invention. The spot light beam L emitted from a laser light source 1 is scanned by an X-scanner. 1 illustrates a state in which a projection light pattern is formed by performing high-speed deflection scanning by (X-axis direction deflector) 2 and Y-scanner (Y-axis direction deflector) 3. For convenience of explanation, it is assumed that the spot light beam draws a light band pattern on the image plane (a surface in which the pixel surface is virtually represented outside the camera lens) 4 of the camera used. 2M and 3M represent the deflection mirrors of the X-scanner 2 and the Y-scanner 3, respectively. If the deflection angles of the mirrors 2M and 3M of the X and Y scanners are controlled over time while controlling the turning on / off of the laser light source 1 to repeatedly perform deflection scanning, projection light of an arbitrary shape with an arbitrary projection range can be obtained. A pattern, that is, a light band H is formed. The scanner device itself capable of deflecting and scanning such a spot light beam is well known.
【0016】例えば、両スキャナ2、3を制御し、スポ
ット光ビームLをイメージプレーン上でO→P1 →P2
→Q1 →Q2 →P3 →P4 →・・・・・・→Qh-1 →P
h →Oの経路に沿って繰り返し高速走査すれば、帯状領
域OP1 Ph Qh-1 に対応したスリット光を投射した場
合と実質的に等価な投光領域を形成することが出来る。For example, by controlling both scanners 2 and 3, the spot light beam L is O → P1 → P2 on the image plane.
→ Q1 → Q2 → P3 → P4 → ・ ・ ・ ・ ・ ・ → Qh-1 → P
By repeatedly performing high-speed scanning along the path of h → O, it is possible to form a light projecting area substantially equivalent to the case where the slit light corresponding to the strip-shaped area OP1 Ph Qh-1 is projected.
【0017】即ち、隣合う1本1本のスポット光軌跡O
P1 とP2 Q1 、P2 Q1 とQ2 P3 等の間隔を十分に
狭く取ると共に、偏向走査の速度をビデオカメラの画素
面上での撮像走査速度と比較して十分に大きく設定して
おけば、ビデオカメラは帯状領域内全体を1つの光帯H
として観測することになる。光帯を形成する際のスポッ
ト光ビーム走査経路は図示のようなものに限らない。要
は指定された走査領域が使用するビデオカメラによって
光帯として観測される限り、光帯形成領域内における走
査経路は任意であり、スキャナシステムの制御走査方式
に適合した走査経路による光帯形成を行なえば良い。That is, the spot light loci O of each adjacent spot
If the intervals of P1 and P2 Q1, P2 Q1 and Q2 P3, etc. are set to be sufficiently narrow, and the deflection scanning speed is set sufficiently higher than the imaging scanning speed on the pixel surface of the video camera, The camera has one light band H over the entire swath.
Will be observed as. The spot light beam scanning path for forming the light band is not limited to the one shown in the drawing. In short, as long as the specified scanning area is observed as a light band by the video camera used, the scanning path in the light band formation area is arbitrary, and the light path formation by the scanning path suitable for the control scanning method of the scanner system is performed. You can do it.
【0018】レーザ光源1から出射されるビームが極め
て細い場合には、ビデオカメラの解像力(走査線密度)
や3次元計測で要求される精度等を勘案して、適当なレ
ンズ系を用いてビーム径(スポット径)をある程度拡張
しておくことも考えられる。投射されるスポット光ビー
ムの径を計測精度を損なわない範囲で適当な太さにして
おけば、投射光領域を形成する為の走査密度を比較的低
くしても、投射領域全体を照度ムラのない光帯としてビ
デオカメラに認識させることが容易となる。When the beam emitted from the laser light source 1 is extremely thin, the resolution of the video camera (scan line density)
It is also possible to expand the beam diameter (spot diameter) to some extent by using an appropriate lens system in consideration of the accuracy required for three-dimensional measurement. If the diameter of the projected spot light beam is set to an appropriate thickness within the range that does not impair the measurement accuracy, even if the scanning density for forming the projected light area is relatively low, the entire projected area will have uneven illuminance. It becomes easy for the video camera to recognize it as a non-light band.
【0019】図2は、被計測対象物の遠近によってスポ
ット光ビームの偏向走査範囲(スキャナの振り角度)を
変えることを説明する図である。(a)及び(b)は各
々同じ大きさを有する被計測対象物Wが、スキャナから
相対的に遠隔している場合、近接して存在する場合(d
a >db )を表わしている。被計測対象物の縁部Eを3
次元計測光ビームが横切るに必要十分であり、且つ背景
部分の無用な照射を行なわないような走査範囲を設定す
るには、(a)の場合の偏向ミラーMの振れ角θa を、
(b)の場合の偏向ミラーMの振れ角θbよりも図示し
た程度大きくしてやれば良いことが判る。FIG. 2 is a view for explaining that the deflection scanning range of the spot light beam (the swing angle of the scanner) is changed depending on the distance of the object to be measured. (A) and (b) show that the measured object W having the same size is relatively distant from the scanner, and is present in the vicinity (d).
a> db). Set the edge E of the measured object to 3
In order to set the scanning range that is necessary and sufficient for the dimension measurement light beam to traverse and does not perform unnecessary irradiation of the background portion, the deflection angle θa of the deflection mirror M in the case of (a) is set to
It can be seen that the deflection angle θb of the deflecting mirror M in the case of (b) should be made larger than that shown in the figure.
【0020】従来のシリンドリカルレンズでスリット光
束を形成する方法では、想定される被計測対象物の遠近
に合わせて何種類ものシリンドリカルレンズを用意して
おくか、あるいは、スリット光束サイズを変更する為の
特殊な光学系が必要となるのに対して、偏向ミラーの振
れ角範囲を偏向するだけで被計測対象物の遠近に対応す
ることが出来るのは、本発明の3次元視覚センサに固有
な特徴の1つである。In the conventional method of forming a slit light beam with a cylindrical lens, various types of cylindrical lenses are prepared according to the assumed distance of the object to be measured, or the slit light beam size is changed. Although a special optical system is required, the fact that the object to be measured can be dealt with far and near simply by deflecting the deflection angle range of the deflection mirror is a characteristic feature of the three-dimensional visual sensor of the present invention. Is one of.
【0021】図3は、本発明の3次元視覚センサが有し
ている投射範囲の限定機能について説明する図である。FIG. 3 is a diagram for explaining the function of limiting the projection range of the three-dimensional visual sensor of the present invention.
【0022】(a)は、被計測対象物が複数(2個)あ
る場合に行なわれる計測光投射範囲の限定の様子を模式
的に表わしている。このような場合、本発明の3次元視
覚センサにおいては、まず、被計測対象物W1 について
最適の投射範囲F1 F2 を設定して計測を行い、次い
で、被計測対象物W2 について最適の投射範囲F3 F4
(破線で表示)を定めて計測を行なうことが、スキャナ
の走査範囲を変更するのみで簡単に実行出来る。従来の
シリンドリカルレンズでスリット光束を形成する方法で
は、照度低下を認容して図中F1 F4 で囲まれる範囲に
相当する大きなスリット光束を形成し、各被計測対象物
W1 、W2 に関する情報を個別に抽出するか、あるい
は、スリット光束形成範囲を被計測対象物のサイズに対
応した拡がりを越えて、被計測対象物の存在想定範囲全
体を覆う広範囲に亙ってシフトさせる光学系をスリット
光投光装置に組み込んでおくことが必要となる。後者の
方式を採用したとしても、複数被計測対象物のサイズに
大きな差異がある場合には、小さい方の被計測対象物に
対して過剰サイズのスリット光が投射されることにな
り、光量の効率的利用がなされないことになる。(A) schematically shows how the measurement light projection range is limited when there are a plurality of (two) objects to be measured. In such a case, in the three-dimensional visual sensor of the present invention, first, the optimum projection range F1 F2 for the measured object W1 is set and the measurement is performed, and then the optimum projection range F3 for the measured object W2 is set. F4
It is possible to easily perform the measurement by setting (displayed by a broken line) only by changing the scanning range of the scanner. In the conventional method of forming a slit light flux with a cylindrical lens, a large slit light flux corresponding to the range surrounded by F1 F4 in the figure is formed by allowing a decrease in illuminance, and information regarding each of the measured objects W1 and W2 is individually obtained. An optical system that extracts or shifts the slit light flux formation range over a wide range that corresponds to the size of the measurement target object and covers the entire assumed range of the measurement target object It is necessary to install it in the device. Even if the latter method is adopted, if there are large differences in the sizes of the multiple measured objects, the oversized slit light will be projected onto the smaller measured object, and It will not be used efficiently.
【0023】また、例えば図3(b)のように、3次元
計測を行なう上で重要な特定部分(この例では端面の円
環状部分)のみに計測光を投射して3次元計測を行なう
ことも、本発明の3次元視覚センサでは簡単に実現出来
る。従来のシリンドリカルレンズを用いる方式では、図
2(b)に示されたような光投射領域を多様な形状やサ
イズの被計測対象物に対して自在に形成することは、極
めて困難である。Further, for example, as shown in FIG. 3B, the measurement light is projected only on a specific portion (in this example, an annular portion of the end face) important for performing the three-dimensional measurement to perform the three-dimensional measurement. Can be easily realized by the three-dimensional visual sensor of the present invention. In the conventional method using the cylindrical lens, it is extremely difficult to freely form the light projection area as shown in FIG. 2B on the object to be measured having various shapes and sizes.
【0024】更に、本発明の3次元視覚センサが採用し
ている計測光投射方式によれば、光帯の延在方向を自由
に選べるという特徴があり、この特徴と上記した諸特徴
を合わせて用いると、実際の3次元計測において極めて
有利な光投射領域の設定が可能になる。これを、円筒状
の被計測対象物Wの端面に光投射領域を設定する場合を
例にとり、図4を用いて説明する。Furthermore, the measuring light projection method adopted by the three-dimensional visual sensor of the present invention has the feature that the extending direction of the light band can be freely selected. When used, it is possible to set a light projection area that is extremely advantageous in actual three-dimensional measurement. This will be described with reference to FIG. 4, taking as an example the case where a light projection region is set on the end surface of the cylindrical object W to be measured.
【0025】図4中(a)、(c)は、従来のスリット
光束投射方式による光帯Ga 及び該光帯の端点Pの近傍
の様子を拡大して模式的に示したものである。(b)、
(d)は、本発明の3次元視覚センサが採用している投
射領域形成方式によって形成される光帯Ga 及び該光帯
の端点Pの近傍の様子を拡大して模式的に示したもので
ある。従来方式においては、(a)に示されたように、
3次元計測に通常は不必要な被計測対象物端面中央部分
を横断して光帯を形成せざるを得ないのに対して、本発
明の3次元視覚センサが採用しているスポット光走査方
式によれば、(b)に示したように、3次元計測上重要
な縁部に光を集中させて投射光帯を形成することが簡単
に出来るので、光源光量が有効に使用されることにな
る。即ち、3次元計測に不可欠な部分のみを繰り返し高
速走査して、ビデオカメラに3次元計測に有用な明るい
光帯映像を読み取らせることが可能となる。4 (a) and 4 (c) are enlarged schematic views showing a state near the light band Ga and the end point P of the light band by the conventional slit light beam projection method. (B),
(D) is an enlarged schematic view of the light band Ga formed by the projection area forming method adopted by the three-dimensional visual sensor of the present invention and the vicinity of the end point P of the light band. is there. In the conventional method, as shown in (a),
The optical band must be formed across the central portion of the end surface of the measured object, which is usually unnecessary for three-dimensional measurement, whereas the spot light scanning method adopted by the three-dimensional visual sensor of the present invention is used. According to this, as shown in (b), it is possible to easily form a projection light band by concentrating light on an edge portion that is important for three-dimensional measurement, so that the light source light quantity can be effectively used. Become. That is, it becomes possible to make the video camera read a bright optical band image useful for three-dimensional measurement by repeatedly performing high-speed scanning only on a portion essential for three-dimensional measurement.
【0026】そして、従来方式では光帯の延在方向が固
定的であるから、光帯の形成が(a)に示された如くな
されるのが一般的であり、(b)に描かれたように被計
測対象物の輪郭線に直交した光帯延在方向を自在に選択
することは極めて困難である。Since the extending direction of the light band is fixed in the conventional method, the light band is generally formed as shown in (a) and is drawn in (b). As described above, it is extremely difficult to freely select the optical band extending direction orthogonal to the contour line of the measured object.
【0027】従って、光帯が被計測対象物Wの縁部にか
かる端点Pの近傍で(c)に示したように一方に偏って
細り、その結果光帯の中心点列Ha が湾曲することにな
る。Therefore, the light band is narrowed to one side near the end point P applied to the edge of the object W to be measured as shown in (c), and as a result, the center point sequence Ha of the light band is curved. become.
【0028】視覚センサを利用した3次元計測では、光
帯の中心点列位置を計測の基礎データとして用いるのが
通常であるから、このような中心点列の湾曲は3次元計
測の結果に誤差を生じる原因となる。中心点列Ha の湾
曲を考慮に入れて誤差補正された3次元計測を行なうこ
とは、湾曲の大きさ、方向が一定しないこともあって、
決して容易なことではない。In the three-dimensional measurement using the visual sensor, it is usual to use the position of the center point sequence of the light band as the basic data of the measurement. Therefore, such curvature of the center point sequence causes an error in the result of the three-dimensional measurement. Will cause. Performing error-corrected three-dimensional measurement in consideration of the curvature of the center point sequence Ha may not be constant in the size and direction of the curvature.
It's never easy.
【0029】一方、X、Y各スキャナの制御によって
(b)に示されたように光投射領域を被計測対象物の輪
郭線に直交する短尺の光帯として形成すれば、(d)の
部分拡大図に示されているように、細りの無い明るい光
帯を得ることが出来るから、光帯端点Qの近傍で中心点
列Hb の湾曲は生ぜず、従って光帯中心点列湾曲に起因
した計測誤差は原理的に回避される。On the other hand, if the light projection area is formed as a short light band orthogonal to the contour line of the object to be measured as shown in (b) by the control of the X and Y scanners, the portion (d) is obtained. As shown in the enlarged view, since it is possible to obtain a bright light band without thinning, the center line Hb is not curved near the end point Q of the light band. Measurement errors are avoided in principle.
【0030】以上説明したように、本発明の3次元視覚
センサにおいては、スポット光ビームを偏向走査する手
段を備えた投光装置によってスリット光投射に相当する
光投射領域を形成する方式を採用しているので、被計測
対象物の遠近、大小、存在方向、形状等の多様の変化に
自在に対応した光帯領域形成が光源の発する光量を無駄
にすることなく行なわれると共に、光帯の中心点列の湾
曲の問題を回避することで3次元計測の精度が確保され
る。As described above, the three-dimensional visual sensor of the present invention employs a method of forming the light projection area corresponding to the slit light projection by the light projecting device having the means for deflecting and scanning the spot light beam. As a result, the light band area can be formed flexibly in response to various changes in distance, size, presence direction, shape, etc. of the measured object without wasting the amount of light emitted from the light source and at the center of the light band. The accuracy of three-dimensional measurement is ensured by avoiding the problem of point sequence curvature.
【0031】[0031]
【実施例】図5は、本発明の3次元視覚センサのシステ
ム構成の1例を模式的に示した図である。システムは、
被計測対象物W上に投射される光を発するレーザ光源
1、該レーザ光源から発せられたスポット光ビームを高
速偏向走査して被計測対象物W上に光帯H1 、H2 ・・
・Hn を順次形成するXY各スキャナ2、3とこれらを
制御するコントローラ30、被計測対象物W上に投光形
成された光帯H1 、H2 ・・・Hn を撮影するCCDカ
メラ40、該カメラ40及びコントローラ30に接続さ
れた画像処理制御装置10から構成される。符号4はC
CDカメラ40のイメージプレーンを表わしている。FIG. 5 is a diagram schematically showing an example of the system configuration of the three-dimensional visual sensor of the present invention. the system,
A laser light source 1 that emits light projected onto the object to be measured W, a spot light beam emitted from the laser light source is deflected and scanned at a high speed, and light bands H1, H2 ...
XY scanners 2 and 3 that sequentially form Hn, a controller 30 that controls these scanners, a CCD camera 40 that captures the light bands H1, H2, ... Hn that are projected and formed on the measured object W, the camera 40 and the image processing control device 10 connected to the controller 30. Reference numeral 4 is C
The image plane of the CD camera 40 is shown.
【0032】画像処理制御装置10は、中央処理装置
(CPU)11を有し、CPU11には、通信インタフ
ェイス12、画像処理プロセッサ13、コンソールイン
タフェイス14、カメラインタフェイス15、TVモニ
タインタフェイス16、フレームメモリ17、ROMで
構成されたコントロールソフト用メモリ18、不揮発性
RAMで構成されたプログラムメモリ19及びデータメ
モリ20が、バス21を介して接続されている。The image processing controller 10 has a central processing unit (CPU) 11, and the CPU 11 has a communication interface 12, an image processor 13, a console interface 14, a camera interface 15, and a TV monitor interface 16. A frame memory 17, a control software memory 18 formed of a ROM, a program memory 19 formed of a non-volatile RAM, and a data memory 20 are connected via a bus 21.
【0033】カメラインタフェイス15にはCCDカメ
ラ40が接続されており、該CCDカメラ40で撮影さ
れた画像は、グレイスケールによる濃淡画像に変換され
てフレームメモリ17に格納される。画像処理プロセッ
サ13は、プログラム内容に応じたCPU11からの制
御信号に従ってフレームメモリ17に格納された画像を
処理する。A CCD camera 40 is connected to the camera interface 15, and an image captured by the CCD camera 40 is converted into a grayscale grayscale image and stored in the frame memory 17. The image processor 13 processes the image stored in the frame memory 17 according to the control signal from the CPU 11 according to the program content.
【0034】コンソールインタフェイス14には、液晶
表示部と各種指令キー、テンキー等を含むキーボードを
備えたコンソール23が接続されており、このコンソー
ル23を用いて各種データの入力・設定、アプリケーシ
ョンプログラムの入力、編集、登録、実行等の操作が行
えるようになっている。また、液晶表示部には、各種デ
ータ入力・設定の為のメニュー、プログラムリスト等が
表示させることが出来る。A console 23 having a liquid crystal display section and a keyboard including various command keys and ten keys is connected to the console interface 14, and the console 23 is used to input / set various data and store application programs. Operations such as input, editing, registration, and execution can be performed. Further, the liquid crystal display unit can display a menu for inputting / setting various data, a program list, and the like.
【0035】TVモニタインタフェイス16には、TV
モニタ24が接続されており、その画面上にはCCDカ
メラ40によって撮影中の画像あるいはフレームメモリ
17に格納された画像等が切替表示され得るようになっ
ている。The TV monitor interface 16 includes a TV
A monitor 24 is connected, and an image being taken by the CCD camera 40, an image stored in the frame memory 17, or the like can be switched and displayed on the screen of the monitor 24.
【0036】コントロールソフト用メモリ18には視覚
センサシステムをCPU11を介して制御する為の各種
のプログラムが格納され、プログラムメモリ19には、
ユーザが作成するプログラムが格納されるようになって
いる。また、データメモリ20は、3次元計測等に必要
な計算データ等の一時記憶に用いられるメモリである。The control software memory 18 stores various programs for controlling the visual sensor system via the CPU 11, and the program memory 19 stores the various programs.
A program created by the user is stored. The data memory 20 is a memory used for temporary storage of calculation data and the like necessary for three-dimensional measurement and the like.
【0037】そして、通信インタフェイス12は、投光
装置あるいは視覚センサによる計測結果を利用した作業
を行なうロボット等の外部装置(不図示)に接続され、
これら外部装置からの信号を受信すると共に、CPU1
1に伝達し、また、各外部装置を制御する為の信号を送
信する機能を有している。Then, the communication interface 12 is connected to an external device (not shown) such as a robot for performing work using the measurement result by the light projecting device or the visual sensor,
The CPU 1 receives signals from these external devices and
1 and also has a function of transmitting a signal for controlling each external device.
【0038】以上説明した本実施例のシステム構成の相
当部分は基本的に従来のスリット光束投射型の3次元視
覚センサと変わらないが、本願発明の特徴に対応して、
次のような相違点を有している。Although a considerable part of the system configuration of the present embodiment described above is basically the same as the conventional slit light beam projection type three-dimensional visual sensor, in correspondence with the features of the present invention,
It has the following differences.
【0039】(1)3次元計測の為の光帯形成を行なう
投光装置が、従来のようにレーザ光源から発せられるス
ポット光ビームをシリンドリカルレンズでスリット光束
に変換して投射するものでなく、スポット光ビームのま
ま、コントローラ30を介して偏向制御されるX、Yス
キャナ2、3で高速偏向走査して、被計測対象物上にス
ポット光走査投射領域としての光帯を形成するようにな
っていること。(スポット光ビームの走査速度はCCD
カメラで投射光パターンを観測した時に光帯として認識
されるに十分な程度に高速に設定される。) (2)スキャナ2、3のコントローラ30と、CCDカ
メラ40のカメラ座標系とを結合するセンサ座標系がキ
ャリブレーションによって設定されており、スポット光
ビームの投射方向がセンサ座標系上のデータで記述し得
るようになっていること。(1) A light projecting device for forming an optical band for three-dimensional measurement is not a conventional one that converts a spot light beam emitted from a laser light source into a slit light beam by a cylindrical lens and projects it. The spot light beam is subjected to high-speed deflection scanning with the X and Y scanners 2 and 3 whose deflection is controlled via the controller 30 to form an optical band as a spot light scanning projection area on the object to be measured. That (The scanning speed of the spot light beam is CCD
The speed is set high enough to be recognized as a light band when the projected light pattern is observed by the camera. (2) The sensor coordinate system that connects the controller 30 of the scanners 2 and 3 and the camera coordinate system of the CCD camera 40 is set by calibration, and the projection direction of the spot light beam is data on the sensor coordinate system. Be able to describe.
【0040】(3)被計測対象物の2次元通常画像デー
タに基づいて被計測対象物の形状種別や位置等を判定
し、判定結果と既知データ(被計測対象物のサイズデー
タ等)に基づいてスポット光走査パターンの内容を決定
する為の一連のプログラム及び関連設定データがコント
ロールソフト用メモリ18及びデータメモリ20内に格
納されていること。(3) The shape type, position, etc. of the measured object are judged based on the two-dimensional normal image data of the measured object, and based on the judgment result and known data (size data of the measured object, etc.). A series of programs for determining the contents of the spot light scanning pattern and related setting data are stored in the control software memory 18 and the data memory 20.
【0041】スポット光ビーム走査パターンの内容の特
定する手順の具体例については、図6のフローチャート
の説明の中で述べる。A specific example of the procedure for specifying the contents of the spot light beam scanning pattern will be described in the description of the flowchart of FIG.
【0042】(4)スポット光ビーム走査によって形成
される各光帯の方向(中心縦断面の方向)を算出するプ
ログラム及び関連設定データがコントロールソフト用メ
モリ18及びデータメモリ20内に格納されているこ
と。(4) A program for calculating the direction (direction of the central longitudinal section) of each light band formed by spot light beam scanning and related setting data are stored in the control software memory 18 and the data memory 20. thing.
【0043】(5)被計測対象物上に形成された光帯の
端点あるいは屈曲点の3次元位置を、上記光帯方向デー
タと該端点あるいは屈曲点の画素値データに基づいて求
める為の換算データ(距離変換マトリックスデータ)が
キャリブレーションによって取得され、データメモリ2
0に格納済みであること。なお、スポット光ビーム走査
によって形成される光帯は、従来のスリット光束と等価
であるから、このキャリブレーションの方法は、従来の
スリット光束を投射する方式の視覚センサの場合と基本
的に同じである。(5) Conversion for obtaining the three-dimensional position of the end point or bending point of the light band formed on the object to be measured based on the light band direction data and the pixel value data of the end point or bending point. Data (distance conversion matrix data) is acquired by calibration, and data memory 2
Stored in 0. Since the optical band formed by the spot light beam scanning is equivalent to the conventional slit light flux, the calibration method is basically the same as that of the conventional visual sensor of the type that projects the slit light flux. is there.
【0044】(6)被計測対象物の3次元計測の終了時
に再計測の必要性を判定し、再計測が必要と判定した場
合には、再計測が必要とされた趣旨に沿って、投射光パ
ターンの選択、走査基準位置決定、比例定数k、mの決
定等を行ない、再計測を実行する為のプログラムがコン
トロールソフト用メモリ18に格納されていること(フ
ローチャート、ステップST18の説明を参照)。(6) When the necessity of remeasurement is judged at the end of the three-dimensional measurement of the object to be measured, and when it is judged that the remeasurement is necessary, the projection is performed according to the purpose of the remeasurement. A program for selecting the light pattern, determining the scanning reference position, determining the constants of proportionality k and m, and performing remeasurement is stored in the memory 18 for control software (see the flowchart and the description of step ST18). ).
【0045】以上の構成と機能を有する3次元視覚セン
サシステムを使用して3次元計測を行なう場合のCPU
11の処理の概要について、図5〜図11を参照して述
べる。CPU for three-dimensional measurement using the three-dimensional visual sensor system having the above configuration and function
An outline of the processing of 11 will be described with reference to FIGS.
【0046】図5に例示された被計測対象物Wは、円筒
形の一方の端面側に同心突起部Sを有する全体形状を有
したワークであり、同心突起部Sの一部には切欠部Uが
形成されているものとする。この切欠部Uの部分を拡大
したものを図11に示した。これら図5及び図11に示
されたワークWをタイプ[01]として、図示しない他の
形状(例えば、角柱状、楕円柱状等)を有する3種類の
ワーク(タイプ[02]、[03]、[04])が順不同で3
次元計測の対象とされるものとする。ここでは、図示し
たタイプ[01]のワークWの計測プロセスを例にとって
記述する。The object to be measured W illustrated in FIG. 5 is a work having an overall shape having a concentric projection S on one end face side of a cylindrical shape, and a cutout is formed in a part of the concentric projection S. It is assumed that U is formed. An enlarged view of the cutout portion U is shown in FIG. The work W shown in FIGS. 5 and 11 is referred to as a type [01], and three types of works (types [02] and [03] having other shapes (for example, prismatic shape, elliptic cylindrical shape, etc.) not shown are provided. [04]) out of order 3
It shall be the target of dimensional measurement. Here, the measurement process of the illustrated type [01] workpiece W will be described as an example.
【0047】ワークWの3次元計測の具体的内容として
は、同心状突起部Sの中心P0 と切欠部Uの3次元位置
を計測することを想定する。As a concrete content of the three-dimensional measurement of the work W, it is assumed that the center P0 of the concentric projection S and the three-dimensional position of the notch U are measured.
【0048】まず、図示しない外部装置(例えば、製造
ライン)からの信号を通信インタフェイス12を介して
3次元視覚センサが受信すると、CPU11は3次元計
測作業の為の一連の処理を開始し(スタート)、光帯本
数を表わす指標αと計測回数を表わす指標βをα=1、
β=1にリセットする(ステップST1)。次いで、C
CDカメラ40の撮影動作を起動させて被計測対象物W
の画像を取り込む(ステップST2)。この画像をAと
する。画像Aは、被計測対象物Wを投光装置からのスポ
ット光ビームの投射が無い状態で取得される通常画像で
ある。First, when the three-dimensional visual sensor receives a signal from an external device (not shown) (for example, a production line) via the communication interface 12, the CPU 11 starts a series of processing for three-dimensional measurement work ( Start), an index α representing the number of light bands and an index β representing the number of measurements are α = 1,
Reset to β = 1 (step ST1). Then C
The object to be measured W is activated by activating the photographing operation of the CD camera 40.
Image is captured (step ST2). This image is designated as A. The image A is a normal image obtained when the measured object W is not projected by the spot light beam from the light projecting device.
【0049】画像Aは、画像処理プロセッサ13を用い
て解析され、ワークの種別を判定する為のデータ(輪郭
を表わす代表点の2次元データ)が取得される(ステッ
プST3)。これら画像Aから取得されたデータを、予
め登録されたワークWの種別[01]〜[04]を特徴付け
るデータと照合比較し、ワークWの種別を判定する(ス
テップST4)。前述したように、ワークWはタイプ
[01]のものであるから、種別[01]と判定される。The image A is analyzed by using the image processor 13, and data (two-dimensional data of a representative point representing the contour) for determining the type of work is acquired (step ST3). The data acquired from the image A is collated and compared with the data that characterizes the types [01] to [04] of the work W registered in advance to determine the type of the work W (step ST4). As described above, since the work W is of type [01], it is determined to be type [01].
【0050】ワークWの種別が決定されると、スポット
光走査パターンを具体的に選択・決定する処理に進む。
先ず、ワーク種別[01]に整合した光帯分布形を予め登
録された標準形の中から選択する(ステップS5)。光
帯分布形の標準形は、想定されるワークの形状、3次元
計測の具体的内容等に応じて用意されている。図7は、
その1例を示したもので、(i)、(ii)、(ii
i)、(iv)、(v)は各々、円形状、扇形状、正方
形状、長方形状、楕円形状の領域に光帯を投射形成する
場合に主として選択される標準形である。本実施例の場
合、ワーク種別[01]に対して第1回目の計測(β=
1)では、ワークWの2重円形状端面全体に放射状の光
帯を投射形成することに対応して、標準形(i)が選択
されるプログラムが組まれているものとする。When the type of the work W is determined, the process proceeds to the process of specifically selecting and determining the spot light scanning pattern.
First, a light band distribution shape that matches the work type [01] is selected from standard shapes registered in advance (step S5). The standard form of the light band distribution type is prepared according to the assumed shape of the work, the specific content of the three-dimensional measurement, and the like. Figure 7
One example is shown below. (I), (ii), (ii)
i), (iv), and (v) are standard shapes that are mainly selected when projecting and forming a light band in a circular, fan-shaped, square-shaped, rectangular, or elliptical area. In the case of the present embodiment, the first measurement (β =
In 1), it is assumed that a program for selecting the standard form (i) is set up in response to projecting and forming a radial optical band on the entire double circular end surface of the work W.
【0051】次に、選ばれた標準形に対して、拡がり係
数k、光帯長係数l、光帯本数係数m、走査基準位置γ
0 を定めて、スポット光走査パターンの具体的内容を決
定する(ステップS6)。図8〜図10は、選択された
標準形(i)に対して、これらk、l、mの値を変えた
場合のスポット光走査パターン(光帯分布)の様子を描
いた模式図である。Next, with respect to the selected standard form, the spread coefficient k, the light band length coefficient 1, the light band number coefficient m, and the scanning reference position γ
By setting 0, the specific content of the spot light scanning pattern is determined (step S6). FIG. 8 to FIG. 10 are schematic diagrams illustrating the states of the spot light scanning pattern (light band distribution) when the values of k, l, and m are changed with respect to the selected standard form (i). .
【0052】先ず、拡がり係数kは、光帯分布の拡がり
を定める係数で、図8に例示したようにk=1を基準と
して、k<1ならば、光帯分布範囲は狭くなり、k>1
ならば拡がることを意味している。例えば、画像Aの画
面上での直径データの大きさを3段階に分けておき、そ
れに応じてkの値を1、0.8、1.2の中から選択す
るプログラムとすれば良い。選択条件の具体的設定に際
しては、光帯が被計測対象物Wからはずれないことを優
先させて、余裕のある選択が出来るように考慮すること
が望ましい。First, the spread coefficient k is a coefficient that determines the spread of the light band distribution. As shown in FIG. 8, with k = 1 as a reference, if k <1, the light band distribution range is narrowed and k> 1
If so, it means expanding. For example, the size of the diameter data on the screen of the image A may be divided into three levels, and the value of k may be selected from 1, 0.8, and 1.2 accordingly. When setting the selection conditions concretely, it is desirable to give priority to the fact that the light band does not deviate from the object W to be measured, and to allow for selection with margin.
【0053】同様に、光帯長係数lは、図9に示した通
り各光帯の長さ(光帯長さ方向のスポットビームの振れ
角幅)を指定するものであり、光帯本数係数mは図10
に示した通り、光帯分布を形成する光帯本数の多寡を指
定する係数である。各図において、k=1として、l=
1、0.5、1.5;m=1、2の各場合を示したが、
画像Aの解析結果や3次元計測の内容に応じて、k=
0.8あるいはk=1.2として、l=0.5、;m=
2等の組合せをプログラムで指定し得るようにしておく
ことが合理的なことは言うまでもない。例えば、小サイ
ズ被計測対象物を遠方から詳しく観測する場面が想定さ
れる3次元計測作業においては、該場面の到来を画像A
の解析によって感知し、k=0.8、l=0.5、m=
2の組合せを選択するようにプログラムを構成しておく
ことが考えられる。Similarly, the optical band length coefficient l designates the length of each optical band (the deflection angle width of the spot beam in the optical band length direction) as shown in FIG. m is FIG.
As shown in, it is a coefficient that specifies the number of light bands forming the light band distribution. In each figure, k = 1 and l =
1, 0.5, 1.5; each case of m = 1, 2 is shown.
Depending on the analysis result of the image A and the content of the three-dimensional measurement, k =
0.8 or k = 1.2, l = 0.5, m =
It goes without saying that it is rational to make it possible to specify a combination of 2 and the like in a program. For example, in the three-dimensional measurement work in which a small-sized object to be measured is observed in detail from a distance, the arrival of the scene is indicated by the image A.
, K = 0.8, l = 0.5, m =
It is conceivable to configure the program so that the combination of 2 is selected.
【0054】このような係数k、l、mの選択・決定と
共に、走査パターンの代表点となる走査基準位置γ0
(各スキャナの振れ角基準位置)を定めれば、スポット
光ビーム走査の具体的内容を特定出来ることになる。第
1回目の計測(β=1)については、ワークWについて
予め想定した標準位置のデータと画像Aのデータとを適
宜組み合わせてγ0 を定めるのが実際的である。ここで
は、ワークWの同心突起部Sの中心P0 に関する既知の
基準データ(予測される標準位置に標準姿勢でワークが
存在した場合のP0 点の3次元位置データ)をCCDカ
メラ画素値データで適宜補正して基準位置γ0 (光帯群
の中心)を定めることにする。第1回目の計測時にγ0
をワークW上の特定点(P0 )と正確に一致させること
は原理的に困難であり、また、その必要もない。即ち、
光帯には長さがあるので、多少のずれがあっても3次元
計測は実行可能である。再計測を実行する場合には、第
1回目の3次元計測データを利用する余地があるから、
より正確なγ0 の決定を行なうことが出来る可能性は高
くなる(後述するステップST18参照)。Along with the selection / determination of such coefficients k, l, and m, the scanning reference position γ0 serving as the representative point of the scanning pattern is obtained.
If the (deflection angle reference position of each scanner) is determined, the specific contents of the spot light beam scanning can be specified. For the first measurement (β = 1), it is practical to determine γ0 by appropriately combining the standard position data assumed in advance for the work W and the image A data. Here, the known reference data about the center P0 of the concentric protrusion S of the workpiece W (three-dimensional position data of the point P0 when the workpiece is present at the predicted standard position in the standard posture) is appropriately used as CCD camera pixel value data. The reference position γ0 (center of the optical band group) is determined by correction. Γ0 at the first measurement
In principle, it is difficult to exactly match the point P with the specific point (P0) on the work W, and it is not necessary. That is,
Since the light band has a length, three-dimensional measurement can be performed even if there is a slight deviation. When performing remeasurement, there is room to use the first three-dimensional measurement data,
There is a high possibility that a more accurate determination of γ 0 can be made (see step ST18 described later).
【0055】以上説明したプログラム内容に従ってステ
ップST6が実行されると、第1本目(α=1)の光帯
形成の為のスポット光ビーム走査が開始され、図5中ワ
ークW上に1本目の光帯H1 が形成される(ステップS
T7)。光帯H1 の形成中にCCDカメラ40による撮
影を実行して、通常画像に光帯H1 が重畳した画像を取
り込む。これを画像Bとする(ステップST8)。When step ST6 is executed according to the contents of the program described above, the spot light beam scanning for forming the first (α = 1) optical band is started, and the first spot on the work W in FIG. A light band H1 is formed (step S
T7). The CCD camera 40 captures an image while the light band H1 is being formed to capture an image in which the light band H1 is superimposed on a normal image. This is image B (step ST8).
【0056】画像Bの取得が終了したら、ワークW上に
投射された光帯H1 の像を抽出する為に、差像Cのデー
タ(C=B−A)を取得する(ステップST9)。次い
で、差像Cから予め定められたルールに従って適宜数の
中心点列を抽出し(ステップST10)、これら中心点
列に整合する折れ線(1直線の場合を含む)を近似計算
によって求め(ステップS11)、該折れ線中に含まれ
る端点及び屈曲点を抽出し(ステップST12)、それ
ら端点/屈曲点の3次元位置を計算する。図5に示され
たワークWの場合、1本目の光帯H1 については、ワー
クWの最外周縁に対応するP11、同心突起Sの基部周縁
に対応するP21、同心突起Sの頂部周縁に対応するP31
が抽出され、各抽出点の3次元位置が計算される(ステ
ップS13)。抽出点の3次元位置の計算は、従来のス
リット光束投射型の3次元視覚センサの場合と同様に、
光帯H1 の中心縦断面を特定するデータと抽出点の画素
値データに基づいて行なわれる。光帯H1 の中心縦断面
を特定するデータは、ステップST5、ステップST6
に於けるスポット光ビーム走査内容決定パラーメータ決
定内容と指標αに基づいて算出される。After the acquisition of the image B is completed, the data of the difference image C (C = BA) is acquired in order to extract the image of the light band H1 projected on the work W (step ST9). Then, an appropriate number of center point sequences are extracted from the difference image C according to a predetermined rule (step ST10), and a polygonal line (including a case of one straight line) matching these center point sequences is obtained by approximation calculation (step S11). ), The end points and bending points included in the polygonal line are extracted (step ST12), and the three-dimensional positions of these end points / bending points are calculated. In the case of the work W shown in FIG. 5, for the first optical band H1, P11 corresponding to the outermost peripheral edge of the work W, P21 corresponding to the base peripheral edge of the concentric projection S, corresponding to the top peripheral edge of the concentric projection S. P31
Is extracted, and the three-dimensional position of each extraction point is calculated (step S13). The calculation of the three-dimensional position of the extraction point is performed in the same manner as in the case of the conventional slit light beam projection type three-dimensional visual sensor.
This is performed based on the data specifying the central longitudinal section of the light band H1 and the pixel value data of the extraction point. The data for specifying the central longitudinal section of the light band H1 is obtained in steps ST5 and ST6.
It is calculated based on the parameter determination content of the spot light beam scanning content determination parameter and the index α.
【0057】1本目の光帯H1 に関する処理を終えた
ら、規定本数n本(n=m×n0 ;但し、mは図10に
関連して説明した光帯本数係数、n0 は図8に示した光
帯分布標準形における光帯本数である。)の光帯形成と
処理が終了したか否かを判断する(ステップST1
4)。未照射・未処理の光帯がある限り、ノーの判断が
なされるので、光帯本数指標αに1を加算し(ステップ
S15)、ステップST7に戻る。When the processing for the first light band H1 is completed, the prescribed number n (n = m × n0; where m is the coefficient of the number of light bands described with reference to FIG. 10 and n0 is shown in FIG. 8). It is determined whether or not the formation and processing of the light bands of the light band distribution standard form are completed (step ST1).
4). As long as there is an unirradiated / unprocessed light band, a negative determination is made, so 1 is added to the light band number index α (step S15), and the process returns to step ST7.
【0058】2本目以下の光帯H2 、H3 ・・Hn に関
する処理(ステップST7〜ステップST14)は、上
記説明したH1 の処理と同様である。但し、図9に示し
たように、r本目の光帯は切欠部Uを横断して形成され
るから、5個の端点/屈曲点P1r、P2r、U1 、U2 、
U3 が抽出され、3次元位置が計算される。The processing for the second and subsequent light bands H2, H3, ... Hn (steps ST7 to ST14) is the same as the processing for H1 described above. However, as shown in FIG. 9, since the r-th optical band is formed across the notch U, the five end points / bend points P1r, P2r, U1, U2,
U3 is extracted and the three-dimensional position is calculated.
【0059】n=n×m0 本目の光帯についてステップ
ST7〜ステップST13が終了すると、ステップST
14でイエスの判断がなされ、ステップST16へ進
み、端点/屈曲点の整理・分類が行なわれた後、目的と
する3次元計測データの計算が行なわれる(ステップS
T17)。When steps ST7 to ST13 are completed for the n = n × m0th optical band, step ST
If the answer in step 14 is YES, the process proceeds to step ST16, and after the end points / bend points are sorted and classified, the target three-dimensional measurement data is calculated (step S).
T17).
【0060】図5、図11に示された例では、端点/屈
曲点は、ワークWの最外周縁に対応するP11、P12・・
P1r・・P1nと、同心突起Sの基部周縁に対応するP2
1、P22・・P2r・・・P2nと、同心突起Sの頂部周縁
に対応するP31、P33・・P3r-1、P3r+1・・・P3n
と、切欠部Uに対応したU1r、U2r、U3r(図9参照、
切欠部にかかる光帯が1本の場合を例示した。)に分類
される。In the example shown in FIGS. 5 and 11, the end points / bending points are P11, P12, ... Corresponding to the outermost peripheral edge of the work W.
P1r ... P1n and P2 corresponding to the peripheral edge of the concentric protrusion S
1, P22 ... P2r ... P2n and P31, P33 ... P3r-1, P3r + 1 ... P3n corresponding to the peripheral edge of the concentric projection S
And U1r, U2r, U3r corresponding to the notches U (see FIG. 9,
The case where the number of light bands applied to the notch is one is illustrated. )are categorized.
【0061】そして、各グループの端点/屈曲点の3次
元位置データに基づいて同心突起Sの中心P0 と切欠部
Uの3次元位置が計算される(ステップST17)。P
0 の計算にはP31、P33・・P3r-1、P3r+1・・・P3n
またはP11、P12・・P1r・・P1nのデータを利用する
ことが出来る。例えば、一方のグループにデータ欠損
(光帯位置が適正で無く、縁部を横断していない時
等。)がある場合には、他方を利用するようにすれば良
い。また、切欠部Uに関しては光帯間隔が粗いので、こ
の段階では、U1 、U2 、U3 のデータの内の1つ叉は
これらを組み合わせてUの位置データとすることにな
る。Then, the three-dimensional positions of the center P0 of the concentric projection S and the notch U are calculated based on the three-dimensional position data of the end points / bent points of each group (step ST17). P
To calculate 0, P31, P33 ... P3r-1, P3r + 1 ... P3n
Alternatively, the data of P11, P12 ... P1r ... P1n can be used. For example, when one group has a data loss (when the light band position is not proper and does not cross the edge portion, etc.), the other group may be used. Further, since the light band spacing is rough for the cutout portion U, at this stage, one or a combination of the data of U1, U2, and U3 is used as the position data of U.
【0062】第1回目(β=1)の計測が終了したら、
再計測の必要性を判断する(ステップST18)。この
判断の為のプログラムの具体的内容としては、取得され
るべきデータの内容、精度等に応じて極めて多様なもの
が考えられるが、再計測が必要となる代表的なケースと
して、(イ)光帯形成不良による計測不良、(ロ)より
正確な情報乃至より細部に関する情報の取得が想定され
る。(イ)の例としては、抽出されるべき端点/屈曲点
の数が所定数以下であった場合には光帯形成不良と判断
し、再計測を行うプログラムが考えられる。また、図
5、図11に示したワークWの切欠部Uに関してより正
確な3次元情報が欲しい場合が、(ロ)の例に当たる。When the first measurement (β = 1) is completed,
The necessity of remeasurement is judged (step ST18). The specific content of the program for this judgment can be extremely diverse depending on the content, accuracy, etc. of the data to be acquired, but as a typical case where re-measurement is required, (a) It is assumed that measurement failure due to defective formation of the optical band, and (b) acquisition of more accurate information or more detailed information. As an example of (a), a program is conceivable in which when the number of end points / bending points to be extracted is less than or equal to a predetermined number, it is determined that the optical zone is poorly formed and the measurement is performed again. Further, there is a case where more accurate three-dimensional information regarding the cutout portion U of the work W shown in FIGS. 5 and 11 is desired, which corresponds to the example of (B).
【0063】ここでは、計測不良は無く、後者の趣旨で
再計測を行うことを想定することにする。まず、計測回
数指標βに1を加算して(ステップST19)、システ
ムの異常等に対処する為に設定された計測回数の制限値
β0 を越えていないことを確認(ステップ20)してか
ら、光帯本数指標αをリセットし(α=1;ステップ2
1)、ステップ5に戻って再度光帯分布標準形を選択す
る。標準形を選択するにあたって、ワークWがタイプ
[01]のものであること、2回目の計測(β=2)であ
ること、及び第1回目の計測が不良でなかったことを判
断根拠として、図7の(ii)の型の標準形を選択するも
のとする。即ち、扇型の光帯分布パターンを切欠部Uに
集中的に形成して、該切欠部Uの細部の情報を取得する
ようなプログラムが組まれているものとする。Here, it is assumed that there is no measurement failure and remeasurement is performed for the latter purpose. First, 1 is added to the measurement number index β (step ST19), and it is confirmed that the limit value β 0 of the measurement number set for coping with the abnormality of the system is not exceeded (step 20), The number of light bands index α is reset (α = 1; step 2
1) Return to step 5 and select the light band distribution standard form again. In selecting the standard type, the work W is of the type [01], the second measurement (β = 2), and the first measurement was not defective. The standard form of the type of (ii) of FIG. 7 shall be selected. That is, it is assumed that a program is formed so that fan-shaped light band distribution patterns are concentratedly formed in the cutouts U and detailed information of the cutouts U is acquired.
【0064】第1回目の計測によって得られたP0 及び
U1 、U2 、U3 のデータを使用して、標準形[ii]に
対する拡がり係数k、光帯長l、光帯本数係数m、基準
位置γ0 が選択・決定される(ステップST6)。な
お、この場合の拡がり係数kを、扇形の開き角度θを基
準開き角度θ0 の何倍とするかを表わす係数(θ=kθ
0 )とすることも考えられる。Using the data of P0 and U1, U2, and U3 obtained by the first measurement, the spread coefficient k, the light band length 1, the light band number coefficient m, and the reference position γ0 for the standard form [ii] are used. Is selected and determined (step ST6). The spread coefficient k in this case is a coefficient (θ = kθ) that represents how many times the fan-shaped opening angle θ is to be increased by the reference opening angle θ0.
0) is also considered.
【0065】2回目の計測(β=2)におけるスポット
光ビーム走査内容が決定されると、図11に示された様
に、光帯Hu1、Hu2・・Hun(図11中、破線で表示)
が1本づつ投射形成される毎に画像Bが取り込まれ、光
帯画像に相当する差像C=B−Aが取得される。次い
で、中心点列が検出され、折れ線近似によって、端点と
屈曲点が抽出され、各抽出点の3次元位置が算出される
(ステップST7〜ステップST15の繰返し)。When the spot light beam scanning content in the second measurement (β = 2) is determined, as shown in FIG. 11, optical bands Hu1, Hu2 ... Hun (indicated by broken lines in FIG. 11).
The image B is captured every time each of the images is formed and projected, and the difference image C = B-A corresponding to the light band image is acquired. Next, the center point sequence is detected, the end points and the inflection points are extracted by polygonal line approximation, and the three-dimensional position of each extraction point is calculated (step ST7 to step ST15 are repeated).
【0066】図11に示した例で抽出される端点/屈曲
点は、P'11 、P'21、P'31、U'11 、U'21 、U'31
、U'21 、U'22 、U'32 ・・・等である。The end points / bending points extracted in the example shown in FIG. 11 are P'11, P'21, P'31, U'11, U'21, U'31.
, U'21, U'22, U'32 ...
【0067】これら抽出点の3次元位置データは整理・
分類(ステップST16)され、最終的に必要な3次元
情報が計算される(ステップS17)。第2回目の計測
では、扇形の切欠部Uに多数の光帯を集中的に形成して
細部に関する十分なデータが得られるから、第1回目の
計測(光帯1本あるいは2本)に比べて、正確で詳細な
3次元情報がデータ計算によって取得可能となる。計算
取得される情報としては、切欠部代表点の3次元位置、
大きさ(扇形拡がり角度)、深さ(半径方向と円筒軸方
向)等が考えられる。The three-dimensional position data of these extraction points are sorted out.
It is classified (step ST16), and finally necessary three-dimensional information is calculated (step S17). In the second measurement, a large number of light bands are intensively formed in the fan-shaped notch U to obtain sufficient data on details, so compared to the first measurement (one or two light bands). Therefore, accurate and detailed three-dimensional information can be obtained by data calculation. The information obtained by calculation includes the three-dimensional position of the notch representative point,
The size (fan-shaped spread angle), depth (radial direction and cylindrical axis direction), etc. can be considered.
【0068】第2回目の計測によって切欠部に関する細
部の情報が取得され、3次元計測の所期の目的が達成さ
れたならば、ステップST18で再計測不要の判断がな
され、3次元計測の1作業サイクルが終了する(エン
ド)。もし、抽出点不足等の理由により、2回目の計測
が不良となった場合には、ステップST18で再度計測
必要の判断がなされ、ステップST19以下のプロセス
が繰り返される。計測不良により再計測が行なわれる場
合には、ステップST6において計測不良の原因を解消
する可能性を高めるような選択が行なわれるようにプロ
グラムを構成しておく。例えば、k、l、mの値を最大
にとり、抽出点不足の可能性を減らすことなどが考えら
れる。If the detailed information about the notch is obtained by the second measurement and the intended purpose of the three-dimensional measurement is achieved, it is determined in step ST18 that re-measurement is unnecessary, and the three-dimensional measurement 1 The work cycle ends (end). If the second measurement becomes defective due to lack of extraction points or the like, it is determined again in step ST18 that measurement is necessary, and the process from step ST19 is repeated. When remeasurement is performed due to measurement failure, the program is configured so that selection is performed in step ST6 so as to increase the possibility of eliminating the cause of measurement failure. For example, the values of k, l, and m may be maximized to reduce the possibility of insufficient extraction points.
【0069】もし第3回目の計測が実行されて所期の計
測目的が達成されたならば、計測作業1サイクルを終了
するが、未だなお計測不良があれば計測回数指標βが制
限値β0 に達するまで計測が繰り返される。第β0 回目
の計測を行なっても、所期の計測目的が達成されない場
合には、ステップST20でイエスの判断が出され、シ
ステムの異常の可能性を考えてアラームの発令等必要な
処置をとった上で(ステップST22)作業サイクルを
終了する(エンド)。β0 の具体的数値は、計測不良の
発生確率、プログラムの信頼度、要求される計測速度と
β0 増大に伴う計測時間増加量等を考慮して定められる
が、通常は数回程度に設定されるものと考えられる。If the third measurement is executed and the desired measurement purpose is achieved, one cycle of measurement work is completed, but if there is still a measurement failure, the measurement count index β becomes the limit value β 0. The measurement is repeated until it is reached. If the intended measurement purpose is not achieved even after performing the β0th measurement, a yes determination is made in step ST20, and necessary measures such as issuing an alarm are taken in consideration of the possibility of a system abnormality. After that (step ST22), the work cycle is ended (end). The specific value of β0 is determined in consideration of the probability of occurrence of measurement failure, the reliability of the program, the required measurement speed and the amount of increase in measurement time due to β0 increase, but it is usually set to about several times. It is considered to be something.
【0070】以上説明した例では、スポット光ビーム走
査内容を標準形と諸パラメータ(k、l、m、γ0 )の
選択により決定したが、スポット光ビーム走査内容の細
部を特定するに十分な情報が計測開始前に判明している
場合には、このようなプロセスの一部または全部が不要
となる。例えば、ワークWの形状、サイズ、代表点P0
の3次元位置、姿勢等が小さな変動範囲に限定されてお
り、且つ各々の概略データが3次元視覚センサによる観
測を行なう以前に判っている条件下で、ワークWの代表
点P0 の正確な3次元位置のみが計測目的とされる場合
には、スポット光ビーム走査内容を事前に特定すること
も可能である。In the example described above, the spot light beam scanning content is determined by selecting the standard type and various parameters (k, l, m, γ 0), but sufficient information is available to specify the details of the spot light beam scanning content. Is known before the start of measurement, some or all of such a process is unnecessary. For example, the shape, size, and representative point P0 of the work W
Under the condition that the three-dimensional position, posture, etc. of the workpiece W are limited to a small variation range, and the rough data of each is known before the observation by the three-dimensional visual sensor, the accurate point 3 of the representative point P0 of the workpiece W is determined. If only the dimensional position is intended for measurement, it is also possible to specify the spot light beam scanning content in advance.
【0071】一般的に言えば、工場の生産現場等でロボ
ットのような自動機械の作業を支援する為に3次元視覚
センサを使用する場合には、被計測対象物の形状、サイ
ズ、存在範囲、姿勢等について全く未知であることは希
であるから、スポット光ビーム走査内容を決定するプロ
グラムや再計測必要性判断のプログラムは、比較的簡単
な内容で十分な場合が多いと考えられる。Generally speaking, when a three-dimensional visual sensor is used to support the work of an automatic machine such as a robot at a production site of a factory, etc., the shape, size, and range of existence of an object to be measured. Since it is rare that the posture and the like are completely unknown, it is considered that the program for determining the spot light beam scanning content and the program for determining the necessity of re-measurement are often sufficiently simple content.
【0072】[0072]
【発明の効果】本願発明の3次元視覚センサによれば、
スポット光ビームを高速偏向走査する手段を有する投光
装置によって3次元計測に必要な光投射が行われるの
で、被計測対象物の遠近、大小、存在方向、形状、最終
的に必要な3次元情報の内容、精度等に自在に適応した
光帯を形成することが可能となる。According to the three-dimensional visual sensor of the present invention,
Since the light projection required for three-dimensional measurement is performed by the light projecting device having the means for scanning the spot light beam at high speed, the distance, size, existence direction, shape, and finally required three-dimensional information of the object to be measured. It is possible to form an optical band that is freely adapted to the content, accuracy, etc.
【0073】そして、光源の発する光量を3次元計測に
有用な部分に集中させて明るい光帯を形成させた条件下
でビデオカメラによる観測を行うことが出来るから、作
業効率と測定精度に優れた3次元計測が実現される。Since the amount of light emitted from the light source can be concentrated on a portion useful for three-dimensional measurement to form a bright light band and observation can be performed by the video camera, work efficiency and measurement accuracy are excellent. Three-dimensional measurement is realized.
【0074】また、被計測対象物形状に応じて光帯延在
方向を自由に選択出来るから、被計測対象物の縁部にお
ける光帯中心点列の湾曲現象を回避することが可能とな
る。従って、本発明の3次元視覚センサは、この面から
見ても、3次元計測の精度向上に寄与し得るものであ
る。Further, since the extending direction of the light band can be freely selected according to the shape of the object to be measured, it is possible to avoid the phenomenon of bending of the center point sequence of the light band at the edge of the object to be measured. Therefore, the three-dimensional visual sensor of the present invention can contribute to the improvement of the accuracy of the three-dimensional measurement even from this aspect.
【図1】本発明に従った3次元視覚センサに使用可能な
投光装置の基本構成と光帯形成の為のスポット光ビーム
走査を説明する模式図である。FIG. 1 is a schematic diagram illustrating a basic configuration of a light projecting device that can be used for a three-dimensional visual sensor according to the present invention and spot light beam scanning for forming a light band.
【図2】被計測対象物の遠近に応じてスポット光ビーム
の偏向走査範囲(スキャナの振り角度)を変えることを
説明する図である。FIG. 2 is a diagram illustrating that the deflection scanning range (scanner swing angle) of the spot light beam is changed according to the distance between the object to be measured.
【図3】本発明の3次元視覚センサにおける投射範囲の
限定機能について説明する図である。FIG. 3 is a diagram illustrating a function of limiting a projection range in the three-dimensional visual sensor of the present invention.
【図4】光帯分布及び該光帯の端点近傍の様子の一例を
従来技術と本発明の3次元視覚センサの場合に分けて模
式的に示した図である。FIG. 4 is a diagram schematically showing an example of a light band distribution and a state in the vicinity of an end point of the light band separately for a conventional technique and a three-dimensional visual sensor of the present invention.
【図5】本発明の3次元視覚センサのシステム構成の1
例を模式的に示した図である。FIG. 5 is a system configuration 1 of the three-dimensional visual sensor of the present invention.
It is the figure which showed the example typically.
【図6】図5に例示されたシステム構成を有する本発明
の3次元視覚センサを用いて被計測対象物の3次元計測
を実行する場合の処理の概要の1例を示したフローチャ
ートである。FIG. 6 is a flowchart showing an example of an outline of processing when three-dimensional measurement of an object to be measured is executed using the three-dimensional visual sensor of the present invention having the system configuration illustrated in FIG.
【図7】スポット光ビーム走査パターンの標準形を説明
する図である。FIG. 7 is a diagram illustrating a standard form of a spot light beam scanning pattern.
【図8】図7に示されたスポット光ビーム走査パターン
標準形(i)に対して、拡がり係数kを与えた場合のス
ポット光走査パターン(光帯分布)を説明する模式図で
ある。8 is a schematic diagram illustrating a spot light scanning pattern (light band distribution) when a spread coefficient k is applied to the spot light beam scanning pattern standard form (i) shown in FIG.
【図9】図7に示されたスポット光ビーム走査パターン
標準形(i)に対して、光帯長係数lを与えた場合のス
ポット光走査パターン(光帯分布)を説明する模式図で
ある。9 is a schematic diagram for explaining a spot light scanning pattern (light band distribution) when a light band length coefficient 1 is applied to the spot light beam scanning pattern standard form (i) shown in FIG. .
【図10】図7に示されたスポット光ビーム走査パター
ン標準形(i)に対して、光帯本数係数mを与えた場合
のスポット光走査パターン(光帯分布)を説明する模式
図である。10 is a schematic diagram illustrating a spot light scanning pattern (light band distribution) in the case where a light band number coefficient m is given to the spot light beam scanning pattern standard form (i) shown in FIG. .
【図11】図5に示されたワークWの切欠部Uを詳細に
示した部分拡大図である。11 is a partially enlarged view showing in detail a cutout portion U of the work W shown in FIG.
1 レーザ光源 2 X−スキャナ 3 Y−スキャナ 2M、3M 偏向ミラー 4 ビデオカメラ(CCDカメラ)のイメージプレーン L スポット光ビーム Ga 、Gb 光帯 P、Q 光帯端点 Ha 、Hb 光帯中心点列 W、W1 、W2 被計測対象物(ワーク) E 縁部 R 円環領域 1 laser light source 2 X-scanner 3 Y-scanner 2M, 3M deflection mirror 4 image plane of video camera (CCD camera) L spot light beam Ga, Gb light band P, Q light band end point Ha, Hb light band center point sequence W , W1, W2 Object to be measured (workpiece) E Edge R Ring area
Claims (1)
置に接続された画像処理装置と、前記ビデオカメラ装置
の撮像走査周期に比して十分短い周期で帯状走査範囲内
をスポット光ビームで偏向走査する手段を有する投光装
置とを備えたスポット光ビーム走査型3次元視覚セン
サ。1. A video camera apparatus, an image processing apparatus connected to the video camera apparatus, and deflection scanning with a spot light beam within a strip scanning range at a period sufficiently shorter than an imaging scanning period of the video camera apparatus. Spot light beam scanning type three-dimensional visual sensor provided with a light projecting device having means for performing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3240793A JPH06229732A (en) | 1993-01-29 | 1993-01-29 | Spot light beam scanning three-dimensional visual sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3240793A JPH06229732A (en) | 1993-01-29 | 1993-01-29 | Spot light beam scanning three-dimensional visual sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06229732A true JPH06229732A (en) | 1994-08-19 |
Family
ID=12358103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3240793A Pending JPH06229732A (en) | 1993-01-29 | 1993-01-29 | Spot light beam scanning three-dimensional visual sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06229732A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008209166A (en) * | 2007-02-23 | 2008-09-11 | Topcon Corp | Optical image measurement device and program for controlling optical image measurement device |
JP2009075069A (en) * | 2007-08-31 | 2009-04-09 | Canon Inc | Apparatus and method for obtaining information related to terahertz wave |
JP2012093104A (en) * | 2010-10-25 | 2012-05-17 | Yaskawa Electric Corp | Shape measuring device, robot system, and shape measuring method |
-
1993
- 1993-01-29 JP JP3240793A patent/JPH06229732A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008209166A (en) * | 2007-02-23 | 2008-09-11 | Topcon Corp | Optical image measurement device and program for controlling optical image measurement device |
JP2009075069A (en) * | 2007-08-31 | 2009-04-09 | Canon Inc | Apparatus and method for obtaining information related to terahertz wave |
JP2012093104A (en) * | 2010-10-25 | 2012-05-17 | Yaskawa Electric Corp | Shape measuring device, robot system, and shape measuring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5461478A (en) | Method and apparatus for measuring three-dimensional position and orientation of an object using light projection | |
JP3930482B2 (en) | 3D visual sensor | |
JP5429872B2 (en) | Method and apparatus for controlling a robot for welding a workpiece | |
JP4885584B2 (en) | Rangefinder calibration method and apparatus | |
US20180058843A1 (en) | Three-Dimensional Measurement Device | |
US7502504B2 (en) | Three-dimensional visual sensor | |
JP4872948B2 (en) | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method | |
WO2021224099A1 (en) | Calibrating multiple laser beams for additive manufacturing | |
US10186398B2 (en) | Sample positioning method and charged particle beam apparatus | |
JP3442140B2 (en) | Position measurement device and position deviation correction device using three-dimensional visual sensor | |
US10282845B2 (en) | Determining a mark in a data record with three-dimensional surface coordinates of a scene, captured by at least one laser scanner | |
JP2006246502A (en) | Projector with distortion correcting function | |
JP3672970B2 (en) | Non-contact image measurement system | |
JP3958815B2 (en) | Tool position measuring method in NC machine tools | |
JPH06229732A (en) | Spot light beam scanning three-dimensional visual sensor | |
JP2859946B2 (en) | Non-contact measuring device | |
JP2000193438A (en) | Method and device for measuring 3-dimension form, and storage medium where 3-dimension form measuring program is stored | |
US20200149874A1 (en) | Displacement Measuring Apparatus | |
JP2017138176A (en) | Three-dimensional information acquisition system, three-dimensional information acquisition method, and picking system | |
JPH09175457A (en) | Distortion inspection method and distortion inspection device | |
JPH0820207B2 (en) | Optical 3D position measurement method | |
JP2005181250A (en) | Method and device for inspecting liquid crystal display panel | |
US10724849B2 (en) | Displacement measuring apparatus | |
JP2817092B2 (en) | Laser processing equipment | |
JP3178984B2 (en) | Welding line position detector |