JPH06203166A - Multi-dimensional position measurement, control device, and learning method - Google Patents
Multi-dimensional position measurement, control device, and learning methodInfo
- Publication number
- JPH06203166A JPH06203166A JP5000382A JP38293A JPH06203166A JP H06203166 A JPH06203166 A JP H06203166A JP 5000382 A JP5000382 A JP 5000382A JP 38293 A JP38293 A JP 38293A JP H06203166 A JPH06203166 A JP H06203166A
- Authority
- JP
- Japan
- Prior art keywords
- information
- robot
- dimensional
- learning
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 61
- 239000012636 effector Substances 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000005484 gravity Effects 0.000 claims abstract description 9
- 238000013459 approach Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000036544 posture Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 21
- 239000003550 marker Substances 0.000 description 12
- 238000007796 conventional method Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 本発明は、特定の物体の、例えば、3次元空
間内に置かれた位置の測定,制御装置に関し、画像処理
装置,又は、一次元距離計測装置から物体の位置を計
測,或いは、該3次元空間内に置かれた物体を把持す
る。
【構成】 ロボット等が把持した測定対象物の位置を3
台以上のテレビカメラ等の画像処理装置等で測定し、取
得した画像情報等(X,Y, α,S) を、ニューラルネット
ワーク等の学習装置に入力し、上記ロボットの各関節の
角度と,アーム長の情報から、順キネマティクスで計算
し得る測定対象物の、例えば、6次元位置情報(X,Y,Z,
α, β, γ) を教師データとして学習する。又、把持
対象物体に、複数個のマーカを取り付け、マーカの画面
上の重心位置(X,Y),面積(S) 等の特徴量を、上記ニュー
ラルネットワークに入力して、対応するロボットの対応
する関節角度,手先効果器の位置,姿勢角(X,Y,Z, α,
β, γ) を教師データとして学習し、その学習結果に
より、任意の位置に置かれた物体を把持する。
(57) [Summary] [Object] The present invention relates to a device for measuring and controlling the position of a specific object, for example, placed in a three-dimensional space, and an object from an image processing device or a one-dimensional distance measuring device. The position is measured, or an object placed in the three-dimensional space is grasped. [Structure] Set the position of the measurement target grasped by the robot etc. to 3
The image information (X, Y, α, S) obtained by measuring with an image processing device such as a TV camera or more, and inputting the acquired image information (X, Y, α, S) into a learning device such as a neural network, For example, 6-dimensional position information (X, Y, Z, of the measurement object that can be calculated by forward kinematics from the arm length information)
Learn as α, β, γ) as teacher data. In addition, a plurality of markers are attached to the object to be grasped, and feature quantities such as the position of the center of gravity (X, Y) and area (S) of the markers on the screen are input to the neural network, and the corresponding robot is supported. Joint angle, hand effector position, posture angle (X, Y, Z, α,
β, γ) is learned as teacher data, and an object placed at an arbitrary position is grasped by the learning result.
Description
【0001】[0001]
【産業上の利用分野】本発明は、特定の物体の3次元空
間内に置かれた位置の3次元位置測定, 制御装置,又
は、その3次元測定, 制御装置での学習方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional position measurement and control device for a position of a specific object placed in a three-dimensional space, or a learning method for the three-dimensional measurement and control device.
【0002】近年、コンピュータやセンサ技術等の急速
な発達に伴い、各種のセンサ、例えば、ビデオカメラ等
の画像処理装置のビジョンセンサを用いて、外部環境を
認識し、認識した情報を基に、自から判断し行動するこ
とのできる「知能ロボット」への期待が高まっている。In recent years, with the rapid development of computers and sensor technology, various sensors, for example, vision sensors of image processing devices such as video cameras are used to recognize the external environment, and based on the recognized information, Expectations are rising for "intelligent robots" that can judge and act on their own.
【0003】特に、人間の視覚と同様に、上記ビジョン
センサ等の光学式センサを用いて、周囲の環境を認識
し、物体の把持,組み立て作業を行う視覚制御技術は、
ロボットの知能の向上を進める上で最も重要な技術の1
つである。In particular, similar to human vision, a visual control technique for recognizing the surrounding environment by using an optical sensor such as the above vision sensor to grasp and assemble an object is
One of the most important technologies for improving robot intelligence
Is one.
【0004】[0004]
【従来の技術】図7は、従来の3次元位置を測定する方
法を説明する図である。3次元空間内に置かれた物体の
3次元位置(x,y,z) を測定する場合、従来方法では、図
示されているように、複数個の観測点(Oa ,0b ) から測
定対象物(P) までの直線距離(x,y,z) を測定し、三角測
量の原理で測定するのが一般的である。2. Description of the Related Art FIG. 7 is a diagram for explaining a conventional method for measuring a three-dimensional position. When measuring the three-dimensional position (x, y, z) of an object placed in the three-dimensional space, in the conventional method, as shown in the figure, measurement is performed from multiple observation points (O a , 0 b ). It is common to measure the linear distance (x, y, z) to the object (P) and then the principle of triangulation.
【0005】図示されているように、観測レンズ節点
と、観測面との距離がfである、一対の観測光学系が、
各節点を結ぶ線に、光軸が垂直で互いに平行となるよう
に、Lの間隔で配置され、標点Pの各観測面上での像
が、それぞれ、(xa ,ya ),(xb ,y b ) で検出されたとす
ると、標点Pの座標値(x,y,z) は、 x= xa L/ xa -xb y=fL/xa -xb z= ya L/ xa -xb ,yb L/ xa -xb で与えられる。As shown, the observation lens node
And a pair of observation optical systems whose distance from the observation surface is f,
The optical axis should be vertical and parallel to the line connecting the nodes.
, An image of each of the reference points P on the respective observation planes, arranged at intervals of L
But each (xa, ya), (xb, y b)
Then, the coordinate value (x, y, z) of the control point P is x = xaL / xa-xb y = fL / xa-xb z = yaL / xa-xb, ybL / xa-xb Given in.
【0006】[0006]
【発明が解決しようとする課題】然しながら、上記従来
方法では、光等の反射を利用して距離の計測を行うの
で、測定対象の物体がどこにあるのかを決定するのが困
難な問題、所謂、対応点決定法が大きな課題となってい
る。However, in the above-mentioned conventional method, since the distance is measured by using the reflection of light or the like, it is difficult to determine where the object to be measured is, so-called, The method of determining corresponding points has become a major issue.
【0007】そこで、対象となる物体がどこにあるかを
他の方法、例えば、物体の持っている特徴点等につい
て、近傍の画像情報との自己相関をとり、自己相関の値
の大きい物体を対象とする等の方法で、予め、知ってお
く必要があった。Therefore, another method is used to find out where the target object is, for example, the feature points of the object are autocorrelated with neighboring image information, and the object having a large autocorrelation value is targeted. It was necessary to know in advance, such as
【0008】又、反射等を利用する装置の場合、物体の
姿勢が変わると、反射光が得られなくなり、対象物体の
真の姿勢までも検出できないとか、測定対象物までの距
離の測定が誤ることがある等の問題があった。Further, in the case of a device utilizing reflection or the like, when the posture of the object changes, reflected light cannot be obtained, and even the true posture of the target object cannot be detected or the distance to the measurement target is erroneously measured. There were problems such as things.
【0009】本発明は上記従来の欠点に鑑み、測定対象
物をロボット等に持たせ、ロボットの関節角度とアーム
長から、ロボットの把持している物体の3次元座標値
(又は、各次元での姿勢角α,β,γを含めた6次元座
標値) を求めておき、さらに、その物体, 又は、その物
体に取り付けられた複数個のマーカをテレビカメラ等の
ビジョンセンサを用いて捉え、そのビジョンセンサから
得られる画像情報を計測し、その計測情報{例えば、2
次元座標(X,Y) と、ロボットの慣性軸方向の角度αと、
物体の面積S}と、上記ロボットの把持している物体の
3次元座標値,又は、6次元座標, 或いは、関節角との
関係をニューラルネットワーク等の学習装置に学習させ
て、上記テレビカメラ等のビジョンセンサから得られる
画像情報から、対象物体の姿勢を計測する装置, 又は、
任意位置に置かれた対象物体を、ロボットに把持させる
制御装置,又はその学習方法を提供することを目的とす
るものである。In view of the above-mentioned conventional drawbacks, the present invention provides a robot or the like with an object to be measured, and determines the three-dimensional coordinate value (or in each dimension) of the object gripped by the robot from the joint angle and arm length of the robot. The 6-dimensional coordinate values including the posture angles α, β, γ of) are obtained, and the object or a plurality of markers attached to the object is captured using a vision sensor such as a television camera, Image information obtained from the vision sensor is measured, and the measurement information {for example, 2
The dimensional coordinates (X, Y) and the angle α of the robot's inertial axis,
The learning device such as a neural network is made to learn the relationship between the object area S} and the three-dimensional coordinate value or the six-dimensional coordinate value of the object held by the robot, and the television camera or the like. A device that measures the orientation of the target object from the image information obtained from the vision sensor, or
An object of the present invention is to provide a control device that causes a robot to grip a target object placed at an arbitrary position, or a learning method thereof.
【0010】[0010]
【課題を解決するための手段】図1は本発明の一実施例
を示した図であり、図2は、本発明のニューラルネット
ワークによる学習方法を説明する図であり、図3は本発
明の他の学習装置の例を示した図であり、図4は、本発
明の他の実施例を示した図であり、図5は本発明による
ビジョンセンサ観測面でのマーカ特徴量を説明する図で
あり、図6は、本発明により把持物体をアプローチする
方法を示した図である。上記の問題点は下記の如くに構
成した3次元位置測定, 制御装置,及び、その学習方法
によって解決される。FIG. 1 is a diagram showing an embodiment of the present invention, FIG. 2 is a diagram for explaining a learning method by a neural network of the present invention, and FIG. 3 is a diagram of the present invention. FIG. 5 is a diagram showing an example of another learning device, FIG. 4 is a diagram showing another embodiment of the present invention, and FIG. 5 is a diagram illustrating marker feature amounts on a vision sensor observation surface according to the present invention. FIG. 6 is a diagram showing a method for approaching a grasped object according to the present invention. The above problems can be solved by the three-dimensional position measurement and control device and the learning method thereof configured as follows.
【0011】(1) ロボット 1等が把持した測定対象物 1
0 の位置を3台以上のテレビカメラ等の画像処理装置
2, 又はレーザ等を利用した1次元距離計測装置 2a 等
で測定し、取得した画像情報, 又は、該画像情報から
得られる物体位置等の情報,或いは、距離計測情報
を、ニューラルネットワーク等の学習装置 3に入力し、
上記ロボット 2の各関節の角度と,アーム長の情報から
計算し得る測定対象物の多次元位置情報(X,Y,Z, α,
β, γ) を教師データとして学習し、該学習した学習
装置 3を用いて、測定対象物 10 の画像情報, 又は、距
離計測情報, 又は、を入力して、上記測定対象物 1
0 の多次元位置を測定するように構成する。(1) Object 1 measured by the robot 1 or the like
Image processing device such as three or more TV cameras at position 0
2, or image information acquired by measuring with a one-dimensional distance measuring device 2a using a laser or the like, or information such as an object position obtained from the image information, or distance measurement information is learned by a neural network or the like. Type in device 3,
The multi-dimensional position information (X, Y, Z, α, of the measurement object that can be calculated from the angle of each joint of the robot 2 and the arm length information)
β, γ) is learned as teacher data, and the learned device 3 is used to input image information of the measurement object 10 or distance measurement information, or
Configured to measure multidimensional position of 0.
【0012】(2) 上記多次元位置測定装置を用いて、テ
レビカメラ等の画像処理装置 2からの画像情報から、
各画像上のある測定対象物 10 の重心等におけるX座
標,Y座標,該対象物の傾斜角度(α),面積(S)等
を、上記学習装置 3に入力し、該入力された測定対象物
10 の位置に対応する上記ロボット 1等の関節角度 (θ
1,θ2,〜),及び、アーム長から計算し得る多次元位置情
報(X,Y,Z, α, β, γ)を教師データとするように構
成する。(2) From the image information from the image processing device 2 such as a television camera, using the above multidimensional position measuring device,
The X coordinate, the Y coordinate, the inclination angle (α), the area (S), etc. of the center of gravity of a certain measurement object 10 on each image are input to the learning device 3, and the input measurement object is input. object
The joint angles of the robot 1 etc. corresponding to the 10 positions (θ
1, θ2, 〜) and multidimensional position information (X, Y, Z, α, β, γ) that can be calculated from the arm length are used as teacher data.
【0013】(3) 上記多次元位置測定装置を用いて、上
記ロボット 1の手先位置を、上記テレビカメラ等の画像
処理装置 2群の視野内でランダムに設定し、該設定され
た手先位置に対応する上記ロボット 1等の関節角度 (θ
1,θ2,〜),及び、アーム長から計算し得る多次元位置情
報(X,Y,Z, α, β, γ) を教師データとするように構
成する。(3) Using the multidimensional position measuring device, the hand position of the robot 1 is randomly set within the visual field of the image processing device 2 group such as the TV camera, and the hand position is set to the set hand position. The corresponding joint angle (θ
1, θ2, ~) and multidimensional position information (X, Y, Z, α, β, γ) that can be calculated from the arm length are used as teacher data.
【0014】(4) 上記多次元位置測定装置を用いて、上
記ロボット 1の各関節角度を、所定の分割数で設定する
際、該設定した関節角度により得られた手先位置が、上
記テレビカメラ等の画像処理装置 2群の視野内に入るよ
うに各関節角度を分割して設定し、該設定された手先位
置に対応する上記ロボット 1等の関節角度 (θ1,θ2,
〜),及び、アーム長から計算し得る多次元位置情報(X,
Y,Z, α, β, γ) を教師データとするように構成す
る。(4) When the joint angles of the robot 1 are set by a predetermined number of divisions using the multidimensional position measuring device, the hand position obtained by the set joint angle is the television camera. Each joint angle is divided and set so as to be within the visual field of the image processing device 2 group such as, and the joint angle (θ1, θ2,
~) And multidimensional position information (X,
Y, Z, α, β, γ) are used as teacher data.
【0015】(5) 上記3台以上のテレビカメラ等の画像
処理装置 2の内、少なくとも、1つ以上は、他のテレビ
カメラ等の画像処理装置 2と、所定の角度を保持する方
向に設置する。(5) At least one of the three or more image processing devices 2 such as television cameras is installed in a direction to maintain a predetermined angle with the image processing device 2 such as another television camera. To do.
【0016】(6) ロボット 1等が把持した把持対象物 1
1 に複数個のマーカを取り付け、該取り付けられたマ
ーカの位置を3台以上のテレビカメラ等の画像処理装
置 2, 又はレーザ等を利用した1次元距離計測装置 2a
等で測定し、取得した画像情報,又は、該画像情報か
ら得られる物体位置等の情報,或いは、距離計測情報
を、ニューラルネットワーク等の学習装置 3に入力し、
上記ロボット 2の各関節の角度と,アーム長の情報から
計算し得る測定対象物の3次元位置情報(X,Y,Z, α,
β, γ) を教師データとして学習し、該学習した学習
装置 3を用いて、任意位置,姿勢に置かれた把持対象物
11 の画像情報, 又は、距離計測情報,又は、を入
力して、上記把持対象物 11 を把持するように構成す
る。(6) Object to be gripped by the robot 1 or the like 1
A plurality of markers are attached to 1, and the positions of the attached markers are adjusted by three or more image processing devices such as TV cameras 2, or a one-dimensional distance measuring device 2a using a laser or the like
And the like, and the acquired image information, or information such as an object position obtained from the image information, or distance measurement information is input to a learning device 3 such as a neural network,
The three-dimensional position information (X, Y, Z, α, of the measurement object that can be calculated from the angle of each joint of the robot 2 and the arm length information)
β, γ) is learned as teacher data, and the learning object 3 learned is used to grasp the grasped object placed at an arbitrary position and posture.
Image information of 11 or distance measurement information or is input, and the object to be grasped 11 is grasped.
【0017】(7) 上記任意の位置姿勢に置かれた物体の
把持作業を行う際、上記学習装置 3により、目標とする
把持物体 11 の位置から、所定の距離 dだけ離れた位置
を目標点とし、上記ロボット 1の手先効果器 12 が、上
記目標点に到達した後に、上記把持物体 11 へのアプロ
ーチを行うように制御する。(7) When gripping an object placed in any of the above positions and postures, the learning device 3 causes the learning device 3 to set a target point at a position separated by a predetermined distance d from the target position of the gripped object 11. Then, the hand effector 12 of the robot 1 is controlled so as to approach the grasped object 11 after reaching the target point.
【0018】[0018]
【作用】即ち、本発明においては、測定対象物をロボッ
ト等に持たせ、ロボットの関節角度θ1,θ2,〜とアーム
長から、ロボットの把持している物体の3次元座標値
(又は、各次元での姿勢角α,β,γを含めた6次元座
標値) を、順運動学演算(順キネマティクス)から求め
ておき、さらに、その物体をテレビカメラ等のビジョン
センサを用いて捉え、そのビジョンセンサから得られる
画像情報を計測し、その計測情報、例えば、物体の重心
の2次元座標(X,Y) と、手先きの方向、例えば、慣性主
軸の方向αと、物体の面積Sと、上記ロボットの把持し
ている物体の3次元座標値,又は、6次元座標との関係
をニューラルネットワーク等の学習装置に学習させて、
上記テレビカメラ等のビジョンセンサから得られる上記
画像情報2次元座標(X,Y) と、手先きの方向αと、物体
の面積S等とから、対象物体の姿勢、即ち、上記物体の
3次元座標値、又は、各次元での姿勢角α,β,γを含
めた6次元座標値を計測するようにしたものである。In other words, in the present invention, the object to be measured is held by the robot or the like, and the three-dimensional coordinate value (or each value) of the object grasped by the robot is determined from the joint angles θ1, θ2, ... Of the robot and the arm length. 6-dimensional coordinate values including posture angles α, β, γ in three dimensions) are obtained from forward kinematics calculation (forward kinematics), and the object is captured using a vision sensor such as a television camera, The image information obtained from the vision sensor is measured, and the measurement information, for example, the two-dimensional coordinates (X, Y) of the center of gravity of the object, the hand direction, for example, the direction α of the principal axis of inertia, and the area S of the object are measured. And a learning device such as a neural network to learn the relationship between the three-dimensional coordinate value of the object held by the robot or the six-dimensional coordinate,
From the image information two-dimensional coordinates (X, Y) obtained from the vision sensor of the television camera, the hand direction α, the object area S, etc., the posture of the target object, that is, the three-dimensional direction of the object The coordinate values or the six-dimensional coordinate values including the posture angles α, β, γ in each dimension are measured.
【0019】特に、物体正面に、例えば、2台以上のテ
レビカメラを設置し、それらと、例えば、直角をなす方
向に、1台以上のテレビカメラを設置し、奥行き方向
(X軸方向)の画像情報を増やすことで、測定対象物体
の、例えば、3次元位置の測定精度を向上させることが
できる。In particular, for example, two or more TV cameras are installed in front of the object, and one or more TV cameras are installed in a direction perpendicular to them, for example, in the depth direction (X-axis direction). By increasing the image information, it is possible to improve the measurement accuracy of, for example, the three-dimensional position of the measurement target object.
【0020】従って、本発明によれば、テレビカメラの
視野内であれば、測定対象物の正確な位置測定が可能で
あり、従来方法では困難であった姿勢変化も、画像の主
軸方向の情報(前述のαA 〜) や、面積 (前述のS
A 〜) を利用することにより検出することができる。Therefore, according to the present invention, it is possible to accurately measure the position of the object to be measured within the visual field of the television camera, and the posture change, which is difficult with the conventional method, can be obtained in the direction of the main axis of the image. (The above α A ~) and the area (the above S
A ~) can be used for detection.
【0021】又、学習装置、例えば、ニューラルネット
ワークは、教えられなかった点以外でも、補間する機能
を備えているので、全空間に対して教師データを作成し
なくても、適当な代表点を教えるだけで、対象物体の位
置を計測することができる。Further, since the learning device, for example, the neural network has a function of interpolating the points other than the points that were not taught, it is possible to obtain an appropriate representative point without creating teacher data for the entire space. The position of the target object can be measured only by teaching.
【0022】本発明による方法では、測定対象物の、例
えば、3次元位置と画像情報との対応関係を学習するこ
とによって位置測定を行うようにしたものであるので、
ニューラルネットワークに限らず、最初の学習時に、上
記3次元の位置が学習できる他の学習装置を用いても良
い。In the method according to the present invention, the position is measured by learning the correspondence between the three-dimensional position of the object to be measured and the image information.
The learning device is not limited to the neural network, and other learning device that can learn the three-dimensional position may be used at the first learning.
【0023】又、測定の対象とする空間が広くなってく
ると、一つのニューラルネットワークで学習するために
は、ニューラルネットワークの規模が大きくなり過ぎる
ことになる。そこで、手先の座標空間を所定の大きさで
複数個に分割し、別々のニューラルネットワークに学習
させることによって、ニューラルネットワークの小規模
化が可能になり、学習時間の短縮化が図れる。このよう
にすることにより、1つのニューラルネットワークの受
け持つ範囲が狭まるので、そのニューラルネットワーク
が小規模でも、補間精度が向上する。Further, when the space to be measured becomes wider, the size of the neural network becomes too large for learning with one neural network. Therefore, by dividing the coordinate space of the hand into a plurality of pieces of a predetermined size and learning them in different neural networks, the neural network can be downsized, and the learning time can be shortened. By doing so, the range covered by one neural network is narrowed, so that the interpolation accuracy is improved even if the neural network is small.
【0024】又、1つのニューラルネットワークには、
全空間を疎らに教え、他のニューラルネットワークに
は、ある部分だけを蜜に教えることによって、特定の場
所における測定精度を向上させたり、更に、複数のニュ
ーラルネットワークを用いることによって、全体の精度
の向上を図ることも可能になる。Further, one neural network includes
Teaching the whole space sparsely and teaching other parts of the neural network only a certain part improves the measurement accuracy in a specific place, and by using multiple neural networks, It also becomes possible to improve.
【0025】又、組立て作業等、ロボット (マニピュレ
ータ) 周囲の環境や、作業対象物がある程度わかってい
る場合、作業対象物の表面に、その形状や色等から、そ
れぞれを特定するマーカを取り付ける。When the environment around the robot (manipulator) and the work object are known to some extent, such as assembly work, a marker for identifying each of them is attached to the surface of the work object based on its shape, color and the like.
【0026】次に、ロボットの手先効果器に、作業対象
物を把持した状態で、その手先効果器を作業空間に固定
し、マニピュレータとして動作するロボットの関節角
度, 或いは、該関節角度やアームの長さ等から、前述の
順キネマティクスで求められる手先効果器の位置(X,Y,
Z),姿勢角 (α, β, γ) を教師データとして採取
し、同時に、上記ビジョンセンサにより、上記マーカの
ビジョンセンサ観測面における重心位置や、面積、主軸
方向等を観測する。Next, the hand effector of the robot is fixed to the work space while holding the work object, and the joint angle of the robot operating as a manipulator, or the joint angle or arm From the length etc., the position of the hand effector (X, Y,
Z) and attitude angle (α, β, γ) are collected as teacher data, and at the same time, the position of the center of gravity of the marker on the vision sensor observation surface, the area, the main axis direction, etc. are observed by the vision sensor.
【0027】上記作業を、空間内のいくつかの点で、手
先効果器の姿勢を替えて行い、得られたマーカの特徴量
と, ロボットの関節角度, 或いは、該手先効果器の位置
姿勢(X,Y,Z, α, β, γ) の関係を、図2に示した階層
型のニューラルネットワーク等の学習装置で学習させ
る。The above work is performed by changing the posture of the hand effector at some points in the space, and the feature amount of the obtained marker, the joint angle of the robot, or the position and posture of the hand effector ( The relationship of (X, Y, Z, α, β, γ) is learned by a learning device such as the hierarchical neural network shown in FIG.
【0028】そして、空間内の任意の位置,姿勢角をと
る作業対象物に対して、上記マーカのビジョンセンサの
観測面における重心位置や面積,主軸方向等を計測し、
これらの特徴量を、上記階層型のニューラルネットワー
ク等の学習装置に入力することにより、出力として、上
記作業対象物を把持するための関節角度,或いは、作業
対象物の位置,姿勢角が得られ、これにより、該作業対
象物の把持を行うことができる。Then, the barycentric position and area of the marker on the observation surface of the vision sensor, the main axis direction, etc. are measured with respect to the work object having an arbitrary position and posture angle in the space,
By inputting these feature quantities into a learning device such as the above-mentioned hierarchical neural network, the joint angle for gripping the work target, or the position and posture angle of the work target can be obtained as output. As a result, the work target can be gripped.
【0029】このとき、学習装置から得られた関節角度
や作業対象物の位置,姿勢角を、その儘、ロボットに指
令すると、ロボットの各アームの動き,方向を特定する
ことができないことから、作業物体に接触したり、思わ
ぬ方向から、物体を把持する恐れがある。At this time, if the joint angle and the position and posture angle of the work object obtained from the learning device are instructed to the robot, the movement and direction of each arm of the robot cannot be specified. There is a risk of touching the work object or grasping the work object from an unexpected direction.
【0030】そこで、本発明においては、学習装置によ
り、目標とされた手先効果器の位置,姿勢角から得られ
る物体の正面位置から任意の位置dだけ離れた位置を、
第1の目標値として、その目標点に、上記ロボットの手
先効果器が位置付けした後、その把持物体の正面方向に
平行移動させることにより、常に、望みの方向から物体
を把持することができるようになる。Therefore, in the present invention, the learning device is used to set a position separated by an arbitrary position d from the front position of the object obtained from the target position and posture angle of the hand effector,
As the first target value, after the hand effector of the robot is positioned at the target point, the object is constantly gripped from the desired direction by moving in parallel to the front direction of the gripped object. become.
【0031】[0031]
【実施例】以下本発明の実施例を図面によって詳述す
る。前述の図1は本発明の一実施例を示した図であり、
図2は、本発明のニューラルネットワークによる学習方
法を説明する図であり、図3は本発明の他の学習装置の
例を示した図であり、図4は、本発明の他の実施例を示
した図であり、図5は、本発明によるビジョンセンサ観
測面でのマーカ特徴量を説明する図であり、図6は本発
明により把持物体をアプローチする方法を示した図であ
る。Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 described above is a diagram showing an embodiment of the present invention.
FIG. 2 is a diagram for explaining a learning method by the neural network of the present invention, FIG. 3 is a diagram showing an example of another learning device of the present invention, and FIG. 4 is another embodiment of the present invention. FIG. 5 is a diagram for explaining the marker feature amount on the vision sensor observation surface according to the present invention, and FIG. 6 is a diagram showing a method for approaching a gripped object according to the present invention.
【0032】本発明においては、特定の物体の、例え
ば、3次元空間内に置かれた位置の測定装置において、
ロボット 1等が把持した測定対象物 10 の位置を3台以
上のテレビカメラ等の画像処理装置 2等で測定し、取得
した画像情報等(X,Y, α,S) , 距離計測情報を、ニ
ューラルネットワーク等の学習装置 3に入力し、上記ロ
ボットの各関節の角度と,アーム長の情報から計算し得
る測定対象物の、例えば、6次元位置情報(X,Y,Z, α,
β, γ) を教師データとして学習する。又、上記テレ
ビカメラ等の画像処理装置 2の1つ以上は、他のテレビ
カメラ 2と、ほぼ直角をなす方向に設置する手段、或い
は、把持物体 11 に、複数個のマーカを取り付けて、
そのマーカの位置情報をテレビカメラ等の画像処理装
置 2で測定し、取得した画像情報と、上記把持物体 11
の把持しているロボット 1の関節角度等の情報を教師デ
ータとで学習した結果に基づいて、所定の空間に置か
れている物体 11 を把持する手段が、本発明を実施する
のに必要な手段である。尚、全図を通して同じ符号は同
じ対象物を示している。In the present invention, in a measuring device for measuring the position of a specific object, for example, in a three-dimensional space,
The position of the measurement object 10 held by the robot 1 etc. is measured by the image processing device 2 etc. such as three or more TV cameras, and the acquired image information (X, Y, α, S) and distance measurement information are For example, the 6-dimensional position information (X, Y, Z, α, of the object to be measured, which can be input to the learning device 3 such as a neural network and calculated from the angle of each joint of the robot and the arm length information.
Learn β, γ) as teacher data. In addition, one or more of the image processing devices 2 such as the above television cameras are provided with a means to be installed in a direction substantially perpendicular to the other television cameras 2 or a plurality of markers are attached to the gripping object 11.
The position information of the marker is measured by the image processing device 2 such as a television camera, and the acquired image information and the grasped object 11
Based on the result of learning the information such as the joint angle of the robot 1 grasped by the teacher data with the teacher data, a means for grasping the object 11 placed in a predetermined space is necessary for implementing the present invention. It is a means. The same reference numerals indicate the same objects throughout the drawings.
【0033】以下、図1〜図4, 及び、図5,図6によ
って、本発明の3次元位置測定,制御装置の構成,学習
動作,物体の位置測定方法,物体の把持方法等につい
て、具体的に説明する。Hereinafter, referring to FIGS. 1 to 4 and FIGS. 5 and 6, the three-dimensional position measurement of the present invention, the configuration of the control device, the learning operation, the object position measuring method, the object gripping method, etc. will be described in detail. To explain.
【0034】先ず、図1では、3関節からなるアームを
持つロボット 1と、その外部に複数台のテレビカメラ
(A,B,〜)2 が設置されている。各々のテレビカメ
ラA,B,〜 2は、上記ロボット 1が把持した物体 10
を捕らえ、画像処理によって、手先の別々の2次元位置
座標(XA ,YA ,XB ,YB , 〜 )が得られる。First, in FIG. 1, a robot 1 having an arm having three joints and a plurality of television cameras (A, B, ...) 2 are installed outside the robot 1. Each of the television cameras A, B, and 2 has an object 10 held by the robot 1.
, And two-dimensional position coordinates (X A , Y A , X B , Y B , ...) Of the hand are obtained by image processing.
【0035】上記2次元位置座標(XA ,YA ,XB ,YB,〜 )
には、例えば、得られた画像の重心位置を用いればよ
い。更に、手先の方向、例えば、慣性主軸の方向αA,α
B,〜も得られる。又、図1に示されているように、特定
の棒のような物体 10 を持たせて、その重心の位置と、
棒の方向を測定しても良い。The two-dimensional position coordinates (X A , Y A , X B , Y B, ...)
For example, the barycentric position of the obtained image may be used. Furthermore, the direction of the hand, for example, the direction of the principal axis of inertia α A, α
B, ~ can also be obtained. Further, as shown in FIG. 1, an object 10 such as a particular rod is held, and the position of its center of gravity is
You may measure the direction of a stick.
【0036】このときの、ロボット 1の各関節の角度
は、図示されていない角度エンコーダ等を用いて測定す
ることができる。又、ロボット 1のアーム長は、ロボッ
ト 1を設計したときに分かっているので、上記関節角度
(θ1,θ2,θ3,〜) と、アーム長とから、ロボット 1の
先端の3次元座標(X,Y,Z),又は、各座標軸での姿勢角
α, β, γをいれると6次元座標は、簡単な演算(前述
の順キネマティクス)によって求めることができる。At this time, the angle of each joint of the robot 1 can be measured by using an angle encoder or the like (not shown). Also, the arm length of the robot 1 is known when the robot 1 is designed.
From (θ 1, θ 2, θ 3, ~) and the arm length, enter the three-dimensional coordinates (X, Y, Z) of the tip of the robot 1 or the attitude angles α, β, γ on each coordinate axis. And the 6-dimensional coordinates can be obtained by a simple operation (the above-mentioned forward kinematics).
【0037】このとき、奥行き方向(X軸方向)に物体
10 の位置が変わっても、2台のテレビカメラA,B 2
から得られる画像には、Y−Z方向に、上記物体 10 の
位置が変化した場合に比較して、大きな変化が現れない
ので、上記の方法で3次元位置を正確に測定するために
は、画像処理の精度を高精度にする必要がある。At this time, the object in the depth direction (X-axis direction)
Even if the position of 10 changes, two TV cameras A and B 2
Compared to the case where the position of the object 10 changes in the YZ direction, the image obtained from does not show a large change. Therefore, in order to accurately measure the three-dimensional position by the above method, It is necessary to make image processing highly accurate.
【0038】画像処理を高精度に行う為には、高価な画
像処理装置や、照明の均質化 (通常、照明には不均質さ
が付きまとうので、例えば、閾値以上の影ができると、
物体10 が小さくなり、遠くに存在するものと誤認識さ
れることがある) などが必要となり、装置の大型化を招
き、現実的でなくなる。In order to perform image processing with high accuracy, an expensive image processing device and homogenization of illumination (usually, since illumination is accompanied by inhomogeneity, for example, if a shadow of a threshold value or more is generated,
The object 10 becomes smaller and may be erroneously recognized as being present at a distance), which leads to an increase in the size of the device and is not realistic.
【0039】そこで、本発明では、図3に示したよう
に、テレビカメラA,B 2を結ぶ線とほぼ90度をなす
位置に、別のテレビカメラC 2を置き、このテレビカメ
ラC 2で、上記奥行き方向 (X軸方向)の変化を画像と
して捉えるように構成する。Therefore, in the present invention, as shown in FIG. 3, another television camera C 2 is placed at a position forming an angle of approximately 90 degrees with the line connecting the television cameras A and B 2, and this television camera C 2 is used. , The change in the depth direction (X-axis direction) is captured as an image.
【0040】上記のようにして、テレビカメラA,B,
C 2が捉えた上記画像情報(XA ,YAαA,SA, XB ,YB α
B,SB,〜) を、図2に示したように、ニューラルネッ
トワーク 3に入力し、ロボット 1の各関節角度 (θ1,θ
2,θ3,〜) と、アーム長とから、ロボット 1の先端の3
次元座標(X,Y,Z),又は、各座標軸での姿勢角α, β,γ
をいれると6次元座標を教師データとして、相互の位
置関係を、例えば、ニューラルネットワーク 3で学習さ
せる。As described above, the television cameras A, B,
The above image information captured by C 2 (X A , Y A α A, S A, X B , Y B α
B, SB , ...) are input to the neural network 3 as shown in FIG. 2, and the joint angles (θ 1, θ) of the robot 1 are input.
2, θ 3, ~) and the arm length
Dimensional coordinates (X, Y, Z) or attitude angles α, β, γ on each coordinate axis
Then, using the 6-dimensional coordinates as teacher data, the mutual positional relationship is learned by, for example, the neural network 3.
【0041】この学習装置 3には、種々のものが考えら
れているが、図2に示した実施例では、3層階層型のニ
ューラルネットワークを例にしている。上記の教師デー
タとして、上記ロボット 1の順キネマティクスから得
られた物体の3次元情報(又は、6次元情報),或い
は、関節角度 (θ1,θ2,θ3,〜)を使用する。Various learning devices 3 are conceivable, but in the embodiment shown in FIG. 2, a three-layer hierarchical neural network is taken as an example. As the above-mentioned teacher data, the three-dimensional information (or six-dimensional information) of the object obtained from the forward kinematics of the robot 1 or the joint angle (θ 1, θ 2, θ 3, ...) Is used.
【0042】このとき、ロボット 1の関節座標値をラン
ダムに変えて、ロボット 1に指示すれば、ロボット 1の
手先がランダムな位置に移動するので、把持物体 11
の、例えば、上記3次元座標値がランダムに複数個得ら
れる。At this time, if the joint coordinate values of the robot 1 are randomly changed and the robot 1 is pointed at, the hand of the robot 1 moves to a random position.
, A plurality of three-dimensional coordinate values are randomly obtained.
【0043】このようにして、多数の学習データをラン
ダムに取得し、学習を行うことができる。学習後、把持
対象物 10 を教えた空間の範囲内で提示しすると、上記
ニューラルネットワーク 3は、該把持対象物 10 の3次
元位置,或いは、関節角度を出力するので、物体の3次
元位置を計測したり、ロボット 1の手先効果器 12 の位
置, 姿勢角が、物体を把持する位置に移動したりするこ
とができるようになる。In this way, a large number of learning data can be randomly acquired and learning can be performed. After learning, when the gripping target object 10 is presented in the range of the taught space, the neural network 3 outputs the three-dimensional position of the gripping target object 10 or the joint angle. It becomes possible to measure and move the position and posture angle of the hand effector 12 of the robot 1 to a position where an object is gripped.
【0044】上記ロボット 1が物体を把持する場合の、
具体的な実施例について、図5,図6によって説明す
る。図5,図6は、本発明の多関節型ロボット(マニピ
ュレータ:以下、ロボットという) 1による手先効果器
12 で物体の把持作業を行う場合の動作を説明した図で
ある。When the robot 1 grips an object,
A specific example will be described with reference to FIGS. FIGS. 5 and 6 show a hand effector by an articulated robot (manipulator: hereinafter referred to as a robot) 1 of the present invention.
FIG. 12 is a diagram for explaining the operation in the case of performing an object gripping work with 12.
【0045】先ず、学習過程では、前述の図1に示した
ように把持対象の物体 11 の表面に、色の異なった複数
個、例えば、本実施例では、3個のマーカ(丸印)を
取り付け、多関節型ロボット 1に、上記把持物体 11 を
把持させた状態で、手先効果器 12 に任意の位置(X,Y,
Z),姿勢角 (α, β, γ) を取らせ、複数個のビジョン
センサ、例えば、テレビカメラ 2により、画像情報とし
て、各丸印のテレビカメラ観測面における重心位置を計
測し、同時に、多関節型ロボット 1の各関節角度も採取
することを、該手先効果器 12 の位置, 姿勢角を変え
て、幾つかの点で行い、上記丸印 (マーカ) の重心位
置を入力データとし、上記多関節型ロボット1の各関節
角度, 或いは、該関節角度, アーム長から順キネマティ
クスで計算できる、物体 10 の位置(X,Y,Z),姿勢角
(α, β, γ) を教師データとして、階層型のニュー
ラルネットワーク 3に学習させる。First, in the learning process, as shown in FIG. 1, a plurality of markers having different colors, for example, three markers (circles) in the present embodiment are provided on the surface of the object 11 to be grasped. With the attached and articulated robot 1 gripping the gripped object 11, the hand effector 12 is moved to any position (X, Y,
Z), the attitude angle (α, β, γ), and a plurality of vision sensors, for example, the TV camera 2, measures the barycentric position on the TV camera observation surface of each circle as image information, and at the same time, The joint angles of the articulated robot 1 are also collected at several points by changing the position and posture angle of the hand effector 12, and the barycentric position of the circle (marker) is used as input data, The position (X, Y, Z) and posture angle of the object 10 that can be calculated by forward kinematics from each joint angle of the above-mentioned articulated robot 1, or the joint angle and arm length.
The hierarchical neural network 3 is trained using (α, β, γ) as teacher data.
【0046】次に、実行過程では、任意の位置に置かれ
た把持物体 11 に対して、その把持物体 11 に取り付け
られているマーカ、前述の丸印のテレビカメラ 2の観
測面における重心位置を計測し、それらを、上記学習済
のニューラルネットワーク 3に入力することにより、出
力として、把持物体 11 を把持する為の関節角度, 或い
は、手先効果器 12 の位置, 姿勢角が得られることにな
る。Next, in the execution process, with respect to the gripping object 11 placed at an arbitrary position, the marker attached to the gripping object 11 and the position of the center of gravity on the observation surface of the TV camera 2 indicated by the circle are described. By measuring and inputting them into the learned neural network 3, the output will be the joint angle for gripping the gripping object 11, or the position and posture angle of the hand effector 12. .
【0047】然し、この関節角度, 手先効果器の位置,
姿勢角を、そのまま、上記多関節型ロボット 1に指令し
ても、上記多関節型ロボット 1の動きの方向等を特定す
ることができないため、図6(a) に示したように、把持
物体 11 への接近方向などによっては、上記多関節型ロ
ボット 1の手先効果器 12 が、思わぬ方向から接近し
て、上記物体 10 に衝突する危険がある。However, this joint angle, the position of the hand effector,
Even if the posture angle is instructed to the articulated robot 1 as it is, the direction of movement of the articulated robot 1 and the like cannot be specified. Therefore, as shown in FIG. There is a risk that the hand effector 12 of the articulated robot 1 approaches from the unexpected direction and collides with the object 10 depending on the approaching direction to 11 and the like.
【0048】そこで、本発明においては、図6(b) に示
したように、先ず、ニューラルネットワーク 3から得ら
れた関節角度等を用いて、手先効果器 12 の目標位置を
計算する。Therefore, in the present invention, as shown in FIG. 6B, first, the target position of the hand effector 12 is calculated using the joint angles and the like obtained from the neural network 3.
【0049】この目標位置(アプローチ点)は、ニュー
ラルネットワーク 3から得られた手先効果器 12 の位置
情報が、(X,Y,Z, α, β, γ) T であるとき、その手先
効果器 12 の正面軸方向に一定の距離dだけ離れた点と
する。This target position (approach point) is a hand effector when the position information of the hand effector 12 obtained from the neural network 3 is (X, Y, Z, α, β, γ) T. It is assumed that 12 points are separated by a fixed distance d in the front axis direction.
【0050】この目標位置(アプローチ点)を(X",Y",
Z",α, β, γ) T としたとき、 (X",Y",Z",α, β, γ) T =(X-d cosα sinβ,Y-d sin
α sinβ,Z-d cosβ, α, β, γ) T で与えられる。This target position (approach point) is set to (X ", Y",
If Z ", α, β, γ) T , then (X", Y ", Z", α, β, γ) T = (Xd cosα sin β, Yd sin
α sin β, Zd cos β, α, β, γ) T.
【0051】上記の式の導出方法については、「株式会
社裳華房刊“ロボット工学",広瀬茂男著,1987,12,15,第
1版刊,第8章“マニピュレータ解析の準備",8-6, "方
向の表示",8-6-2,オイラー角,P142 〜145 に示されてい
る。Regarding the method of deriving the above equation, "Robot Engineering" published by Sokabo, Shigeo Hirose, 1987, 12, 15, 1st edition, Chapter 8 "Preparation for Manipulator Analysis", 8 -6, "Indication of direction", 8-6-2, Euler angles, P142-145.
【0052】本発明による、多関節型ロボット 1の制御
方法は、上記ニューラルネットワークから得られた手先
効果器 12 の位置情報(X,Y,Z, α, β, γ) T から、上
記目標位置(アプローチ点)(X",Y",Z",α, β, γ) T
を計算し、この計算された目標位置(アプローチ点)
を、上記多関節型ロボット 1に指令し、その目標位置
(アプローチ点)にロボット 1の手先効果器 12 が到達
した後、実際の把持物体 11 に対して、該手先効果器 1
2 の軸方向に、上記距離dだけ移動させることで、常
に、一定の方向、即ち、ロボット 1の手先効果器 12 の
正面方向から、把持対象の物体 11 の把持作業を行うこ
とができる。The control method of the articulated robot 1 according to the present invention uses the position information (X, Y, Z, α, β, γ) T of the hand effector 12 obtained from the neural network to calculate the target position. (Approach point) (X ", Y", Z ", α, β, γ) T
Calculate this calculated target position (approach point)
To the above articulated robot 1, and after the hand effector 12 of the robot 1 reaches the target position (approach point), the hand effector 1
By moving the distance d in the axial direction of 2 by the above distance d, the gripping operation of the object 11 to be gripped can always be performed from a fixed direction, that is, the front direction of the hand effector 12 of the robot 1.
【0053】上記の物体の計測作業, 把持作業におい
て、テレビカメラA,B 2の設置位置は、物体と正確に
正対している必要もないし、上記3台目のテレビカメラ
C 2の位置も、テレビカメラA,B 2と、正確に直角に
なっている必要もない。物体の姿勢や位置変化がより多
く捉えられる方向にテレビカメラA,B,C, 〜2 を設
置すればよいので、テレビカメラA,B,C, 〜2 の設
置位置に、精度は必要ではない。In the above measuring and grasping work of the object, the installation positions of the television cameras A and B 2 do not have to be exactly facing the object, and the position of the third television camera C 2 is also It does not have to be at a right angle to the TV cameras A and B 2. Since it is sufficient to install the TV cameras A, B, C, ~ 2 in the direction in which the posture and position changes of the object can be captured more, the installation positions of the TV cameras A, B, C, ~ 2 need not be accurate. .
【0054】上記の実施例では、ロボット 1等が把持し
ている物体 10 の位置を計測して、ニューラルネットワ
ーク 3に入力する情報を得るのに、テレビカメラ (ビジ
ョンセンサ) 2 を用いた例で説明したが、これに限るも
のではなく、図7で説明した従来の三角測量の原理に基
づく1次元距離計測装置等で測定した距離計測情報(X,
Y,Z) であっても良いことはいう迄もないことである。In the above embodiment, a television camera (vision sensor) 2 is used to measure the position of the object 10 held by the robot 1 or the like and obtain information to be input to the neural network 3. However, the present invention is not limited to this, but the distance measurement information (X, X, measured by the one-dimensional distance measuring device based on the conventional triangulation principle described in FIG. 7 is used.
Needless to say, it may be Y, Z).
【0055】又、物体 10 の3次元位置だけを計測し、
物体 10 の姿勢を計測しない場合には、2台のテレビカ
メラ 2を、物体 10 の正面方向と、その直角方向に設置
するだけでよい。Further, only the three-dimensional position of the object 10 is measured,
If the posture of the object 10 is not measured, it is only necessary to install the two TV cameras 2 in the front direction of the object 10 and the direction perpendicular to the front direction.
【0056】更に、物体 10 の姿勢が変わった場合で
も、画像の主軸方向αA 〜や、面積S A 〜の情報を利用
することで、物体の姿勢変化が検出できるので、3次元
位置のみならず、3次元姿勢までも計測することができ
る。Furthermore, when the posture of the object 10 changes
Also, the main axis direction α of the imageA~, Area S AUse information from
By doing so, the posture change of the object can be detected.
Not only position but also 3D posture can be measured
It
【0057】図4は、複数個のニューラルネットワーク
3を用いて、物体の位置を計測する場合を示している。
一般に、測定の対象とする空間が広くなってくると、一
つのニューラルネットワーク 3で学習するためには、ニ
ューラルネットワーク 3の規模が大きくなり過ぎること
になる。FIG. 4 shows a plurality of neural networks.
3 shows the case where the position of an object is measured.
In general, as the space to be measured becomes wider, the size of the neural network 3 becomes too large for one neural network 3 to learn.
【0058】そこで、手先の座標空間を所定の大きさで
複数個に分割し、別々のニューラルネットワーク 3に学
習させることによって、ニューラルネットワーク 3の小
規模化が可能になり、学習時間の短縮化が図れる。Therefore, by dividing the coordinate space of the hand into a plurality of areas of a predetermined size and allowing the neural networks 3 to learn by different ones, the neural network 3 can be downsized and the learning time can be shortened. Can be achieved.
【0059】このようにすることにより、1つのニュー
ラルネットワーク 3の受け持つ範囲が狭まるので、その
ニューラルネットワーク 3が小規模でも、補間精度が向
上する。By doing so, the range covered by one neural network 3 is narrowed, so that the interpolation accuracy is improved even if the neural network 3 is small.
【0060】又、1つのニューラルネットワーク 3に
は、全空間を疎らに教え、他のニューラルネットワーク
3には、ある部分だけを蜜に教えることによって、特定
の場所における測定精度を向上させたり、更に、複数の
ニューラルネットワーク 3を用いることによって、全体
の精度の向上を図ることも可能になる。In addition, one neural network 3 is sparsely taught about the entire space, and another neural network is
In section 3, it is possible to improve the measurement accuracy at a specific location by teaching only certain parts to the nectar, and to improve the overall accuracy by using multiple neural networks 3.
【0061】このように、本発明による3次元位置計測
装置,3次元位置制御装置, 及び、学習方法は、ロボッ
ト等が把持した測定対象物, 把持対象物の位置を3台以
上のテレビカメラ等の画像処理装置等で測定し、取得し
た画像情報等(X,Y, α,S) , 距離計測情報を、ニュ
ーラルネットワーク等の学習装置に入力し、上記ロボッ
トの各関節の角度と,アーム長の情報から、順キネマテ
ィクスで計算し得る測定対象物の、例えば、6次元位置
情報(X,Y,Z, α, β, γ) を教師データとして学習す
る。又、上記テレビカメラ等の画像処理装置の1つ以上
は、他のテレビカメラと、ほぼ直角をなす方向に設置す
るようにする。又、物体を把持する場合には、該物体に
複数個のマーカを取り付け、各マーカのテレビカメ
ラ観測面における重心位置等を特徴量として、ニューラ
ルネットワークに入力して学習し、該学習されたニュー
ラルネットワークを用いて、物体を把持する場合には、
ニューラルネットワークから得られた手先効果器の位
置, 姿勢角から、アプローチ方向に一定の距離dだけ離
れた点を目標点として、ロボットに指令し、ロボットの
手先効果器が、該指令した目標点に到達した後、距離d
だけ移動して物体へのアプローチを行うようにしたとこ
ろに特徴がある。As described above, the three-dimensional position measuring device, the three-dimensional position control device, and the learning method according to the present invention include a measuring object grasped by a robot and the like, three or more television cameras for grasping the grasped object. The image information (X, Y, α, S) and distance measurement information obtained by measuring with the image processing device of the above are input to a learning device such as a neural network, and the angle of each joint of the robot and the arm length are input. From this information, for example, 6-dimensional position information (X, Y, Z, α, β, γ) of a measurement object that can be calculated by forward kinematics is learned as teacher data. In addition, one or more of the image processing devices such as the above television cameras are installed in a direction substantially perpendicular to the other television cameras. Further, when grasping an object, a plurality of markers are attached to the object, and the position of the center of gravity of each marker on the television camera observation plane is input as a feature amount to a neural network for learning, and the learned neural When grasping an object using a network,
From the position and posture angle of the hand effector obtained from the neural network, the robot is instructed to a point that is a certain distance d in the approach direction as a target point, and the hand effector of the robot sets the target point to the instructed point. After reaching, distance d
It is characterized by moving only to approach an object.
【0062】[0062]
【発明の効果】以上、詳細に説明したように、本発明に
よれば、テレビカメラの視野内であれば、測定対象物の
正確な位置測定が可能であり、従来方法では困難であっ
た姿勢変化も、画像の主軸方向の情報(前述のαA 〜)
や、面積 (前述のSA 〜) を利用することにより検出す
ることができる。As described above in detail, according to the present invention, it is possible to accurately measure the position of the object to be measured within the visual field of the television camera, which is difficult with the conventional method. The change is also information in the direction of the main axis of the image (α A ~ above )
Alternatively, it can be detected by using the area (S A ~ described above).
【0063】又、学習装置、例えば、ニューラルネット
ワークは、教えられなかった点以外でも、補間する機能
を備えているので、全空間に対して教師データを作成し
なくても、適当な代表点を教えるだけで、対象物体の位
置を計測することができる。Further, since the learning device, for example, the neural network has a function of interpolating the points other than the points that were not taught, even if the teacher data is not created for the entire space, appropriate representative points can be obtained. The position of the target object can be measured only by teaching.
【0064】本発明による方法では、測定対象物の、例
えば、3次元位置と画像情報との対応関係を学習するこ
とによって位置測定を行うようにしたものであるので、
ニューラルネットワークに限らず、最初の学習時に、上
記3次元の位置が学習できる他の学習装置を用いても良
い。In the method according to the present invention, the position measurement is performed by learning the correspondence between the three-dimensional position of the object to be measured and the image information.
The learning device is not limited to the neural network, and other learning device that can learn the three-dimensional position may be used at the first learning.
【0065】又、測定の対象とする空間が広くなってく
ると、一つのニューラルネットワークで学習するために
は、ニューラルネットワークの規模が大きくなり過ぎる
ことになる。そこで、手先の座標空間を所定の大きさで
複数個に分割し、別々のニューラルネットワークに学習
させることによって、ニューラルネットワークの小規模
化が可能になり、学習時間の短縮化が図れる。このよう
にすることにより、1つのニューラルネットワークの受
け持つ範囲が狭まるので、そのニューラルネットワーク
が小規模でも、補間精度が向上する。Further, when the space to be measured becomes wider, the size of the neural network becomes too large for learning with one neural network. Therefore, by dividing the coordinate space of the hand into a plurality of pieces of a predetermined size and learning them in different neural networks, the neural network can be downsized, and the learning time can be shortened. By doing so, the range covered by one neural network is narrowed, so that the interpolation accuracy is improved even if the neural network is small.
【0066】又、1つのニューラルネットワークには、
全空間を疎らに教え、他のニューラルネットワークに
は、ある部分だけを蜜に教えることによって、特定の場
所における測定精度を向上させたり、更に、複数のニュ
ーラルネットワークを用いることによって、全体の精度
の向上を図ることも可能になる。Further, in one neural network,
Teaching the whole space sparsely and teaching other parts of the neural network only a certain part improves the measurement accuracy in a specific place, and by using multiple neural networks, It also becomes possible to improve.
【0067】又、物体を把持する場合には、物体にマー
カを取り付け、その重心位置を特徴量とすることによ
り、テレビカメラの画像が、照明や他の物体などの影響
を受け難く、物体そのものを計測する場合に比較して、
精度のよい計測を行うことができる。When an object is grasped, a marker is attached to the object and the position of the center of gravity thereof is used as the feature amount, so that the image of the television camera is not easily affected by illumination or other objects, and the object itself Compared to when measuring
Accurate measurement can be performed.
【0068】又、物体の把持を行う際に、ニューラルネ
ットワークから得られた手先効果器の位置から、該手先
効果器のアプローチ方向に、一定の距離dだけ離れた点
をアプローチ目標点として、ロボットに指令し、手先効
果器が、そのアプローチ目標点に到達した後に、実際
に、物体へのアプローチを行うように制御することによ
り、常に、一定の方向から物体の把持作業を行うことが
できる。Further, when gripping an object, the robot is set with a point distant by a certain distance d from the position of the hand effector obtained from the neural network in the approach direction of the hand effector as the approach target point. And the hand effector controls to actually approach the object after reaching the approach target point, it is possible to always perform the gripping operation of the object from a fixed direction.
【図1】本発明の一実施例を示した図FIG. 1 is a diagram showing an embodiment of the present invention.
【図2】本発明のニューラルネットワークによる学習方
法を説明する図FIG. 2 is a diagram illustrating a learning method using a neural network according to the present invention.
【図3】本発明の他の学習装置の例を示した図FIG. 3 is a diagram showing an example of another learning device of the present invention.
【図4】本発明の他の実施例を示した図FIG. 4 is a diagram showing another embodiment of the present invention.
【図5】本発明によるビョンセンサ観測面でのマーカ特
徴量を説明する図FIG. 5 is a diagram for explaining marker feature amounts on a Byron sensor observation surface according to the present invention.
【図6】本発明により把持物体をアプローチする方法を
示した図FIG. 6 is a diagram showing a method for approaching a grasped object according to the present invention.
【図7】従来の3次元位置を測定する方法を説明する図FIG. 7 is a diagram illustrating a conventional method for measuring a three-dimensional position.
1 ロボット 10 測定対象の
物体 11 把持対象の物体, 把持物体 12 手先効果器 2 テレビカメラA,B,C,〜 3 ニューラルネットワーク(Neural network,Networ
k 1,2,〜n) 画像情報(XA ,YA , αA,SA,〜) 距離計測情報 教師データ(X,Y,Z, α, β, γ) マーカ θ1 〜 ロボットの関節角1 Robot 10 Object to be measured 11 Object to be grasped, Object to be grasped 12 Hand effector 2 TV cameras A, B, C, ~ 3 Neural network (Networ)
k 1, 2, ~n) image information (X A, Y A, α A, S A, ~) distance measurement information teacher data (X, Y, Z, α , β, γ) of the markers theta 1 ~ robot joint Horn
Claims (7)
の位置を3台以上のテレビカメラ等の画像処理装置(2),
又はレーザ等を利用した1次元距離計測装置等で測定
し、取得した画像情報 () ,又は、該画像情報から得
られる物体位置等の情報,或いは、距離計測情報()
を、ニューラルネットワーク等の学習装置(3) に入力
し、上記ロボット(2) の各関節の角度と,アーム長の情
報から計算し得る測定対象物の多次元位置情報(X,Y,Z,
α, β, γ) を教師データ () として学習し、該学習
した学習装置(3) を用いて、測定対象物(10)の画像情
報, 又は、距離計測情報(, 又は、)を入力して、
上記測定対象物(10)の多次元位置を測定することを特徴
とする多次元位置測定装置。1. A measuring object (10) held by a robot (1) or the like.
Image processing device (2) such as three or more TV cameras
Or image information () obtained by measuring with a one-dimensional distance measuring device using a laser or the like, or information such as an object position obtained from the image information, or distance measurement information ()
Is input to a learning device (3) such as a neural network, and multidimensional position information (X, Y, Z, of the measurement target that can be calculated from the angle of each joint of the robot (2) and arm length information).
α, β, γ) is learned as teacher data (), and the learned learning device (3) is used to input image information of the measurement object (10) or distance measurement information (, or). hand,
A multidimensional position measuring device characterized by measuring a multidimensional position of the measurement object (10).
カメラ等の画像処理装置(2) からの画像情報 () か
ら、各画像上のある測定対象物(10)の重心等におけるX
座標,Y座標,該対象物の傾斜角度(α),面積(S)
等を、上記学習装置(3) に入力し、該入力された測定対
象物(10)の位置に対応する上記ロボット(1) 等の関節角
度 (θ1,θ2,〜),及び、アーム長から計算し得る多次元
位置情報(X,Y,Z, α, β, γ) を教師データ()とす
ること特徴とする学習方法。2. Using the above multi-dimensional position measuring device, from the image information () from the image processing device (2) such as a television camera, the X at the center of gravity or the like of a certain measuring object (10) on each image.
Coordinate, Y coordinate, inclination angle (α), area (S) of the object
Etc. are input to the learning device (3), and the joint angles (θ1, θ2, ~) of the robot (1) etc. corresponding to the input position of the measurement object (10), and the arm length A learning method characterized by using multidimensional position information (X, Y, Z, α, β, γ) that can be calculated as teacher data ().
ボット(1) の手先位置を、上記テレビカメラ等の画像処
理装置(2) 群の視野内でランダムに設定し、該設定され
た手先位置に対応する上記ロボット(1) 等の関節角度
(θ1,θ2,〜),及び、アーム長から計算し得る多次元位
置情報(X,Y,Z, α, β, γ) を教師データ()とする
こと特徴とする学習方法。3. The hand position of the robot (1) is randomly set in the visual field of the image processing device (2) group such as the television camera by using the multidimensional position measuring device, and the hand position of the robot (1) is set. Joint angle of the robot (1) etc. corresponding to the hand position
A learning method characterized in that (θ1, θ2, ~) and multidimensional position information (X, Y, Z, α, β, γ) that can be calculated from the arm length are used as teacher data ().
ボット(1) の各関節角度を、所定の分割数で設定する
際、該設定した関節角度により得られた手先位置が、上
記テレビカメラ等の画像処理装置(2) 群の視野内に入る
ように各関節角度を分割して設定し、該設定された手先
位置に対応する上記ロボット(1) 等の関節角度 (θ1,θ
2,〜),及び、アーム長から計算し得る多次元位置情報
(X,Y,Z, α, β, γ) を教師データ()とすること特
徴とする学習方法。4. When setting each joint angle of the robot (1) by a predetermined number of divisions using the multidimensional position measuring device, the hand position obtained by the set joint angle is the television set. Each joint angle is divided and set so that it is within the visual field of the image processing device (2) group such as a camera, and the joint angle (θ1, θ
2, ~), and multidimensional position information that can be calculated from arm length
A learning method characterized in that (X, Y, Z, α, β, γ) is the teacher data ().
装置(2) の内、少なくとも、1つ以上は、他のテレビカ
メラ等の画像処理装置と、所定の角度を保持する方向に
設置することを特徴とする請求項1〜4に記載の多次元
位置測定装置,及び学習方法。5. At least one of the three or more image processing devices (2) such as a television camera is installed in a direction to maintain a predetermined angle with another image processing device such as another television camera. The multidimensional position measuring device and the learning method according to any one of claims 1 to 4.
に複数個のマーカ()を取り付け、該取り付けられた
マーカ () の位置を3台以上のテレビカメラ等の画像
処理装置(2),又はレーザ等を利用した1次元距離計測装
置(2a)等で測定し、取得した画像情報 () ,又は、該
画像情報から得られる物体位置等の情報,或いは、距離
計測情報()を、ニューラルネットワーク等の学習装
置(3) に入力し、上記ロボット(2) の各関節の角度と,
アーム長の情報から計算し得る測定対象物の3次元位置
情報(X,Y,Z, α, β, γ) を教師データ () として学
習し、該学習した学習装置(3) を用いて、任意位置,姿
勢に置かれた把持対象物(11)の画像情報, 又は、距離計
測情報(, 又は、)を入力して、上記把持対象物(1
0)を把持することを特徴とする多次元位置制御装置。6. A gripping target (11) gripped by a robot (1) or the like.
A plurality of markers () are attached to the camera, and the positions of the attached markers () are set to three or more image processing devices such as TV cameras (2), or a one-dimensional distance measuring device (2a) using a laser or the like. Input the image information () acquired by the above, or the information such as the object position obtained from the image information or the distance measurement information () to the learning device (3) such as a neural network, and the robot ( The angle of each joint in 2),
Three-dimensional position information (X, Y, Z, α, β, γ) of the measuring object that can be calculated from the arm length information is learned as teacher data (), and using the learned device (3), The image information of the gripping target object (11) placed at an arbitrary position or posture, or the distance measurement information (, or) is input, and the gripping target object (1
A multi-dimensional position control device characterized by holding 0).
作業を行う際、上記学習装置(3) により、目標とする把
持物体(11)の位置から、所定の距離(d) だけ離れた位置
を目標点とし、上記ロボット(1) の手先効果器(12)が、
上記目標点に到達した後に、上記把持物体(10)へのアプ
ローチを行うように制御することを特徴とする多次元位
置制御装置。7. When performing a gripping operation for an object placed in the arbitrary position and orientation, the learning device (3) separates a predetermined distance (d) from the target position of the gripping object (11). The target position is the position where the hand effector (12) of the robot (1)
A multi-dimensional position control device characterized by controlling so as to approach the gripped object (10) after reaching the target point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5000382A JPH06203166A (en) | 1993-01-06 | 1993-01-06 | Multi-dimensional position measurement, control device, and learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5000382A JPH06203166A (en) | 1993-01-06 | 1993-01-06 | Multi-dimensional position measurement, control device, and learning method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06203166A true JPH06203166A (en) | 1994-07-22 |
Family
ID=11472256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5000382A Withdrawn JPH06203166A (en) | 1993-01-06 | 1993-01-06 | Multi-dimensional position measurement, control device, and learning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06203166A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102755A (en) * | 2015-12-02 | 2017-06-08 | 池上通信機株式会社 | Machine learning support device |
JP2017107902A (en) * | 2015-12-07 | 2017-06-15 | ファナック株式会社 | Machine learning device learning action of laminating core sheet, laminated core manufacturing device, laminated core manufacturing system, and machine learning method |
JP2019164836A (en) * | 2019-06-19 | 2019-09-26 | 株式会社Preferred Networks | Learning device, learning method, learning model, detection device, and holding system |
CN110959099A (en) * | 2017-06-20 | 2020-04-03 | 卡尔蔡司Smt有限责任公司 | System, method and marker for determining the position of a movable object in space |
CN111113414A (en) * | 2019-12-19 | 2020-05-08 | 长安大学 | A method and system for prompting robot three-dimensional space scale based on screen identification |
US10717196B2 (en) | 2015-07-31 | 2020-07-21 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning workpiece picking operation |
US11034018B2 (en) | 2017-05-31 | 2021-06-15 | Preferred Networks, Inc. | Learning device, learning method, learning model, detection device and grasping system |
CN113199483A (en) * | 2015-07-31 | 2021-08-03 | 发那科株式会社 | Robot system, robot control method, machine learning device, and machine learning method |
CN113362452A (en) * | 2021-06-07 | 2021-09-07 | 中南大学 | Hand gesture three-dimensional reconstruction method and device and storage medium |
WO2021200438A1 (en) * | 2020-03-31 | 2021-10-07 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
US20210398342A1 (en) * | 2020-06-23 | 2021-12-23 | Tokyo Electron Limited | Teaching method and transfer system |
CN116852359A (en) * | 2023-07-04 | 2023-10-10 | 无锡斯帝尔科技有限公司 | A device and method for rapid TCP calibration based on a robot handheld teaching device |
US11904469B2 (en) | 2015-07-31 | 2024-02-20 | Fanuc Corporation | Machine learning device, robot controller, robot system, and machine learning method for learning action pattern of human |
-
1993
- 1993-01-06 JP JP5000382A patent/JPH06203166A/en not_active Withdrawn
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113199483A (en) * | 2015-07-31 | 2021-08-03 | 发那科株式会社 | Robot system, robot control method, machine learning device, and machine learning method |
US11780095B2 (en) | 2015-07-31 | 2023-10-10 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning object picking operation |
US11904469B2 (en) | 2015-07-31 | 2024-02-20 | Fanuc Corporation | Machine learning device, robot controller, robot system, and machine learning method for learning action pattern of human |
US10717196B2 (en) | 2015-07-31 | 2020-07-21 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning workpiece picking operation |
JP2017102755A (en) * | 2015-12-02 | 2017-06-08 | 池上通信機株式会社 | Machine learning support device |
JP2017107902A (en) * | 2015-12-07 | 2017-06-15 | ファナック株式会社 | Machine learning device learning action of laminating core sheet, laminated core manufacturing device, laminated core manufacturing system, and machine learning method |
US10500721B2 (en) | 2015-12-07 | 2019-12-10 | Fanuc Corporation | Machine learning device, laminated core manufacturing apparatus, laminated core manufacturing system, and machine learning method for learning operation for stacking core sheets |
US11565407B2 (en) | 2017-05-31 | 2023-01-31 | Preferred Networks, Inc. | Learning device, learning method, learning model, detection device and grasping system |
US11034018B2 (en) | 2017-05-31 | 2021-06-15 | Preferred Networks, Inc. | Learning device, learning method, learning model, detection device and grasping system |
CN110959099A (en) * | 2017-06-20 | 2020-04-03 | 卡尔蔡司Smt有限责任公司 | System, method and marker for determining the position of a movable object in space |
EP3642560A1 (en) * | 2017-06-20 | 2020-04-29 | Carl Zeiss SMT GmbH | System, method and marker for the determination of the position of a movable object in space |
US11504855B2 (en) | 2017-06-20 | 2022-11-22 | Carl Zeiss Smt Gmbh | System, method and marker for the determination of the position of a movable object in space |
JP2019164836A (en) * | 2019-06-19 | 2019-09-26 | 株式会社Preferred Networks | Learning device, learning method, learning model, detection device, and holding system |
CN111113414A (en) * | 2019-12-19 | 2020-05-08 | 长安大学 | A method and system for prompting robot three-dimensional space scale based on screen identification |
CN111113414B (en) * | 2019-12-19 | 2022-08-30 | 长安大学 | Robot three-dimensional space scale prompting method and system based on screen identification |
WO2021200438A1 (en) * | 2020-03-31 | 2021-10-07 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
JP2021160037A (en) * | 2020-03-31 | 2021-10-11 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
JP2022003663A (en) * | 2020-06-23 | 2022-01-11 | 東京エレクトロン株式会社 | Teaching method, transport system and program |
KR20210158329A (en) * | 2020-06-23 | 2021-12-30 | 도쿄엘렉트론가부시키가이샤 | Teaching method and transfer system |
US20210398342A1 (en) * | 2020-06-23 | 2021-12-23 | Tokyo Electron Limited | Teaching method and transfer system |
CN113362452A (en) * | 2021-06-07 | 2021-09-07 | 中南大学 | Hand gesture three-dimensional reconstruction method and device and storage medium |
CN116852359A (en) * | 2023-07-04 | 2023-10-10 | 无锡斯帝尔科技有限公司 | A device and method for rapid TCP calibration based on a robot handheld teaching device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113696186B (en) | Mechanical arm autonomous moving and grabbing method based on visual-touch fusion under complex illumination condition | |
US11813749B2 (en) | Robot teaching by human demonstration | |
Kofman et al. | Teleoperation of a robot manipulator using a vision-based human-robot interface | |
US5818424A (en) | Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space | |
JPH06203166A (en) | Multi-dimensional position measurement, control device, and learning method | |
CN110906863B (en) | Hand-eye calibration system and calibration method for line-structured light sensor | |
US20190321977A1 (en) | Architecture and methods for robotic mobile manipluation system | |
JP2019188477A (en) | Robot motion teaching device, robot system, and robot control device | |
CN111745640A (en) | Object detection method, object detection device, and robot system | |
JP2005169564A (en) | Grasping method of arbitrarily shaped object by robot | |
WO2018043524A1 (en) | Robot system, robot system control device, and robot system control method | |
Rebello et al. | Autonomous active calibration of a dynamic camera cluster using next-best-view | |
JP2616225B2 (en) | Relative positioning method | |
JPH0847881A (en) | Robot remote control method | |
JPH0588721A (en) | Articulated robot controller | |
Ren et al. | Vision based object grasping of robotic manipulator | |
JP2021010994A (en) | Sensor position / orientation calibration device and sensor position / orientation calibration method | |
Cheng | Robot manipulation of 3D cylindrical objects with a robot-mounted 2D vision camera | |
Sachtler et al. | Combined visual and touch-based sensing for the autonomous registration of objects with circular features | |
CN110877335A (en) | An adaptive markerless robotic arm trajectory tracking method based on hybrid filter | |
JP2021061014A (en) | Learning device, learning method, learning model, detector, and gripping system | |
Cheng et al. | A study of using 2D vision system for enhanced industrial robot intelligence | |
Eissa et al. | An effective programming by demonstration method for SMEs’ industrial robots | |
JP6707327B2 (en) | Motion discriminating apparatus and motion discriminating method | |
JP2626780B2 (en) | 3D image measurement method by segment correspondence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20000307 |