JPH05197416A - Teaching device for robot operation point - Google Patents
Teaching device for robot operation pointInfo
- Publication number
- JPH05197416A JPH05197416A JP738792A JP738792A JPH05197416A JP H05197416 A JPH05197416 A JP H05197416A JP 738792 A JP738792 A JP 738792A JP 738792 A JP738792 A JP 738792A JP H05197416 A JPH05197416 A JP H05197416A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- work
- camera
- tool
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Numerical Control (AREA)
Abstract
(57)【要約】
【目的】 本発明は、ロボットの先につけられたカメラ
で写している作業ワークと処理装置によって作り出され
てカメラ画像に重ね合わせて表示される仮想の工具とを
用いて、安全にかつ簡単に作業ワークに適したロボット
の軌道(動作位置・姿勢)およびロボットに装着される
工具の姿勢を教示する方法を提供することを目的として
いる。
【構成】 ロボット、ロボットの手先につけられた近接
センサとカメラ、操作者が使用する3次元ポインティン
グ装置、処理装置、表示装置、ロボットの制御装置から
構成される。
(57) [Summary] [Object] The present invention uses a work work image captured by a camera attached to the tip of a robot and a virtual tool created by a processing device and displayed in superimposition on a camera image. An object of the present invention is to provide a method for safely and easily teaching the trajectory (movement position / posture) of a robot and the posture of a tool mounted on the robot, which is suitable for a work. [Structure] A robot, a proximity sensor attached to the hand of the robot, a camera, a three-dimensional pointing device used by an operator, a processing device, a display device, and a robot control device.
Description
【0001】[0001]
【産業上の利用分野】本発明は、ロボットに対して位置
・姿勢を容易に教示できるようにしたロボット動作点教
示装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot operating point teaching device capable of easily teaching the position and orientation of a robot.
【0002】[0002]
【従来の技術】ロボットに表面研磨作業などをさせるに
は、ロボットに付けられたツールの位置を制御する方法
とツールにかける力を制御する方法とが採られている。
力を制御する方法に関しても、力制御の開始点と終了点
とを教示する必要がある。ロボットを動かす方法とし
て、(i)ティーチングボックスなどを使用してロボッ
トの位置を記録し、その記録された順にロボットを動か
すダイレクト教示方法と、(ii)作業空間の位置座標の
データ、動きの手順をロボット制御言語を用いてプログ
ラムされた手順に従ってロボットを動かす方法との2種
類の方法がある。2. Description of the Related Art In order to make a robot perform surface polishing work, a method of controlling the position of a tool attached to the robot and a method of controlling a force applied to the tool are adopted.
Regarding the method of controlling force, it is necessary to teach the starting point and the ending point of force control. As a method of moving the robot, (i) a direct teaching method in which the position of the robot is recorded using a teaching box and the robot is moved in the recorded order, and (ii) position coordinate data in the work space There are two types of methods: a method of moving a robot according to a procedure programmed by using a robot control language.
【0003】[0003]
【発明が解決しようとする課題】ダイレクト教示には以
下の問題がある。 実作業世界で教示する必要があるため、作業内容によ
っては危険な場所で教示する事になる。The direct teaching has the following problems. Since it is necessary to teach in the actual work world, it will be taught in a dangerous place depending on the work content.
【0004】ティーチングボックスなどの操作方法に
習熟する必要がある。 ティーチングボックスなどの操作では、精度の要求さ
れる作業を教示することが困難である。It is necessary to become familiar with the operation method of the teaching box and the like. It is difficult to teach work requiring accuracy by operating a teaching box or the like.
【0005】プログラムによる教示には以下の問題があ
る。 プログラムのデータとして定義された部品データや実
作業世界における部品の位置データから、ロボットの動
きの制御命令を生成する必要がある。The teaching by the program has the following problems. It is necessary to generate control commands for robot movement from part data defined as program data and part position data in the actual work world.
【0006】バリとり等、個々の部品毎に形状やロボ
ット作業経路が異なるプログラミングは難しい。本発明
は、加工作業するロボットの先につけられたカメラで写
している作業ワークと、処理装置によって作り出されて
カメラ画像に重ね合わせて表示される仮想の工具とを用
いて、従来のロボット教示方法よりも安全にかつ簡単に
作業ワークに適したロボットの軌道(動作位置・姿勢)
およびロボットに装着される工具の姿勢を教示する方法
を提供することを目的としている。It is difficult to perform programming such as deburring in which the shape and the robot work route are different for each individual part. The present invention is directed to a conventional robot teaching method using a work work imaged by a camera attached to the tip of a robot for machining work and a virtual tool created by a processing device and displayed in superimposition on a camera image. Safer and easier than the robot trajectory (motion position / posture) suitable for work
Another object of the present invention is to provide a method for teaching the posture of a tool attached to a robot.
【0007】[0007]
【課題を解決するための手段】本発明のロボット動作点
教示装置は、ロボット、ロボットの手先につけられた近
接センサとカメラ、操作者が使用する3次元ポインティ
ング装置(基準座標軸x,y,z軸方向の位置と基準姿
勢に対するオイラー角相当の姿勢情報の計6自由度の情
報が測定できる装置)、近接センサとポインティング装
置からのデータを処理し表示する処理装置、カメラから
の画像と処理装置による表示結果を重ね合わせて表示す
る表示装置、ロボットの制御装置から構成される。A robot operating point teaching device according to the present invention is a robot, a proximity sensor attached to the hand of the robot, a camera, and a three-dimensional pointing device (reference coordinate axes x, y, z axes) used by an operator. Direction device and a device capable of measuring a total of 6 degrees of freedom of posture information corresponding to Euler angles with respect to a reference posture), a processing device for processing and displaying data from a proximity sensor and a pointing device, an image from a camera and a processing device. It is composed of a display device for displaying the display results in an overlapping manner and a robot control device.
【0008】[0008]
【作用】操作者がティーチングボックスを用いて動作点
列を教示したり、ロボットプログラミング言語を学習し
プログラミングしなくても、カメラにより撮影される実
際の加工作業条件を観察し、仮想の工具を3次元ポイン
ティング装置で操作する事で、加工作業に必要な位置や
姿勢情報などのロボット制御情報が自動作成される点
が、従来のロボット教示の方法とは異なる。[Operation] Even if the operator does not teach the operating point sequence using the teaching box or learns and programs the robot programming language, the operator can observe the actual machining work conditions photographed by the camera and use the virtual tool 3 This is different from the conventional robot teaching method in that the robot control information such as the position and orientation information necessary for the machining work is automatically created by operating the dimensional pointing device.
【0009】A.(位置・姿勢測定装置の作用) 表示された状態で作業ワークに対して、操作者が3次
元ポインティング装置でロボットの手先位置と作業ワー
クに対する工具の姿勢を教示する。A. (Operation of Position / Posture Measuring Device) In the displayed state, the operator teaches the hand position of the robot and the posture of the tool with respect to the work by using the three-dimensional pointing device for the work.
【0010】操作者の位置・姿勢測定は、市販の装置を
用いることで実現できる。(「商用人工現実感システム
RB2」精密工学会誌 Vol.57 No.8 pp39-43 (1991.8)
) B.(データ処理装置の作用) 操作者の3次元ポインティング装置を用いた指示によ
り、ロボットの手先の位置を制御する。The position / orientation of the operator can be measured by using a commercially available device. ("Commercial artificial reality system RB2" Journal of Precision Engineering Vol.57 No.8 pp39-43 (1991.8)
) B. (Operation of Data Processing Device) The position of the hand of the robot is controlled according to an instruction from the operator using the three-dimensional pointing device.
【0011】操作者が3次元ポインティング装置で教
示した工具の姿勢データをもとに、カメラ画像に仮の工
具の像を重ね合わせる。 作業ワークの近くでは、必要に応じて近接センサで測
定された位置座標を、カメラ画像にあわせて表示する。Based on the attitude data of the tool taught by the operator with the three-dimensional pointing device, the image of the temporary tool is superimposed on the camera image. In the vicinity of the work, the position coordinates measured by the proximity sensor are displayed according to the camera image as needed.
【0012】音声などの3次元ポインティング装置以
外の方法で、工具の動作パラメータの教示や重ね合わせ
モードを指示する。 教示した情報を表示し、編集加工を行う。A method other than the three-dimensional pointing device such as voice is used to instruct the operation parameters of the tool and the superposition mode. The taught information is displayed and editing is performed.
【0013】作業実行時には、格納されている位置・
姿勢データと工具の動作パラメータに従いロボットと工
具の制御データを作成する。 C.(表示装置の作用) 操作者に重ね合わせた情報を表示する。At the time of executing work, the stored position
Create control data for the robot and tool according to the posture data and the operation parameters of the tool. C. (Operation of display device) The superimposed information is displayed to the operator.
【0014】テレビモニタ相当品で実現できる。操作者
の動きと視線を合わせるには、頭に装着したディスプレ
ィ装置で実現できる。(「商用人工現実感システムRB
2」精密工学会誌 Vol.57 No.8 pp39-43 (1991.8) ) D.(ロボット制御装置の作用) 教示はカメラ、近接センサを装着したロボットを操作
者の動きに従って制御する。It can be realized by a TV monitor equivalent product. In order to match the line of sight with the movement of the operator, it can be realized with a display device mounted on the head. ("Commercial artificial reality system RB
2 ”Japan Society for Precision Engineering Vol.57 No.8 pp39-43 (1991.8)) D. (Operation of Robot Controller) Teaching controls a robot equipped with a camera and a proximity sensor according to the movement of the operator.
【0015】加工作業時は、工具を装着したロボット
をPTP制御またはCP制御する。(「ロボット工学ハ
ンドブック」pp.526-527, 日本ロボット学会編(1990))At the time of processing work, the robot equipped with the tool is PTP-controlled or CP-controlled. ("Robot Engineering Handbook" pp.526-527, The Robotics Society of Japan (1990))
【0016】[0016]
【実施例】図1は、ロボット動作点教示装置の全体の説
明図である。図1は教示時の状態を示し、1a,1bは
3次元ポインティング装置(1a,1bは1つの3次元
ポインティング装置を切り替えて使用する事も可能)、
2はマイク、3はディスプレィ、4は位置・姿勢測定装
置、5はデータ処理装置、6は表示装置、7はロボット
制御装置、8はロボット、9はカメラ、10は近接セン
サ、11は作業ワークを示す。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is an explanatory view of the entire robot operating point teaching device. FIG. 1 shows a state at the time of teaching, and 1a and 1b are three-dimensional pointing devices (1a and 1b can be used by switching one three-dimensional pointing device).
2 is a microphone, 3 is a display, 4 is a position / orientation measuring device, 5 is a data processing device, 6 is a display device, 7 is a robot control device, 8 is a robot, 9 is a camera, 10 is a proximity sensor, and 11 is work work. Indicates.
【0017】図2は、加工作業実施時の構成を示す。図
2において、12は図1におけるカメラと近接センサの
代わりにつけられた工具を示す。 I. 教示時の各装置の説明 A.(位置・姿勢測定装置の説明) 操作者のいる場所に設定された座標軸(x y z系)
における位置(x,y,z)と、x y z座標系との
3次元ポインティング装置座標系(装置x 装置y 装
置z系)のなすオイラー角(ψ,θ,φ)とを測定し、
周期的にデータ処理装置5に送る。FIG. 2 shows a configuration when a working operation is performed. In FIG. 2, reference numeral 12 denotes a tool attached instead of the camera and the proximity sensor in FIG. I. Explanation of each device during teaching A. (Explanation of the position / orientation measuring device) The coordinate axis (x y z system)
Position (x, y, z) at x and x y Three-dimensional pointing device coordinate system (device x Device y Euler angles (ψ, θ, φ) formed by the device z system ) and
It is sent to the data processing device 5 periodically.
【0018】図3に操作者の座標系とロボットの座標系
(X Y Z系)とロボットの先端の座標系(ロボット
X ロボットY ロボットZ系)とを示す。X Y Z
座標系に対するロボットX ロボットY ロボットZ座
標系の傾きを(Ψa ,Θa ,Φa )、X Y Z座標系
に対する工具X 工具Y 工具Z座標系の傾きを
(Ψ b ,Θb ,Φb )とする。FIG. 3 shows the coordinate system of the operator and the coordinate system of the robot.
(X Y Z system) and the coordinate system of the robot tip (robot
X Robot Y Robot Z system). X Y Z
Robot X for coordinate system Robot Y Robot Z seat
The gradient of the standard system is (Ψa, Θa, Φa), X Y Z coordinate system
Tool X against Tool Y The tilt of the tool Z coordinate system
(Ψ b, Θb, Φb).
【0019】B.(データ処理装置の説明) 位置・姿勢測定装置4からの情報をもとにロボット8を
ロボットの作業する場所に設定された座標系(X Y
Z系)で動かす。操作者の持つ3次元ポインティング装
置1a,1bを仮想工具とみなし、仮想工具の像を作成
する。B. (Explanation of Data Processing Device) Based on information from the position / orientation measuring device 4, the robot 8 is set to a coordinate system (X Y
Z system) to move. The three-dimensional pointing devices 1a and 1b possessed by the operator are regarded as virtual tools, and an image of the virtual tools is created.
【0020】x y z座標系における6自由度の変化
量(Δai =ai+1 −ai ,ここでa=x,y,z,
ψ,θ,φでai は時刻ti における測定値)をもとに
ロボットの位置制御(Ai+1 =Ai +f*Δai 、ここ
でA=X,Y,Z,Ψa ,Θa ,Φa )を行う。X y Amount of change in 6 degrees of freedom in the z coordinate system (Δa i = a i + 1 −a i , where a = x, y, z,
ψ, θ, a i is the measured value at time t i) based on the position control of the robot with φ (A i + 1 = A i + f * Δa i, where A = X, Y, Z, Ψ a, Θ a , Φ a ).
【0021】図4に制御の流れを示す。 (1)S1:変換率fを設定する。 (2)S2:データai 、変量Δai を求める。FIG. 4 shows the flow of control. (1) S1: Set the conversion rate f. (2) S2: Data a i and variable Δa i are obtained.
【0022】(3)S3:ロボットの位置・姿勢
(Ai )を決定する。 (4)S4:表示装置をみながら、操作者がロボットの
位置・姿勢の可否を判断する。NOの場合にはS2に戻
る。(3) S3: The position / orientation (A i ) of the robot is determined. (4) S4: The operator determines whether or not the position / orientation of the robot is possible while looking at the display device. If NO, the process returns to S2.
【0023】(5)S5:YESの場合には、データΨ
bi,Θbi,Φbiを得る。3次元ポインティング装置1
a,1bの分解能や精度は、ロボットの動きに要求され
ている精度を満足しない事が考えられる。操作者は、変
換率fを変化させることで、ロボットの制御に必要とな
る3次元ポインティング装置の分解能や精度を高める事
ができる。(5) S5: If YES, the data Ψ
Obtain bi , Θ bi , and Φ bi . Three-dimensional pointing device 1
It is considered that the resolution and accuracy of a and 1b do not satisfy the accuracy required for the movement of the robot. The operator can increase the resolution and accuracy of the three-dimensional pointing device required for controlling the robot by changing the conversion rate f.
【0024】C.(表示装置の説明) カメラからの像とデータ処理装置で作成される仮想工具
とを重ね合わせて表示する。図5は、斜線で表した仮想
工具が像と接している状態を表す。操作者は、操作する
3次元ポインティング装置の動きが反映されるディスプ
レィをみて、ロボットの動き(X,Y,Z,Ψa ,
Θa ,Φa )を教示する。一方、作業ワークに対する仮
想工具の姿勢を(Ψb ,Θb ,Φb )で教示する。図6
は、図5の状態から工具の姿勢を変化させた時の重ね合
わせ画像の例を示す。C. (Description of Display Device) The image from the camera and the virtual tool created by the data processing device are displayed in an overlapping manner. FIG. 5 shows a state where a virtual tool represented by diagonal lines is in contact with the image. The operator looks at the display reflecting the movement of the three-dimensional pointing device to be operated, and moves the robot (X, Y, Z, Ψ a ,
Teach Θ a , Φ a ). On the other hand, the posture of the virtual tool with respect to the work is taught by (Ψ b , Θ b , Φ b ). Figure 6
Shows an example of a superimposed image when the posture of the tool is changed from the state of FIG.
【0025】表面研磨などの作業においては、作業ワー
クの表面から決められた位置に工具をあてることが必要
になる。カメラからの画像だけでは、操作者は作業に必
要な位置を制御できない。位置を正確に制御するため
に、近接センサを用いる。In work such as surface polishing, it is necessary to apply a tool to a predetermined position from the surface of the work. The image from the camera alone does not allow the operator to control the position required for work. Proximity sensors are used to precisely control the position.
【0026】D.(近接センサとして可視光のレーザを
用いた例) 図7に近接センサを取り付けた図を示す。図7におい
て、13はレーザ変位計を示す。カメラの光軸と近接セ
ンサとして用いるレーザ変位計の光軸とを一致させて取
り付ける事はできない。加工面からlの距離、Δlの精
度でロボットを操作する必要のある時は、図8に示す如
く、表示装置上に、半径(Δl*tanθ)相当の円を
描く。操作者は、円の内部にレーザのスポットが留まる
ように操作することで、所定の精度で、ロボットの軌道
を制御できる。D. (Example of Using Visible Light Laser as Proximity Sensor) FIG. 7 shows a diagram in which a proximity sensor is attached. In FIG. 7, 13 indicates a laser displacement meter. The optical axis of the camera and the optical axis of the laser displacement meter used as the proximity sensor cannot be attached so as to coincide with each other. When it is necessary to operate the robot with a distance of 1 from the processing surface and an accuracy of Δl, a circle corresponding to the radius (Δl * tan θ) is drawn on the display device as shown in FIG. The operator can control the trajectory of the robot with a predetermined accuracy by operating the laser so that the laser spot remains inside the circle.
【0027】E.(近接センサとして固定焦点のカメラ
を用いた例) 図9は固定焦点のカメラを取り付けた図を示す。図9に
おいて、14は固定焦点のカメラ、15はハーフミラ
ー、16はミラーを示す。E. (Example Using Fixed Focus Camera as Proximity Sensor) FIG. 9 shows a diagram in which a fixed focus camera is attached. In FIG. 9, 14 is a fixed focus camera, 15 is a half mirror, and 16 is a mirror.
【0028】2つのカメラの軸を一致させて取り付ける
事はできない。ハーフミラー15とミラー16とを用い
て、疑似的にカメラの光軸を合わせる。固定焦点のカメ
ラ14からの像を中心にして、2つのカメラからの像を
重ねて図10に示す如く表示する。固定焦点カメラ14
からの像がピントが合って結像した状態であれば、設定
された焦点距離(l1 +l2 +l3 )の近くの距離を維
持する事ができる。It is not possible to mount the two cameras with their axes aligned. Using the half mirror 15 and the mirror 16, the optical axis of the camera is artificially aligned. The images from the two cameras are superimposed and displayed as shown in FIG. 10 with the image from the fixed-focus camera 14 at the center. Fixed focus camera 14
If the image from is focused and formed, it is possible to maintain a distance near the set focal length (l 1 + l 2 + l 3 ).
【0029】F.(ロボット制御装置の説明) データ処理装置からの位置と姿勢情報(Xi ,Yi ,Z
i ,Ψai,Θai,Φai)をもとにロボット8を動かす。F. (Explanation of Robot Controller) Position and Attitude Information (X i , Y i , Z) from Data Processing Device
The robot 8 is moved based on i , Ψ ai , Θ ai , Φ ai ).
【0030】II.実行時の各装置の説明 A.(データ処理装置) 操作者は、教示した位置・姿勢情報(Xi ,Yi ,
Zi ,Ψai,Θai,Φai),(Ψbi,Θbi,Φbi)を一
括して表示し、編集作業を行う。図11はデータ編集時
のシステム構成を示す。図12に、編集作業の流れを示
す。II. Description of each device during execution A. (Data Processing Device) The operator teaches the position / orientation information (X i , Y i ,
Z i , Ψ ai , Θ ai , Φ ai ), (Ψ bi , Θ bi , Φ bi ) are collectively displayed, and editing work is performed. FIG. 11 shows the system configuration when editing data. FIG. 12 shows the flow of editing work.
【0031】(1)S6:Ai を表示する。 (2)S7:仮想工具の姿勢を表示する。 (3)S8:表示装置をみながら操作者が姿勢の可否を
確認する。(1) S6: Ai is displayed. (2) S7: The posture of the virtual tool is displayed. (3) S8: The operator confirms whether or not the posture is possible while looking at the display device.
【0032】(4)S9:S8でYESの場合には、す
べての確認が終了したか否かを調べる。これでYESの
場合には終了へ進み、NOの場合にはS7に戻る。 (5)S10:S8でNOの場合には、データΨbi,Θ
bi,Φbiを入力する。(4) S9: If YES in S8, it is checked whether or not all the confirmations have been completed. If this is YES, the process proceeds to the end, and if it is NO, the process returns to S7. (5) S10: If NO in S8, the data Ψ bi , Θ
Enter bi and Φ bi .
【0033】編集作業後、ロボット制御装置に対して、
(Xi ,Yi ,Zi ,Ψai,Θai,Φai),(Ψbi,Θ
bi,Φbi)をもとに計算される作業実行時の位置と姿勢
情報(Xi ’,Yi ’,Zi ’,Ψi ’,Θi ’,
Φi ’)とを送る。After the editing work, the robot controller is
(X i , Y i , Z i , Ψ ai , Θ ai , Φ ai ), (Ψ bi , Θ
bi , Φ bi ) and position and posture information (X i ', Y i ', Z i ', Ψ i ', Θ i ', at the time of work execution calculated based on
Φ i ') and send.
【0034】B.(ロボット制御装置の説明) データ処理装置5からの位置と姿勢情報(Xi ’,
Yi ’,Zi ’,Ψi ’,Θi ’,Φi ’)とをもとに
ロボット8を動かす。B. (Explanation of Robot Controller) Position and orientation information (X i ', from data processor 5
Y i ′, Z i ′, Ψ i ′, Θ i ′, Φ i ′), and the robot 8 is moved.
【0035】[0035]
【発明の効果】本発明によれば、作業をする作業ワーク
とロボットとを用いて、動作点を簡単に教示でき、ロボ
ットと離れた場所で教示作業を行うので、操作者に危険
はない。また精密な動きも、ボックス操作などに習熟し
なくとも教えることができ、位置以外の付加情報の教示
もあわせて教示できる。According to the present invention, the operating point can be easily taught by using the work work and the robot, and the teaching work is performed at a place distant from the robot, so that there is no danger to the operator. In addition, precise movement can be taught without being proficient in box operation, and teaching of additional information other than position can also be taught.
【図面の簡単な説明】[Brief description of drawings]
【図1】教示時のシステム構成の例を示す。FIG. 1 shows an example of a system configuration at the time of teaching.
【図2】作業時のシステム構成の例を示す。FIG. 2 shows an example of a system configuration during work.
【図3】座標系の設定状態を示す。FIG. 3 shows a setting state of a coordinate system.
【図4】データ処理装置のフローを示す。FIG. 4 shows a flow of the data processing device.
【図5】重ね合わせ画像の説明図(1)を示す。FIG. 5 shows an explanatory view (1) of a superimposed image.
【図6】重ね合わせ画像の説明図(2)を示す。FIG. 6 shows an explanatory view (2) of a superimposed image.
【図7】近接センサの取り付け図を示す。FIG. 7 shows a mounting diagram of a proximity sensor.
【図8】近接センサ情報を重ね合わせた表示の例を示
す。FIG. 8 shows an example of a display in which proximity sensor information is overlaid.
【図9】固定焦点カメラ取り付け図を示す。FIG. 9 shows a fixed focus camera mounting diagram.
【図10】固定焦点カメラ像を重ね合わせた表示の例を
示す。FIG. 10 shows an example of a display in which fixed-focus camera images are superimposed.
【図11】データ編集時のシステム構成の例を示す。FIG. 11 shows an example of a system configuration when editing data.
【図12】編集作業のフローを示す。FIG. 12 shows a flow of editing work.
1 3次元ポインティング装置 2 マイク 3 ディスプレィ 4 位置・姿勢測定装置 5 データ処理装置 6 表示装置 7 ロボット制御装置 8 ロボット 9 カメラ 10 近接センサ 11 作業ワーク 12 工具 13 レーザ変位計 14 固定焦点カメラ 15 ハーフミラー 16 ミラー 1 3D Pointing Device 2 Microphone 3 Display 4 Position / Posture Measuring Device 5 Data Processing Device 6 Display Device 7 Robot Control Device 8 Robot 9 Camera 10 Proximity Sensor 11 Work Work 12 Tool 13 Laser Displacement Meter 14 Fixed Focus Camera 15 Half Mirror 16 mirror
Claims (1)
を写しているカメラ画像と、ロボットの先端につけられ
て作業ワークとの近接状態をセンスする近接センサとを
用いて、ロボットを、作業の位置にガイドするロボット
動作点教示装置において、 作業ワークのカメラ画像上に仮想の工具を重ねて表示す
るよう構成し、3次元ポインティング装置から上記仮想
工具の軌道を教示することにより、上記ロボットが上記
作業ワークに対して加工作業をする時の位置・姿勢デー
タ列を含む軌道を教示するようにしたことを特徴とする
ロボット動作点教示装置。1. A robot is placed at a work position by using a camera image attached to the tip of the robot and showing a work work, and a proximity sensor attached to the tip of the robot to sense a proximity state of the work work. In a robot operating point teaching device for guiding, a virtual tool is displayed so as to be superimposed on a camera image of a work, and a robot is taught the trajectory of the virtual tool from a three-dimensional pointing device, so that the robot can work on the work. A robot operating point teaching device characterized in that a trajectory including a position / orientation data string when a machining operation is performed is taught to the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP738792A JPH05197416A (en) | 1992-01-20 | 1992-01-20 | Teaching device for robot operation point |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP738792A JPH05197416A (en) | 1992-01-20 | 1992-01-20 | Teaching device for robot operation point |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05197416A true JPH05197416A (en) | 1993-08-06 |
Family
ID=11664518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP738792A Pending JPH05197416A (en) | 1992-01-20 | 1992-01-20 | Teaching device for robot operation point |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05197416A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5495410A (en) * | 1994-08-12 | 1996-02-27 | Minnesota Mining And Manufacturing Company | Lead-through robot programming system |
US6366831B1 (en) | 1993-02-23 | 2002-04-02 | Faro Technologies Inc. | Coordinate measurement machine with articulated arm and software interface |
US9207756B2 (en) | 2011-12-30 | 2015-12-08 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling 3D image |
US10133256B2 (en) | 2013-07-19 | 2018-11-20 | Fujitsu Limited | Information processing apparatus and method for calculating inspection ranges |
US11130236B2 (en) | 2018-04-18 | 2021-09-28 | Fanuc Corporation | Robot movement teaching apparatus, robot system, and robot controller |
CN115916480A (en) * | 2020-06-23 | 2023-04-04 | 川崎重工业株式会社 | Robot Teaching Method and Robot Working Method |
-
1992
- 1992-01-20 JP JP738792A patent/JPH05197416A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6366831B1 (en) | 1993-02-23 | 2002-04-02 | Faro Technologies Inc. | Coordinate measurement machine with articulated arm and software interface |
US6535794B1 (en) | 1993-02-23 | 2003-03-18 | Faro Technologoies Inc. | Method of generating an error map for calibration of a robot or multi-axis machining center |
US6606539B2 (en) | 1993-02-23 | 2003-08-12 | Faro Technologies, Inc. | Portable coordinate measurement machine with pre-stressed bearings |
US5495410A (en) * | 1994-08-12 | 1996-02-27 | Minnesota Mining And Manufacturing Company | Lead-through robot programming system |
US5880956A (en) * | 1994-08-12 | 1999-03-09 | Minnesota Mining And Manufacturing Company | Lead-through robot programming system |
US9207756B2 (en) | 2011-12-30 | 2015-12-08 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling 3D image |
US10133256B2 (en) | 2013-07-19 | 2018-11-20 | Fujitsu Limited | Information processing apparatus and method for calculating inspection ranges |
US11130236B2 (en) | 2018-04-18 | 2021-09-28 | Fanuc Corporation | Robot movement teaching apparatus, robot system, and robot controller |
CN115916480A (en) * | 2020-06-23 | 2023-04-04 | 川崎重工业株式会社 | Robot Teaching Method and Robot Working Method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
JP4167954B2 (en) | Robot and robot moving method | |
JP2005106825A (en) | Method and apparatus for determining position and orientation of image receiving device | |
JP5292998B2 (en) | Robot apparatus control method and robot apparatus | |
KR20180038479A (en) | Robot system | |
JP2008254150A (en) | Teaching method and teaching device of robot | |
CN106217372A (en) | Robot, robot controller and robot system | |
JP4122975B2 (en) | 3D laser processing machine | |
JP2018202514A (en) | Robot system representing information for learning of robot | |
JP2011011321A (en) | Robot system and calibration method for the same | |
JP2018001264A (en) | Laser processing robot system for performing laser processing using robot | |
CN110039520B (en) | Teaching and processing system based on image contrast | |
JP7517803B2 (en) | ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM | |
JP7502003B2 (en) | Apparatus and method for acquiring deviation of moving trajectory of moving machine | |
JP5428639B2 (en) | Robot control apparatus and robot teaching method | |
JP2001287179A (en) | Industrial robot teaching system | |
JPH05197416A (en) | Teaching device for robot operation point | |
JP3215616B2 (en) | Robot guidance method and guidance system | |
JP2778376B2 (en) | Camera viewpoint change method | |
JPH06218684A (en) | Instruction device for operation type manipulator/and automatic work by operation type manipulator | |
JP2000042960A (en) | Remote control device for manipulator | |
JP6559425B2 (en) | Laser irradiation control device | |
JP3175623B2 (en) | Robot control device | |
JP2003223213A (en) | Teaching method and apparatus, and laser processing machine provided with the teaching method | |
KR102735386B1 (en) | Apparatus and method for controlling a robot manipulator using a gimbal mechanism |