JP2013049102A - Robot control device and method of determining robot attitude - Google Patents
Robot control device and method of determining robot attitude Download PDFInfo
- Publication number
- JP2013049102A JP2013049102A JP2011187343A JP2011187343A JP2013049102A JP 2013049102 A JP2013049102 A JP 2013049102A JP 2011187343 A JP2011187343 A JP 2011187343A JP 2011187343 A JP2011187343 A JP 2011187343A JP 2013049102 A JP2013049102 A JP 2013049102A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- hand
- posture
- teaching
- approach
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 16
- 239000013598 vector Substances 0.000 claims abstract description 188
- 238000013459 approach Methods 0.000 claims abstract description 52
- 239000011159 matrix material Substances 0.000 claims abstract description 36
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 230000036544 posture Effects 0.000 description 111
- 238000012545 processing Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、手先座標におけるアプローチベクトルが常に目標点を向くように、垂直多関節型のロボットについてティーチングを行うためのロボットの制御装置及びロボットの姿勢決定方法に関する。 The present invention relates to a robot control apparatus and a robot posture determination method for teaching a vertical articulated robot so that an approach vector in hand coordinates always faces a target point.
ロボットをティーチングする場合には、一般に、ロボットの手先を移動させる軌跡に沿った位置を教示すると共に、その教示点においてロボットが取るべき姿勢も教示するようになっている。例えば、特許文献1には、ティーチング及びその後に行われる補間に関連する技術が開示されている。 When teaching a robot, in general, a position along a trajectory for moving the hand of the robot is taught, and a posture to be taken by the robot at the teaching point is also taught. For example, Patent Document 1 discloses a technique related to teaching and subsequent interpolation.
ところで、ロボットの手先にカメラを取り付け、そのカメラを移動させてワークの画像を撮像する、という作業を行う場合については、ティーチングを行う際のロボットの姿勢は、当然にカメラの視線が固定されているワークを捉える方向となるように決定される。そのためには、例えば、各教示点をできるだけ至近距離で設定して各教示点における手先の座標と姿勢とを人力で設定し、教示点間を従来と同様の方式で補間する必要がある。或いは、各教示点をある程度距離を離すように設定し、同様に各教示点における手先の座標と姿勢とを人力で設定した後、教示点間の補間を、ツールを固定してロボットの手先がワークを把持して作業する形態の外部TCP(Tool Center Point;先端点)動作による補間とすることも考えられる。 By the way, when attaching a camera to the hand of a robot and moving the camera to capture an image of a workpiece, the robot's posture during teaching is naturally fixed by the camera's line of sight. It is decided to be in the direction to catch the workpiece. For this purpose, for example, it is necessary to set each teaching point as close as possible, manually set the coordinates and posture of the hand at each teaching point, and interpolate between the teaching points in the same manner as in the prior art. Alternatively, each teaching point is set to be separated by a certain distance, and similarly, the coordinates and orientation of the hand at each teaching point are set manually, and then the interpolation of the teaching points is performed by fixing the tool and Interpolation by external TCP (Tool Center Point) operation in the form of gripping and working the work is also conceivable.
上記の何れのやり方であっても、各教示点について座標及び姿勢を決定する作業は必要であるが、座標を決定する作業については、ロボット本体の座標であるベース座標(基底座標)系によって行うため、教示点が増えるだけ手間はかかるが作業自体がやり難いということはない。しかしながら、姿勢を決定する作業については、ロボットの手先の座標系で行うことになり、手先の向きによりxyz方向が変化するため姿勢が把握し難く、1つ1つの作業が非常にやり難いという問題がある。 In any of the above-described methods, it is necessary to determine coordinates and postures for each teaching point. However, the determination of coordinates is performed by a base coordinate (basic coordinate) system that is coordinates of the robot body. Therefore, it takes time and effort to increase the teaching points, but the work itself is not difficult. However, the task of determining the posture is performed in the coordinate system of the hand of the robot, and since the xyz direction changes depending on the orientation of the hand, it is difficult to grasp the posture, and each task is very difficult to perform. is there.
本発明は上記事情に鑑みてなされたものであり、その目的は、ロボットの手先に取り付けたカメラによりワークを撮像する作業について、手先の姿勢を教示する作業をより容易にするロボットの制御装置及びロボットの姿勢決定方法を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot control device that makes it easier to teach the posture of the hand with respect to the work of imaging a work with a camera attached to the hand of the robot, and The object is to provide a robot attitude determination method.
請求項1記載のロボットの制御装置によれば、ロボットの手先に取り付けたカメラによりワークを撮像するため、手先座標におけるアプローチベクトルが常に目標点を向くように、垂直多関節型のロボットについてティーチングを行うことを前提とする。この場合、第1ベクトル決定手段は、手先の位置が教示されると、ロボットの基底座標原点から目標点を示すベクトルと、基底座標原点から手先(教示点)を示すベクトルとからアプローチベクトルを求める。 According to the robot control apparatus of the first aspect, since the workpiece is imaged by the camera attached to the hand of the robot, teaching is performed for the vertical articulated robot so that the approach vector in the hand coordinates always faces the target point. It is assumed that this is done. In this case, when the position of the hand is taught, the first vector determining means obtains an approach vector from a vector indicating the target point from the base coordinate origin of the robot and a vector indicating the hand (teaching point) from the base coordinate origin. .
第2ベクトル決定手段は、手先座標のオリエントベクトル,ノーマルベクトルの一方を第2ベクトルとして決定するため、第2ベクトルのノルムを「1.0」に設定し、第2ベクトルの座標値を正規直交条件に基づいて決定する。そして、第3ベクトル決定手段は、残った第3ベクトルを、アプローチベクトルと第2ベクトルとの外積で決定するので、この段階で、手先座標のノーマル,オリエント,アプローチの各ベクトルが求められる。 The second vector determining means sets one of the orientation vector and the normal vector of the hand coordinates as the second vector, so that the norm of the second vector is set to “1.0”, and the coordinate value of the second vector is orthonormal Determine based on conditions. Then, the third vector determining means determines the remaining third vector by the outer product of the approach vector and the second vector. At this stage, the normal, orientation, and approach vectors of the hand coordinates are obtained.
すると、手先姿勢決定手段は、教示点における手先の姿勢を、既知である基底座標系に基づく手先座標系の姿勢を示す回転行列と、ノーマル,オリエント,アプローチの各ベクトルで記述される回転行列の逆行列とから求め、教示姿勢設定手段は、手先姿勢決定手段により決定された手先の姿勢を、教示点における姿勢として自動的に設定する。すなわち、ロボットの手先に取り付けられたカメラの視線が常にワーク方向を向くように教示点を設定するためユーザが行う作業は、基底座標系に従い位置を与える座標を入力するだけで済むことになり、ユーザの作業負担を大きく軽減できる。そして、教示点におけるロボットの手先の姿勢は計算により求められ自動的に設定されるので、作業者は、各教示点について手先の姿勢を教示する必要が無くなり、作業時間を大きく短縮することができる。 Then, the hand posture determination means determines the posture of the hand at the teaching point by using a rotation matrix indicating the posture of the hand coordinate system based on the known base coordinate system, and a rotation matrix described by normal, orient, and approach vectors. Based on the inverse matrix, the teaching posture setting means automatically sets the hand posture determined by the hand posture determining means as the posture at the teaching point. In other words, the work performed by the user in order to set the teaching point so that the line of sight of the camera attached to the hand of the robot always faces the work direction, only has to input the coordinates that give the position according to the base coordinate system, User workload can be greatly reduced. Since the posture of the hand of the robot at the teaching point is calculated and automatically set, the operator does not need to teach the posture of the hand at each teaching point, and the working time can be greatly shortened. .
請求項2記載のロボットの制御装置によれば、請求項1と同様の条件でティーチングを行うことを前提とする。第1ベクトル決定手段は、手先の位置が教示されると、その教示点におけるカメラの撮像面と平行な平面内に存在する任意2つのベクトルの外積で求められる、教示点に立つ法線ベクトルを手先座標のアプローチベクトルとして決定する。アプローチベクトルが決定されれば、第2,第3ベクトル決定手段と、手先姿勢決定手段並びに教示姿勢設定手段が請求項1と同様に作用することで、教示点におけるロボットの手先の姿勢が自動的に設定される。したがって、作業者は、請求項1と同様に各教示点について手先の姿勢を教示する必要が無くなり、作業時間を大きく短縮することができる。 According to the robot control apparatus of the second aspect, it is assumed that teaching is performed under the same conditions as in the first aspect. When the position of the hand is taught, the first vector determining means calculates a normal vector standing at the teaching point, which is obtained by the outer product of any two vectors existing in a plane parallel to the imaging surface of the camera at the teaching point. It is determined as an approach vector of hand coordinates. If the approach vector is determined, the second and third vector determining means, the hand posture determining means and the teaching posture setting means operate in the same manner as in claim 1 so that the posture of the robot hand at the teaching point is automatically determined. Set to Therefore, the operator need not teach the posture of the hand at each teaching point as in the first aspect, and the working time can be greatly shortened.
請求項3記載のロボットの制御装置によれば、補間手段が2つの教示点の間を補間して1つ以上の補間点を決定すると、第1〜第3ベクトル決定手段は、補間点についてもアプローチベクトル,第2ベクトル,第3ベクトルをそれぞれ決定し、手先姿勢決定手段は補間点における手先の姿勢も求める。したがって、ロボットの手先の移動軌跡を補間する場合についても、各補間点における手先の姿勢を自動的に設定することが可能となる。 According to the robot control apparatus of the third aspect, when the interpolation unit interpolates between the two teaching points to determine one or more interpolation points, the first to third vector determination units also perform the interpolation points. The approach vector, the second vector, and the third vector are respectively determined, and the hand posture determining means also determines the hand posture at the interpolation point. Therefore, even when the movement locus of the robot hand is interpolated, the hand posture at each interpolation point can be automatically set.
(第1実施例)
以下、本発明の第1実施例について図1ないし図6を参照して説明する。図5は、垂直多関節型(6軸)ロボットを含む制御システムの構成を示す。このロボット本体1は、ベース(回転軸)2上に、この場合6軸のアームを有し、そのアームの先端には、図示しないハンド等のツールや、後述するカメラなどが取り付けられる。前記ベース2上には、第1関節J1を介して第1のアーム3が回転可能に連結されている。この第1のアーム3には、第2関節J2を介して上方に延びる第2のアーム4の下端部が回転可能に連結され、さらに、この第2のアーム4の先端部には、第3関節J3を介して第3のアーム5が回転可能に連結されている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 5 shows the configuration of a control system including a vertical articulated (6-axis) robot. The robot body 1 has a 6-axis arm on a base (rotating shaft) 2 in this case, and a tool such as a hand (not shown), a camera described later, and the like are attached to the tip of the arm. A
この第3のアーム5の先端には第4関節J4を介して第4のアーム6が回転可能に連結され、この第4のアーム6の先端には第5関節J5を介して第5のアーム7が回転可能に連結され、この第5のアーム7には第6関節J6を介して第6のアーム8が回転可能に連結されている。なお、各関節J1〜J6においては、図示しないサーボモータにより各アーム3〜8を回転駆動するようになっている。
A
ロボット本体1と制御装置(コントローラ,第1〜第3ベクトル決定手段,手先姿勢決定手段,教示姿勢設定手段,補間手段)11との間は、接続ケーブル12によって接続されている。これにより、ロボット本体1の各軸を駆動するサーボモータは、制御装置11により制御される。パッドコントローラ(入力手段)13は、例えば横長の本体14の両端側に、ユーザが左右両手でそれぞれ把持するための把持部15L,15Rが設けられており、ユーザが把持部15L,15Rを両手で把持した状態で、親指により押圧操作可能なジョイパッド16L,16Rが配置されている。また、把持部15L,15Rの図中上方には、人差し指により押圧操作可能なボタン17L,17Rが配置されている。
A
ロボット本体1のアーム8には、CCD(Charge Coupled Device)又はCMOSイメージセンサを用いたカメラ(撮像手段)21が取り付けられており、そのカメラ21により撮像対象物(ワーク)22を画像で捉える。制御装置11には、パーソナルコンピュータ(パソコン)23がケーブル24を介して接続されている。
A camera (imaging means) 21 using a CCD (Charge Coupled Device) or a CMOS image sensor is attached to the
パソコン23には、メモリやハードディスクなどの記憶装置(記憶手段)が内蔵されている。パッドコントローラ13は、接続ケーブル18を経由してパソコン23に接続され、通信インターフェイスを介してパソコン23との間で高速のデータ転送を実行するようになっている。ジョイパッド16L,16R等が操作されて入力された操作信号等の情報は、パッドコントローラ13からパソコン23を介して制御装置11へ送信される。カメラ21は、ケーブル25を介してパソコン23に接続されており、カメラ21が捉えた画像のデータはパソコン23に送信されて、ディスプレイ23Dに表示される。
The
図6に示すように、制御装置11は、制御部としてのCPU31、各関節のモータ30を駆動する駆動手段としての駆動回路32、検出回路33などを備えている。そして、CPU31には、ロボット全体のシステムプログラム等を記憶したROM34、ロボット本体1の動作プログラム等を記憶したRAM35および前記ティーチングペンダント3を接続するためのインターフェース36が接続されている。なお、図6では、ショルダ部5、下アーム6、上アーム7、手首8を可動部として一つのブロックで示し、これに応じてそれらの関節の駆動源であるモータ30も一台だけ示した。
As shown in FIG. 6, the
上記検出回路33は、各関節の現在位置(回転角度)および現在速度(回転速度)を検出するためのもので、この検出回路33には、各関節を駆動するモータ30に設けられたロータリエンコーダ37が接続されている。ロータリエンコーダ37は位置センサおよび速度センサを兼用するもので、各モータ30の回転角度に応じたパルス信号を出力し、そのパルス信号は検出回路33に与えられる。検出回路33は、各ロータリエンコーダ37からのパルス信号に基づいて各モータ30ひいては各関節の現在位置を検出すると共に、単位時間当たり各ロータリエンコーダ37から入力されるパルス信号数に基づいて各モータ30ひいては各関節の現在速度を検出し、その位置および速度の情報は、各モータ30の駆動回路32およびCPU31に与えられるようになっている。
The
そして、各駆動回路32は、CPU31から与えられる位置指令値および速度指令値と検出回路33から与えられる現在位置および現在速度とを比較し、その偏差に応じた電流を各モータ30に供給してそれらを駆動する。これにより、ロボットアーム先端(手先)であるフランジ(図示せず)の中心部が指令位置を順に通る経路を辿って動作することで、種々の作業を行う。
Each
ロボットアーム先端の移動経路は、パッドコントローラ13(若しくは、図示しないティーチングペンダント)を用いて行う教示作業によって与えられる。この教示作業では、ロボットアーム先端が辿るべき軌跡上の複数の位置が指令位置として順に教示される。そして、従来の教示作業であれば、各指令位置でのロボットアーム先端の姿勢も教示するが、本実施例では、姿勢は後述のように決定される。そして教示された指令位置と決定された姿勢とは、RAM35に記憶される。制御装置11は、実際のロボット作業に際して、与えられた複数の指令位置間を曲線補間してそれら指令位置を順に滑らかに辿る曲線を設定し、ロボットアーム先端がその曲線上を移動するように制御する。
The movement path of the robot arm tip is given by a teaching operation performed using the pad controller 13 (or a teaching pendant (not shown)). In this teaching work, a plurality of positions on the locus that the robot arm tip should follow are sequentially taught as command positions. In the conventional teaching operation, the posture of the tip of the robot arm at each command position is also taught. In this embodiment, the posture is determined as described later. The taught command position and the determined posture are stored in the
なお、ロボットアーム先端の位置は、フランジに固定された3次元座標(ツール座標)の原点がロボット座標(基底座標,ベース座標)上でどの位置にあるかによって示される。また、ロボットアーム先端の姿勢は、フランジに固定のツール座標の3軸の単位ベクトル(ノーマル,オリエント,アプローチの各ベクトル)がロボット座標上で示す向きによって定義される。 The position of the tip of the robot arm is indicated by where the origin of the three-dimensional coordinates (tool coordinates) fixed to the flange is on the robot coordinates (base coordinates, base coordinates). In addition, the posture of the tip of the robot arm is defined by the orientation indicated by the three-axis unit vectors (normal, orientation, and approach vectors) of the tool coordinates fixed to the flange on the robot coordinates.
図5に示すように、ロボットアームの先端である手先に取り付けたカメラ21により撮像対象物22を捉える場合、手先の姿勢については、基本的にカメラ21の視線が常に撮像対象物(被写体)22を向くように教示するのが通常である。したがって、このような状況下では、作業者が教示せずとも、手先の姿勢は幾何学的に決定することができる。
As shown in FIG. 5, when the
図1は、ロボット本体1の座標であるベース座標の原点を基準とする、手先;カメラ21(ツール座標)の位置・姿勢と、撮像対象物22(ワーク座標)の位置・姿勢との関係を示す図である。また、図2は、手先の姿勢を決定する処理を示すフローチャートである。ベース座標から見たワーク座標の位置はベクトルBPW,姿勢は回転行列BRWで示されるが(書式の制約上,ベクトル及び回転行列の表記は図中の表記と異なる)、撮像対象物22が固定されているのでこれらは既知である。また、ベース座標から見たツール座標の位置はベクトルBPT,姿勢は回転行列BRTで示され、ベクトルBPTは手先の位置を教示することで決定される(ステップS1)。 FIG. 1 shows the relationship between the position / posture of the hand; camera 21 (tool coordinate) and the position / posture of the imaging target 22 (work coordinate) with reference to the origin of the base coordinates that are the coordinates of the robot body 1. FIG. FIG. 2 is a flowchart showing processing for determining the posture of the hand. The position of the work coordinate viewed from the base coordinates is indicated by the vector B P W and the posture is indicated by the rotation matrix B R W (the notation of the vector and the rotation matrix is different from the notation in the figure due to format restrictions) These are known because 22 is fixed. The position of the tool coordinates viewed from the base coordinates is indicated by a vector B P T , the posture is indicated by a rotation matrix B R T , and the vector B P T is determined by teaching the position of the hand (step S1).
そして、カメラ21の視線が撮像対象物22を向く方向は、ツール座標のアプローチベクトルa(第1ベクトル)が示す方向に一致するので、当該ベクトルa=(ax,ay,az)は図1に示す各座標間の関係から(1)式で計算される(ステップS2,第1ベクトル決定手段)。
Then, the direction of line of sight of the
ここで、回転行列TRWは、ツール座標の姿勢そのものであるから、ツール座標のノーマルベクトルn,オリエントベクトルo,アプローチベクトルaによって記述される。 Here, the rotation matrix T R W, since a posture itself of the tool coordinate, normal vector n of the tool coordinate Orient vector o, described by approach vector a.
そして、ノーマル,オリエント,アプローチの各ベクトルn,o,aについては正規直交条件がある。したがって、アプローチベクトルaとオリエントベクトルoとの内積はゼロであり、
axox+ayoy+azoz=0 …(4)
ox 2+oy 2+oz 2=0 …(5)
であるから、例えば、オリエントベクトルoのノルムを「1.0」(単位長)に決定すれば、(4),(5)式からオリエントベクトルo(第2ベクトル)が決まる(ステップS3,第2ベクトル決定手段)。
The normal, orient, and approach vectors n, o, and a have orthonormal conditions. Therefore, the inner product of the approach vector a and the orientation vector o is zero,
a x o x + a y o y + a z o z = 0 (4)
o x 2 + o y 2 + o z 2 = 0 (5)
Therefore, for example, if the norm of the orientation vector o is determined to be “1.0” (unit length), the orientation vector o (second vector) is determined from the equations (4) and (5) (step S3, second). 2 vector determination means).
すると、ノーマルベクトルn(第3ベクトル)については、アプローチベクトルaとオリエントベクトルoとの外積で求められるので、 Then, since the normal vector n (third vector) is obtained by the outer product of the approach vector a and the orientation vector o,
ステップS2〜S4により、ノーマル,オリエント,アプローチの各ベクトルn,o,aが決まるので、回転行列TRWが決定され(ステップS5)、(2)式により、手先の姿勢である回転行列BRTが計算される(ステップS6,手先姿勢決定手段)。以上の処理により、手先の位置を教示により決定したことに基づいて、手先の姿勢が計算で自動的に決定される。 In step S2 to S4, normal, Orient, each vector n approaches, o, because a is determined, the rotation matrix T R W is determined (step S5), (2) the expression, a rotation matrix B is an attitude of the end RT is calculated (step S6, hand posture determination means). With the above processing, the hand posture is automatically determined by calculation based on the determination of the hand position by teaching.
手先の位置を教示して手先の姿勢を計算により決定すると、次に、複数の教示位置(指令位置)の間をスプライン曲線により補間する(補間手段)。スプライン補間方式の詳細については、例えば特開2007−42021号公報等に開示されているので、ここでは説明を省略する。 Once the position of the hand is taught and the posture of the hand is determined by calculation, interpolation between a plurality of teaching positions (command positions) is then performed by a spline curve (interpolating means). Details of the spline interpolation method are disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-42021, and the description thereof is omitted here.
そして更に、指令位置について行った補間を手先の姿勢についても同様に適用して補間を行う。図3は、姿勢補間処理を示すフローチャートである。位置及び姿勢について教示点が設定されると(ステップS11)、ロボット本体1の手先を撮像対象物22周りで動作させるため、教示点(ベース座標から見たツール座標)が、ツール(手先)から見た撮像対象物22への位置,姿勢(ツール座標から見たワーク座標)となるように座標変換する(ステップS12)。
Further, the interpolation performed for the command position is similarly applied to the hand posture to perform the interpolation. FIG. 3 is a flowchart showing the posture interpolation process. When the teaching point is set for the position and orientation (step S11), the teaching point (tool coordinates viewed from the base coordinates) is moved from the tool (handing) to move the hand of the robot body 1 around the
次に、各教示位置におけるそれぞれの教示姿勢を座標値として特定する。教示された姿勢は回転角度値(X方向回転成分,Y方向回転成分,Z方向回転成分)で与えられているので、回転行列を用いて空間座標値(X方向姿勢座標値,Y方向姿勢座標値,Z方向姿勢座標値)に変換する(回転行列変換処理,姿勢座標変換処理手段)。各位置における手先の姿勢に対応する回転行列が、変換された座標によって表現される。すなわち、この回転行列が、手先の姿勢を特定するノーマルベクトルn(X軸),オリエントベクトルo(Y軸),アプローチベクトルa(Z軸)を、それぞれベース座標上で表現した3次元座標値となる。また、各教示位置の各方向座標値と、当該教示位置における各方向姿勢座標値とからなるものが移動目標位置に対応する。 Next, each teaching posture at each teaching position is specified as a coordinate value. Since the taught posture is given as a rotation angle value (X direction rotation component, Y direction rotation component, Z direction rotation component), a spatial coordinate value (X direction posture coordinate value, Y direction posture coordinate) using a rotation matrix. Value, Z-direction posture coordinate value) (rotation matrix conversion processing, posture coordinate conversion processing means). A rotation matrix corresponding to the posture of the hand at each position is represented by the converted coordinates. That is, this rotation matrix is a three-dimensional coordinate value representing the normal vector n (X axis), the orientation vector o (Y axis), and the approach vector a (Z axis) that specify the hand posture on the base coordinates, respectively. Become. Further, a combination of each direction coordinate value of each teaching position and each direction posture coordinate value at the teaching position corresponds to the movement target position.
そして、教示位置を原点とするX,Y,Zの各軸方向に、任意の長さを伸ばして仮想した点を姿勢点(増幅X方向姿勢座標値,増幅Y方向姿勢座標値,増幅Z方向姿勢座標値)とする(ステップS13,姿勢ベクトル増幅処理手段)。すなわち、図4に示すように、教示姿勢を、教示位置(SC)を原点にして立つ方向ベクトルと考えれば、その方向ベクトルの3次元座標値(SN,SO,SA)を決定することで教示姿勢が特定される(ただし、図4では、SO,SAのみ図示)。尚、「任意の長さ」は教示姿勢を特定可能な長さであれば良いので、例えば上記座標系の単位ベクトルのn(>2)倍等とする。 Then, a virtual point obtained by extending an arbitrary length in each of the X, Y, and Z axes with the teaching position as the origin is a posture point (amplified X direction posture coordinate value, amplified Y direction posture coordinate value, amplified Z direction). Posture coordinate value) (step S13, posture vector amplification processing means). That is, as shown in FIG. 4, if the teaching posture is considered to be a direction vector standing with the teaching position (SC) as the origin, teaching is performed by determining the three-dimensional coordinate values (SN, SO, SA) of the direction vector. The posture is specified (however, only SO and SA are shown in FIG. 4). The “arbitrary length” may be any length that can specify the teaching posture, and is, for example, n (> 2) times the unit vector of the coordinate system.
ここで、回転行列を用いて表わされた姿勢を示す座標値は、ゼロに近い値となる。補間を行うための演算は、制御装置11に内蔵されるCPU31で行われるが、CPU31には計算限界桁があるので、最初からゼロに近い値を用いるとその計算限界桁を超えた部分に各教示点での姿勢に影響を与える値が存在することになる。しかし、CPU31の計算上ではその微妙な差が計算誤差として飲み込まれてしまうので、姿勢が滑らかに変化するように補間値を演算できなくなる。そこで、そのような事態を回避するためベクトルの長さをn倍して、CPU31の計算限界桁内で姿勢を滑らかに変化させるように演算するための値を取り込むようにする。
Here, the coordinate value indicating the posture represented by using the rotation matrix is a value close to zero. The calculation for performing the interpolation is performed by the
ステップS13の処理により、1つの教示姿勢について3つの姿勢点がそれぞれ3次元座標値として決定されるが、これらを「位置」と同様に扱うことで教示姿勢を補間することができる。すなわち、X,Y,Zそれぞれの姿勢点を,例えば上述した教示位置のようにスプライン曲線によって、滑らかな軌跡としてそれぞれ連結するように軌跡処理を行い補間する(ステップS14,増幅姿勢座標値連結処理手段)。 By the processing in step S13, three posture points for one teaching posture are determined as three-dimensional coordinate values, respectively, and the teaching posture can be interpolated by treating them in the same manner as the “position”. That is, trajectory processing is performed and interpolated so that the posture points of X, Y, and Z are respectively connected as smooth trajectories by a spline curve like the teaching position described above (step S14, amplified posture coordinate value connection processing). means).
ここで、図4は、教示位置並びに教示姿勢を補間する処理をイメージ的に示している。尚、図示が煩雑になるのを避けるため、上述のように姿勢点についてはY,Zの2軸分だけ示している。図4(a),(b)は、各教示位置を曲線補間した場合を示し、図4(c)は、各教示位置における教示姿勢についてY方向姿勢点及びZ方向姿勢点を決定した場合であり、各矢印がオリエントベクトル,アプローチベクトルに対応する。そして、図4(d)はY方向姿勢点を曲線補間した場合、図4(e)はZ方向姿勢点を曲線補間した場合である。また、図示しないX方向(ノーマルベクトルo)姿勢点についても同様に曲線補間する。 Here, FIG. 4 conceptually shows a process of interpolating the teaching position and the teaching posture. In order to avoid complication of the illustration, as described above, only the Y and Z axes are shown for the posture points. 4 (a) and 4 (b) show a case where each teaching position is subjected to curve interpolation, and FIG. 4 (c) shows a case where the Y direction posture point and the Z direction posture point are determined for the teaching posture at each teaching position. Yes, each arrow corresponds to an orientation vector and an approach vector. FIG. 4D shows a case where the Y-direction posture point is subjected to curve interpolation, and FIG. 4E shows a case where the Z-direction posture point is subjected to curve interpolation. In addition, curve interpolation is similarly performed for an X direction (normal vector o) posture point (not shown).
ステップS14では、X,Y,Zの各方向について姿勢点を独立に補間したが、これらの各方向の補間点については3次元座標の各軸に対応することから、互いの関係が正規直交条件を満たす必要がある。したがって、その条件を満たすように修正を行う(ステップS15)。以上で教示姿勢の補間処理が完了する。
それから、ステップS15で得た補間点を、ベースから見たツールの位置・姿勢となるように座標変換すると(ステップS16)、補間点を加えて得られた手先の軌道(X,Y,Z各方向姿勢点の軌道)を、各軸J1〜J6の角度に変換する(ステップS17,教示姿勢決定手段)。以上で姿勢の補間処理が終了する。
In step S14, the posture points are independently interpolated in each of the X, Y, and Z directions. However, since the interpolation points in these directions correspond to the respective axes of the three-dimensional coordinates, the relationship between them is an orthonormal condition. It is necessary to satisfy. Therefore, correction is performed so as to satisfy the condition (step S15). Thus, the teaching posture interpolation process is completed.
Then, when the coordinates of the interpolation point obtained in step S15 are transformed so as to be the position / orientation of the tool as viewed from the base (step S16), the trajectory of the hand (X, Y, Z each obtained by adding the interpolation point) The trajectory of the direction / posture point) is converted into an angle of each axis J1 to J6 (step S17, teaching posture determination means). This completes the posture interpolation process.
以上のように本実施例によれば、制御装置11は、ロボットアームの手先座標におけるカメラ21の視線に一致するアプローチベクトルaが、常に目標点である撮像対象物22の1点を向くようにティーチングを行う場合、手先の位置が教示されると、ロボット本体1のベース座標原点から目標点を示すベクトルBPWと、ベース座標原点から手先を示すベクトルBPTとからアプローチベクトルaを求める。また、オリエントベクトルoを決定するためそのノルムを「1.0」に決定し、その他の2つの座標値を正規直交条件に基づき決定すると、ノーマルベクトルoを、アプローチベクトルaとオリエントベクトルoとの外積で決定する。
As described above, according to the present embodiment, the
そして、教示点における手先の姿勢を示す回転行列BRTを、既知であるベース座標系に基づく手先座標系の姿勢を示す回転行列BRWと、ノーマル,オリエント,アプローチの各ベクトルで記述される回転行列TRWの逆行列とから求め、回転行列BRTで決まる手先の姿勢を、教示点における姿勢として自動的に設定する。 The rotation matrix B R T indicating the posture of the hand at the teaching point is described by the rotation matrix B R W indicating the posture of the hand coordinate system based on the known base coordinate system and the normal, orient, and approach vectors. obtained from the inverse matrix of that rotation matrix T R W, the attitude of the end determined by the rotation matrix B R T, automatically set as the posture at the teaching point.
すなわち、手先座標におけるアプローチベクトルaを常に目標点の方向に向かせるという状況下では、教示点におけるロボット本体1の手先の姿勢は計算により求められるので自動的に設定できる。したがって、作業者は、ベース座標系において各教示点の座標値を入力するだけで良く、各教示点について手先の姿勢を教示する必要が無くなり、作業時間を大きく短縮することができる。また、制御装置11は、2つの教示点の間を補間して1つ以上の補間点を決定すると、補間点についてもアプローチベクトルa,オリエントベクトルo,ノーマルベクトルnをそれぞれ決定して補間点における手先の姿勢を求めて手先の姿勢も自動的に設定するので、各補間点における手先の姿勢についても、カメラ21の視線が撮像対象物22を捉えるように設定できる。
That is, under the situation where the approach vector a in the hand coordinates is always directed toward the target point, the posture of the hand of the robot body 1 at the teaching point can be automatically set because it is obtained by calculation. Therefore, the operator only has to input the coordinate value of each teaching point in the base coordinate system, and it is not necessary to teach the posture of the hand at each teaching point, and the working time can be greatly shortened. In addition, when the
従来、手先の教示点毎に、位置を示す座標値を付与する作業と姿勢を付与する作業とが必要であったが、本実施例の方法,方式によれば「姿勢を付与する作業」が不要となるので、教示点毎に座標値を付与する作業と、撮像対象物22(ワーク)の座標を付与する作業だけとなる。「姿勢を付与する作業」が非常に煩雑であることを鑑みれば、実質的な作業量は1/2以下になると言って良い。 Conventionally, for each teaching point of the hand, a work for giving a coordinate value indicating a position and a work for giving a posture have been required. However, according to the method and method of this embodiment, the “work for giving a posture” Since it becomes unnecessary, only the work of assigning coordinate values for each teaching point and the work of assigning the coordinates of the imaging target 22 (workpiece) are performed. In view of the fact that the “work for imparting posture” is very complicated, it can be said that the substantial work amount is ½ or less.
(第2実施例)
図7及び図8は第2実施例であり、第1実施例と同一部分には同一符号を付して説明を省略し、以下異なる部分について説明する。第2実施例では、第1実施例とは異なる方法でアプローチベクトルaを決定する。すなわち、カメラ21の形状は既知であり、その形状より、カメラ21の外形において撮像面と平行になる平面は予め特定される。この平面に含まれる任意の異なる2つのベクトルを面ベクトルs1,s2とすると、法線ベクトルaは(7)式となる。
(Second embodiment)
7 and 8 show a second embodiment. The same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted, and different parts will be described below. In the second embodiment, the approach vector a is determined by a method different from that in the first embodiment. That is, the shape of the
図8に示すフローチャートでは、ステップS2に替わるステップS2’(第1ベクトル決定手段)において、(7)式によりアプローチベクトルaを決定すれば、後は第1実施例と全く同様にして手先の姿勢である回転行列BRTを計算できる。 In the flowchart shown in FIG. 8, in step S2 ′ (first vector determination means) instead of step S2, if the approach vector a is determined by equation (7), the posture of the hand is thereafter performed in exactly the same manner as in the first embodiment. A rotation matrix B R T can be calculated.
以上のように第2実施例によれば、手先の位置が教示されると、その教示点におけるカメラ21の撮像面と平行な平面内に存在する任意2つのベクトルs1,s2の外積で求められる、教示点に立つ法線ベクトルを手先座標のアプローチベクトルaとして決定する。そして、オリエントベクトルo,ノーマルベクトルnについては第1実施例と同様にして決定し、教示点における手先の姿勢を自動的に設定するようにした。すなわち、教示点におけるロボット本体1の手先の姿勢は、やはり計算により求めることが可能であるから自動的に設定できる。したがって、作業者は、第1実施例と同様に各教示点について手先の姿勢を教示する必要が無くなり、作業時間を大きく短縮することができる。
As described above, according to the second embodiment, when the position of the hand is taught, it is obtained by the outer product of any two vectors s1 and s2 existing in a plane parallel to the imaging surface of the
本発明は上記し、又は図面に記載した実施例にのみ限定されるものではなく、以下のような変型又は拡張が可能である。
第2ベクトルとしてノーマルベクトルnを先に計算し、第3ベクトルとしてオリエントベクトルoを、アプローチベクトルaとノーマルベクトルnとの外積により計算しても良い。
6軸ロボットに限ることなく、その他の多軸ロボットについても適用可能である。
The present invention is not limited to the embodiments described above or shown in the drawings, but can be modified or expanded as follows.
The normal vector n may be calculated first as the second vector, and the orientation vector o may be calculated as the third vector by the outer product of the approach vector a and the normal vector n.
The present invention is not limited to a 6-axis robot, and can be applied to other multi-axis robots.
図面中、1はロボット本体、11は制御装置(第1〜第3ベクトル決定手段,手先姿勢決定手段,教示姿勢設定手段,補間手段)、21はカメラを示す。 In the drawings, 1 is a robot body, 11 is a control device (first to third vector determining means, hand posture determining means, teaching posture setting means, interpolation means), and 21 is a camera.
Claims (6)
前記手先の位置が教示されると、前記ロボットの基底座標原点から前記目標点を示すベクトルと、前記基底座標原点から前記手先(教示点)を示すベクトルとから前記アプローチベクトルを求める第1ベクトル決定手段と、
前記手先座標のオリエントベクトル,ノーマルベクトルの一方を第2ベクトルとして決定するため、前記第2ベクトルのノルムを「1.0」に設定し、前記第2ベクトルの座標値を正規直交条件に基づいて決定する第2ベクトル決定手段と、
前記オリエントベクトル,前記ノーマルベクトルの他方である第3ベクトルを、前記アプローチベクトルと前記第2ベクトルとの外積で決定する第3ベクトル決定手段と、
前記教示点における手先の姿勢を、前記基底座標系に基づく前記手先座標系の姿勢を示す回転行列と、前記ノーマル,オリエント,アプローチの各ベクトルによって記述される回転行列の逆行列とから求める手先姿勢決定手段と、
前記手先姿勢決定手段により決定された手先の姿勢を、前記教示点における姿勢として自動的に設定する教示姿勢設定手段とを備えたことを特徴とするロボットの制御装置。 In order to image a workpiece with a camera attached to the hand of the robot, when teaching the motion trajectory of a vertical articulated robot so that the approach vector in the hand coordinates always points to the target point,
When the position of the hand is taught, a first vector determination for determining the approach vector from a vector indicating the target point from the base coordinate origin of the robot and a vector indicating the hand (teaching point) from the base coordinate origin Means,
In order to determine one of the orientation vector and the normal vector of the hand coordinates as the second vector, the norm of the second vector is set to “1.0”, and the coordinate value of the second vector is set based on the orthonormal condition. Second vector determining means for determining;
Third vector determining means for determining a third vector, which is the other of the orientation vector and the normal vector, by an outer product of the approach vector and the second vector;
The hand posture determined from the rotation matrix indicating the posture of the hand coordinate system based on the base coordinate system and the inverse matrix of the rotation matrix described by the normal, orient, and approach vectors based on the base coordinate system. A determination means;
A robot control apparatus comprising teaching posture setting means for automatically setting the hand posture determined by the hand posture determination means as the posture at the teaching point.
前記手先の位置が教示されると、その教示点における前記カメラの撮像面と平行な平面内に存在する任意の2つのベクトルの外積で求められる、前記教示点に立つ法線ベクトルを前記手先座標のアプローチベクトルとして決定する第1ベクトル決定手段と、
前記手先座標のオリエントベクトル,ノーマルベクトルの一方を第2ベクトルとして決定するため、前記第2ベクトルのノルムを「1.0」に設定し、前記第2ベクトルの座標値を正規直交条件に基づいて決定する第2ベクトル決定手段と、
前記オリエントベクトル,前記ノーマルベクトルの他方である第3ベクトルを、前記アプローチベクトルと前記第2ベクトルとの外積で決定する第3ベクトル決定手段と、
前記教示点における手先の姿勢を、前記基底座標系に基づく前記手先座標系の姿勢を示す回転行列と、前記ノーマル,オリエント,アプローチの各ベクトルによって記述される回転行列の逆行列とから求める手先姿勢決定手段と、
前記手先姿勢決定手段により決定された手先の姿勢を、前記教示点における姿勢として自動的に設定する教示姿勢設定手段とを備えたことを特徴とするロボットの制御装置。 In order to image a workpiece with a camera attached to the hand of the robot, when teaching the motion trajectory of a vertical articulated robot so that the approach vector in the hand coordinates always points to the target point,
When the position of the hand is taught, a normal vector standing at the teaching point, which is obtained by the outer product of any two vectors existing in a plane parallel to the imaging surface of the camera at the teaching point, is determined as the hand coordinates. First vector determining means for determining as an approach vector of
In order to determine one of the orientation vector and the normal vector of the hand coordinates as the second vector, the norm of the second vector is set to “1.0”, and the coordinate value of the second vector is set based on the orthonormal condition. Second vector determining means for determining;
Third vector determining means for determining a third vector, which is the other of the orientation vector and the normal vector, by an outer product of the approach vector and the second vector;
The hand posture determined from the rotation matrix indicating the posture of the hand coordinate system based on the base coordinate system and the inverse matrix of the rotation matrix described by the normal, orient, and approach vectors based on the base coordinate system. A determination means;
A robot control apparatus comprising teaching posture setting means for automatically setting the hand posture determined by the hand posture determination means as the posture at the teaching point.
前記第1〜第3ベクトル決定手段は、前記補間点についても前記アプローチベクトル,前記第2ベクトル,前記第3ベクトルをそれぞれ決定し、
前記手先姿勢決定手段は、前記補間点における手先の姿勢も求めることを特徴とする請求項1又は2記載のロボットの制御装置。 Interpolating means for interpolating between two teaching points to determine one or more interpolation points;
The first to third vector determining means determine the approach vector, the second vector, and the third vector for the interpolation point, respectively.
The robot control apparatus according to claim 1, wherein the hand posture determination unit also obtains a hand posture at the interpolation point.
前記手先の位置が教示されると、前記ロボットの基底座標原点から前記目標点を示すベクトルと、前記基底座標原点から前記手先(教示点)を示すベクトルとから前記アプローチベクトルを求め、
前記手先座標のオリエントベクトル,ノーマルベクトルの一方を第2ベクトルとして決定するため、前記第2ベクトルのノルムを「1.0」に設定し、前記第2ベクトルの座標値を正規直交条件に基づいて決定し、
前記オリエントベクトル,前記ノーマルベクトルの他方である第3ベクトルを、前記アプローチベクトルと前記第2ベクトルとの外積で決定し、
前記教示点における手先の姿勢を、前記基底座標系に基づく前記手先座標系の姿勢を示す回転行列と、前記ノーマル,オリエント,アプローチの各ベクトルによって記述される回転行列の逆行列とから求め、
前記決定された手先の姿勢を、前記教示点における姿勢として自動的に設定することを特徴とするロボットの姿勢決定方法。 In order to image a workpiece with a camera attached to the hand of the robot, when teaching the motion trajectory of a vertical articulated robot so that the approach vector in the hand coordinates always points to the target point,
When the position of the hand is taught, the approach vector is obtained from a vector indicating the target point from the base coordinate origin of the robot and a vector indicating the hand (teaching point) from the base coordinate origin.
In order to determine one of the orientation vector and the normal vector of the hand coordinates as the second vector, the norm of the second vector is set to “1.0”, and the coordinate value of the second vector is set based on the orthonormal condition. Decide
A third vector that is the other of the orientation vector and the normal vector is determined by an outer product of the approach vector and the second vector;
Obtaining the posture of the hand at the teaching point from a rotation matrix indicating the posture of the hand coordinate system based on the base coordinate system and an inverse matrix of a rotation matrix described by the normal, orientation, and approach vectors,
A robot posture determination method, wherein the determined posture of the hand is automatically set as a posture at the teaching point.
前記手先の位置が教示されると、その教示点における前記カメラのの撮像面と平行な平面内に存在する任意の2つのベクトルの外積で求められる、前記教示点に立つ法線ベクトルを前記手先座標のアプローチベクトルとして決定し、
前記手先座標のオリエントベクトル,ノーマルベクトルの一方を第2ベクトルとして決定するため、前記第2ベクトルのノルムを「1.0」に設定し、前記第2ベクトルの座標値を正規直交条件に基づいて決定し、
前記オリエントベクトル,前記ノーマルベクトルの他方である第3ベクトルを、前記アプローチベクトルと前記第2ベクトルとの外積で決定し、
前記教示点における手先の姿勢を、前記基底座標系に基づく前記手先座標系の姿勢を示す回転行列と、前記ノーマル,オリエント,アプローチの各ベクトルによって記述される回転行列の逆行列とから求め、
前記決定された手先の姿勢を、前記教示点における姿勢として自動的に設定することを特徴とするロボットの姿勢決定方法。 In order to image a workpiece with a camera attached to the hand of the robot, when teaching the motion trajectory of a vertical articulated robot so that the approach vector in the hand coordinates always points to the target point,
When the position of the hand is taught, a normal vector standing at the teaching point, which is obtained by the outer product of any two vectors existing in a plane parallel to the imaging surface of the camera at the teaching point, is determined as the hand. Determined as the coordinate approach vector,
In order to determine one of the orientation vector and the normal vector of the hand coordinates as the second vector, the norm of the second vector is set to “1.0”, and the coordinate value of the second vector is set based on the orthonormal condition. Decide
A third vector that is the other of the orientation vector and the normal vector is determined by an outer product of the approach vector and the second vector;
Obtaining the posture of the hand at the teaching point from a rotation matrix indicating the posture of the hand coordinate system based on the base coordinate system and an inverse matrix of a rotation matrix described by the normal, orientation, and approach vectors,
A robot posture determination method, wherein the determined posture of the hand is automatically set as a posture at the teaching point.
前記補間点についても前記アプローチベクトル,前記第2ベクトル,前記第3ベクトルをそれぞれ決定し、
前記補間点における手先の姿勢も求めることを特徴とする請求項4又は5記載のロボットの姿勢決定方法。 When one or more interpolation points are determined by interpolating between two teaching points,
For the interpolation point, the approach vector, the second vector, and the third vector are respectively determined.
6. The robot posture determination method according to claim 4, wherein the posture of the hand at the interpolation point is also obtained.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011187343A JP2013049102A (en) | 2011-08-30 | 2011-08-30 | Robot control device and method of determining robot attitude |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011187343A JP2013049102A (en) | 2011-08-30 | 2011-08-30 | Robot control device and method of determining robot attitude |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013049102A true JP2013049102A (en) | 2013-03-14 |
Family
ID=48011612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011187343A Withdrawn JP2013049102A (en) | 2011-08-30 | 2011-08-30 | Robot control device and method of determining robot attitude |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013049102A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014208400A (en) * | 2014-06-10 | 2014-11-06 | 株式会社デンソーウェーブ | Robot controller and robot attitude interpolation method |
JP2015178157A (en) * | 2014-03-19 | 2015-10-08 | 株式会社デンソーウェーブ | Robot control method and robot control device |
JP2015178158A (en) * | 2014-03-19 | 2015-10-08 | 株式会社デンソーウェーブ | Robot control method and robot control device |
JP2015182147A (en) * | 2014-03-20 | 2015-10-22 | 株式会社デンソーウェーブ | Robot control method and robot control apparatus |
CN106272444A (en) * | 2016-08-31 | 2017-01-04 | 山东中清智能科技有限公司 | A kind of realize trick relation and method that dual robot relation is demarcated simultaneously |
JP2020075325A (en) * | 2018-11-08 | 2020-05-21 | 株式会社Ihi | Tool center point setting method and setting device |
CN112971993A (en) * | 2016-08-16 | 2021-06-18 | 株式会社高迎科技 | Surgical robot system for positioning operation and control method thereof |
KR20220043992A (en) | 2020-09-28 | 2022-04-06 | 손태원 | Hydro-responsive Biofoam Comprising Chitosan Organolytes |
CN114612939A (en) * | 2022-03-25 | 2022-06-10 | 珠海视熙科技有限公司 | Sitting posture identification method and device based on TOF camera and intelligent desk lamp |
US11738469B2 (en) | 2018-10-30 | 2023-08-29 | Seiko Epson Corporation | Control apparatus, robot system, and control method |
CN117838311A (en) * | 2024-03-07 | 2024-04-09 | 杭州海沛仪器有限公司 | Target spot ablation respiration gating method and system based on optical positioning |
-
2011
- 2011-08-30 JP JP2011187343A patent/JP2013049102A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015178157A (en) * | 2014-03-19 | 2015-10-08 | 株式会社デンソーウェーブ | Robot control method and robot control device |
JP2015178158A (en) * | 2014-03-19 | 2015-10-08 | 株式会社デンソーウェーブ | Robot control method and robot control device |
JP2015182147A (en) * | 2014-03-20 | 2015-10-22 | 株式会社デンソーウェーブ | Robot control method and robot control apparatus |
JP2014208400A (en) * | 2014-06-10 | 2014-11-06 | 株式会社デンソーウェーブ | Robot controller and robot attitude interpolation method |
CN112971993A (en) * | 2016-08-16 | 2021-06-18 | 株式会社高迎科技 | Surgical robot system for positioning operation and control method thereof |
CN106272444A (en) * | 2016-08-31 | 2017-01-04 | 山东中清智能科技有限公司 | A kind of realize trick relation and method that dual robot relation is demarcated simultaneously |
CN106272444B (en) * | 2016-08-31 | 2018-11-13 | 山东中清智能科技股份有限公司 | A method of realizing that trick relationship and dual robot relationship are demarcated simultaneously |
US11738469B2 (en) | 2018-10-30 | 2023-08-29 | Seiko Epson Corporation | Control apparatus, robot system, and control method |
JP2020075325A (en) * | 2018-11-08 | 2020-05-21 | 株式会社Ihi | Tool center point setting method and setting device |
JP7172466B2 (en) | 2018-11-08 | 2022-11-16 | 株式会社Ihi | Tool center point setting method and setting device |
KR20220043992A (en) | 2020-09-28 | 2022-04-06 | 손태원 | Hydro-responsive Biofoam Comprising Chitosan Organolytes |
CN114612939A (en) * | 2022-03-25 | 2022-06-10 | 珠海视熙科技有限公司 | Sitting posture identification method and device based on TOF camera and intelligent desk lamp |
CN114612939B (en) * | 2022-03-25 | 2023-01-10 | 珠海视熙科技有限公司 | Sitting posture identification method and device based on TOF camera and intelligent desk lamp |
CN117838311A (en) * | 2024-03-07 | 2024-04-09 | 杭州海沛仪器有限公司 | Target spot ablation respiration gating method and system based on optical positioning |
CN117838311B (en) * | 2024-03-07 | 2024-05-31 | 杭州海沛仪器有限公司 | Target spot ablation respiratory gating system based on optical positioning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013049102A (en) | Robot control device and method of determining robot attitude | |
JP7490349B2 (en) | Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium | |
EP3342550B1 (en) | Manipulator system | |
CN107717981B (en) | Control device of mechanical arm and teaching system and method thereof | |
JP4167940B2 (en) | Robot system | |
JP6445092B2 (en) | Robot system displaying information for teaching robots | |
US9193072B2 (en) | Robot and control method thereof | |
JP6361213B2 (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
JP5729226B2 (en) | Robot position and orientation interpolation method and robot control apparatus | |
JP7190552B1 (en) | Robot teaching system | |
JP2016198828A (en) | Robot control method, robot apparatus, program, and recording medium | |
JP6897396B2 (en) | Control devices, robot systems and control methods | |
JP2018167334A (en) | Teaching device and teaching method | |
JP5108032B2 (en) | Multi-joint structure teaching device | |
JP5948914B2 (en) | Robot control apparatus, robot control method, robot control program, and robot system | |
JP2014208400A (en) | Robot controller and robot attitude interpolation method | |
JP2012135835A (en) | Robot control device, and robot posture interpolation method | |
JP2020171989A (en) | Robot teaching system | |
JP2011041990A (en) | Robot control apparatus and method of teaching robot | |
JP2017124468A (en) | Method of controlling robot, method of manufacturing component, robot device, program, and recording medium | |
JP2011083883A (en) | Robot device | |
JP3884249B2 (en) | Teaching system for humanoid hand robot | |
JP2011224745A (en) | Robot teaching device and controller for the same, and program | |
WO2023013740A1 (en) | Robot control device, robot control system, and robot control method | |
JPH05337860A (en) | Robot hand teaching device and robot hand |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |