JPH03141408A - Back-up method for remote control of robot - Google Patents
Back-up method for remote control of robotInfo
- Publication number
- JPH03141408A JPH03141408A JP28029289A JP28029289A JPH03141408A JP H03141408 A JPH03141408 A JP H03141408A JP 28029289 A JP28029289 A JP 28029289A JP 28029289 A JP28029289 A JP 28029289A JP H03141408 A JPH03141408 A JP H03141408A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- subject
- distance
- color
- monitor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Control Of Position Or Direction (AREA)
Abstract
Description
【発明の詳細な説明】
〔発明の概要〕
オペレータがロボットの遠隔操作を容易にできるように
する支援方法に関し、
二次元画面でありながら遠近情報も得られるようにして
、モニタ1つに集中してロボット操作を容易に行なえる
ようにすることを目的とし、ロボットシミュレータのモ
ニタに映し出される二次元映像中の対象物体に着色し、
該二次元映像では表示されない奥行き方向の該対象物体
とロボットハンド間距離に応じてその色を変化させるよ
う構成する。[Detailed Description of the Invention] [Summary of the Invention] Regarding a support method that allows an operator to easily remotely control a robot, the present invention relates to a support method that allows an operator to easily remotely control a robot. The aim is to make it easier to operate the robot by coloring the target object in the two-dimensional image displayed on the robot simulator monitor.
The color is configured to change depending on the distance between the target object and the robot hand in the depth direction, which is not displayed in the two-dimensional image.
本発明は、オペレータがロボットの遠隔操作を容易にで
きるようにする支援方法に関する。The present invention relates to a support method that allows an operator to easily remotely control a robot.
遠隔地にある作業ロボットに対しては、それをモニタに
映し出し、オペレータがモニタ画面を見ながらコントロ
ーラを操作し、ひいては作業ロボットを操作するという
方法がとられる。For a working robot located in a remote location, a method is used in which the image is displayed on a monitor, and the operator operates the controller while looking at the monitor screen, and in turn operates the working robot.
〔従来の技術]
ロボットの遠隔操作は原子炉内など作業者が入れない又
は入るのが困難な場所にある作業ロボットを、それより
離れて操作するのに用いられる。[Prior Art] Remote control of a robot is used to operate a working robot from a distance, such as in a nuclear reactor, in a place where workers cannot or cannot enter.
作業ロボットが宇宙などにある場合、ロボット遠隔操作
は無線通信を介して行なわれることになり、その通信距
離が長大な場合はデータ伝送に時間がか\す、モニタ画
面のロボット像はオペレータが操作したのち時間を置い
て当該移動を行なうことになり、操作が難しくなる。When a working robot is in space, remote control of the robot is performed via wireless communication, and if the communication distance is long, data transmission takes time.The robot image on the monitor screen is controlled by the operator. After that, the movement has to be performed after a certain period of time, which makes the operation difficult.
この問題の解決法として、ロボットシミュレータがある
。これはモニタ画面に、遠隔点の作業ロボットの映像と
共に、オペレータの操作量から算出した予測シミュレー
タ像を表示する。これは遅れがないので、該モニタ画面
に表示されている作業対象物に対するロボット操作が容
易になる。作業ロボットの映像は、伝送遅延後に移動し
て予測シミュレータ像に重なり、それ迄はずれた二重像
になっている。Robot simulators are a solution to this problem. This displays a predicted simulator image calculated from the operator's operation amount on the monitor screen together with an image of the working robot at a remote point. Since there is no delay, the robot can easily operate the work object displayed on the monitor screen. After the transmission delay, the working robot's image moves and overlaps the prediction simulator image, creating a double image that is out of alignment.
ロボットの作業空間は三次元であるが、通常のCRTの
管面などのモニタ画面は二次元で、深さの情報がない。A robot's work space is three-dimensional, but a monitor screen such as a normal CRT screen is two-dimensional and does not have depth information.
この点は、モニタ画面がテレビカメラの映像出力を表示
したものか、シミユレータの出力を表示したものかを問
わない。これに対しては立体視技術があるが、現在の立
体視技術で長時間作業を行なうと目が疲れる。またモニ
タ画面を複数並置して、異なった方向から撮った映像を
これらの画面に映し出し、オペレータはこれらのモニタ
画面を交互に見ながら操作するという方法もあるが、こ
れは−点に集中して操作を行なうことができない。This point applies regardless of whether the monitor screen displays the video output of a television camera or the output of a simulator. Stereoscopic technology is available for this purpose, but working for long periods of time with current stereoscopic viewing technology causes eyestrain. There is also a method in which multiple monitor screens are placed side by side, images taken from different directions are displayed on these screens, and the operator operates while viewing these monitor screens alternately. Unable to perform operations.
本発明はか\る点を改善し、二次元画面でありながら遠
近情報も得られるようにして、モニタ1つに集中してロ
ボット操作を容易に行なえるようにすることを目的とす
るものである。The purpose of the present invention is to improve the above points, to make it possible to obtain perspective information even though it is a two-dimensional screen, and to make it easier to operate the robot by concentrating on one monitor. be.
第1図に示すように本発明では、ロボットシミュレータ
のモニタに映し出される二次元映像中の対象物体Aに着
色(斜線で示す)する。そしてこの二次元映像では表示
されない奥行き方向の該対象物体AとロボットハンドB
との間の距離に応じてその色を変化させる。As shown in FIG. 1, in the present invention, a target object A in a two-dimensional image displayed on a monitor of a robot simulator is colored (indicated by diagonal lines). Then, the target object A and the robot hand B in the depth direction that are not displayed in this two-dimensional image
The color changes depending on the distance between the two.
このように、モニタ上の、作業ロボットの作業対象物体
に色を着け、その色を、モニタ上には現れない深さ方向
におけるロボットハンドと対象物体との間の距離に応じ
て変えると、オペレータは該深さ方向の距離を知って安
全、確実な遠隔操作を行なうことができる。着色する対
象物体はシミュレータ画像とすると、これは作業ロボッ
トが超遠隔点にあっても遅れがないから、距離感の付与
で操作性が一層向上する。In this way, if the object to be worked by the robot is colored on the monitor and the color is changed according to the distance between the robot hand and the object in the depth direction, which does not appear on the monitor, the operator can By knowing the distance in the depth direction, safe and reliable remote control can be performed. If the object to be colored is a simulator image, there will be no delay even when the work robot is located at an extremely remote point, so the sense of distance will be given, further improving operability.
対象物体に着ける色は、最初(距離大)は緑、中間で橙
、距離零近傍で赤などとしてもいが、簡単には対象物体
の本来の色の濃度を変えるのがよく、これなら画素デー
タの演算処理で色の変更が可能になる。The color applied to the target object can be green at first (at a large distance), orange at intermediate distances, and red at near zero distance, but it is better to simply change the density of the original color of the target object, and in this case, the pixel data The color can be changed using the calculation process.
本発明の実施例を、図面を参照して説明する。 Embodiments of the present invention will be described with reference to the drawings.
第1図はモニタ画面を示し、Aは対象物体、Bはロボッ
トハンドである。対象物体Aは、遠隔点にある作業ロボ
ットが操作しようとしている物体をテレビカメラで撮像
し、ビデオ信号をオペレータ側へ伝送し、モニタ画面に
表示したものである。FIG. 1 shows a monitor screen, where A is a target object and B is a robot hand. Target object A is an object that a working robot at a remote point is attempting to operate, which is imaged by a television camera, a video signal is transmitted to the operator, and displayed on a monitor screen.
ロボットハンドBは、予測シミュレータ像で、既知であ
るロボットハンドの形状、サイズデータに対して、オペ
レータが施した操作データを加えて画像表示したもので
ある。(a)〜(d)いずれも平面図であり、これらを
斜視図で示すと第2図(a)〜(d)になる。即ち、(
a)はロボットハンドBと対象物体Aが離れている状態
、し)はやはり離れてはいるが上下方向では整列した状
態、(C)は対象物体の把持部(ハンドで把持しようと
している部分)とロボットハンドが上下方向で一致した
状態、(d)はロボットハンドの指を左右から接近させ
て把持部を把持した状態を示す。The robot hand B is a predicted simulator image, which is an image displaying the known shape and size data of the robot hand with operation data performed by the operator added thereto. (a) to (d) are all plan views, and when these are shown in perspective views, they become FIGS. 2(a) to (d). That is, (
a) is a state in which robot hand B and target object A are separated, c) is a state in which they are still separated but aligned in the vertical direction, and (C) is a grasping part of the target object (the part that the hand is trying to grasp) (d) shows a state in which the robot hands are aligned in the vertical direction, and (d) shows a state in which the fingers of the robot hand approach from the left and right to grip the gripping section.
第1図に示されるようにモニタ画面は二次元画面本例で
は平面図であるため、深さ(上下)方向の情報が表示さ
れない。そこで対象物体の把持部がロボットハンドの指
部の間にくるようにするのは容易であが、上下方向で指
部を把持部と一致させるのは容易でない。As shown in FIG. 1, the monitor screen is a two-dimensional screen in this example, which is a plan view, so information in the depth (up and down) direction is not displayed. Therefore, it is easy to make the gripping part of the target object come between the fingers of the robot hand, but it is not easy to make the fingers coincide with the gripping part in the vertical direction.
そこで本発明では、対象物体の把持部のモニタ画面に現
われる面A、に着色し、この色は指部B1、。Therefore, in the present invention, the surface A that appears on the monitor screen of the gripping part of the target object is colored, and this color is the finger part B1.
B2の接近の程度により変える。例えば最初(離れてい
る状態)は濃い色例えば対象物体本来の色とし、接近す
るにつれてその色を薄くする(まっ白にする)。It changes depending on the degree of approach of B2. For example, at first (when the object is far away) it is dark, for example, the original color of the target object, and as it approaches, the color becomes lighter (to pure white).
色の濃淡は1画素を複数ビットで表わすことにより表現
でき、それを薄くする処理は当該画素データを除/減算
することにより可能である。モニタ画面に表われる把持
部(被操作部)の面は第2図(a)に示すように、平面
図ならAI、正面図ならAz、側面図ならA、である。The shade of color can be expressed by representing one pixel with a plurality of bits, and the process of making it lighter is possible by dividing/subtracting the pixel data. As shown in FIG. 2(a), the surface of the gripping portion (operated portion) displayed on the monitor screen is AI in a plan view, Az in a front view, and A in a side view.
例えばCRTデイスプレィの画面メモリ(VRAMなど
とも呼ばれる)の面A、〜A、に対する着色処理、その
読出しデータに対する距離データに応じた演算処理で、
把持部の着色、距離に応じたそのフェイディングが可能
である。For example, by coloring the surfaces A and ~A of the screen memory (also called VRAM, etc.) of a CRT display, and by calculating the read data according to the distance data,
It is possible to color the grip and fade it depending on the distance.
第3図に作業の流れ図を示す。ロボット遠隔操作に当っ
ては先ず■ロボットとその作業環境をモニタ画面に表示
し、作業者はこれを見ながらコントローラを操作して、
■ロボットの遠隔操作を行なう。この遠隔操作量と作業
ロボットの位置データ■とからシミュレータはロボット
ハンドの指部と対象物体の把持部との距離(平面図なら
、この図には現れない深さ方向での距離)を計算し、該
距離が十分あれば(設定値以上であれば)、該把持部の
モニタに表示される面に濃い色を着色する。Figure 3 shows the work flow chart. When remotely controlling a robot, first the robot and its working environment are displayed on a monitor screen, and the worker operates the controller while viewing this.
■Perform remote control of the robot. From this remote control amount and the position data of the work robot, the simulator calculates the distance between the fingers of the robot hand and the grasping part of the target object (in the case of a plan view, the distance in the depth direction that does not appear in this figure). , if the distance is sufficient (if it is greater than or equal to the set value), the surface of the gripper displayed on the monitor is colored in a dark color.
そして該距離の変化を監視し■、その変化に応じて該表
示面の色を変える本例では近づ(程グラデーション風に
色を薄<シて行く。Then, changes in the distance are monitored (1), and the color of the display surface is changed according to the change.In this example, as the distance approaches, the color becomes lighter in a gradation style.
第4図にロボット遠隔操作システムの概要を示す。10
は遠隔地に置かれる作業ロボット、12はその制御装置
である。作業ロボットとその作業環境がテレビカメラで
撮像され、ロボット各部に取付けたセンサなどにより検
出されたロボット位置データと共にオペレータ側に伝送
される。Figure 4 shows an overview of the robot remote control system. 10
1 is a working robot located at a remote location, and 12 is its control device. The working robot and its working environment are captured by a television camera and transmitted to the operator along with robot position data detected by sensors attached to various parts of the robot.
オペレータ側にはカメラ画像を表示するモニタ14とシ
ミュレータ画像を表示するモニタ16がある。送られて
きたロボットの位置データはシミュレータ制御装置22
に入り、作業ロボットと対象物体の形状、構造等に関す
る各種データをも用いてシミュレータ制御装置22はシ
ミュレータ画像16を演算し、これをモニタに表示する
。送られてきたテレビカメラの映像信号はモニタに表示
されてカメラ画像になる。カメラ画像とシミュレータ画
像は本例では別個に表示されるが、これらは重ねて表示
してもよい。On the operator side, there is a monitor 14 that displays camera images and a monitor 16 that displays simulator images. The sent robot position data is sent to the simulator control device 22.
The simulator control device 22 calculates the simulator image 16 using various data regarding the shape, structure, etc. of the working robot and the target object, and displays it on the monitor. The video signal sent from the television camera is displayed on the monitor and becomes a camera image. Although the camera image and the simulator image are displayed separately in this example, they may be displayed overlappingly.
操作者20はこれらの画像を見ながら、ロボット操縦装
置(コントローラ)18を操作して、作業ロボットを遠
隔操作する。ロボット操縦装置の操作でシミュレータ画
像は直ちに変化するが、カメラ画像は遅れて変化する。The operator 20 operates the robot operating device (controller) 18 while viewing these images to remotely control the working robot. The simulator image changes immediately when the robot control device is operated, but the camera image changes with a delay.
シミュレータは対象物の位置や大きさの情報を持ってお
り、そこへロボットの位置などの情報を取込むと、対象
物とロボットの距離をつかむことができる。この距離に
応じて対象物の色を変化させる。The simulator has information on the position and size of the object, and by incorporating information such as the robot's position into it, it is possible to determine the distance between the object and the robot. The color of the object changes depending on this distance.
きい。Hey.
第1図は本発明の遠隔操作支援方法の説明図、第2図は
第1図の斜視図、
第3図はロボット作業の流れ図、
第4図はロボット遠隔操作システムの概要を示すブロッ
ク図である。
第1図でAは対象物体、A、は着色された面、Bはロボ
ットハンドである。Fig. 1 is an explanatory diagram of the remote operation support method of the present invention, Fig. 2 is a perspective view of Fig. 1, Fig. 3 is a flow chart of robot work, and Fig. 4 is a block diagram showing an overview of the robot remote control system. be. In FIG. 1, A is a target object, A is a colored surface, and B is a robot hand.
Claims (1)
元映像中の対象物体(A)に着色し、該二次元映像では
表示されない奥行き方向の該対象物体とロボットハンド
(B)間距離に応じてその色を変化させることを特徴と
するロボットの遠隔操作支援方法。1. Color the target object (A) in the two-dimensional image displayed on the monitor of the robot simulator, and change the color according to the distance between the target object and the robot hand (B) in the depth direction, which is not displayed in the two-dimensional image. A remote control support method for a robot characterized by changing the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28029289A JPH03141408A (en) | 1989-10-27 | 1989-10-27 | Back-up method for remote control of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28029289A JPH03141408A (en) | 1989-10-27 | 1989-10-27 | Back-up method for remote control of robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03141408A true JPH03141408A (en) | 1991-06-17 |
Family
ID=17622954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28029289A Pending JPH03141408A (en) | 1989-10-27 | 1989-10-27 | Back-up method for remote control of robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03141408A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1037030C (en) * | 1993-09-01 | 1998-01-14 | 夏普公司 | Liquid crystal display device |
-
1989
- 1989-10-27 JP JP28029289A patent/JPH03141408A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1037030C (en) * | 1993-09-01 | 1998-01-14 | 夏普公司 | Liquid crystal display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bejczy et al. | The phantom robot: predictive displays for teleoperation with time delay | |
US5368428A (en) | Apparatus and method for producing a video display | |
US9415509B2 (en) | Robot teach device with 3-D display | |
EP0278421B1 (en) | Instruction system of remote-control robot | |
EP3950558A1 (en) | Remote control device for crane, construction machine and industrial truck | |
US7782320B2 (en) | Information processing method and information processing apparatus | |
EP1768097A1 (en) | Image display system, image display method, and image display program | |
Baldwin et al. | Panoramic video with predictive windows for telepresence applications | |
Bejczy et al. | Role of computer graphics in space telerobotics: Preview and predictive displays | |
JPH0414086A (en) | Stereoscopic display device | |
JPH03141408A (en) | Back-up method for remote control of robot | |
JPH0386484A (en) | robot remote control device | |
EP3408210B1 (en) | Remote-control device for a crane, construction machine, and/or industrial truck | |
JPS5916912B2 (en) | Idohou Koukiyoujisouchi | |
JP7699151B2 (en) | Control and operating system for working on track with a track-laying machine | |
JPH08161031A (en) | Monitor and control system | |
JPH0628452A (en) | Three-dimensional image processor | |
KR100362383B1 (en) | Post-processing method for motion captured data using 3D interface | |
Yamada et al. | Construction Tele-Robotic System with Virtual Reality (CG presentation of virtual robot and task object using stereo vision system) | |
JP2002133447A (en) | Static image display system and electronic commodity catalog display system | |
Huang et al. | Teleoperate system of underwater cleaning robot based on HUD | |
JPH11175758A (en) | Method and device for stereoscopic display | |
JPH06203119A (en) | Color image processor | |
JP2003006677A (en) | Three-dimensional computer graphics shape input / edit device and method | |
JPH06274598A (en) | Three-dimensional visual point parameter designating device |