[go: up one dir, main page]

JP7122863B2 - Image display device, image display method and remote control system - Google Patents

Image display device, image display method and remote control system Download PDF

Info

Publication number
JP7122863B2
JP7122863B2 JP2018093244A JP2018093244A JP7122863B2 JP 7122863 B2 JP7122863 B2 JP 7122863B2 JP 2018093244 A JP2018093244 A JP 2018093244A JP 2018093244 A JP2018093244 A JP 2018093244A JP 7122863 B2 JP7122863 B2 JP 7122863B2
Authority
JP
Japan
Prior art keywords
display
image data
horizontal plane
index
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018093244A
Other languages
Japanese (ja)
Other versions
JP2019198905A (en
Inventor
伸也 岡本
浩明 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Aerospace Co Ltd
Original Assignee
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Aerospace Co Ltd filed Critical IHI Aerospace Co Ltd
Priority to JP2018093244A priority Critical patent/JP7122863B2/en
Publication of JP2019198905A publication Critical patent/JP2019198905A/en
Application granted granted Critical
Publication of JP7122863B2 publication Critical patent/JP7122863B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Component Parts Of Construction Machinery (AREA)
  • Manipulator (AREA)

Description

本発明は、移動ロボットに設けられ対象物を把持して持ち上げる持上機構(例えばロボットアームを用いた機構)を、人が遠隔操縦する際に人が参照するための画像データを表示する画像表示装置と画像表示方法に関する。また、本発明は、当該画像表示装置と、移動ロボットと、移動ロボットの持上機構を遠隔操縦するために人に操作される操作装置とを備える遠隔操縦システムに関する。 The present invention provides an image display that displays image data for a person to refer to when remotely controlling a lifting mechanism (for example, a mechanism using a robot arm) that is provided in a mobile robot and holds and lifts an object. It relates to an apparatus and an image display method. The present invention also relates to a remote control system including the image display device, a mobile robot, and an operating device operated by a person to remotely control a lifting mechanism of the mobile robot.

対象物が地表面または他の箇所に置かれている場合に、移動ロボットを用いて、次のように対象物を把持して別の場所へ運ぶことができる。対象物が置かれている場所へ移動ロボットが移動する。移動ロボットに設けたカメラにより対象物を含む領域を撮像し、これにより得た画像データを、遠隔操縦側の装置へ送信する。遠隔操縦側の装置では、送信されてきた画像データをディスプレイに表示し、人は、表示された画像データを見て、操作部(例えば操作レバーやボタン)を操作することにより、移動ロボットの持上機構(例えばロボットアーム)を遠隔操縦する。この操縦に従って、持上機構が、対象物を把持して持ち上げ、この状態で、移動ロボットが別の場所まで移動する。なお、移動ロボットは、例えば、人が遠隔操縦することにより又は自律移動により移動可能である。 If the object is placed on the ground or elsewhere, the mobile robot can be used to pick up the object and carry it to another location as follows. A mobile robot moves to a place where an object is placed. A camera provided on the mobile robot captures an image of an area including an object, and the image data thus obtained is transmitted to a device on the remote control side. The device on the remote control side displays the transmitted image data on the display, and a person looks at the displayed image data and operates an operation part (for example, an operation lever or button) to control the mobile robot. Remote control the upper mechanism (for example, a robot arm). According to this maneuver, the lifting mechanism grasps and lifts the object, and in this state the mobile robot moves to another location. It should be noted that the mobile robot can move, for example, by being remotely controlled by a person or by autonomous movement.

上述した対象物は、例えば危険物である。危険物が、人の往来する場所に置かれている場合には、移動ロボットにより、上述のように人が存在しない別の場所へ運ぶことができる。危険物としては、例えば、即席爆発装置(IED:Improvised Explosive Device)または不発弾がある。 The objects mentioned above are, for example, dangerous goods. If the hazardous material is placed in a high traffic area, it can be transported by mobile robot to another location where there is no human presence as described above. Dangerous goods include, for example, Improvised Explosive Devices (IEDs) or unexploded ordnance.

下記の特許文献1には、クローラ式走行体である移動ロボットを用いて、次のように不発弾を撤去することが記載されている。移動ロボットに設けた作業機により不発弾を持ち上げる際に、移動ロボットに設けたカメラで不発弾を撮像し、これにより得た画像データを遠隔操縦側の装置に送信している。遠隔操縦側の装置では、この画像データがディスプレイに表示される。人は、表示された画像データを見て作業機を遠隔操縦できるようになっている。 Patent Document 1 below describes the removal of unexploded ordnance using a mobile robot, which is a crawler-type traveling body, as follows. When the unexploded ordnance is picked up by a work machine provided on the mobile robot, the camera provided on the mobile robot takes an image of the unexploded ordnance, and the obtained image data is transmitted to the device on the remote control side. This image data is displayed on the display of the device on the remote control side. A person can remotely control the working machine by viewing the displayed image data.

特開2005-121343号公報Japanese Patent Application Laid-Open No. 2005-121343

水平面に対して傾いた斜面に対象物が置かれており、この対象物を上述の持上機構により把持して持上げる場合には、表示された画像データにおいて、人は水平面の方向または鉛直方向を認識しにくい。そのため、人の遠隔操縦により、対象物を適切に把持して持ち上げる動作を持上機構に行わせるのに時間がかかってしまう可能性がある。例えば、持上機構の先端部に設けたロボットハンドで対象物を適切に把持するには、ロボットハンドの向きを例えば鉛直にすべき場合に、人は、鉛直方向を認識しにくいので、遠隔操縦により、ロボットハンドの向きを鉛直にするのに時間がかかってしまう可能性がある。 When an object is placed on a slope that is inclined with respect to the horizontal plane, and the object is held and lifted by the above-described lifting mechanism, in the displayed image data, a person can move in the horizontal direction or the vertical direction. difficult to recognize. Therefore, it may take a long time to cause the lifting mechanism to properly grasp and lift the object by remote control by a person. For example, in order to properly grasp an object with a robot hand provided at the tip of a lifting mechanism, if the robot hand should be oriented vertically, for example, it is difficult for humans to recognize the vertical direction. Therefore, it may take time to orient the robot hand vertically.

また、人が、表示された画像データを見ても、水平面の方向または鉛直方向を認識できない場合や、水平面の方向または鉛直方向を誤って認識した場合には、人の遠隔操縦により、持上機構が対象物を把持しても対象物を鉛直方向に持ち上げられず落としてしまう可能性がある。例えば、上述のロボットハンドで対象物を把持して鉛直方向に持ち上げるべき場合に、鉛直方向から大きく傾いた方向に対象物を持ち上げてしまったことにより対象物がロボットハンドから抜け落ちてしまう可能性がある。 In addition, if a person cannot recognize the horizontal or vertical direction by looking at the displayed image data, or if he or she incorrectly recognizes the horizontal or vertical direction, he or she can be lifted by remote control by a person. Even if the mechanism grips the object, there is a possibility that the object cannot be lifted in the vertical direction and the object is dropped. For example, when the above-mentioned robot hand is supposed to hold an object and lift it in the vertical direction, there is a possibility that the object may fall out of the robot hand if the object is lifted in a direction greatly tilted from the vertical direction. be.

そこで、本発明の目的は、対象物が水平面に対して傾いた斜面に置かれている場合であっても、対象物を含む領域を撮像した画像データにおける水平面の方向または鉛直方向を人が容易に認識できるようにすることにある。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image data that captures an area including an object so that a person can easily determine the direction of the horizontal plane or the vertical direction even if the object is placed on a slope that is inclined with respect to the horizontal plane. to make it recognizable.

上述の目的を達成するため、本発明によると、移動ロボットに設けられ対象物を把持して持ち上げる持上機構の遠隔操縦時に対象物を含む領域の画像データを表示する画像表示装置であって、
移動ロボットに設けたカメラにより撮像された、対象物を含む領域の画像データを受ける通信部と、
通信部が受けた画像データを表示するディスプレイと、
水平面に対するカメラの姿勢を特定可能な情報を姿勢情報として、移動ロボットに設けられた姿勢センサが検出した姿勢情報に基づいて、水平面の方向を示す水平面指標と鉛直方向を示す鉛直指標の一方または両方を、画像データとともにディスプレイに表示させる表示制御装置とを備える、画像表示装置が提供される。
In order to achieve the above object, according to the present invention, there is provided an image display device for displaying image data of an area including an object when a lifting mechanism provided in a mobile robot for gripping and lifting an object is remotely controlled, comprising:
a communication unit that receives image data of an area including an object captured by a camera provided on the mobile robot;
a display for displaying image data received by the communication unit;
One or both of a horizontal plane index indicating the direction of the horizontal plane and a vertical index indicating the vertical direction based on the orientation information detected by the orientation sensor provided on the mobile robot, using information that can specify the orientation of the camera with respect to the horizontal plane as orientation information. is displayed on a display together with image data.

また、本発明によると、移動ロボットに設けられ対象物を把持して持ち上げる持上機構の遠隔操縦時に対象物を含む領域の画像データを表示する画像表示方法であって、
(A)移動ロボットに設けたカメラにより撮像された、対象物を含む領域の画像データを受け、
(B)水平面に対するカメラの姿勢を特定可能な情報を姿勢情報として、移動ロボットに設けられた姿勢センサが検出した姿勢情報に基づいて、水平面の方向を示す水平面指標と鉛直方向を示す鉛直指標の一方または両方を、画像データとともにディスプレイに表示させる、画像表示方法が提供される。
Further, according to the present invention, there is provided an image display method for displaying image data of an area including an object during remote control of a lifting mechanism provided in a mobile robot for gripping and lifting an object, the method comprising:
(A) receiving image data of an area including an object captured by a camera provided on a mobile robot;
(B) A horizontal plane index indicating the direction of the horizontal plane and a vertical index indicating the vertical direction are determined based on the orientation information detected by the orientation sensor provided in the mobile robot, using information that can specify the orientation of the camera with respect to the horizontal plane as orientation information. An image display method is provided that causes one or both to be displayed on a display along with the image data.

さらに、本発明によると、対象物を把持して持ち上げる持上機構が設けられた移動ロボットと、持上機構を遠隔操縦するための遠隔操縦側装置とを備える遠隔操縦システムであって、
遠隔操縦側装置は、
上述の画像表示装置と、
持上機構を遠隔操縦するために操作され、なされた操作に応じた動作指令を生成する操作装置と、を備え、
移動ロボットは、
遠隔操縦側装置から送信された動作指令に従って持上機構の動作を制御する動作制御部を備える、遠隔操縦システムが提供される。
Further, according to the present invention, there is provided a remote control system comprising a mobile robot provided with a lifting mechanism for gripping and lifting an object, and a remote control device for remotely controlling the lifting mechanism,
The remote control device is
the image display device described above;
an operation device that is operated to remotely control the lifting mechanism and that generates an operation command according to the operation performed;
mobile robots are
A remote control system is provided that includes a motion controller that controls the operation of a lifting mechanism according to a motion command sent from a remote control device.

上述した本発明によると、水平面に対するカメラの姿勢を特定可能な情報を姿勢情報として、移動ロボットに設けられた姿勢センサが検出した姿勢情報に基づいて、水平面の方向を示す水平面指標と鉛直方向を示す鉛直指標の一方または両方を、画像データとともにディスプレイに表示させる。したがって、人は、持上機構を遠隔操縦する際に、表示された水平面指標と鉛直指標の一方または両方を見ることで画像データにおける水平面の方向または鉛直方向を容易に認識できる。 According to the above-described present invention, the horizontal plane index indicating the direction of the horizontal plane and the vertical direction are determined based on the posture information detected by the posture sensor provided in the mobile robot, using the information that can specify the posture of the camera with respect to the horizontal plane as the posture information. One or both of the indicated vertical indicators are caused to appear on the display along with the image data. Therefore, when remotely controlling the lifting mechanism, a person can easily recognize the horizontal plane direction or the vertical direction in the image data by looking at one or both of the displayed horizontal plane index and vertical plane index.

本発明の実施形態による遠隔操縦システムを示すブロック図である。1 is a block diagram illustrating a remote control system according to an embodiment of the invention; FIG. 移動ロボットの一例を示す。An example of a mobile robot is shown. ディスプレイの画面に表示された、カメラの画像データの一例を示す。4 shows an example of camera image data displayed on a display screen. ディスプレイの画面に表示された、カメラの画像データと水平面指標と鉛直指標の一例を示す。An example of image data of a camera, a horizontal plane index, and a vertical index displayed on a display screen is shown. 図4の指標距離の説明図であり、水平方向から見た概念図である。FIG. 5 is an explanatory diagram of the index distance in FIG. 4 and is a conceptual diagram viewed from the horizontal direction. 本発明の実施形態による画像表示方法を示すフローチャートである。4 is a flow chart illustrating an image display method according to an embodiment of the present invention;

本発明の実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。 An embodiment of the present invention will be described based on the drawings. In addition, the same code|symbol is attached|subjected to the part which is common in each figure, and the overlapping description is abbreviate|omitted.

図1は、本発明の実施形態による遠隔操縦システム100を示すブロック図である。遠隔操縦システム100は、移動ロボット10と遠隔操縦側装置20を備える。 FIG. 1 is a block diagram illustrating a remote piloting system 100 according to an embodiment of the invention. A remote control system 100 includes a mobile robot 10 and a remote control device 20 .

<移動ロボットの構成>
移動ロボット10の一例を図2に示す。移動ロボット10は、地表面2または他の箇所に置かれた対象物1を持ち上げて運ぶことに用いられる。すなわち、移動ロボット10は、対象物1が置かれた場所まで移動可能であり、当該場所において対象物1を持ち上げて、他の場所まで移動することにより、対象物1を運ぶ。図2では、対象物1は、水平面に対して傾いた地表面2に置かれている。対象物1は、例えば危険物である。危険物は、例えば、即席爆発装置または不発弾である。対象物1が危険物である場合、移動ロボット10は、例えば人が通る地表面2に置かれた危険物を持ち上げて運ぶことにより、危険物を撤去することに用いられる。
<Configuration of mobile robot>
An example of mobile robot 10 is shown in FIG. A mobile robot 10 is used to lift and carry an object 1 placed on the ground surface 2 or elsewhere. In other words, the mobile robot 10 can move to a place where the object 1 is placed, pick up the object 1 at the place, and move to another place to carry the object 1 . In FIG. 2, the object 1 is placed on a ground surface 2 inclined with respect to the horizontal. Object 1 is, for example, a dangerous object. Dangerous goods are, for example, improvised explosive devices or unexploded ordnance. If the object 1 is a dangerous object, the mobile robot 10 is used to remove the dangerous object, for example by lifting and carrying the dangerous object placed on the ground surface 2 where a person passes.

移動ロボット10は、地表面2を移動する移動機構5が設けられた本体3を含む。移動機構5は、地表面2に接しながら回転駆動されることにより本体3を移動させる回転体5aであってよい、回転体5aは、図2の例では、クローラベルト(すなわち無端状のベルト)であるが、車輪であってもよい。 The mobile robot 10 includes a main body 3 provided with a mobile mechanism 5 for moving on the ground surface 2 . The moving mechanism 5 may be a rotating body 5a that moves the main body 3 by being rotationally driven while in contact with the ground surface 2. The rotating body 5a is a crawler belt (that is, an endless belt) in the example of FIG. but it could also be a wheel.

なお、移動ロボット10の移動は、人による遠隔操縦または自律移動制御により行われてよい。前者の場合、例えば、人は図示しない移動操縦装置を操作することにより、移動ロボット10を所望の場所まで移動させることができる。後者の場合、例えば移動ロボット10に設けられた移動制御部に、所望の場所を示す情報を送信することにより、この移動制御部が、当該情報が示す場所へ移動ロボット10を移動させるように移動ロボット10の移動を制御する。移動ロボット10の移動の遠隔操縦と、移動ロボット10の自律移動は、例えば公知の技術により行うことができるので、その詳細な説明は省略する。 The movement of the mobile robot 10 may be performed by remote control or autonomous movement control by a person. In the former case, for example, a person can move the mobile robot 10 to a desired location by operating a mobile control device (not shown). In the latter case, for example, by transmitting information indicating a desired location to a movement control unit provided in the mobile robot 10, the movement control unit moves the mobile robot 10 to the location indicated by the information. Control the movement of the robot 10 . Since the remote control of the movement of the mobile robot 10 and the autonomous movement of the mobile robot 10 can be performed, for example, by a known technique, detailed description thereof will be omitted.

・持上機構の構成
移動ロボット10の本体3には持上機構7が設けられる。持上機構7は、地表面2または他の箇所に置かれた対象物1を持ち上げる動作を行う。持上機構7は、本体3に連結された基端部7aと、先端部7bと、先端部7bに取り付けられ対象物1に接触して対象物1を把持する把持装置7cと、基端部7aと先端部7bとを連結する中間部7dとを含む。把持装置7cは、例えば対象物1を挟んで把持する1対の把持部材7c1(後述の図3を参照)を有するものであってよい。中間部7dは、基端部7aに対して動作することにより、先端部7bが基端部7aと本体3に対して移動する。中間部7dは、例えば、図2のように互いに回転可能に連結した複数のアームを含んでいてよく、基端部7aと先端部7bと中間部7dによりロボットアームが構成されてよい。
Configuration of Lifting Mechanism A lifting mechanism 7 is provided on the main body 3 of the mobile robot 10 . The lifting mechanism 7 operates to lift an object 1 placed on the ground surface 2 or elsewhere. The lifting mechanism 7 includes a proximal end portion 7a connected to the main body 3, a distal end portion 7b, a gripping device 7c attached to the distal end portion 7b and configured to contact and grip the object 1, and a proximal end portion. It includes an intermediate portion 7d connecting 7a and tip portion 7b. The gripping device 7c may have, for example, a pair of gripping members 7c1 (see FIG. 3 described later) that sandwich and grip the object 1 . The intermediate portion 7d moves the distal end portion 7b relative to the proximal end portion 7a and the main body 3 by operating relative to the proximal end portion 7a. The intermediate portion 7d may include, for example, a plurality of arms rotatably connected to each other as shown in FIG. 2, and the proximal end portion 7a, the distal end portion 7b, and the intermediate portion 7d may constitute a robot arm.

なお、基端部7aは、軸Cまわりに回転可能に本体3に連結されていてもよい。軸Cは、本体3に固定された方向を向いている。軸Cは、本体3の左右方向と前後方向の両方に交差(例えば直交)する方向を向いていてよい。なお、本体3の左右方向と前後方向は、本体3が水平姿勢にある状態では水平方向を向いている。また、先端部7bは、中間部7dに対して回転可能に連結されていてよい。中間部7dは、基端部7aに対して回転可能に連結されていてよい。 The base end portion 7a may be connected to the main body 3 so as to be rotatable around the axis C. Axis C is oriented in a direction fixed to body 3 . The axis C may be oriented in a direction that intersects (for example, orthogonally) both the left-right direction and the front-rear direction of the main body 3 . The left-right direction and the front-rear direction of the main body 3 are horizontal when the main body 3 is in a horizontal posture. Also, the distal end portion 7b may be rotatably connected to the intermediate portion 7d. The intermediate portion 7d may be rotatably connected to the base end portion 7a.

移動ロボット10が対象物1から上限距離以内の範囲に位置している状態で、持上機構7は次のように動作可能である。持上機構7が動作することにより、その先端部7bの把持装置7c(図2の例では、ロボットハンドを構成する1対の把持部材7c1)が対象物1を把持できる位置へ移動させられる。図2の例では、開いた状態の1対の把持部材7c1が、これらの間に対象物1が位置するようになる位置へ移動させられる。次いで、把持装置7cは対象物1を把持するように動作する。図2の例では、1対の把持部材7c1が閉じるように動作することで、1対の把持部材7c1で対象物1を挟んで把持する。次いで、把持装置7cが対象物1を把持した状態で、持上機構7が動作することにより、対象物1が地表面2から持ち上げられる。 With the mobile robot 10 positioned within the upper limit distance from the object 1, the lifting mechanism 7 can operate as follows. By operating the lifting mechanism 7, the gripping device 7c (in the example of FIG. 2, a pair of gripping members 7c1 constituting a robot hand) of the tip portion 7b is moved to a position where the object 1 can be gripped. In the example of FIG. 2, a pair of open gripping members 7c1 are moved to a position such that the object 1 is positioned between them. The gripping device 7c is then operated to grip the object 1 . In the example of FIG. 2, the pair of gripping members 7c1 are operated so as to close, so that the object 1 is sandwiched and gripped by the pair of gripping members 7c1. Next, the target object 1 is lifted from the ground surface 2 by operating the lifting mechanism 7 while the target object 1 is gripped by the gripping device 7c.

移動ロボット10には、図1のように、持上機構7の動作を制御する動作制御部9が設けられる。動作制御部9は、後述する操作装置20Bにより生成された動作指令を、操縦側の通信部19と移動ロボット側の通信部15を介して受ける。動作制御部9は、受けた動作指令が示す動作を持上機構7が行うように持上機構7を制御する。この時、動作制御部9は、持上機構7を駆動する駆動装置11を制御することにより持上機構7の動作を制御する。駆動装置11は、図2の例では、中間部7dを構成するアーム同士の連結部に設けられ両アームを互いに対して回転駆動するアクチュエータと、本体3に対して基端部7aを軸C回りに回転駆動するアクチュエータと、中間部7dに対して先端部7bを回転駆動するアクチュエータと、1対の把持部材7c1を開閉させるアクチュエータとを含んでよい。各アクチュエータは、例えばサーボモータであってよいが、他の装置であってもよい。 The mobile robot 10 is provided with an operation control section 9 for controlling the operation of the lifting mechanism 7, as shown in FIG. The motion control unit 9 receives a motion command generated by an operation device 20B, which will be described later, via the communication unit 19 on the control side and the communication unit 15 on the mobile robot side. The motion control unit 9 controls the lifting mechanism 7 so that the lifting mechanism 7 performs the motion indicated by the received motion command. At this time, the operation control section 9 controls the operation of the lifting mechanism 7 by controlling the driving device 11 that drives the lifting mechanism 7 . In the example of FIG. 2, the driving device 11 includes an actuator provided at a connection portion between the arms forming the intermediate portion 7d and driving the arms to rotate with respect to each other, , an actuator that rotationally drives the distal end portion 7b with respect to the intermediate portion 7d, and an actuator that opens and closes the pair of gripping members 7c1. Each actuator may be, for example, a servomotor, but may also be another device.

・画像表示装置に用いられるデータを取得する構成
移動ロボット10には、カメラ13が設けられる。カメラ13は、対象物1を含む領域を撮像して当該領域の画像データを生成する。カメラ13は、図2の例では、移動ロボット10の本体3に設けられたものであるが、図2の破線で示すように持上機構7(例えば先端部7b)に設けられたものであってもよい。また、複数のカメラが移動ロボット10に設けられ、これらの中から使用するカメラを、操作装置20Bの操作により選択してもよい。この場合、以下においてカメラ13は、選択されたカメラである。カメラ13が生成した画像データは、図1のように、移動ロボット10に設けられた移動ロボット側の通信部15から画像表示装置20Aへ送信される。通信部15による送信は、無線通信を利用して行われてよい。
- Configuration for Acquiring Data Used in Image Display Device The mobile robot 10 is provided with a camera 13 . The camera 13 captures an image of an area including the object 1 and generates image data of the area. The camera 13 is provided on the main body 3 of the mobile robot 10 in the example of FIG. may Also, a plurality of cameras may be provided on the mobile robot 10, and the camera to be used may be selected from among these by operating the operation device 20B. In this case, camera 13 is the selected camera in the following. The image data generated by the camera 13 is transmitted to the image display device 20A from the mobile robot side communication unit 15 provided in the mobile robot 10 as shown in FIG. Transmission by the communication unit 15 may be performed using wireless communication.

移動ロボット10には、図1のように姿勢センサ17が設けられる。姿勢センサ17は、水平面に対するカメラ13の姿勢を特定可能な情報(以下で姿勢情報という)を検出する。姿勢センサ17が検出した姿勢情報は、移動ロボット側の通信部15から画像表示装置20Aへ送信される。 The mobile robot 10 is provided with a posture sensor 17 as shown in FIG. The orientation sensor 17 detects information that can specify the orientation of the camera 13 with respect to the horizontal plane (hereinafter referred to as orientation information). The orientation information detected by the orientation sensor 17 is transmitted from the communication unit 15 on the mobile robot side to the image display device 20A.

カメラ13が本体3に設けられている場合には、姿勢センサ17は、本体3またはカメラ13に設けられたジャイロスコープ17aを用いたものであってよい。 When the camera 13 is provided on the main body 3 , the orientation sensor 17 may be one using a gyroscope 17 a provided on the main body 3 or the camera 13 .

カメラ13が持上機構7の先端部7bに設けられている場合には、姿勢センサ17は、例えば、本体3に設けられたジャイロスコープ17aと、本体3に対する持上機構7の各部の動作量を検出する動作量検出部17bを含む。この場合、姿勢情報は、ジャイロスコープ17aを用いて検出した、水平面に対する本体3の姿勢と、動作量検出部17bが検出した持上機構7の各部の動作量とを含む。持上機構7の各部の動作量は、図2の例では、中間部7dを構成する複数のアームの互いに対する回転角度、基端部7aの軸C回りの回転角度、および中間部7dに対する先端部7bの回転角度を含む。これらの回転角度は、それぞれ、アームと基端部7aと先端部7bの予め定めた基準回転位置からの回転角度を意味してよい。 When the camera 13 is provided at the tip portion 7 b of the lifting mechanism 7 , the attitude sensor 17 detects, for example, the gyroscope 17 a provided on the main body 3 and the movement amount of each part of the lifting mechanism 7 with respect to the main body 3 . includes an operation amount detection unit 17b for detecting the In this case, the posture information includes the posture of the main body 3 with respect to the horizontal plane detected using the gyroscope 17a, and the movement amount of each part of the lifting mechanism 7 detected by the movement amount detection section 17b. In the example of FIG. 2, the movement amount of each part of the lifting mechanism 7 is the rotation angle of the plurality of arms forming the intermediate part 7d with respect to each other, the rotation angle of the base end part 7a around the axis C, and the tip end relative to the intermediate part 7d. It includes the rotation angle of the portion 7b. These rotation angles may mean rotation angles from predetermined reference rotation positions of the arm, the base end portion 7a, and the tip end portion 7b, respectively.

<遠隔操縦側装置の構成>
遠隔操縦側装置20は、図1のように、画像表示装置20Aと操作装置20Bとを備える。画像表示装置20Aは、操縦側の通信部19とディスプレイ21と表示制御装置23を備える。
<Configuration of remote control device>
As shown in FIG. 1, the remote control device 20 includes an image display device 20A and an operation device 20B. The image display device 20A includes a communication section 19, a display 21, and a display control device 23 on the control side.

操縦側の通信部19は、移動ロボット10のカメラ13により生成され移動ロボット側の通信部15から送信された画像データを受ける。この画像データは、操縦側の通信部19から表示制御装置23(表示制御部23b)に入力される。操縦側の通信部19は、移動ロボット10の姿勢センサ17により検出され移動ロボット側の通信部15から送信された姿勢情報を受ける。この姿勢情報は、操縦側の通信部19から表示制御装置23(すなわち、後述の方向計算部23aと表示制御部23b)に入力される。 The control-side communication unit 19 receives image data generated by the camera 13 of the mobile robot 10 and transmitted from the mobile robot-side communication unit 15 . This image data is input from the communication section 19 on the control side to the display control device 23 (display control section 23b). The control-side communication unit 19 receives posture information detected by the posture sensor 17 of the mobile robot 10 and transmitted from the mobile robot-side communication unit 15 . This posture information is input from the communication unit 19 on the control side to the display control device 23 (that is, the direction calculation unit 23a and the display control unit 23b, which will be described later).

ディスプレイ21は、操縦側の通信部19が受けた画像データを表示するためのものである。この画像データは、移動ロボット10の持上機構7を人が遠隔操縦する際に人が参照するために表示される。図3(A)は、ディスプレイ21の画面21aに表示された画像データを示す。 The display 21 is for displaying image data received by the communication unit 19 on the control side. This image data is displayed for reference by a person when remotely controlling the lifting mechanism 7 of the mobile robot 10 . FIG. 3A shows image data displayed on the screen 21a of the display 21. FIG.

表示制御装置23は、入力された姿勢情報に基づいて、水平面を示す水平面指標Mhと鉛直方向を示す鉛直指標Mvを、入力された画像データとともにディスプレイ21に表示させる。表示制御装置23は、方向計算部23aと表示制御部23bを含む。水平面指標Mhは、互いに交差する複数の水平方向を示す。 The display control device 23 causes the display 21 to display the horizontal plane index Mh indicating the horizontal plane and the vertical index Mv indicating the vertical direction together with the input image data based on the inputted posture information. The display control device 23 includes a direction calculator 23a and a display controller 23b. The horizontal plane index Mh indicates a plurality of horizontal directions that intersect with each other.

方向計算部23aは、入力された姿勢情報に基づいて、上述の画像データにおける水平面の方向と鉛直方向の一方または両方を求める。図3(B)は、図3(A)の画像データにおいて、方向計算部23aが求めた水平面Hの方向(互いに直交する2つの水平方向)Dh1,Dh2と鉛直方向Dvを表わしたものである。 The direction calculation unit 23a obtains one or both of the horizontal plane direction and the vertical direction in the image data described above based on the input attitude information. FIG. 3(B) shows the directions (two horizontal directions perpendicular to each other) Dh1 and Dh2 of the horizontal plane H obtained by the direction calculation unit 23a and the vertical direction Dv in the image data of FIG. 3(A). .

一例では、方向計算部23aは、姿勢情報に基づいて、図3(B)に示すように画像データにおける設定位置Ps(設定画素)での水平面Hの方向Dh1,Dh2と鉛直方向Dvを求める。ただし、設定位置Psは、表示される上述の画像データにおいては定められた画素の位置であり、当該位置に対応する現実世界の位置は、当該画像データの取得時にカメラ13から設定距離だけ離れているとする。すなわち、上述の画像データが、現実世界における対象物1と、ある位置を撮像したものと仮定して、画像データにおける当該ある位置が設定位置Psとなり、当該撮像時における当該ある位置とカメラ13との現実世界の距離が設定距離である。このような設定位置と設定距離は、予め定められて方向計算部23aに設定されていてよい。 In one example, the direction calculator 23a obtains the directions Dh1 and Dh2 of the horizontal plane H and the vertical direction Dv at the set position Ps (set pixel) in the image data, as shown in FIG. 3B, based on the orientation information. However, the set position Ps is a predetermined pixel position in the above-described displayed image data, and the position in the real world corresponding to this position is a set distance away from the camera 13 when the image data is acquired. Suppose there is That is, assuming that the above image data captures the object 1 and a certain position in the real world, the certain position in the image data becomes the set position Ps, and the position and the camera 13 at the time of the image pickup is the set distance. Such set positions and set distances may be determined in advance and set in the direction calculator 23a.

なお、図3(B)の水平方向Dh1,Dh2、鉛直方向Dv、設定位置Ps、水平面H(図3(B)では水平面に含まれる破線の水平フレームH)は、説明のために図示したものであり、実際にはディスプレイ21に表示されなくてもよい。 Note that the horizontal directions Dh1 and Dh2, the vertical direction Dv, the set position Ps, and the horizontal plane H (in FIG. 3B, the broken-line horizontal frame H included in the horizontal plane) in FIG. and may not actually be displayed on the display 21 .

カメラ13が本体3に設けられている場合には、方向計算部23aは、姿勢情報と、本体3に対するカメラ13の既知の向きに基づいて、画像データにおける、設定位置Psでの水平面Hの方向Dh1、Dh2と鉛直方向Dvの一方または両方を求める。カメラ13が持上機構7の先端部7bに設けられている場合には、方向計算部23aは、姿勢情報(水平面に対する本体3の姿勢と持上機構7の各部の動作量を含む)と、先端部7bに対するカメラ13の既知の向きと、先端部7bにおけるカメラ13の既知の位置と、持上機構7の各部の既知の寸法(図の例では、各アームの長さ、基端部7aの寸法など)に基づいて、設定位置Psでの水平面Hの方向Dh1、Dh2と鉛直方向Dvの一方または両方を求める。 When the camera 13 is provided on the main body 3, the direction calculation unit 23a calculates the direction of the horizontal plane H at the set position Ps in the image data based on the orientation information and the known orientation of the camera 13 with respect to the main body 3. One or both of Dh1, Dh2 and the vertical direction Dv are obtained. When the camera 13 is provided at the distal end 7b of the lifting mechanism 7, the direction calculation unit 23a includes posture information (including the posture of the main body 3 with respect to the horizontal plane and the amount of movement of each part of the lifting mechanism 7), The known orientation of the camera 13 with respect to the distal end 7b, the known position of the camera 13 at the distal end 7b, and the known dimensions of each part of the lifting mechanism 7 (in the example shown, the length of each arm, the proximal end 7a ), one or both of the directions Dh1 and Dh2 of the horizontal plane H at the set position Ps and the vertical direction Dv are obtained.

表示制御部23bは、方向計算部23aが求めた、設定位置Psでの水平面Hの方向Dh1、Dh2と鉛直方向Dvの一方または両方に基づいて、設定位置Psを含む水平面を表わす水平面指標Mhと、鉛直指標Mvを上述の画像データとともにディスプレイ21に表示させる。例えば、表示制御部23bは、水平面指標Mhと鉛直指標Mvを上述の画像データの上に重ねて表示させる。鉛直指標Mvは、上述の設定位置Psに表示されてよい。図4は、表示制御部23bによりディスプレイ21に表示させられた画像データと水平面指標Mhと鉛直指標Mvなどの一例を示す。 Based on one or both of the directions Dh1 and Dh2 of the horizontal plane H at the set position Ps and the vertical direction Dv obtained by the direction calculator 23a, the display control unit 23b calculates a horizontal plane index Mh representing a horizontal plane including the set position Ps, and , and the vertical index Mv are displayed on the display 21 together with the above image data. For example, the display control unit 23b causes the horizontal surface index Mh and the vertical index Mv to be superimposed and displayed on the image data described above. The vertical index Mv may be displayed at the set position Ps described above. FIG. 4 shows an example of image data, a horizontal plane index Mh, a vertical index Mv, etc. displayed on the display 21 by the display control unit 23b.

水平面指標Mhは、画像データにおいて表示される水平面の画像であってよい。この場合、水平面指標Mhは、例えば、図4のように、当該水平面に位置するように3次元的に表示される格子の画像であってよい。この格子は、例えば、図4のように、画面21aの左右方向に沿う方向に延び画像データの奥行方向に格子間隔をおいて配置された複数の線と、画像データの奥行方向に延び画面21aの左右方向に沿う方向に格子間隔をおいて配置された複数の線とを含んでよい。なお、表示制御部23bは、水平面指標Mhとしての水平面の画像(例えば上記格子の画像)を、画像データにおける設定範囲にわたって表示してよい。設定範囲は、当該画像データの取得時におけるカメラ13からの距離の指定範囲(例えば1mから2mである範囲)に対応する範囲である。 The horizontal plane index Mh may be a horizontal plane image displayed in the image data. In this case, the horizontal plane index Mh may be, for example, an image of a grid three-dimensionally displayed so as to be positioned on the horizontal plane, as shown in FIG. For example, as shown in FIG. 4, this grid includes a plurality of lines extending in the horizontal direction of the screen 21a and arranged at grid intervals in the depth direction of the image data, and a plurality of lines extending in the depth direction of the image data and the screen 21a. may include a plurality of lines arranged at grid intervals in a direction along the horizontal direction of the . Note that the display control unit 23b may display a horizontal plane image (for example, the grid image) as the horizontal plane index Mh over a range set in the image data. The set range is a range corresponding to a specified range of distance from the camera 13 (for example, a range of 1 m to 2 m) when the image data is acquired.

表示制御部23bは、上述のように画像データと水平面指標Mhと鉛直指標Mvに加えて、更に次の水平面指標Mhの寸法と本体3からの距離の一方または両方を、ディスプレイ21に表示させてもよい。 The display control unit 23b causes the display 21 to display one or both of the dimension of the next horizontal surface index Mh and the distance from the main body 3 in addition to the image data, the horizontal surface index Mh, and the vertical index Mv as described above. good too.

・水平面指標の寸法の表示
表示制御部23bは、水平面指標Mhを画像データに重ねてディスプレイ21に表示させ、かつ、水平面指標Mhの寸法を水平面指標Mhと関連付けてディスプレイ21に表示させる。水平面指標Mhの寸法は、水平面指標Mhの一部の寸法であってもよいし、水平面指標Mhの全体の寸法であってもよい。表示制御部23bは、前者の場合、水平面指標Mhの一部(図4の例では、画面21aの左右方向に沿った格子間隔と画像データの奥行方向に沿った格子間隔)の寸法を当該一部と関連付けてディスプレイ21に表示させ、後者の場合、水平面指標Mhの全体の寸法を当該全体と関連付けてディスプレイ21に表示させてよい。なお、水平面指標Mhの寸法とは、対応する現実世界の寸法を意味する。すなわち、水平面指標Mhが現実世界にあると仮定し、かつ、上述の画像データが、対象物1と水平面指標Mhを撮像したものであると仮定して、現実世界の水平面指標Mhの寸法(一部または全体の寸法)が、ディスプレイ21に表示される上記寸法である。
Display of Dimension of Horizontal Plane Index The display control unit 23b causes the display 21 to display the horizontal plane index Mh overlaid on the image data, and causes the display 21 to display the dimension of the horizontal plane index Mh in association with the horizontal plane index Mh. The dimension of the horizontal surface index Mh may be the dimension of a part of the horizontal surface index Mh, or may be the dimension of the entire horizontal surface index Mh. In the former case, the display control unit 23b adjusts the dimension of a part of the horizontal plane index Mh (in the example of FIG. 4, the grid spacing along the left-right direction of the screen 21a and the grid spacing along the depth direction of the image data). In the latter case, the display 21 may display the overall dimension of the horizontal plane index Mh in association with the entirety. Note that the dimension of the horizontal plane index Mh means the corresponding dimension in the real world. That is, assuming that the horizontal plane index Mh exists in the real world, and assuming that the above image data is obtained by imaging the object 1 and the horizontal plane index Mh, the dimension of the horizontal plane index Mh in the real world (one (partial or overall dimensions) are the dimensions shown on the display 21 .

図4の例では、水平面指標Mhの一部である格子間隔の寸法は、格子間隔を表わす矢印A1,A2と、矢印A1,A2にそれぞれ付した数値P,Qにより表示されている。矢印A1は、画像データの左右方向に沿った格子間隔を表わし、矢印A2は、画像データの奥行方向に沿った格子間隔を表わす。図4において、矢印A1,A2は、表示される位置により、格子間隔の寸法と関連付けられている。 In the example of FIG. 4, the dimension of the grid spacing, which is part of the horizontal surface index Mh, is indicated by arrows A1 and A2 representing the grid spacing and numerical values P and Q attached to the arrows A1 and A2, respectively. The arrow A1 represents the grid spacing along the horizontal direction of the image data, and the arrow A2 represents the grid spacing along the depth direction of the image data. In FIG. 4, the arrows A1 and A2 are associated with the grid spacing dimension by their indicated positions.

表示制御部23bは、例えば、上述した設定位置Psと設定距離とカメラ13の特性などに基づいて、水平面指標Mhの寸法を算出して、当該寸法を上述のようにディスプレイ21に表示させる。 The display control unit 23b calculates the dimension of the horizontal plane index Mh based on, for example, the set position Ps, the set distance, and the characteristics of the camera 13, and causes the display 21 to display the dimension as described above.

・本体からの距離の表示
表示制御部23bは、本体3上の設定点(例えば本体3の前端)から、表示された水平面指標Mhまたは鉛直指標Mvまでの距離(単に指標距離ともいう)を、当該水平面指標Mhまたは鉛直指標Mv(例えば当該指標Mh,Mv上の設定点)と関連付けてディスプレイ21に表示させる。指標距離は、画像データにおける水平面指標Mhまたは鉛直指標Mv上の設定点に対応する現実世界での位置と、本体3上の設定点との実際の距離であってよい。指標距離は、水平方向の距離であってよい。2つの位置の水平方向の距離(指標距離または後述の先端部距離)とは、当該2つの位置(例えば本体3上の設定点と後述の設定点P1又はP2)を1つの水平面に鉛直方向に投影した場合に、投影された当該2つの位置同士の距離である(以下、同様)。図4(A)又は図4(B)の例では、指標距離は、本体3上の設定点から水平面指標Mh上の設定点P1又はP2までの水平方向の距離である。図5は、図4(A)又は図4(B)の場合について、水平方向(本体3の前後方向を含む鉛直面と直交する水平方向)から見た概念図である。
Display of distance from main body The display control unit 23b displays the distance (simply referred to as the index distance) from the set point on the main body 3 (for example, the front end of the main body 3) to the displayed horizontal surface index Mh or vertical index Mv. It is displayed on the display 21 in association with the horizontal plane index Mh or the vertical index Mv (for example, set points on the indices Mh and Mv). The index distance may be the actual distance between the set point on the body 3 and the position in the real world corresponding to the set point on the horizontal index Mh or the vertical index Mv in the image data. The index distance may be a horizontal distance. The horizontal distance between two positions (index distance or tip distance described later) means that the two positions (for example, a set point on the main body 3 and a set point P1 or P2 described later) are vertically aligned on one horizontal plane. When projected, it is the distance between the two projected positions (the same applies hereinafter). In the example of FIG. 4A or 4B, the index distance is the horizontal distance from the set point on the body 3 to the set point P1 or P2 on the horizontal plane index Mh. FIG. 5 is a conceptual diagram of FIG. 4A or 4B viewed from the horizontal direction (horizontal direction orthogonal to the vertical plane including the front-rear direction of the main body 3).

図4(A)では、設定点P1は、水平面指標Mh(例えば格子の画像の水平面指標Mh)における中間位置にある点である。この中間位置は、水平面指標Mhの中央部にある位置(例えば水平面指標Mhの中心)であってよいが、これに限定されない。図4(A)では、指標距離は、矢印A3の表示位置により水平面指標Mh上の設定点P1と関連付けて、矢印A3に付した数値R1により表示されている。 In FIG. 4A, the set point P1 is the point at the middle position in the horizontal plane index Mh (for example, the horizontal plane index Mh of the grid image). This intermediate position may be a position in the center of the horizontal plane index Mh (for example, the center of the horizontal plane index Mh), but is not limited to this. In FIG. 4A, the index distance is associated with the set point P1 on the horizontal plane index Mh by the display position of the arrow A3, and displayed by the numerical value R1 attached to the arrow A3.

図4(B)では、設定点P2は、水平面指標Mh(例えば格子の画像の水平面指標Mh)において最も手前側の点である。ここで、「手前側」とは、本体3に近い側を意味する。すなわち、「最も手前側の点」は、水平面指標Mh上の各点が対応する現実世界の各点のうち本体3の上記設定点に最も近い点に対応する点であってよい。図4(B)では、指標距離は、矢印A3の表示位置により水平面指標Mh上の設定点P2と関連付けて、矢印A3に付した数値R2により表示されている。 In FIG. 4B, the set point P2 is the closest point in the horizontal plane index Mh (for example, the horizontal plane index Mh of the grid image). Here, the “front side” means the side closer to the main body 3 . That is, the “point on the frontmost side” may be the point that corresponds to the point closest to the set point of the main body 3 among the points in the real world to which the points on the horizontal surface index Mh correspond. In FIG. 4B, the index distance is associated with the set point P2 on the horizontal plane index Mh by the display position of the arrow A3, and displayed by the numerical value R2 attached to the arrow A3.

指標距離は、カメラ13の特性などに基づいて表示制御部23bにより求められてよい。カメラ13が本体3に設けられている場合には、表示制御部23bは、本体3上の設定点の既知の位置と、本体3に対するカメラ13の既知の取付位置及び取付姿勢と、水平面に対する本体3の姿勢と、上記設定位置Psと設定距離と、水平面指標Mhまたは鉛直指標Mv上の設定点(図4(A)(B)では、設定点P1又はP2)の位置と、カメラ13の特性とに基づいて、指標距離を求めてよい。カメラ13が持上機構7の先端部7bに設けられている場合には、表示制御部23bは、本体3上の設定点の既知の位置と、先端部7bに対するカメラ13の既知の取付位置及び取付姿勢と、水平面に対する本体3の姿勢と、上記設定位置Psと設定距離と、水平面指標Mhまたは鉛直指標Mv上の設定点(図4(A)(B)では、設定点P1又はP2)の位置と、カメラ13の特性と、持上機構7の各部の動作量と、当該各部の既知の寸法に基づいて、指標距離を求めてよい。ここで、指標距離を求めるのに用いられる「水平面に対する本体3の姿勢と持上機構7の各部の動作量」は、該当する画像データをカメラ13が取得した時に移動ロボットの検出部(例えば上述のジャイロスコープ17aや動作量検出部17b)により検出されたものであり、表示制御装置23に入力された上述の姿勢情報に含まれているものであってよい。なお、指標距離が、水平方向の距離ではなく、3次元的な距離である場合には、指標距離を求めるのに、水平面に対する本体3の姿勢を用いなくてもよい。 The index distance may be obtained by the display control unit 23b based on the characteristics of the camera 13 and the like. When the camera 13 is provided on the main body 3, the display control unit 23b controls the known position of the set point on the main body 3, the known mounting position and mounting orientation of the camera 13 with respect to the main body 3, and the main body with respect to the horizontal plane. 3, the set position Ps and the set distance, the position of the set point (the set point P1 or P2 in FIGS. 4A and 4B) on the horizontal surface index Mh or the vertical index Mv, and the characteristics of the camera 13. The index distance may be determined based on When the camera 13 is provided at the tip 7b of the lifting mechanism 7, the display control unit 23b controls the known position of the set point on the body 3, the known mounting position of the camera 13 with respect to the tip 7b, and the The mounting posture, the posture of the main body 3 with respect to the horizontal plane, the set position Ps and the set distance, and the set point (the set point P1 or P2 in FIGS. 4A and 4B) on the horizontal surface index Mh or the vertical index Mv. The index distance may be determined based on the position, the characteristics of the camera 13, the amount of movement of each part of the lifting mechanism 7, and the known dimensions of each part. Here, the "posture of the main body 3 with respect to the horizontal plane and the amount of movement of each part of the lifting mechanism 7" used to obtain the index distance is determined by the detection unit of the mobile robot (for example, the above-mentioned It may be detected by the gyroscope 17a or the motion amount detection unit 17b), and may be included in the above-described posture information input to the display control device 23. FIG. If the index distance is not a horizontal distance but a three-dimensional distance, it is not necessary to use the orientation of the main body 3 with respect to the horizontal plane to obtain the index distance.

また、表示制御部23bは、上述の指標距離とともに、本体3上の上記設定点から持上機構7の先端部7bまでの距離(先端部距離という)をディスプレイ21に表示させてもよい。この場合、表示制御部23bは、入力された持上機構7の各部の動作量と、持上機構7の各部の既知の寸法と、本体3上の上記設定点の既知の位置と、水平面に対する本体3の姿勢とに基づいて、本体3上の上記設定点から持上機構7の先端部7bまでの先端部距離を算出する。例えば図4のように、先端部距離としてScmが予め定めた位置(例えば画像データの右下)に表示されてよい。ここで、先端部距離の算出に用いられる「水平面に対する本体3の姿勢と持上機構7の各部の動作量」は、該当する画像データをカメラ13が取得した時に移動ロボットの検出部(例えば上述のジャイロスコープ17aや動作量検出部17b)により検出されたものであり、表示制御装置23に入力された上述の姿勢情報に含まれているものであってよい。なお、上述の指標距離が水平方向の距離である場合には、先端部距離は、水平方向の距離であり、上述の指標距離が3次元的な距離である場合には、先端部距離は、3次元的な距離であるのがよい。なお、先端部距離が、水平方向の距離ではなく、3次元的な距離である場合には、先端部距離を求めるのに、水平面に対する本体3の姿勢を用いなくてもよい。 The display control unit 23b may cause the display 21 to display the distance from the set point on the main body 3 to the tip portion 7b of the lifting mechanism 7 (referred to as the tip portion distance) together with the index distance. In this case, the display control unit 23b controls the input operation amount of each part of the lifting mechanism 7, known dimensions of each part of the lifting mechanism 7, known positions of the set points on the main body 3, and relative to the horizontal plane. Based on the posture of the main body 3, the tip distance from the set point on the main body 3 to the tip 7b of the lifting mechanism 7 is calculated. For example, as shown in FIG. 4, Scm may be displayed at a predetermined position (for example, lower right of the image data) as the tip distance. Here, "the posture of the main body 3 with respect to the horizontal plane and the amount of movement of each part of the lifting mechanism 7" used for calculating the tip distance is determined by the detection unit of the mobile robot (for example, the above-mentioned It may be detected by the gyroscope 17a or the movement amount detection unit 17b), and may be included in the above-mentioned posture information input to the display control device 23. FIG. When the above index distance is a horizontal distance, the tip distance is a horizontal distance, and when the above index distance is a three-dimensional distance, the tip distance is A three-dimensional distance is preferable. If the tip distance is not a horizontal distance but a three-dimensional distance, it is not necessary to use the attitude of the main body 3 with respect to the horizontal plane to obtain the tip distance.

<操作装置の構成>
操作装置20Bは、人が持上機構7を遠隔操縦するためのものである。図1において、操作装置20Bは、人に操作される操作部25と、操作部25になされた操作に応じた動作指令を生成する指令生成部27とを含む。
<Configuration of operation device>
The operating device 20B is for remote control of the lifting mechanism 7 by a person. In FIG. 1, the operation device 20B includes an operation unit 25 operated by a person, and a command generation unit 27 that generates an action command according to the operation performed on the operation unit 25. FIG.

操縦側の通信部19は、指令生成部27により生成された動作指令を、無線で移動ロボット10へ送信する。移動ロボット側の通信部15は、操縦側の通信部19から送信された動作指令を受信して動作制御部9へ入力する。 The control-side communication unit 19 wirelessly transmits the action command generated by the command generation unit 27 to the mobile robot 10 . The communication unit 15 on the mobile robot side receives the motion command transmitted from the communication unit 19 on the control side and inputs it to the motion control unit 9 .

操作部25として、持上機構7の先端部7bを本体3に対して移動させるための移動操作部25aと、把持装置7cに把持動作を実行させるための把持操作部25bとが設けられていてよい。 As the operation portion 25, a movement operation portion 25a for moving the tip portion 7b of the lifting mechanism 7 with respect to the main body 3 and a gripping operation portion 25b for causing the gripping device 7c to perform a gripping operation are provided. good.

移動操作部25aの操作によって指令生成部27が生成する動作指令は、例えば、移動ロボット10の本体3に対する設定方向(以下で単に設定方向という)における先端部7bの移動を示してよい。すなわち、設定方向の移動を指令する操作を移動操作部25aに行うことができ、当該操作により、指令生成部27は、当該設定方向の移動を示す動作指令を生成する。 The action command generated by the command generation unit 27 by operating the movement operation unit 25a may indicate, for example, the movement of the tip part 7b in the set direction (hereinafter simply referred to as the set direction) with respect to the main body 3 of the mobile robot 10. FIG. That is, the movement operation unit 25a can be operated to command movement in the set direction, and the command generation unit 27 generates an operation command indicating movement in the set direction by the operation.

複数の設定方向があり、各設定方向について当該設定方向の移動を指令する操作を人が移動操作部25aに行えるように移動操作部25aが構成されていてよい。この場合、2つ以上の設定方向の各々の移動を指令する操作を人が移動操作部25aに同時に行えるように移動操作部25aが構成されていてもよい。 There may be a plurality of setting directions, and the movement operation section 25a may be configured so that a person can perform an operation to instruct the movement operation section 25a to move in each of the setting directions. In this case, the movement operation unit 25a may be configured so that a person can simultaneously perform operations to instruct the movement operation unit 25a to move in two or more set directions.

移動操作部25aは、例えば、1つ又は複数のレバーを含むものであってよい。この場合、各設定方向は、レバーが操作されるいずれかの方向(例えばレバーを基準姿勢から傾ける方向)に対応していてよい。レバーが、いずれかの設定方向に対応する方向に操作されると、設定方向の移動を示す動作指令が指令生成部27により生成される。なお、レバーが、2つの設定方向にそれぞれ対応する2つの方向の成分を有する方向に操作された場合、指令生成部27は、当該2つの設定方向の各々の移動を示す動作指令を同時に生成してよい。なお、レバーが設定方向に対応する方向に操作されている時間だけ、指令生成部27は当該設定方向の移動を示す動作指令を生成してよい。これにより、当該時間だけ先端部7bは当該設定方向に移動する。 The movement operation part 25a may include, for example, one or more levers. In this case, each setting direction may correspond to any direction in which the lever is operated (for example, the direction in which the lever is tilted from the reference posture). When the lever is operated in a direction corresponding to one of the set directions, the command generator 27 generates an operation command indicating movement in the set direction. Note that when the lever is operated in a direction having two directional components corresponding to the two set directions, the command generation unit 27 simultaneously generates an operation command indicating movement in each of the two set directions. you can Note that the command generation unit 27 may generate an operation command indicating movement in the set direction only while the lever is being operated in the direction corresponding to the set direction. As a result, the distal end portion 7b moves in the set direction for the specified time.

一例では、複数の設定方向は、次の(1)~(3)であってよい。
(1)本体3の左右方向
(2)本体3の前後方向
(3)本体3の左右方向と本体3の前後方向の両方に交差(例えば直交)する方向
In one example, the multiple setting directions may be the following (1) to (3).
(1) the lateral direction of the main body 3; (2) the longitudinal direction of the main body 3;

この場合、移動操作部25aは、例えば第1および第2のレバーを含んでよい。第1のレバーを操作者から見て右側に傾けると、上記(1)の左右方向のうち右方向への先端部7bの移動を示す動作指令が指令生成部27により生成される。第1のレバーを操作者から見て左側に傾けると、上記(1)の左右方向のうち左方向への先端部7bの移動を示す動作指令が指令生成部27により生成される。同様に、第1のレバーを操作者から見て前側に傾けると、上記(2)の前後方向のうち前方向への先端部7bの移動を示す動作指令が指令生成部27により生成され、第1のレバーを操作者から見て後側に傾けると、上記(2)の前後方向のうち後方向への先端部7bの移動を示す動作指令が指令生成部27により生成される。また、同様に、第2のレバーを操作者から見て前側に傾けると、上記(3)の方向(互いに逆向きの2方向)のうち一方の方向への先端部7bの移動を示す動作指令が指令生成部27により生成され、第2のレバーを操作者から見て後側に傾けると、上記(3)の方向のうち他方の方向への先端部7bの移動を示す動作指令が指令生成部27により生成される。ただし、移動操作部25aは、他の構成を有していてもよい。 In this case, the movement operation part 25a may include, for example, first and second levers. When the first lever is tilted to the right as seen from the operator, the command generator 27 generates an operation command indicating movement of the distal end portion 7b in the right direction of the left and right directions in (1) above. When the first lever is tilted to the left as seen from the operator, the command generation unit 27 generates an operation command indicating movement of the tip portion 7b in the left direction of the left and right directions in (1) above. Similarly, when the first lever is tilted forward as seen from the operator, the command generation unit 27 generates an operation command indicating movement of the distal end portion 7b in the forward direction of the front-rear direction in (2) above. When the lever 1 is tilted rearward as seen from the operator, the command generator 27 generates an operation command indicating movement of the distal end portion 7b in the rearward direction of the front-rear direction in (2) above. Similarly, when the second lever is tilted forward as viewed from the operator, an operation command indicating movement of the tip portion 7b in one of the above directions (3) (two directions opposite to each other) is issued. is generated by the command generation unit 27, and when the second lever is tilted rearward as seen from the operator, an operation command indicating movement of the distal end portion 7b in the other direction of the direction (3) is generated. generated by the unit 27; However, the movement operation unit 25a may have other configurations.

別の例では、複数の設定方向は、次の(4)~(6)であってもよい。
(4)持上機構7の基端部7aの軸Cまわりの方向。
(5)持上機構7が向いている方向。ここで、持上機構7が向いている方向とは、持上機構7の基端部7aから先端部7bに向かう方向であって、本体3の左右方向と本体3の前後方向を含む平面と平行な方向である。
(6)本体3の左右方向と本体3の前後方向の両方に交差(例えば直交)する方向。
In another example, the multiple setting directions may be the following (4) to (6).
(4) the direction around the axis C of the base end portion 7a of the lifting mechanism 7;
(5) the direction in which the lifting mechanism 7 is facing; Here, the direction in which the lifting mechanism 7 faces is the direction from the proximal end portion 7a to the distal end portion 7b of the lifting mechanism 7, and is a plane including the left-right direction of the main body 3 and the front-rear direction of the main body 3. parallel direction.
(6) A direction intersecting (for example, perpendicular to) both the left-right direction of the main body 3 and the front-rear direction of the main body 3 .

この場合においても、上記(4)~(6)の各設定方向について、当該設定方向の移動を指令する操作を人が移動操作部25aに行えるように移動操作部25aが構成されている。 In this case as well, the movement operation section 25a is configured so that a person can operate the movement operation section 25a to command movement in each of the set directions (4) to (6).

また、把持操作部25bは、把持装置7cが対象物1を把持する動作を指令するための操作ができるように構成されていてよい。例えば、移動操作部25aの操作により先端部7bの把持装置7cが対象物1を把持できる位置に移動させられた状態で、把持を実行するための操作が把持操作部25b(例えばボタン)になされることにより、把持装置7cは、対象物1を把持する動作を行う。当該動作は、図2と図3の例では、開いている1対の把持部材7c1が閉じることにより対象物1を挟んで把持する動作であってよい。 Further, the gripping operation section 25b may be configured to be able to perform an operation for instructing the motion of gripping the object 1 by the gripping device 7c. For example, in a state in which the grasping device 7c of the distal end portion 7b is moved to a position where the object 1 can be grasped by the operation of the movement operation portion 25a, the grasping operation portion 25b (for example, a button) is operated to execute grasping. By doing so, the gripping device 7c performs an operation of gripping the object 1 . In the example of FIGS. 2 and 3, the operation may be an operation of gripping the object 1 by closing the pair of gripping members 7c1 that are open.

<画像表示方法>
図6は、上述した遠隔操縦システム100において行われる画像表示方法を示すフローチャートである。
<Image display method>
FIG. 6 is a flow chart showing an image display method performed in the remote control system 100 described above.

ステップS1において、移動ロボット10が、遠隔操縦されることにより又は自律移動により、対象物1が置かれている場所へ移動し、持上機構7で対象物1を把持して持ち上げられる位置で停止する。なお、自律移動の場合には、当該場所を示す位置情報が移動ロボット10の移動制御部(図示せず)に与えられる。 In step S1, the mobile robot 10 moves to a place where the object 1 is placed by remote control or autonomous movement, and stops at a position where the object 1 can be grasped and lifted by the lifting mechanism 7. do. In the case of autonomous movement, position information indicating the location is given to a movement control section (not shown) of the mobile robot 10 .

ステップS2において、移動ロボット10のカメラ13が、対象物1を含む領域を撮像して、この領域の画像データを生成する。 In step S2, the camera 13 of the mobile robot 10 takes an image of an area including the object 1 and generates image data of this area.

ステップS3において、ステップS2を行う時に、移動ロボット10の姿勢センサ17が上述の姿勢情報を検出する。ステップS2とステップS3は同時に行われてよい。 In step S3, the attitude sensor 17 of the mobile robot 10 detects the above-described attitude information when performing step S2. Steps S2 and S3 may be performed simultaneously.

ステップS4において、ステップS2、S3でそれぞれ得た画像データと姿勢情報が、移動ロボット側の通信部15から遠隔操縦側装置20へ送信される。 In step S4, the image data and orientation information obtained in steps S2 and S3 are transmitted from the communication unit 15 of the mobile robot to the remote control device 20. FIG.

ステップS5では、ステップS4で送信された画像データと姿勢情報が操縦側の通信部19に受信されて表示制御装置23に入力される。 In step S<b>5 , the image data and attitude information transmitted in step S<b>4 are received by the communication unit 19 on the control side and input to the display control device 23 .

ステップS6において、表示制御装置23の方向計算部23aは、上述したように、ステップS5で入力された姿勢情報などに基づいて、ステップS5で入力された画像データにおける設定位置Psでの水平面の方向と鉛直方向の一方または両方を求める。 In step S6, the direction calculation unit 23a of the display control device 23 calculates the direction of the horizontal plane at the set position Ps in the image data input in step S5 based on the orientation information input in step S5, as described above. and/or the vertical direction.

ステップS7において、表示制御部23bは、ステップS5で入力された画像データをディスプレイ21に表示させるとともに、ステップS6で求めた設定位置Psでの水平面の方向と鉛直方向の一方または両方に基づいて、水平面指標Mhと鉛直指標Mvをディスプレイ21に表示させる。この時、表示制御部23bは、水平面指標Mhと鉛直指標Mvを当該画像データにおける上記設定位置Psに表示させてよい。 In step S7, the display control unit 23b displays the image data input in step S5 on the display 21, and based on one or both of the horizontal direction and the vertical direction at the set position Ps obtained in step S6, The horizontal surface index Mh and the vertical index Mv are displayed on the display 21 . At this time, the display control unit 23b may display the horizontal surface index Mh and the vertical index Mv at the set position Ps in the image data.

また、ステップS7において、表示制御装置23の表示制御部23bは、上述のように、カメラ13の特性などに基づいて水平面指標Mhの寸法を算出して、水平面指標Mhの寸法を水平面指標Mhと関連付けてディスプレイ21に表示させてもよい。 Further, in step S7, the display control unit 23b of the display control device 23 calculates the dimension of the horizontal plane index Mh based on the characteristics of the camera 13, etc., as described above, and compares the dimension of the horizontal plane index Mh with the horizontal plane index Mh. They may be displayed on the display 21 in association with each other.

また、ステップS7において、表示制御装置23の表示制御部23bは、上述のように、カメラ13の特性などに基づいて、本体3上の設定点から水平面指標Mhまたは鉛直指標Mv上の設定点までの距離(指標距離)を求め、指標距離を、水平面指標Mhまたは鉛直指標Mv上の設定点と関連付けてディスプレイ21に表示させてもよい。
また、表示制御部23bは、上述のように、指標距離とともに、本体3上の上記設定点から持上機構7の先端部7bまでの距離(先端部距離)をディスプレイ21に表示させてもよい。
Further, in step S7, the display control unit 23b of the display control device 23 controls the distance from the set point on the main body 3 to the set point on the horizontal plane index Mh or the vertical index Mv based on the characteristics of the camera 13, etc., as described above. (index distance) may be obtained, and the index distance may be displayed on the display 21 in association with a set point on the horizontal surface index Mh or the vertical index Mv.
Further, as described above, the display control unit 23b may cause the display 21 to display the distance (tip distance) from the set point on the main body 3 to the tip 7b of the lifting mechanism 7 along with the index distance. .

上述したステップS2~S7は、繰り返し行われる。これによりディスプレイ21に表示される画像データ、水平面指標Mh、鉛直指標Mv、水平面指標Mhの寸法、および指標距離を見ながら、操作者は操作部25を操作することにより、持上機構7により対象物1を把持して持ち上げる。 Steps S2 to S7 described above are repeatedly performed. While viewing the image data, the horizontal index Mh, the vertical index Mv, the dimensions of the horizontal index Mh, and the index distance displayed on the display 21 , the operator operates the operation unit 25 to cause the lifting mechanism 7 to move the object. Grab and lift object 1.

<実施形態の効果>
上述した実施形態では、例えば以下の効果が得られる。
<Effects of Embodiment>
In the embodiment described above, for example, the following effects are obtained.

水平面に対するカメラ13の姿勢を特定可能な情報を姿勢情報として、移動ロボット10に設けられた姿勢センサ17が検出する。この姿勢情報に基づいて、水平面の方向を示す水平面指標Mhと鉛直方向を示す鉛直指標Mvの一方または両方を、対象物1の領域を撮像した画像データとともにディスプレイ21に表示させる。したがって、人は、持上機構7を遠隔操縦する際に、表示された水平面指標Mhと鉛直指標Mvの一方または両方を見ることで画像データにおける水平面の方向または鉛直方向を容易に認識できる。したがって、対象物1が水平面に対して傾いた斜面に置かれている場合であっても、対象物1を把持して持ち上げるように移動ロボット10の持上機構7を遠隔操縦することが容易になる。例えば、操作者は、持上機構7が対象物1を鉛直方向に持ち上げるように持上機構7を遠隔操縦することが容易になる。 The posture sensor 17 provided in the mobile robot 10 detects information that can specify the posture of the camera 13 with respect to the horizontal plane as posture information. Based on this posture information, one or both of a horizontal plane index Mh indicating the direction of the horizontal plane and a vertical index Mv indicating the vertical direction are displayed on the display 21 together with image data obtained by imaging the area of the object 1 . Therefore, when remotely controlling the lifting mechanism 7, a person can easily recognize the horizontal plane direction or the vertical direction in the image data by looking at one or both of the displayed horizontal plane index Mh and vertical index Mv. Therefore, even when the object 1 is placed on a slope inclined with respect to the horizontal plane, the lifting mechanism 7 of the mobile robot 10 can be easily remotely controlled so as to grasp and lift the object 1. Become. For example, the operator can easily remotely control the lifting mechanism 7 so that the lifting mechanism 7 lifts the object 1 vertically.

対象物1を含む領域をカメラ13で撮像する時に姿勢センサ17で検出した姿勢情報に基づいて、方向計算部23aが、画像データにおける水平面の方向と鉛直方向の一方または両方を求める。このように求めた水平面の方向と鉛直方向の一方または両方に基づいて、表示制御部23bが、水平面指標Mhと鉛直指標Mvをディスプレイ21に表示させることができる。 Based on the posture information detected by the posture sensor 17 when the camera 13 captures an image of the area including the object 1, the direction calculator 23a obtains one or both of the horizontal plane direction and the vertical direction in the image data. Based on one or both of the horizontal plane direction and the vertical direction thus obtained, the display control unit 23b can cause the display 21 to display the horizontal plane index Mh and the vertical plane index Mv.

水平面指標Mhが、画像データにおける水平面に位置するように3次元的に表示される格子の画像である場合には、人は、このような格子が延びている方向を見ることで、水平面が延びている方向を認識しやすくなる。 When the horizontal plane index Mh is an image of a grid displayed three-dimensionally so as to be positioned on the horizontal plane in the image data, the horizontal plane extends by looking at the direction in which such a grid extends. Makes it easier to recognize the direction you are facing.

表示制御部23bは、水平面指標Mhを画像データに重ねてディスプレイ21に表示させ、かつ、水平面指標Mhまたは鉛直指標Mvの寸法をディスプレイ21に表示させる場合には、人は、この寸法を参照して、画像データにおいて水平面指標Mhまたは鉛直指標Mvと対象物1との大きさを比較することで、対象物1の寸法を認識しやすくなる。 When the display control unit 23b causes the display 21 to display the horizontal plane index Mh superimposed on the image data, and displays the dimensions of the horizontal plane index Mh or the vertical index Mv on the display 21, the person can refer to these dimensions. Therefore, by comparing the size of the object 1 with the horizontal surface index Mh or the vertical index Mv in the image data, the size of the object 1 can be easily recognized.

表示制御部23bは、本体3上の設定点から、表示された水平面指標Mhまたは鉛直指標Mv上の設定点までの距離をディスプレイ21に表示させる場合には、人は、この距離を参照して、画像データにおいて水平面指標Mhまたは鉛直指標Mvの位置と対象物1の位置とを比較することで、本体3から対象物1までの距離を認識しやすくなる。 When the display control unit 23b causes the display 21 to display the distance from the set point on the main body 3 to the set point on the displayed horizontal surface index Mh or vertical index Mv, a person can refer to this distance. , the distance from the main body 3 to the object 1 can be easily recognized by comparing the position of the horizontal surface index Mh or the vertical index Mv with the position of the object 1 in the image data.

表示制御部23bは、指標距離とともに、本体3上の上記設定点から持上機構7の先端部7bまでの距離(先端部距離)をディスプレイ21に表示させる場合には、人は、指標距離と先端部距離を参照することで、水平面指標Mhまたは鉛直指標Mvと先端部7b(把持装置7c)との距離の差を確認できる。この場合、人は、さらに、画像データにおける水平面指標Mhまたは鉛直指標Mvと対象物1との位置関係を見ることで、対象物1と先端部7b(把持装置7c)との位置関係を認識しやすくなる。その結果、把持装置7cで対象物1の所望の箇所を把持するように持上機構7を遠隔操縦しやすくなる。 When the display control unit 23b causes the display 21 to display the distance from the set point on the main body 3 to the tip portion 7b of the lifting mechanism 7 (tip portion distance) together with the index distance, the person can display the index distance and the tip portion 7b. By referring to the tip portion distance, the difference in distance between the horizontal surface index Mh or the vertical index Mv and the tip portion 7b (gripping device 7c) can be confirmed. In this case, a person further recognizes the positional relationship between the object 1 and the tip portion 7b (grasping device 7c) by looking at the positional relationship between the horizontal surface index Mh or the vertical index Mv in the image data and the object 1. easier. As a result, it becomes easier to remotely control the lifting mechanism 7 so as to grip a desired portion of the object 1 with the gripping device 7c.

<変更例>
本発明は上述した実施の形態に限定されず、本発明の技術的思想の範囲内で種々変更を加え得ることは勿論である。例えば、以下の変更例1~3のいずれかを採用してもよいし、変更例1~3の複数を任意に組わせて採用してもよい。この場合、以下で説明しない点は、上述と同じであってよい。
<Change example>
It goes without saying that the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the technical idea of the present invention. For example, any one of Modifications 1 to 3 below may be adopted, or a plurality of Modifications 1 to 3 may be arbitrarily combined and adopted. In this case, points not described below may be the same as those described above.

(変更例1)
方向計算部23aは、移動ロボット10に設けられていてもよい。この場合、画像データにおける水平面の方向と鉛直方向の一方または両方は、方向計算部23aにより求められて、移動ロボット側の通信部15と操縦側の通信部19を介して表示制御部23bへ入力される。
(Modification 1)
The direction calculator 23 a may be provided in the mobile robot 10 . In this case, one or both of the horizontal direction and the vertical direction in the image data are determined by the direction calculation unit 23a and input to the display control unit 23b via the communication unit 15 on the mobile robot side and the communication unit 19 on the control side. be done.

(変更例2)
表示制御部23bは、水平面指標Mhと鉛直指標Mvのうち一方(水平面指標Mhまたは鉛直指標Mv)のみをディスプレイ21に表示させてもよい。
(Modification 2)
The display control unit 23b may cause the display 21 to display only one of the horizontal surface index Mh and the vertical surface index Mv (horizontal surface index Mh or vertical surface index Mv).

(変更例3)
なお、上述のカメラ13の代わりに、レーザセンサ(例えばレーザレンジファインダLRF)を用いてもよい。この場合、上述において、画像データは、レーザセンサの計測により生成された距離画像データとなる。
(Modification 3)
A laser sensor (for example, a laser range finder LRF) may be used instead of the camera 13 described above. In this case, in the above description, the image data is distance image data generated by the measurement of the laser sensor.

1 対象物、2 地表面、3 本体、5 移動機構、5a 回転体、7 持上機構、7a 基端部、7b 先端部、7c 把持装置、7c1 把持部材、7d 中間部、9 動作制御部、10 移動ロボット、11 駆動装置、13 カメラ、15 移動ロボット側の通信部、17 姿勢センサ、17a ジャイロスコープ、17b 動作量検出部、19 操縦側の通信部、20 遠隔操縦側装置、20A 画像表示装置、20B 操作装置、21 ディスプレイ、21a 画面、23 表示制御装置、23a 方向計算部、23b 表示制御部、25 操作部、25a 移動操作部、25b 把持操作部、27 指令生成部、100 遠隔操縦システム、C 軸、Dh1,Dh2 水平面の方向(水平方向)、Dv 鉛直方向、H 水平面(水平フレーム)、Ps 設定位置、Mh 水平面指標、Mv 鉛直指標 1 object, 2 ground surface, 3 main body, 5 moving mechanism, 5a rotating body, 7 lifting mechanism, 7a proximal end, 7b distal end, 7c gripping device, 7c1 gripping member, 7d intermediate portion, 9 motion control section, 10 Mobile robot 11 Driving device 13 Camera 15 Mobile robot side communication unit 17 Attitude sensor 17a Gyroscope 17b Movement amount detection unit 19 Control side communication unit 20 Remote control side device 20A Image display device , 20B operation device, 21 display, 21a screen, 23 display control device, 23a direction calculation unit, 23b display control unit, 25 operation unit, 25a movement operation unit, 25b grip operation unit, 27 command generation unit, 100 remote control system, C axis, Dh1, Dh2 direction of horizontal plane (horizontal direction), Dv vertical direction, H horizontal plane (horizontal frame), Ps setting position, Mh horizontal plane index, Mv vertical index

Claims (8)

移動ロボットに設けられ対象物を把持して持ち上げる持上機構の遠隔操縦時に当該対象物を含む領域の画像データを表示する画像表示装置であって、
前記移動ロボットに設けたカメラにより撮像された、前記対象物を含む領域の画像データを受ける通信部と、
前記通信部が受けた前記画像データを表示するディスプレイと、
水平面に対する前記カメラの姿勢を特定可能な情報を姿勢情報として、前記移動ロボットに設けられた姿勢センサが検出した前記姿勢情報に基づいて、水平面を表わす水平面指標と鉛直方向を示す鉛直指標を、前記画像データとともに前記ディスプレイに表示させる表示制御装置とを備え
前記水平面指標は、前記画像データにおける前記水平面に位置するように3次元的に表示される格子の画像であり、前記画像データに重ねて表示される、画像表示装置。
An image display device for displaying image data of an area including an object when a lifting mechanism provided in a mobile robot for gripping and lifting an object is remotely controlled,
a communication unit that receives image data of an area including the object captured by a camera provided on the mobile robot;
a display that displays the image data received by the communication unit;
Using information that can specify the orientation of the camera with respect to the horizontal plane as orientation information, and based on the orientation information detected by the orientation sensor provided in the mobile robot, a horizontal plane index representing the horizontal plane and a vertical index indicating the vertical direction are determined, A display control device for displaying on the display together with the image data ,
The image display device , wherein the horizontal plane index is an image of a grid that is three-dimensionally displayed so as to be positioned on the horizontal plane in the image data, and is displayed superimposed on the image data .
前記表示制御装置は、
前記姿勢情報に基づいて、前記画像データにおける水平面の方向と鉛直方向を求める方向計算部と、
該方向計算部が求めた水平面の方向と鉛直方向に基づいて、前記水平面指標と前記鉛直指標を前記画像データとともに前記ディスプレイに表示させる表示制御部とを含む、請求項1に記載の画像表示装置。
The display control device is
a direction calculation unit that calculates a horizontal plane direction and a vertical direction in the image data based on the posture information;
2. The image according to claim 1, further comprising a display control unit for displaying said horizontal surface index and said vertical surface index together with said image data on said display based on the horizontal direction and vertical direction obtained by said direction calculation unit. display device.
前記鉛直指標は矢印である、請求項1又は2に記載の画像表示装置。 3. The image display device according to claim 1, wherein said vertical indicator is an arrow . 移動ロボットに設けられ対象物を把持して持ち上げる持上機構の遠隔操縦時に当該対象物を含む領域の画像データを表示する画像表示装置であって、
前記移動ロボットに設けたカメラにより撮像された、前記対象物を含む領域の画像データを受ける通信部と、
前記通信部が受けた前記画像データを表示するディスプレイと、
水平面に対する前記カメラの姿勢を特定可能な情報を姿勢情報として、前記移動ロボットに設けられた姿勢センサが検出した前記姿勢情報に基づいて、水平面の方向を示す水平面指標を、前記画像データとともに前記ディスプレイに表示させる表示制御装置とを備え、
前記表示制御装置は、
前記姿勢情報に基づいて、前記画像データにおける水平面の方向を求める方向計算部と、
該方向計算部が求めた水平面の方向に基づいて、前記水平面指標を前記画像データとともに前記ディスプレイに表示させる表示制御部とを含み、
前記表示制御部は、前記水平面指標を前記画像データに重ねて前記ディスプレイに表示させ、かつ、前記水平面指標の寸法を前記ディスプレイに表示させ、該寸法は、対応する現実世界の寸法である画像表示装置。
An image display device for displaying image data of an area including an object when a lifting mechanism provided in a mobile robot for gripping and lifting an object is remotely controlled,
a communication unit that receives image data of an area including the object captured by a camera provided on the mobile robot;
a display that displays the image data received by the communication unit;
Using information that can specify the orientation of the camera with respect to the horizontal plane as orientation information, and based on the orientation information detected by an orientation sensor provided in the mobile robot, a horizontal plane index indicating the direction of the horizontal plane is displayed together with the image data on the display. and a display control device for displaying on
The display control device is
a direction calculation unit that calculates a direction of a horizontal plane in the image data based on the posture information;
a display control unit for displaying the horizontal surface index together with the image data on the display based on the direction of the horizontal surface obtained by the direction calculation unit;
The display control unit causes the display to display the horizontal plane index superimposed on the image data, and causes the display to display a dimension of the horizontal plane index, the dimension being a corresponding real-world dimension. display device.
移動ロボットに設けられ対象物を把持して持ち上げる持上機構の遠隔操縦時に当該対象物を含む領域の画像データを表示する画像表示装置であって、
前記移動ロボットに設けたカメラにより撮像された、前記対象物を含む領域の画像データを受ける通信部と、
前記通信部が受けた前記画像データを表示するディスプレイと、
水平面に対する前記カメラの姿勢を特定可能な情報を姿勢情報として、前記移動ロボットに設けられた姿勢センサが検出した前記姿勢情報に基づいて、水平面の方向を示す水平面指標と鉛直方向を示す鉛直指標の一方または両方を、前記画像データとともに前記ディスプレイに表示させる表示制御装置とを備え、
前記表示制御装置は、
前記姿勢情報に基づいて、前記画像データにおける水平面の方向と鉛直方向の一方または両方を求める方向計算部と、
該方向計算部が求めた水平面の方向と鉛直方向の一方または両方に基づいて、前記水平面指標と前記鉛直指標の一方または両方を前記画像データとともに前記ディスプレイに表示させる表示制御部とを含み、
前記表示制御部は、前記水平面指標と前記鉛直指標の一方または両方を、前記画像データとともに前記ディスプレイに表示させ、かつ、移動ロボットの本体上の設定点から、表示された前記水平面指標または前記鉛直指標までの距離を指標距離として前記ディスプレイに表示させる画像表示装置。
An image display device for displaying image data of an area including an object when a lifting mechanism provided in a mobile robot for gripping and lifting an object is remotely controlled,
a communication unit that receives image data of an area including the object captured by a camera provided on the mobile robot;
a display that displays the image data received by the communication unit;
A horizontal plane index indicating the direction of the horizontal plane and a vertical index indicating the vertical direction are determined based on the orientation information detected by the orientation sensor provided in the mobile robot, using information that can specify the orientation of the camera with respect to the horizontal plane as orientation information. a display control device for displaying one or both on the display together with the image data;
The display control device is
a direction calculation unit that calculates one or both of a horizontal plane direction and a vertical direction in the image data based on the posture information;
a display control unit for displaying one or both of the horizontal plane index and the vertical direction along with the image data on the display based on one or both of the horizontal plane direction and the vertical direction obtained by the direction calculation unit;
The display control unit causes the display to display one or both of the horizontal plane index and the vertical index together with the image data, and displays the displayed horizontal plane index or the vertical index from a set point on the main body of the mobile robot. An image display device that causes the display to display a distance to an index as an index distance.
前記持上機構の各部の動作量が、前記移動ロボットの検出部で検出されて前記表示制御部に入力され、
前記表示制御部は、
当該動作量と、前記持上機構の各部の既知の寸法と、前記本体上の前記設定点の既知の位置とに基づいて、前記本体上の前記設定点から前記持上機構の先端部までの距離を先端部距離として算出し、
当該先端部距離と、前記指標距離と、前記水平面指標と前記鉛直指標の一方または両方とを、前記画像データとともに前記ディスプレイに表示させる、請求項5に記載の画像表示装置。
a motion amount of each part of the lifting mechanism is detected by a detection part of the mobile robot and input to the display control part;
The display control unit
Based on the amount of movement, the known dimensions of each part of the lifting mechanism, and the known location of the set point on the body, the distance from the set point on the body to the distal end of the lifting mechanism. Calculate the distance as the tip distance,
6. The image display device according to claim 5, wherein said tip distance, said index distance, and one or both of said horizontal plane index and said vertical index are displayed on said display together with said image data.
移動ロボットに設けられ対象物を把持して持ち上げる持上機構の遠隔操縦時に当該対象物を含む領域の画像データを表示する画像表示方法であって、
(A)前記移動ロボットに設けたカメラにより撮像された、前記対象物を含む領域の画像データを受け、
(B)水平面に対する前記カメラの姿勢を特定可能な情報を姿勢情報として、前記移動ロボットに設けられた姿勢センサが検出した前記姿勢情報に基づいて、水平面を表わす水平面指標と鉛直方向を示す鉛直指標を、前記画像データとともにディスプレイに表示させ
前記水平面指標は、前記画像データにおける前記水平面に位置するように3次元的に表示される格子の画像であり、前記(B)において前記画像データに重ねて表示される、画像表示方法。
An image display method for displaying image data of an area including an object when a lifting mechanism provided in a mobile robot for gripping and lifting an object is remotely operated, the method comprising:
(A) receiving image data of an area including the object captured by a camera provided on the mobile robot;
(B) A horizontal plane index indicating a horizontal plane and a vertical index indicating a vertical direction based on the orientation information detected by the orientation sensor provided in the mobile robot, using information that can specify the orientation of the camera with respect to the horizontal plane as orientation information. is displayed on the display together with the image data ,
The image display method , wherein the horizontal plane index is a grid image that is three-dimensionally displayed so as to be positioned on the horizontal plane in the image data, and is superimposed on the image data in (B) above .
対象物を把持して持ち上げる持上機構が設けられた移動ロボットと、前記持上機構を遠隔操縦するための遠隔操縦側装置とを備える遠隔操縦システムであって、
前記遠隔操縦側装置は、
請求項1~6のいずれか一項に記載の画像表示装置と、
前記持上機構を遠隔操縦するために操作され、なされた操作に応じた動作指令を生成する操作装置と、を備え、
前記移動ロボットは、
前記遠隔操縦側装置から送信された前記動作指令に従って前記持上機構の動作を制御する動作制御部を備える、遠隔操縦システム。
A remote control system comprising a mobile robot provided with a lifting mechanism for gripping and lifting an object, and a remote control device for remotely controlling the lifting mechanism,
The remote control device,
The image display device according to any one of claims 1 to 6,
an operation device that is operated to remotely control the lifting mechanism and that generates an operation command according to the operation performed;
The mobile robot is
A remote control system comprising an operation control unit that controls the operation of the lifting mechanism according to the operation command transmitted from the remote control device.
JP2018093244A 2018-05-14 2018-05-14 Image display device, image display method and remote control system Active JP7122863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018093244A JP7122863B2 (en) 2018-05-14 2018-05-14 Image display device, image display method and remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093244A JP7122863B2 (en) 2018-05-14 2018-05-14 Image display device, image display method and remote control system

Publications (2)

Publication Number Publication Date
JP2019198905A JP2019198905A (en) 2019-11-21
JP7122863B2 true JP7122863B2 (en) 2022-08-22

Family

ID=68611625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093244A Active JP7122863B2 (en) 2018-05-14 2018-05-14 Image display device, image display method and remote control system

Country Status (1)

Country Link
JP (1) JP7122863B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112908191B (en) * 2019-12-04 2023-04-07 深圳蓝普科技有限公司 Automatic maintenance system for positioning device and splicing display device
JP7414197B2 (en) * 2020-12-01 2024-01-16 鴻池運輸株式会社 Virtual gauge display program and device
CN118922801A (en) * 2022-03-28 2024-11-08 三菱电机株式会社 Information processing device, operating system, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050256607A1 (en) 2004-05-11 2005-11-17 J.C. Bamford Excavators Limited Operator display system
JP2006058064A (en) 2004-08-18 2006-03-02 Nippon Seiki Co Ltd Vehicle display device
JP2013201958A (en) 2012-03-28 2013-10-07 National Agriculture & Food Research Organization Travel control apparatus
JP2015219782A (en) 2014-05-19 2015-12-07 株式会社リコー Image display device, image display method, and image display control program
JP2016160741A (en) 2015-03-05 2016-09-05 株式会社小松製作所 Image display system for work machine, remote operation system for work machine, and work machine
JP2017052053A (en) 2015-09-10 2017-03-16 株式会社Ihiエアロスペース Method of creating image for remote-control in unmanned vehicle, and remote control system of unmanned vehicle
JP2017110492A (en) 2017-02-06 2017-06-22 住友建機株式会社 Shovel

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05162695A (en) * 1991-12-17 1993-06-29 Mitsubishi Heavy Ind Ltd Pilot assisting device
KR102506369B1 (en) * 2015-07-03 2023-03-06 현대두산인프라코어 주식회사 Wearable device for guidance of construction machinery and method of displaying work informations using the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050256607A1 (en) 2004-05-11 2005-11-17 J.C. Bamford Excavators Limited Operator display system
JP2006058064A (en) 2004-08-18 2006-03-02 Nippon Seiki Co Ltd Vehicle display device
JP2013201958A (en) 2012-03-28 2013-10-07 National Agriculture & Food Research Organization Travel control apparatus
JP2015219782A (en) 2014-05-19 2015-12-07 株式会社リコー Image display device, image display method, and image display control program
JP2016160741A (en) 2015-03-05 2016-09-05 株式会社小松製作所 Image display system for work machine, remote operation system for work machine, and work machine
US20180051446A1 (en) 2015-03-05 2018-02-22 Komatsu Ltd. Image display system for work machine, remote operation system for work machine, and work machine
JP2017052053A (en) 2015-09-10 2017-03-16 株式会社Ihiエアロスペース Method of creating image for remote-control in unmanned vehicle, and remote control system of unmanned vehicle
JP2017110492A (en) 2017-02-06 2017-06-22 住友建機株式会社 Shovel

Also Published As

Publication number Publication date
JP2019198905A (en) 2019-11-21

Similar Documents

Publication Publication Date Title
US9770823B2 (en) Auto-reach method and system for a remote vehicle
CN114728417B (en) Method and apparatus for autonomous object learning by remote operator triggered robots
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
JP7122863B2 (en) Image display device, image display method and remote control system
JP4665857B2 (en) Mobile body capable of guiding arm and method for guiding arm
EP3072641B1 (en) Remotely controlled robotic vehicle
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
US20180243897A1 (en) Remote control robot system
US20130041508A1 (en) Systems and methods for operating robots using visual servoing
CN111319039B (en) Robot
CN111432990A (en) Skill Inheritance Mechanism
JP6650710B2 (en) Method for creating image for remote control in unmanned vehicle, and remote control system for unmanned vehicle
CN114072255B (en) Mobile robot sensor configuration
JP7023492B2 (en) Follow-up image presentation system for moving objects
CN111085993A (en) Robot system and robot control method for cooperating with humans
CN115958575B (en) Mobile robot capable of being operated flexibly by similar people
CN111941392B (en) Robot operating device, robot, and robot operating method
JP2020142326A (en) Robot system
CN114364497A (en) Method and system for assigning force vectors to robotic tasks
JP7172466B2 (en) Tool center point setting method and setting device
JP6994427B2 (en) Posture recognition system for construction machinery
JP6903442B2 (en) Remote control method of remote control vehicle and control system of remote control vehicle
JP7353948B2 (en) Robot system and robot system control method
EP3812301B1 (en) Device for automatic unlashing of cargo containers
JP2011011264A (en) Remote control system of robot and working robot for use in the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7122863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531