[go: up one dir, main page]

JP2024102426A - Generation method of image, generation method of free viewpoint image and provision method - Google Patents

Generation method of image, generation method of free viewpoint image and provision method Download PDF

Info

Publication number
JP2024102426A
JP2024102426A JP2023006296A JP2023006296A JP2024102426A JP 2024102426 A JP2024102426 A JP 2024102426A JP 2023006296 A JP2023006296 A JP 2023006296A JP 2023006296 A JP2023006296 A JP 2023006296A JP 2024102426 A JP2024102426 A JP 2024102426A
Authority
JP
Japan
Prior art keywords
image
imaging device
robot
manipulator
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023006296A
Other languages
Japanese (ja)
Inventor
安志 溝口
Yasushi Mizoguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2023006296A priority Critical patent/JP2024102426A/en
Publication of JP2024102426A publication Critical patent/JP2024102426A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To generate a free viewpoint image without using a large number of cameras.SOLUTION: A generation method of an image of an object for generating a free viewpoint image includes the steps of: (a) preparing a multi-articulated robot attached with an imaging device; (b) acquiring a photographed image by imaging the object by the imaging device; (c) controlling the multi-articulated robot and changing the relative position of the imaging device relative to the object from the relative position in step (b) that has been executed just before; and (d) repeating step (b) and step (c).SELECTED DRAWING: Figure 4

Description

本開示は、画像の生成方法、自由視点画像の生成方法、および、提供方法に関する。 This disclosure relates to a method for generating an image, a method for generating a free viewpoint image, and a method for providing the image.

特許文献1には、競技施設において配置された多数のカメラを用いて自由視点画像を生成する技術について記載されている。 Patent document 1 describes a technology that generates free viewpoint images using multiple cameras placed at a sports facility.

国際公開第2019/021375号International Publication No. 2019/021375

特許文献1に記載された技術においては、多数のカメラを用意する必要である。このため、それぞれのカメラの姿勢の調節およびメンテナンスも必要となり、手間がかかる。よって、多数のカメラを使用することなく自由視点画像を生成できる技術が望まれていた。 The technology described in Patent Document 1 requires the use of multiple cameras. This requires the adjustment and maintenance of the posture of each camera, which is time-consuming. Therefore, there has been a demand for technology that can generate free viewpoint images without using multiple cameras.

本開示は、以下の形態として実現することが可能である。 This disclosure can be realized in the following forms:

本開示の第1形態によれば、自由視点画像を生成するための対象物の画像の生成方法が提供される。この画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、を含む。 According to a first aspect of the present disclosure, a method for generating an image of an object for generating a free viewpoint image is provided. This image generating method includes the steps of (a) preparing an articulated robot to which an imaging device is attached, (b) acquiring an image of an object by the imaging device capturing an image of the object, (c) controlling the articulated robot to change the relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b), and (d) repeating steps (b) and (c).

本開示の第2形態によれば、上記形態の画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法が提供される。この自由視点画像の生成方法は、(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、を含む。 According to a second aspect of the present disclosure, there is provided a method for generating a free viewpoint image using an image generated by the image generation method of the above aspect. This method for generating a free viewpoint image includes the step of (e) generating data representing a free viewpoint image capable of showing an image of the object as seen from a desired virtual viewpoint, using a plurality of the captured images.

本開示の第3形態によれば、上記形態の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法が提供される。この提供方法は、(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、(j)前記拡大撮像画像を表示するステップと、を含む。 According to a third aspect of the present disclosure, there is provided a method for providing an image using a free viewpoint image generated by the method for generating a free viewpoint image of the above aspect. This method includes the steps of (f) presenting the free viewpoint image generated by executing step (e) to a user, (g) receiving from the user an instruction regarding a desired part and a desired viewpoint in the object, (h) controlling the articulated robot to change the relative position of the imaging device to a relative position that allows the designated desired part to be imaged from the designated desired viewpoint, (i) obtaining an enlarged captured image by the imaging device enlarging and capturing an image of the desired part, and (j) displaying the enlarged captured image.

遠隔操作支援システムの全体構成を示す概略図である。1 is a schematic diagram showing an overall configuration of a remote operation support system. 自律移動ロボットの主要部および監視装置の概略構成を表すブロック図である。1 is a block diagram showing a schematic configuration of a main part of an autonomous mobile robot and a monitoring device. 監視装置が実行する処理を表すフローチャートである。11 is a flowchart showing a process executed by the monitoring device. 図3に示すステップS10の詳細なフローチャートである。4 is a detailed flowchart of step S10 shown in FIG. 3. あらかじめ設定されたポイントに配置される撮像装置と、監視対象であるマニピュレーターとの位置関係の一例を示す図である。FIG. 13 is a diagram showing an example of the positional relationship between an imaging device placed at a preset point and a manipulator to be monitored. 図3に示すステップS20の詳細なフローチャートである。4 is a detailed flowchart of step S20 shown in FIG. 3. 視点の切り換えの指示についての説明図である。FIG. 11 is an explanatory diagram of an instruction to switch the viewpoint. 拡大表示の指示についての説明図である。FIG. 13 is an explanatory diagram of an instruction for enlarged display.

A.実施形態:
図1は、本実施形態にかかる遠隔操作支援システム1の全体構成を示す概略図である。遠隔操作支援システム1は、ロボットシステムRB1を遠隔地にいるユーザーが監視し、制御することを可能とする。
A. Embodiments:
1 is a schematic diagram showing the overall configuration of a remote operation support system 1 according to this embodiment. The remote operation support system 1 enables a user at a remote location to monitor and control a robot system RB1.

監視対象であるロボットシステムRB1は、6軸ロボットであるマニピュレーター91と、マニピュレーター91に装着されているエンドエフェクター92と、マニピュレーター91を制御するロボットコントローラー93と、作業台94とを備える。エンドエフェクター92は、例えば、ワークW1を把持するグリッパーである。 The robot system RB1 to be monitored includes a manipulator 91, which is a six-axis robot, an end effector 92 attached to the manipulator 91, a robot controller 93 that controls the manipulator 91, and a work table 94. The end effector 92 is, for example, a gripper that holds the workpiece W1.

実施形態においては、監視対象のマニピュレーター91は精密な作業を行う。このため、遠隔地にいるユーザーは、遠隔操作支援システム1を利用して、ロボットシステムRB1を観察しながら、ロボットシステムRB1の動作を制御する。監視対象であるロボットシステムRB1を対象物ともよぶ。マニピュレーター91は、自動運転モードと手動運転モードとのいずれかのモードで動作する。自動運転モードでは、マニピュレーター91は、動作の途中でユーザーからの指示を受けることなく自動的に動作する。手動運転モードでは、マニピュレーター91は、ユーザーから逐次受けた指令に応じて動作する。 In the embodiment, the manipulator 91 to be monitored performs precise work. For this reason, a user at a remote location uses the remote operation support system 1 to control the operation of the robot system RB1 while observing the robot system RB1. The robot system RB1 to be monitored is also called the target object. The manipulator 91 operates in either an automatic operation mode or a manual operation mode. In the automatic operation mode, the manipulator 91 operates automatically without receiving instructions from the user during the operation. In the manual operation mode, the manipulator 91 operates according to instructions received successively from the user.

遠隔操作支援システム1は、自律移動ロボット10と、監視装置80とを備える。 The remote operation support system 1 includes an autonomous mobile robot 10 and a monitoring device 80.

自律移動ロボット10は、自律走行搬送ロボット(Autonomous Mobile Robot: AMR)である。自律移動ロボット10は、ロボットシステムRB1が設置されている工場内を移動する。自律移動ロボット10は、マニピュレーター20と、撮像装置30と、車両40と、ロボットコントローラー50とを備える。車両40を移動体ともよぶ。 The autonomous mobile robot 10 is an autonomous traveling and transporting robot (Autonomous Mobile Robot: AMR). The autonomous mobile robot 10 moves within a factory in which the robot system RB1 is installed. The autonomous mobile robot 10 includes a manipulator 20, an imaging device 30, a vehicle 40, and a robot controller 50. The vehicle 40 is also referred to as a mobile body.

マニピュレーター20は、6軸ロボットである。マニピュレーター20は、基台21と、アーム22とを備える。基台21は、アーム22を支持している。基台21は、車両40に固定されている。アーム22が備える6つの関節J1~J6それぞれには、サーボモーターと減速機と角度センサーとがそれぞれ設けられている。サーボモーターは、ロボットコントローラー50から電流を供給され、各関節を駆動するための回転出力を生成する。減速機は、対応するサーボモーターから与えられた回転入力を減速する。角度センサーは、例えば、エンコーダー、ポテンションメーター、レゾルバーである。角度センサーは、対応するサーボモーターの出力軸の回転角度(軸の位置)をその関節の回転角度として検出する。検出された回転角度は、ロボットコントローラー50に出力される。 The manipulator 20 is a six-axis robot. The manipulator 20 includes a base 21 and an arm 22. The base 21 supports the arm 22. The base 21 is fixed to the vehicle 40. Each of the six joints J1 to J6 of the arm 22 is provided with a servo motor, a reducer, and an angle sensor. The servo motor is supplied with current from the robot controller 50 and generates a rotation output for driving each joint. The reducer reduces the speed of the rotation input provided by the corresponding servo motor. The angle sensor is, for example, an encoder, a potentiometer, or a resolver. The angle sensor detects the rotation angle (axis position) of the output shaft of the corresponding servo motor as the rotation angle of that joint. The detected rotation angle is output to the robot controller 50.

ロボット座標系RCにおけるマニピュレーター20の制御点の位置は、ロボットコントローラー50により制御される。マニピュレーター20の制御点は、例えば、アーム22の先端の決められた位置に設定される。制御点をTCP(Tool Center Point)とよぶことがある。ロボット座標系RCは、基台21の位置に対して固定されている座標系である。ロボット座標系RCは、水平面上において互いに直交するX軸およびY軸と、鉛直上向きを正方向とするZ軸と、によって規定される三次元直交座標系である。ロボット座標系RCにおける位置は、X軸方向の位置と、Y軸方向の位置と、Z軸方向の位置とにより表すことができる。また、ロボット座標系RCにおける姿勢は、X軸回りの回転の角度位置と、Y軸回りの回転の角度位置と、Z軸回りの回転の角度位置とにより表すことができる。 The position of the control point of the manipulator 20 in the robot coordinate system RC is controlled by the robot controller 50. The control point of the manipulator 20 is set, for example, at a determined position at the tip of the arm 22. The control point is sometimes called the TCP (Tool Center Point). The robot coordinate system RC is a coordinate system that is fixed with respect to the position of the base 21. The robot coordinate system RC is a three-dimensional orthogonal coordinate system defined by the X-axis and Y-axis that are mutually orthogonal on a horizontal plane, and the Z-axis whose positive direction is vertically upward. The position in the robot coordinate system RC can be expressed by the position in the X-axis direction, the position in the Y-axis direction, and the position in the Z-axis direction. In addition, the posture in the robot coordinate system RC can be expressed by the angular position of rotation around the X-axis, the angular position of rotation around the Y-axis, and the angular position of rotation around the Z-axis.

撮像装置30は、フルカラーの静止画像またはフルカラーの動画像を撮像できるカメラである。撮像装置30は、マニピュレーター20のアーム22の先端に固定されている。 The imaging device 30 is a camera capable of capturing full-color still images or full-color moving images. The imaging device 30 is fixed to the tip of the arm 22 of the manipulator 20.

図2は、自律移動ロボット10の主要部および監視装置80の概略構成を表すブロック図である。なお、図2においてマニピュレーター20の図示を省略している。 Figure 2 is a block diagram showing the general configuration of the main parts of the autonomous mobile robot 10 and the monitoring device 80. Note that the manipulator 20 is not shown in Figure 2.

撮像装置30は、メモリー31と、通信部32と、撮像部33とを備える。メモリー31は、撮像装置30を制御するための各種のデータおよびプログラムを記憶する。通信部32は、無線通信または有線通信により監視装置80と通信する。撮像部33は、監視対象を撮像し、撮像した画像のデータを出力する。撮像された画像のデータは、通信部32により監視装置80に送信される。 The imaging device 30 includes a memory 31, a communication unit 32, and an imaging unit 33. The memory 31 stores various data and programs for controlling the imaging device 30. The communication unit 32 communicates with the monitoring device 80 via wireless communication or wired communication. The imaging unit 33 captures an image of a monitoring target and outputs data of the captured image. The captured image data is transmitted to the monitoring device 80 by the communication unit 32.

図1に示すように、車両40は、基台21を支持している。車両40は、マニピュレーター20を床面上の任意の位置に移動させることができる。車両40は、1組の駆動輪DWと、2組の従動輪FW1,FW2と、駆動部41と、車両制御部42と、を備える。1組の駆動輪DWは、駆動部41により回転駆動させられる。従動輪FW1,FW2は、外力を加えられて回転する。 As shown in FIG. 1, the vehicle 40 supports a base 21. The vehicle 40 can move the manipulator 20 to any position on the floor surface. The vehicle 40 is equipped with a set of drive wheels DW, two sets of driven wheels FW1, FW2, a drive unit 41, and a vehicle control unit 42. The set of drive wheels DW is rotationally driven by the drive unit 41. The driven wheels FW1, FW2 rotate when an external force is applied.

駆動部41は、1組の駆動輪DWを駆動する。駆動部41は、一組の駆動輪DWそれぞれを駆動するため、一組のサーボモーターと、一組の減速機と、一組の角度センサーとを備える。一組のサーボモーターそれぞれは、車両制御部42の制御に従って、その出力軸を回転させる。一組の減速機それぞれは、対応するサーボモーターの出力軸の回転を減速させて対応する駆動輪DWに伝達する。一組の角度センサーそれぞれは、例えば、エンコーダー、ポテンションメーター、レゾルバーである。角度センサーは、対応するサーボモーターの出力軸の回転角度を検出する。検出された回転角度は、車両制御部42に出力される。 The drive unit 41 drives a set of drive wheels DW. The drive unit 41 includes a set of servo motors, a set of reducers, and a set of angle sensors to drive each of the set of drive wheels DW. Each of the set of servo motors rotates its output shaft under the control of the vehicle control unit 42. Each of the set of reducers reduces the rotation of the output shaft of the corresponding servo motor and transmits it to the corresponding drive wheel DW. Each of the set of angle sensors is, for example, an encoder, a potentiometer, or a resolver. The angle sensor detects the rotation angle of the output shaft of the corresponding servo motor. The detected rotation angle is output to the vehicle control unit 42.

図2に示すように、車両制御部42は、メモリー45と、通信部46と、検知部47と、プロセッサー48とを備える。メモリー45は、車両40を制御するための各種のデータおよびプログラムを記憶する。例えば、メモリー45には、車両40を制御するためのプログラム、自律移動ロボット10が移動する工場内の地図データ、車両40の走行速度の指定値を示す速度データが格納されている。通信部46は、無線通信または有線通信により、ロボットコントローラー50および監視装置80と通信する。検知部47は、車両40の周囲状況を検知する。検知部47は、例えば、LiDAR(Light Detection and Ranging)、カメラ、ソナーである。検知部47は、これらのセンサーのうち2つ以上のセンサーを含んでもよい。プロセッサー48は、メモリー45に記憶されたプログラムを実行することにより様々な機能を実現する。例えば、プロセッサー48は、メモリー45に記憶されたプログラムを実行することにより、車両40が指定された目的地に到達するよう、駆動部41の駆動を制御する。 2, the vehicle control unit 42 includes a memory 45, a communication unit 46, a detection unit 47, and a processor 48. The memory 45 stores various data and programs for controlling the vehicle 40. For example, the memory 45 stores a program for controlling the vehicle 40, map data of the inside of the factory where the autonomous mobile robot 10 moves, and speed data indicating a designated value of the traveling speed of the vehicle 40. The communication unit 46 communicates with the robot controller 50 and the monitoring device 80 by wireless communication or wired communication. The detection unit 47 detects the surrounding conditions of the vehicle 40. The detection unit 47 is, for example, LiDAR (Light Detection and Ranging), a camera, or a sonar. The detection unit 47 may include two or more of these sensors. The processor 48 realizes various functions by executing the program stored in the memory 45. For example, the processor 48 controls the driving of the drive unit 41 so that the vehicle 40 reaches the designated destination by executing the program stored in the memory 45.

ロボットコントローラー50は、マニピュレーター20の各関節を駆動することによって、マニピュレーター20の位置および姿勢を変化させる。実施形態においては、ロボットコントローラー50がマニピュレーター20を駆動することにより、撮像装置30が指定された位置に指定された姿勢で配される。図1に示すように、ロボットコントローラー50は、基台21の筐体21aの内部に配置されている。 The robot controller 50 changes the position and posture of the manipulator 20 by driving each joint of the manipulator 20. In the embodiment, the robot controller 50 drives the manipulator 20 to place the imaging device 30 at a specified position in a specified posture. As shown in FIG. 1, the robot controller 50 is disposed inside the housing 21a of the base 21.

図2に示すように、ロボットコントローラー50は、メモリー51と、通信部52と、プロセッサー53とを備える。メモリー51は、ロボットコントローラー50を制御するための各種のデータおよびプログラムを記憶する。例えば、メモリー51には、マニピュレーター20を動作させるための制御プログラムが格納されている。通信部52は、無線通信または有線通信により、車両制御部42および監視装置80と通信する。プロセッサー53は、メモリー51に格納されている各種のプログラムを実行することにより、様々な機能を実現する。 As shown in FIG. 2, the robot controller 50 includes a memory 51, a communication unit 52, and a processor 53. The memory 51 stores various data and programs for controlling the robot controller 50. For example, the memory 51 stores a control program for operating the manipulator 20. The communication unit 52 communicates with the vehicle control unit 42 and the monitoring device 80 via wireless communication or wired communication. The processor 53 realizes various functions by executing the various programs stored in the memory 51.

プロセッサー53は、マニピュレーター20の位置および姿勢を算出する。マニピュレーター20の姿勢とは、3次元空間におけるマニピュレーター20全体の位置および姿勢を意味する。具体的には、プロセッサー53は、マニピュレーター20の制御点を与えられた座標が表す位置に移動させるために必要な各関節の回転角度を算出し、各関節の回転角度を制御する。これにより、マニピュレーター20の制御点が与えられた座標が表す位置に移動させられる。 The processor 53 calculates the position and orientation of the manipulator 20. The orientation of the manipulator 20 means the position and orientation of the entire manipulator 20 in three-dimensional space. Specifically, the processor 53 calculates the rotation angle of each joint required to move the control point of the manipulator 20 to the position represented by the given coordinates, and controls the rotation angle of each joint. This causes the control point of the manipulator 20 to be moved to the position represented by the given coordinates.

監視装置80は、自律移動ロボット10を使用してロボットシステムRB1を遠隔地から監視するコンピューターである。監視装置80は、ロボットシステムRB1および自律移動ロボット10が配置されている工場とは異なる他の施設に設置されている。 The monitoring device 80 is a computer that uses the autonomous mobile robot 10 to remotely monitor the robot system RB1. The monitoring device 80 is installed in a facility other than the factory where the robot system RB1 and the autonomous mobile robot 10 are located.

監視装置80は、メモリー81と、通信部82と、入力装置83と、表示装置84と、プロセッサー85と、を備える。メモリー81は、監視装置80が実行する各種処理に使用される各種のプログラムおよびデータを記憶する。通信部82は、ネットワークNWを介して無線通信または有線通信により、撮像装置30、車両制御部42、および、ロボットコントローラー50と通信する。図1に示す、ネットワークNWは、例えば、LAN(Local Area Network)、インターネット、専用線である。図2に示す、入力装置83は、例えば、キーボード、マウスである。表示装置84は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイである。 The monitoring device 80 includes a memory 81, a communication unit 82, an input device 83, a display device 84, and a processor 85. The memory 81 stores various programs and data used for various processes executed by the monitoring device 80. The communication unit 82 communicates with the imaging device 30, the vehicle control unit 42, and the robot controller 50 by wireless communication or wired communication via the network NW. The network NW shown in FIG. 1 is, for example, a LAN (Local Area Network), the Internet, or a dedicated line. The input device 83 shown in FIG. 2 is, for example, a keyboard or a mouse. The display device 84 is, for example, a liquid crystal display or an organic EL (Electro Luminescence) display.

プロセッサー85は、メモリー81に記憶されているプログラムを実行することにより、様々な機能を実現する。プロセッサー85は、メモリー81に記憶されているプログラムを実行することで、画像生成部810と、視点切換部820として機能する。 The processor 85 realizes various functions by executing the programs stored in the memory 81. The processor 85 functions as an image generating unit 810 and a viewpoint switching unit 820 by executing the programs stored in the memory 81.

画像生成部810は、複数の視点から撮像されたロボットシステムRB1の複数の画像を用いて、所望の仮想的な視点から見たときのロボットシステムRB1の画像を表すことができる自由視点画像を表すデータを生成する。画像生成部810は、自由視点画像を表すデータに基づいて自由視点画像を表示装置84に表示する。 The image generation unit 810 uses multiple images of the robot system RB1 captured from multiple viewpoints to generate data representing a free viewpoint image that can represent an image of the robot system RB1 as viewed from a desired virtual viewpoint. The image generation unit 810 displays the free viewpoint image on the display device 84 based on the data representing the free viewpoint image.

視点切換部820は、ユーザーが所望する視点についての指示を受け付ける。実施形態において、ユーザーは、監視対象であるロボットシステムRB1についての細部を確認するため、表示された指定画像に基づいて所望の部位および所望の視点を決定し、所望の部位および所望の視点を指示する。視点切換部820は、指示された部位を指示された視点でユーザーが視認できるように、自由視点画像の表示を切り換える。また、視点切換部820は、指示された部位を指示された視点でユーザーが視認できるように、マニピュレーター20を制御して、監視対象であるロボットシステムRB1を撮像する。 The viewpoint switching unit 820 accepts instructions regarding the viewpoint desired by the user. In an embodiment, the user determines a desired part and a desired viewpoint based on the displayed specified image and indicates the desired part and the desired viewpoint in order to check the details of the robot system RB1 to be monitored. The viewpoint switching unit 820 switches the display of the free viewpoint image so that the user can view the indicated part from the indicated viewpoint. The viewpoint switching unit 820 also controls the manipulator 20 to capture an image of the robot system RB1 to be monitored so that the user can view the indicated part from the indicated viewpoint.

図3は、監視装置80が実行する処理を表すフローチャートである。図3に示すように、ステップS10において、自由視点画像を生成するための画像が生成される。ステップS20において、自由視点画像が生成される。図3に示す処理は、画像生成部810と視点切換部820として機能するプロセッサー85により実行される。例えば、ユーザーが入力装置83を介して処理の開始を指示すると、プロセッサー85は図3に示す処理を開始する。図3に示す処理の実行の開始前にあらかじめ自律移動ロボット10が準備される。 Figure 3 is a flowchart showing the processing executed by the monitoring device 80. As shown in Figure 3, in step S10, an image for generating a free viewpoint image is generated. In step S20, a free viewpoint image is generated. The processing shown in Figure 3 is executed by the processor 85 functioning as an image generation unit 810 and a viewpoint switching unit 820. For example, when a user instructs the start of processing via the input device 83, the processor 85 starts the processing shown in Figure 3. Before starting execution of the processing shown in Figure 3, the autonomous mobile robot 10 is prepared in advance.

図4は、図3に示すステップS10の詳細なフローチャートである。以下、自由視点画像を生成するための監視対象の画像の生成方法について説明する。ステップS101において、プロセッサー85は監視対象を指定する指示を受け付けたか否かを判定する。プロセッサー85は監視対象を指定する指示を受け付けた場合(ステップS101;YES)、ステップS102の処理を実行する。以下、ユーザーが監視対象としてロボットシステムRB1を指定した例を説明する。 Figure 4 is a detailed flowchart of step S10 shown in Figure 3. Below, a method for generating an image of a monitoring target for generating a free viewpoint image will be described. In step S101, the processor 85 determines whether or not an instruction to specify a monitoring target has been received. If an instruction to specify a monitoring target has been received (step S101; YES), the processor 85 executes the processing of step S102. Below, an example will be described in which the user specifies the robot system RB1 as the monitoring target.

また、ユーザーは、別途、監視対象であるロボットシステムRB1のロボットコントローラー93に対して、マニピュレーター91の動作についての指令を逐次出すものとする。マニピュレーター91の先端には不図示のカメラが備えられており、ユーザーは、マニピュレーター91のカメラが撮像したマニピュレーター91の周囲の状況を表す画像を見ながら指令を出す。よって、マニピュレーター91は指令に応じた動作を行う。 The user also separately issues sequential commands regarding the operation of the manipulator 91 to the robot controller 93 of the robot system RB1 to be monitored. A camera (not shown) is provided at the tip of the manipulator 91, and the user issues commands while looking at an image showing the situation around the manipulator 91 captured by the camera of the manipulator 91. Thus, the manipulator 91 performs operations according to the commands.

ステップS101において、監視対象を指定する指示を受けていない場合、(ステップS101;NO)、プロセッサー85は待機する。 In step S101, if no instruction to specify a monitoring target has been received (step S101; NO), the processor 85 waits.

ステップS102において、プロセッサー85は、ロボットシステムRB1の工場内における位置を示す情報を目的地として指定した上で、移動の指示を、車両40の車両制御部42に送信する。 In step S102, the processor 85 designates information indicating the location of the robot system RB1 within the factory as the destination, and then transmits a movement instruction to the vehicle control unit 42 of the vehicle 40.

指示を受けた自律移動ロボット10は、ロボットシステムRB1の工場内における位置を示す情報と、メモリー45に格納されている地図データとを用いて、指定された目的地へ移動する。例えば、車両40は、駆動部41が備えるエンコーダーが検出した回転角度を用いて、SLAM(Simultaneous Localization and Mapping)アルゴリズムにより自己位置を推定しながら目的地に移動する。自律移動ロボット10は、移動が完了すると、移動が完了したことをプロセッサー85に通知する。 The autonomous mobile robot 10 that has received the instruction moves to the specified destination using information indicating the location of the robot system RB1 within the factory and map data stored in memory 45. For example, the vehicle 40 moves to the destination while estimating its own position using a SLAM (Simultaneous Localization and Mapping) algorithm, using the rotation angle detected by an encoder provided in the drive unit 41. When the autonomous mobile robot 10 has completed its movement, it notifies the processor 85 that the movement has been completed.

ステップS103において、プロセッサー85は、自由視点画像を生成するため監視対象の画像の生成を開始する開始条件が満たされたか否かを判定する。実施形態においては、開始条件とは、自律移動ロボット10の移動が完了したこと、および、監視対象であるマニピュレーター91がユーザーから出される逐次の指令に従って動作し、あらかじめ決められた位置および姿勢を取ったこと、を含む。 In step S103, the processor 85 determines whether or not a start condition for starting generation of an image of the monitored object in order to generate a free viewpoint image has been satisfied. In the embodiment, the start condition includes that the movement of the autonomous mobile robot 10 has been completed, and that the manipulator 91, which is the monitored object, has operated according to successive commands issued by the user and has assumed a predetermined position and posture.

図1に示すように、マニピュレーター91は、例えば、把持したワークWK1を他のワークWK2に形成された穴に差し込む動作を行うものとする。あらかじめ決められた位置および姿勢は、マニピュレーター91がワークWK1をワークWK2に形成された穴に差し込む直前の位置および姿勢である。マニピュレーター91は、ワークWK1をワークWK2に形成された穴の中心に正確に差し込む必要がある。このため、ユーザーは、ワークWK1をワークWK2の穴に差し込む直前にマニピュレーター91の動作を停止させる。 As shown in FIG. 1, the manipulator 91, for example, performs an operation of inserting the grasped workpiece WK1 into a hole formed in another workpiece WK2. The predetermined position and posture are the position and posture immediately before the manipulator 91 inserts the workpiece WK1 into the hole formed in the workpiece WK2. The manipulator 91 needs to accurately insert the workpiece WK1 into the center of the hole formed in the workpiece WK2. For this reason, the user stops the operation of the manipulator 91 immediately before inserting the workpiece WK1 into the hole in the workpiece WK2.

図4に示す、ステップS103において、プロセッサー85は、開始条件が満たされていると判定すると(ステップS103;YES)、ステップS104を実行する。一方、開始条件が満たされていない場合、(ステップS103;NO)、プロセッサー85は待機する。 In step S103 shown in FIG. 4, if the processor 85 determines that the start condition is satisfied (step S103; YES), it executes step S104. On the other hand, if the start condition is not satisfied (step S103; NO), the processor 85 waits.

ステップS104において、プロセッサー85は、マニピュレーター20が撮像用の動作経路PIに沿って移動するように、ロボットコントローラー50を介してマニピュレーター20を駆動する。 In step S104, the processor 85 drives the manipulator 20 via the robot controller 50 so that the manipulator 20 moves along the imaging motion path PI.

図5は、マニピュレーター20が撮像用の動作経路PIに沿って移動することにより、あらかじめ設定された複数のポイントそれぞれに配置される撮像装置30と、監視対象であるロボットシステムRB1のマニピュレーター91との位置関係の一例を示す図である。なお、図4では、マニピュレーター20を図示していない。複数の視点からマニピュレーター91を撮像することができるポイントが動作経路PIにおいて設定されている。マニピュレーター20が移動することにより、撮像装置30は、あらかじめ設定された撮像のための複数のポイントに順次配置される。また、マニピュレーター20は、撮像用の動作経路PIにおいて設定された複数のポイントに到達するたび、停止するようにプログラムされている。 Figure 5 shows an example of the positional relationship between the imaging device 30, which is placed at each of multiple pre-set points as the manipulator 20 moves along the imaging motion path PI, and the manipulator 91 of the robot system RB1 to be monitored. Note that the manipulator 20 is not shown in Figure 4. Points at which the manipulator 91 can be imaged from multiple viewpoints are set on the motion path PI. As the manipulator 20 moves, the imaging device 30 is sequentially positioned at multiple pre-set points for imaging. The manipulator 20 is also programmed to stop each time it reaches one of the multiple points set on the imaging motion path PI.

図4に示す、ステップS105において、プロセッサー85は、マニピュレーター20が次のポイントに到達したか否かを判定する。プロセッサー85は、マニピュレーター20が次のポイントに到達したと判定した場合(ステップS105;YES)、ステップS106を実行する。マニピュレーター20が次のポイントに到達していない場合(ステップS105;NO)、プロセッサー85は待機する。 In step S105 shown in FIG. 4, the processor 85 determines whether or not the manipulator 20 has reached the next point. If the processor 85 determines that the manipulator 20 has reached the next point (step S105; YES), it executes step S106. If the manipulator 20 has not reached the next point (step S105; NO), the processor 85 waits.

ステップS106において、プロセッサー85は、現在のポイントにおける監視対象の画像IM10を取得する。具体的には、プロセッサー85は、撮像装置30により監視対象を撮像させる。画像IM10は、例えば、監視対象であるマニピュレーター91の手先部分と、ワークW1と、ワークW2とが撮像された画像である。さらに、プロセッサー85は、ロボットコントローラー50を介してマニピュレーター20の関節J1~J6それぞれに設けられた角度センサーの検出値をセンサー情報として取得する。プロセッサー85は、現在のポイントを表す情報と、画像IM10と、センサー情報とを対応付けてメモリー81に格納する。 In step S106, the processor 85 acquires an image IM10 of the monitored object at the current point. Specifically, the processor 85 causes the imaging device 30 to capture an image of the monitored object. The image IM10 is, for example, an image of the hand portion of the manipulator 91, which is the monitored object, the workpiece W1, and the workpiece W2. Furthermore, the processor 85 acquires, as sensor information, the detection values of the angle sensors provided at each of the joints J1 to J6 of the manipulator 20 via the robot controller 50. The processor 85 associates the information representing the current point, the image IM10, and the sensor information, and stores them in the memory 81.

ステップS107において、プロセッサー85は、動作経路PIにおいて設定されているすべてのポイントにおいて撮像が行われたかを判定する。すべてのポイントでの撮像が行われた場合(ステップS107;YES)、図4に示す処理が終了される。一方、すべてのポイントで撮像が行われていない場合(ステップS107;NO)、プロセッサー85は、再びステップS104の処理を実行する。よって、マニピュレーター20は撮像用の動作経路PIに沿って移動する。このようにして、プロセッサー85は、撮像装置30のマニピュレーター91に対する相対位置を、直前に実行された撮像時における撮像装置30のマニピュレーター91に対する相対位置から変更する。今回の撮像と前回の撮像との間に他の撮像が行われていないときに、前回の撮像を直前に実行された撮像という。 In step S107, the processor 85 determines whether imaging has been performed at all points set on the motion path PI. If imaging has been performed at all points (step S107; YES), the process shown in FIG. 4 is terminated. On the other hand, if imaging has not been performed at all points (step S107; NO), the processor 85 executes the process of step S104 again. Thus, the manipulator 20 moves along the motion path PI for imaging. In this way, the processor 85 changes the relative position of the imaging device 30 with respect to the manipulator 91 from the relative position of the imaging device 30 with respect to the manipulator 91 at the time of the imaging performed immediately before. When no other imaging has been performed between this imaging and the previous imaging, the previous imaging is referred to as the imaging performed immediately before.

図4に示す処理が実行されることにより、ロボットシステムRB1についての自由視点画像を生成するための複数の画像IM10が収集される。 By executing the process shown in Figure 4, multiple images IM10 are collected to generate a free viewpoint image of the robot system RB1.

図6は、図3に示すステップS20の詳細なフローチャートである。以下、図4に示す画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法、および、生成された自由視点画像を用いた画像の提供方法を説明する。図6に示す処理が実行される前に、図4に示す処理が実行されていることを前提とする。 Figure 6 is a detailed flowchart of step S20 shown in Figure 3. Below, a method for generating a free viewpoint image using an image generated by the image generation method shown in Figure 4, and a method for providing an image using the generated free viewpoint image will be described. It is assumed that the process shown in Figure 4 has been executed before the process shown in Figure 6 is executed.

ステップS201において、プロセッサー85は、複数のポイントそれぞれで取得された画像IM10および対応するセンサー情報S1をメモリー81から読み出す。プロセッサー85は、撮像が行われた各ポイントにおける、各関節の変位量を用いて順運動学に基づいてそれぞれのポイントにおけるマニピュレーター20の手先の位置および姿勢を表すロボット座標系RCにおける座標値を算出する。 In step S201, the processor 85 reads out the images IM10 and the corresponding sensor information S1 captured at each of the multiple points from the memory 81. The processor 85 calculates coordinate values in the robot coordinate system RC that represent the position and orientation of the manipulator 20's hand at each point based on forward kinematics using the displacement amount of each joint at each point where the image was captured.

ステップS202において、プロセッサー85は、自由視点画像を表すデータを生成する。具体的には、プロセッサー85は、複数の画像IM10とそれぞれについて算出した座標値とを用いて、複数の仮想的な視点それぞれからロボットシステムRB1を見たときの複数の視点画像を生成する。生成された複数の視点画像は、自由視点画像を構成する。プロセッサー85は、生成した視点画像と、複数の画像IM10とを含む、自由視点画像を表すデータをメモリー81に格納する。 In step S202, the processor 85 generates data representing a free viewpoint image. Specifically, the processor 85 uses the multiple images IM10 and the coordinate values calculated for each of them to generate multiple viewpoint images when the robot system RB1 is viewed from each of multiple virtual viewpoints. The generated multiple viewpoint images constitute a free viewpoint image. The processor 85 stores the data representing the free viewpoint image, including the generated viewpoint images and the multiple images IM10, in the memory 81.

ステップS203において、プロセッサー85は、自由視点画像を表すデータを用いて、ロボットシステムRB1をあらかじめ設定された初期視点から見た場合の視点画像を表示装置84に表示する。このようにして、生成された自由視点画像がユーザーに提示される。 In step S203, the processor 85 uses the data representing the free viewpoint image to display on the display device 84 a viewpoint image of the robot system RB1 as seen from a preset initial viewpoint. In this manner, the generated free viewpoint image is presented to the user.

ステップS204において、プロセッサー85は、ユーザーから視点の切り換えについての指示を受けたか否かを判定する。ユーザーは、ロボットシステムRB1の所望の部位を所望の視点で見た場合の画像を表示装置84に表示することを指示するため、入力装置83を用いて視点の切り換え操作を行うことができる。 In step S204, the processor 85 determines whether or not an instruction to switch the viewpoint has been received from the user. The user can use the input device 83 to perform a viewpoint switching operation to instruct the display device 84 to display an image of a desired part of the robot system RB1 as seen from a desired viewpoint.

図7は、視点の切り換えの指示についての説明図である。例えば、ステップS203において、プロセッサー85は、図7の上部に示すように、マニピュレーター91の手先部分の視点画像と、ロール、ピッチ、ヨーそれぞれの回転を調整するためのボタンの画像とを表示装置84に表示する。ユーザーは、入力装置83を用いてボタンを操作し、所望の視点から見た場合のロボットシステムRB1を表示装置84に表示させることができる。例えば、ロールは、ロボットシステムRB1に設定されているロボット座標系におけるY軸まわりの回転である。ピッチは、ロボットシステムRB1に設定されているロボット座標系におけるX軸まわりの回転である。ヨーは、ロボットシステムRB1に設定されているロボット座標系におけるZ軸まわりの回転である。 Figure 7 is an explanatory diagram of an instruction to switch the viewpoint. For example, in step S203, the processor 85 displays on the display device 84 a viewpoint image of the tip of the manipulator 91 and images of buttons for adjusting the rotations of roll, pitch, and yaw, as shown in the upper part of Figure 7. The user can operate the buttons using the input device 83 to display on the display device 84 the robot system RB1 as viewed from the desired viewpoint. For example, roll is rotation around the Y axis in the robot coordinate system set in the robot system RB1. Pitch is rotation around the X axis in the robot coordinate system set in the robot system RB1. Yaw is rotation around the Z axis in the robot coordinate system set in the robot system RB1.

図6に示すように、ステップS204において、プロセッサー85は、ユーザーから視点の切り換えについての指示を受けると(ステップS204;YES)、ステップS205の処理を実行する。プロセッサー85は、ユーザーから視点の切り換えについての指示がない場合(ステップS204;NO)、ステップS206の処理を実行する。 As shown in FIG. 6, in step S204, if the processor 85 receives an instruction from the user to switch the viewpoint (step S204; YES), the processor 85 executes the process of step S205. If the processor 85 does not receive an instruction from the user to switch the viewpoint (step S204; NO), the processor 85 executes the process of step S206.

ステップS205において、プロセッサー85は、ユーザーが所望する部位を所望の視点で見た場合の視点画像を表示装置84に表示する。例えば、ユーザーの視点の切り換えについての指示に応じて、プロセッサー85は、図7の下部に示すような画像を表示装置84に表示する。 In step S205, the processor 85 displays on the display device 84 a viewpoint image in which the user views a desired part from a desired viewpoint. For example, in response to an instruction from the user to switch the viewpoint, the processor 85 displays on the display device 84 an image such as that shown in the lower part of FIG. 7.

図6に示す、ステップS206において、プロセッサー85は、ユーザーから拡大表示についての指示を受けたか否かを判定する。ユーザーは、ロボットシステムRB1を拡大して撮像した画像を表示装置84に表示することを、入力装置83を用いて指示することができる。 In step S206 shown in FIG. 6, the processor 85 determines whether or not an instruction for enlarged display has been received from the user. The user can use the input device 83 to instruct the display device 84 to enlarge and display the captured image of the robot system RB1.

図8は、拡大表示の指示についての説明図である。例えば、ステップS203において、プロセッサー85は、図8の上部に示すように、マニピュレーター91の手先部分の画像と、選択可能な視点方向を示す番号とを重ね合わせた画像を表示装置84に表示する。ユーザーは、入力装置83を用いて所望の視点方向を示す番号を選択することができる。 Figure 8 is an explanatory diagram of an instruction for enlarged display. For example, in step S203, the processor 85 displays on the display device 84 an image in which an image of the tip of the manipulator 91 is superimposed on a number indicating a selectable viewpoint direction, as shown in the upper part of Figure 8. The user can select the number indicating the desired viewpoint direction using the input device 83.

図6に示すように、ステップS206において、プロセッサー85は、ユーザーから拡大表示についての指示を受けると(ステップS206;YES)、ステップS207の処理を実行する。プロセッサー85は、ユーザーから拡大表示についての指示がない場合(ステップS206;NO)、ステップS208の処理を実行する。 As shown in FIG. 6, in step S206, if the processor 85 receives an instruction from the user regarding enlarged display (step S206; YES), the processor 85 executes the process of step S207. If the processor 85 does not receive an instruction from the user regarding enlarged display (step S206; NO), the processor 85 executes the process of step S208.

ステップS207において、プロセッサー85は、マニピュレーター91の所望の部位を所望の視点で拡大して撮像した画像を表示装置84に表示する。まず、プロセッサー85は、ロボットコントローラー50を介してマニピュレーター20を駆動することにより、マニピュレーター91を指定された視点で指定された部位を撮像できる位置および姿勢に、撮像装置30を配置する。その後、プロセッサー85は、撮像装置30にマニピュレーター91を撮像させる。このとき、プロセッサー85は、自由視点画像を生成するために用いられた画像IM10を撮像したときよりも、撮像装置30のズーム倍率を高くするように撮像装置30を制御する。あるいは、プロセッサー85は、自由視点画像を生成するために用いられた画像IM10を撮像したときよりも、撮像装置30とマニピュレーター91との距離が近くなるようにマニピュレーター20を制御してもよい。その後、プロセッサー85は、撮像装置30により撮像された画像を表示装置84に表示する。拡大して撮像された画像を拡大撮像画像ともよぶ。例えば、図8の上部のような画像が表示装置84に表示されているときに、ユーザーが所望の視点方向として「08」番が選択したとする。この場合、図8の下部に示すような画像が撮像装置30により撮像され、表示装置84に表示される。 In step S207, the processor 85 displays on the display device 84 an image of a desired part of the manipulator 91 that is enlarged and captured at a desired viewpoint. First, the processor 85 drives the manipulator 20 via the robot controller 50 to place the imaging device 30 in a position and orientation that allows the manipulator 91 to capture a designated part at a designated viewpoint. Then, the processor 85 causes the imaging device 30 to capture the manipulator 91. At this time, the processor 85 controls the imaging device 30 so that the zoom magnification of the imaging device 30 is higher than when the image IM10 used to generate the free viewpoint image was captured. Alternatively, the processor 85 may control the manipulator 20 so that the distance between the imaging device 30 and the manipulator 91 is closer than when the image IM10 used to generate the free viewpoint image was captured. Then, the processor 85 displays on the display device 84 the image captured by the imaging device 30. The image captured by enlarging it is also called a magnified captured image. For example, when an image such as that shown in the upper part of FIG. 8 is displayed on the display device 84, assume that the user selects "08" as the desired viewpoint direction. In this case, an image such as that shown in the lower part of FIG. 8 is captured by the imaging device 30 and displayed on the display device 84.

よって、ユーザーは、自由視点画像に基づいて監視対象の所望の部位および所望の視点を決定した上で、監視対象であるマニピュレーター91の所望の部位を所望の視点で拡大して見た場合の画像を視認できる。ユーザーは、ロボットコントローラー93を介してマニピュレーター91の動作を再開させる。ユーザーは、拡大された状態で撮像されているマニピュレーター91を確認しながら、マニピュレーター91の動作についての指令をロボットコントローラー93に対して逐次出すことにより、マニピュレーター91にワークWK2をワークWK1に形成された穴に差し込む動作を行わせる。ユーザーは、必要に応じた回数だけ、自由視点画像における視点の切り換えについての指示と、拡大表示についての指示と、を監視装置80に出す。これにより、撮像装置30のマニピュレーター91に対する相対位置が、直前に実行された撮像時における撮像装置30のマニピュレーター91に対する相対位置から変更される。 Therefore, the user can determine the desired part of the monitored object and the desired viewpoint based on the free viewpoint image, and then view an image of the desired part of the monitored object, the manipulator 91, enlarged and viewed from the desired viewpoint. The user resumes the operation of the manipulator 91 via the robot controller 93. While checking the manipulator 91 imaged in an enlarged state, the user issues commands to the robot controller 93 one by one regarding the operation of the manipulator 91, thereby causing the manipulator 91 to insert the workpiece WK2 into the hole formed in the workpiece WK1. The user issues instructions to the monitoring device 80 regarding switching of the viewpoint in the free viewpoint image and instructions regarding the enlarged display as many times as necessary. This changes the relative position of the imaging device 30 with respect to the manipulator 91 from the relative position of the imaging device 30 with respect to the manipulator 91 at the time of the immediately preceding imaging.

ステップS208において、プロセッサー85は、処理を継続するか否かを判定する。例えば、プロセッサー85は、ユーザーの操作により処理を停止する指示を示す情報が入力されるまで図6に示す処理を継続すると判定する。プロセッサー85は、ユーザーの操作により処理を停止する指示を示す情報が入力された場合に図6に示す処理を終了すると判定する。処理を継続する場合(ステップS208;YES)、プロセッサー85は、再びステップS204の処理を実行する。処理を継続しない場合(ステップS208;NO)、プロセッサー85は、図6に示す処理を終了する。 In step S208, the processor 85 determines whether or not to continue the processing. For example, the processor 85 determines to continue the processing shown in FIG. 6 until information indicating an instruction to stop the processing is input by a user operation. The processor 85 determines to end the processing shown in FIG. 6 when information indicating an instruction to stop the processing is input by a user operation. If the processing is to be continued (step S208; YES), the processor 85 executes the processing of step S204 again. If the processing is not to be continued (step S208; NO), the processor 85 ends the processing shown in FIG. 6.

以上説明したように、実施形態においては、多数のカメラを使用することなく、自由視点画像を生成するための、異なる視点から対象物を撮像した複数の撮像画像を得ることができる。よって、多数のカメラを使用することなく、自由視点画像を生成することができる。多数のカメラを用意する態様によれば、個々のカメラの姿勢の調節に加えてメンテナンスも必要となるが、実施形態においては、多数のカメラについての調節、メンテナンス等の手間が不要である。 As described above, in the embodiment, multiple captured images of an object taken from different viewpoints can be obtained to generate a free viewpoint image without using multiple cameras. Therefore, a free viewpoint image can be generated without using multiple cameras. According to an aspect in which multiple cameras are prepared, in addition to adjusting the attitude of each camera, maintenance is also required, but in the embodiment, the effort of adjusting, maintaining, etc., the multiple cameras is not required.

さらに、6軸ロボットであるマニピュレーター20を備える自律移動ロボット10が監視対象の周囲を移動して対象物を撮像することができるので、所望の視点で監視対象を撮像することが容易である。また、ユーザーが遠隔地にいる場合であっても、ユーザーは、自由視点画像に基づいて監視対象の所望の部位および所望の視点を決定した上で、監視対象の所望の部位を所望の視点で拡大された状態で視認できる。また、複数のロボットシステムが監視対象である場合であっても、自律移動ロボット10がそれぞれのロボットシステムの配置位置に移動できるので、ユーザーは、それぞれのロボットシステムを遠隔地から監視できる。 Furthermore, the autonomous mobile robot 10 equipped with the manipulator 20, which is a six-axis robot, can move around the target of monitoring and capture the target, making it easy to capture the target of monitoring from a desired viewpoint. Even if the user is in a remote location, the user can determine the desired part of the target of monitoring and the desired viewpoint based on the free viewpoint image, and then view the desired part of the target of monitoring in an enlarged state from the desired viewpoint. Even if multiple robot systems are being monitored, the autonomous mobile robot 10 can move to the location of each robot system, allowing the user to monitor each robot system from a remote location.

B.他の実施形態:
B1.他の実施形態1
また、撮像装置30が撮像できる範囲が限定されてもよい。具体的には、撮像装置30はマニピュレーター91を含む限定された範囲だけを撮像する。例えば、自律移動ロボット10が走行可能な範囲をあらかじめ設定された範囲に限定することにより、撮像装置30がマニピュレーター91を含む限定された範囲だけを撮像するような制御が行われてもよい。あるいは、自律移動ロボット10があらかじめ設定された範囲内に位置しているときだけ、撮像装置30の撮像の機能が有効にされるような制御が行われてもよい。よって、撮像装置30は限定された範囲以外の範囲を撮像しない。これにより、監視対象であるロボットシステムRB1が配置されている工場、施設等において、視認されることが好ましくない設備、情報等をユーザーに視認させない。よって、例えば、営業秘密にかかる設備、情報等が遠隔地から視認されることを防止できる。
B. Other embodiments:
B1. Other embodiment 1
Also, the range in which the imaging device 30 can capture images may be limited. Specifically, the imaging device 30 captures only a limited range including the manipulator 91. For example, the range in which the autonomous mobile robot 10 can travel may be limited to a preset range, so that the imaging device 30 captures only the limited range including the manipulator 91. Alternatively, the imaging device 30 may be controlled to enable the imaging function only when the autonomous mobile robot 10 is located within the preset range. Thus, the imaging device 30 does not capture images of a range other than the limited range. This prevents the user from viewing equipment, information, etc. that is not desirable to be viewed in a factory, facility, etc. in which the robot system RB1 to be monitored is located. Thus, for example, it is possible to prevent equipment, information, etc. related to trade secrets from being viewed from a remote location.

B2.他の実施形態2
実施形態においては、撮像装置30が取り付けられたマニピュレーター20が、自律移動ロボット10により監視対象の周囲を移動可能である例を説明した。しかしながら、マニピュレーター20は、車両40に支持されておらず、監視対象の周囲を移動できなくてもよい。この場合であっても、マニピュレーター20を、ロボットシステムRB1の近傍であって、マニピュレーター91を撮像することができる位置に配置することで、自由視点画像を生成するための画像を取得することができる。
B2. Other embodiment 2
In the embodiment, an example has been described in which the manipulator 20 to which the imaging device 30 is attached can move around the periphery of the monitoring target by the autonomous mobile robot 10. However, the manipulator 20 is not necessarily supported by the vehicle 40, and may not be able to move around the periphery of the monitoring target. Even in this case, by disposing the manipulator 20 in a position near the robot system RB1 where the manipulator 91 can be imaged, it is possible to acquire an image for generating a free viewpoint image.

実施形態においては、監視装置80が、ロボットシステムRB1および自律移動ロボット10が配置されている工場とは異なる他の施設に設置されており、ユーザーが遠隔でロボットシステムRB1を監視、制御する例を説明した。しかしながら、ロボットシステムRB1は、遠隔から制御されなくてもよい。この場合、監視装置80は、ロボットシステムRB1および自律移動ロボット10が配置されている工場に設置される。例えば、複数のロボットシステムが監視対象である場合、ユーザーは、監視装置80を使用して、複数のロボットシステムを監視、制御を行うことができる。 In the embodiment, an example has been described in which the monitoring device 80 is installed in a facility other than the factory in which the robot system RB1 and the autonomous mobile robot 10 are located, and the user remotely monitors and controls the robot system RB1. However, the robot system RB1 does not have to be controlled remotely. In this case, the monitoring device 80 is installed in the factory in which the robot system RB1 and the autonomous mobile robot 10 are located. For example, when multiple robot systems are to be monitored, the user can use the monitoring device 80 to monitor and control the multiple robot systems.

実施形態においては、1つの撮像装置30がマニピュレーター20に取り付けられている例を説明したが、2つ以上の撮像装置がマニピュレーター20に取り付けられていてもよい。 In the embodiment, an example in which one imaging device 30 is attached to the manipulator 20 has been described, but two or more imaging devices may be attached to the manipulator 20.

また、自律移動ロボット10が備えるマニピュレーター20が有する関節の数は6つに限られない。また、実施形態のマニピュレーター20は垂直多関節ロボットであったが、マニピュレーター20は水平多関節ロボットであってもよい。 The number of joints of the manipulator 20 of the autonomous mobile robot 10 is not limited to six. In addition, the manipulator 20 in the embodiment is a vertical multi-joint robot, but the manipulator 20 may be a horizontal multi-joint robot.

監視装置80の機能を実現する手段は、ソフトウェアに限られず、その一部または全部を、専用のハードウェアによって実現してもよい。例えば、専用のハードウェアとして、FPGA(Field Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)に代表される回路を使用してもよい。 The means for realizing the functions of the monitoring device 80 is not limited to software, and some or all of the functions may be realized by dedicated hardware. For example, circuits such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC) may be used as the dedicated hardware.

C.他の形態:
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替え、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
C. Other Forms:
The present disclosure is not limited to the above-mentioned embodiment, and can be realized in various configurations without departing from the spirit of the present disclosure. For example, the technical features in the embodiments corresponding to the technical features in each form described in the Summary of the Invention column can be appropriately replaced or combined to solve some or all of the above-mentioned problems or to achieve some or all of the above-mentioned effects. Furthermore, if the technical feature is not described as essential in this specification, it can be appropriately deleted.

(1)本開示の第1形態によれば、自由視点画像を生成するための対象物の画像の生成方法が提供される。この画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、を含む。
上記形態によれば、多数のカメラを使用することなく、自由視点画像を生成するための、異なる視点から対象物を撮像した複数の撮像画像が得られる。
(1) According to a first aspect of the present disclosure, there is provided a method for generating an image of an object for generating a free viewpoint image, the method for generating an image of the object includes the steps of: (a) preparing an articulated robot having an imaging device attached thereto; (b) acquiring an image of the object by the imaging device; (c) controlling the articulated robot to change a relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b); and (d) repeating steps (b) and (c).
According to the above aspect, a plurality of captured images of an object can be obtained from different viewpoints to generate a free viewpoint image without using a large number of cameras.

(2)上記形態において、前記ステップ(a)は、(a1)移動体に搭載された前記多関節ロボットであって、前記対象物の周囲を移動可能な自律走行搬送ロボットを準備するステップ、を含み、前記ステップ(c)は、(c1)前記自律走行搬送ロボットを移動させることにより、前記撮像装置の前記対象物に対する前記相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップを含んでもよい。
この形態によれば、多関節ロボットが対象物の周囲を移動して対象物を撮像することができるので、所望の視点で対象物を撮像することが容易である。
(2) In the above embodiment, the step (a) may include (a1) a step of preparing an autonomous mobile transport robot, the autonomous mobile transport robot being a multi-joint robot mounted on a moving body and capable of moving around the object, and the step (c) may include (c1) a step of changing the relative position of the imaging device to the object from the relative position in the step (b) executed immediately before by moving the autonomous mobile transport robot.
According to this aspect, since the articulated robot can move around the object and capture the image of the object, it is easy to capture the image of the object from a desired viewpoint.

(3)本開示の第2形態によれば、上記形態の画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法が提供される。この自由視点画像の生成方法は、(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、を含む。
この形態によれば、多数のカメラを使用することなく、自由視点画像を生成することができる。
(3) According to a second aspect of the present disclosure, there is provided a method for generating a free-viewpoint image by using an image generated by the image generating method of the above aspect, the method including: (e) generating data representing a free-viewpoint image capable of showing an image of the object as seen from a desired virtual viewpoint by using a plurality of the captured images.
According to this aspect, a free viewpoint image can be generated without using a large number of cameras.

(4)本開示の第3形態によれば、上記形態の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法が提供される。この提供方法は、(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、(j)前記拡大撮像画像を表示するステップと、を含む。
上記形態によれば、ユーザーは、自由視点画像に基づいて、対象物の所望の部位および所望の視点を決定した上で、対象物の所望の部位を所望の視点で拡大された状態で視認できる。
(4) According to a third aspect of the present disclosure, there is provided a method for providing an image using a free viewpoint image generated by the method for generating a free viewpoint image according to the above aspect, the method for providing an image including: (f) presenting the free viewpoint image generated by executing the step (e) to a user; (g) receiving, from the user, an instruction regarding a desired part and a desired viewpoint in the object; (h) controlling the articulated robot to change the relative position of the imaging device with respect to the object to a relative position that allows the designated desired part to be imaged from the designated desired viewpoint; (i) acquiring an enlarged captured image by the imaging device enlarging and imaging the desired part; and (j) displaying the enlarged captured image.
According to the above aspect, the user can determine a desired portion of an object and a desired viewpoint based on the free viewpoint image, and then visually recognize the desired portion of the object in an enlarged state from the desired viewpoint.

(5)上記形態において、前記ステップ(a)は、(a2)前記撮像装置が取り付けられ、遠隔地にあるコンピューターと通信可能な前記多関節ロボットを準備するステップ、を含み、前記ステップ(g)は、(g1)前記コンピューターを介して前記遠隔地にいる前記ユーザーから、前記対象物における前記所望の部位と前記所望の視点とについての前記指示を受け付けるステップ、を含んでもよい。
この形態によれば、遠隔地にいるユーザーが対象物の所望の部位を所望の視点で拡大された状態で視認できる。
(5) In the above embodiment, step (a) may include (a2) a step of preparing the articulated robot to which the imaging device is attached and capable of communicating with a computer at a remote location, and step (g) may include (g1) a step of receiving the instruction regarding the desired part and the desired viewpoint of the object from the user at the remote location via the computer.
According to this embodiment, a user at a remote location can view a desired portion of the object in an enlarged state from a desired viewpoint.

(6)上記形態において、前記ステップ(b)は、(b1)前記撮像装置が、前記対象物を含む限定された範囲以外の範囲を撮像することなく、前記対象物を含む前記限定された範囲を撮像することにより、前記撮像画像を取得するステップ、を含み、前記提供方法は、前記限定された範囲以外の範囲を撮像するステップ、を含まなくてもよい。
この形態によれば、撮像装置が撮像できる範囲が限定される。例えば、多関節ロボットが配置されている工場、施設等において、撮像装置が撮像できる範囲に、視認されることが好ましくない設備、情報等が含まれないように設定する。これにより、視認されることが好ましくない設備、情報等を遠隔地にいるユーザーに視認させない。よって、例えば、営業秘密にかかる設備、情報等が遠隔地から視認されることを防止できる。
(6) In the above embodiment, the step (b) includes a step (b1) of the imaging device acquiring the captured image by imaging a limited range including the object without imaging a range other than the limited range including the object, and the providing method may not include the step of imaging a range other than the limited range.
According to this embodiment, the range in which the imaging device can capture an image is limited. For example, in a factory, facility, etc. in which an articulated robot is installed, the range in which the imaging device can capture an image is set so as not to include equipment, information, etc. that is undesirable to be viewed. This prevents equipment, information, etc. that is undesirable to be viewed from being viewed by a user in a remote location. Therefore, for example, equipment, information, etc. related to trade secrets can be prevented from being viewed from a remote location.

1…遠隔操作支援システム、10…自律移動ロボット、20…マニピュレーター、21…基台、21a…筐体、22…アーム、30…撮像装置、31…メモリー、32…通信部、33…撮像部、40…車両、41…駆動部、42…車両制御部、45…メモリー、46…通信部、47…検知部、48…プロセッサー、50…ロボットコントローラー、51…メモリー、52…通信部、53…プロセッサー、80…監視装置、81…メモリー、82…通信部、83…入力装置、84…表示装置、85…プロセッサー、91…マニピュレーター、92…エンドエフェクター、93…ロボットコントローラー、94…作業台、810…画像生成部、820…視点切換部、DW…駆動輪、FW1,FW2…従動輪、IM10…画像、NW…ネットワーク、PI…動作経路、RB1…ロボットシステム、RC…ロボット座標系、S1…センサー情報、WK1,WK2…ワーク 1...Remote operation support system, 10...Autonomous mobile robot, 20...Manipulator, 21...Base, 21a...Housing, 22...Arm, 30...Imaging device, 31...Memory, 32...Communication unit, 33...Imaging unit, 40...Vehicle, 41...Drive unit, 42...Vehicle control unit, 45...Memory, 46...Communication unit, 47...Detection unit, 48...Processor, 50...Robot controller, 51...Memory, 52...Communication unit, 53...Processor, 80...Monitoring device, 81...Memory Molly, 82... communication unit, 83... input device, 84... display device, 85... processor, 91... manipulator, 92... end effector, 93... robot controller, 94... work table, 810... image generation unit, 820... viewpoint switching unit, DW... driving wheel, FW1, FW2... driven wheel, IM10... image, NW... network, PI... motion path, RB1... robot system, RC... robot coordinate system, S1... sensor information, WK1, WK2... work

Claims (6)

自由視点画像を生成するための対象物の画像の生成方法であって、
(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、
(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、
(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、
(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、
を含む、
画像の生成方法。
A method for generating an image of an object for generating a free viewpoint image, comprising the steps of:
(a) preparing an articulated robot having an imaging device attached thereto;
(b) acquiring a captured image by capturing an image of an object with the imaging device;
(c) controlling the articulated robot to change a relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b);
(d) repeating steps (b) and (c);
including,
How the image is generated.
請求項1に記載の生成方法であって、
前記ステップ(a)は、
(a1)移動体に搭載された前記多関節ロボットであって、前記対象物の周囲を移動可能な自律走行搬送ロボットを準備するステップ、
を含み、
前記ステップ(c)は、
(c1)前記自律走行搬送ロボットを移動させることにより、前記撮像装置の前記対象物に対する前記相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップを含む、
画像の生成方法。
The method of claim 1 , further comprising:
The step (a) comprises:
(a1) preparing an autonomous traveling transport robot that is the articulated robot mounted on a moving body and capable of moving around the object;
Including,
The step (c)
(c1) moving the autonomous traveling transfer robot to change the relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b);
How the image is generated.
請求項2に記載の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法であって、
(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、
を含む自由視点画像の生成方法。
A method for generating a free viewpoint image by using an image generated by the generation method according to claim 2, comprising the steps of:
(e) generating data representing a free viewpoint image that can represent an image of the object as viewed from a desired virtual viewpoint using a plurality of the captured images;
A method for generating a free viewpoint image, comprising:
請求項3に記載の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法であって、
(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、
(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、
(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、
(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、
(j)前記拡大撮像画像を表示するステップと、
を含む提供方法。
A method for providing an image using a free viewpoint image generated by the method for generating a free viewpoint image according to claim 3,
(f) presenting the free viewpoint image generated by executing the step (e) to a user;
(g) receiving from the user an indication of a desired portion and a desired viewpoint on the object;
(h) controlling the articulated robot to change the relative position of the imaging device with respect to the target object to a relative position where the designated desired portion can be imaged from the designated desired viewpoint;
(i) acquiring an enlarged captured image by the imaging device enlarging and imaging the desired portion;
(j) displaying the enlarged captured image;
The method of provision includes:
請求項4に記載の提供方法であって、
前記ステップ(a)は、
(a2)前記撮像装置が取り付けられ、遠隔地にあるコンピューターと通信可能な前記多関節ロボットを準備するステップ、
を含み、
前記ステップ(g)は、
(g1)前記コンピューターを介して前記遠隔地にいる前記ユーザーから、前記対象物における前記所望の部位と前記所望の視点とについての前記指示を受け付けるステップ、
を含む、
提供方法。
The method of claim 4, further comprising:
The step (a) comprises:
(a2) preparing the articulated robot to which the imaging device is attached and which is capable of communicating with a computer at a remote location;
Including,
The step (g)
(g1) receiving the instruction regarding the desired portion and the desired viewpoint of the object from the user at the remote location via the computer;
including,
How it's provided.
請求項5に記載の提供方法であって、
前記ステップ(b)は、
(b1)前記撮像装置が、前記対象物を含む限定された範囲以外の範囲を撮像することなく、前記対象物を含む前記限定された範囲を撮像することにより、前記撮像画像を取得するステップ、
を含み、
前記提供方法は、前記限定された範囲以外の範囲を撮像するステップ、を含まない、
提供方法。
The method of claim 5, further comprising:
The step (b)
(b1) acquiring the captured image by the imaging device capturing an image of a limited range including the object without capturing an image of a range other than the limited range including the object;
Including,
The providing method does not include a step of imaging a range other than the limited range.
How it's provided.
JP2023006296A 2023-01-19 2023-01-19 Generation method of image, generation method of free viewpoint image and provision method Pending JP2024102426A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023006296A JP2024102426A (en) 2023-01-19 2023-01-19 Generation method of image, generation method of free viewpoint image and provision method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023006296A JP2024102426A (en) 2023-01-19 2023-01-19 Generation method of image, generation method of free viewpoint image and provision method

Publications (1)

Publication Number Publication Date
JP2024102426A true JP2024102426A (en) 2024-07-31

Family

ID=91968745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023006296A Pending JP2024102426A (en) 2023-01-19 2023-01-19 Generation method of image, generation method of free viewpoint image and provision method

Country Status (1)

Country Link
JP (1) JP2024102426A (en)

Similar Documents

Publication Publication Date Title
US10980606B2 (en) Remote-control manipulator system and method of operating the same
US8306661B2 (en) Method and system for establishing no-entry zone for robot
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
JP3782679B2 (en) Interference avoidance device
CN103097086B (en) Master-slave manipulator
JP2022036201A (en) Robot system
US20050065653A1 (en) Robot and robot operating method
US12138786B2 (en) Teaching device, teaching method, and recording medium
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP2018111155A (en) Robot control device, robot and robot system
JP2019025578A (en) Control device, robot system, and control method
CN113165186B (en) Robot system, control device and method thereof, imaging device, and storage medium
CN114055460B (en) Teaching method and robot system
JP5573537B2 (en) Robot teaching system
JP2021146445A (en) Calibration method
JP2024102426A (en) Generation method of image, generation method of free viewpoint image and provision method
WO2024262397A1 (en) Control method for multi-joint robot, teaching method for multi-joint robot, and robot system
JP7230626B2 (en) robot equipment
JP7757309B2 (en) Robot operation device, robot operation method, and robot system
US20220250236A1 (en) Teaching device, teaching method, and recording medium
JP2015000438A (en) Robot, positional attitude correction device, and positional attitude correction method
JP2025034970A (en) ROBOT SYSTEM AND IMAGE PROCESSING METHOD