JP2024102426A - Generation method of image, generation method of free viewpoint image and provision method - Google Patents
Generation method of image, generation method of free viewpoint image and provision method Download PDFInfo
- Publication number
- JP2024102426A JP2024102426A JP2023006296A JP2023006296A JP2024102426A JP 2024102426 A JP2024102426 A JP 2024102426A JP 2023006296 A JP2023006296 A JP 2023006296A JP 2023006296 A JP2023006296 A JP 2023006296A JP 2024102426 A JP2024102426 A JP 2024102426A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging device
- robot
- manipulator
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 238000004891 communication Methods 0.000 description 21
- 238000012806 monitoring device Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 239000003638 chemical reducing agent Substances 0.000 description 4
- 239000012636 effector Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- SHXWCVYOXRDMCX-UHFFFAOYSA-N 3,4-methylenedioxymethamphetamine Chemical compound CNC(C)CC1=CC=C2OCOC2=C1 SHXWCVYOXRDMCX-UHFFFAOYSA-N 0.000 description 1
- 241000110847 Kochia Species 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本開示は、画像の生成方法、自由視点画像の生成方法、および、提供方法に関する。 This disclosure relates to a method for generating an image, a method for generating a free viewpoint image, and a method for providing the image.
特許文献1には、競技施設において配置された多数のカメラを用いて自由視点画像を生成する技術について記載されている。
特許文献1に記載された技術においては、多数のカメラを用意する必要である。このため、それぞれのカメラの姿勢の調節およびメンテナンスも必要となり、手間がかかる。よって、多数のカメラを使用することなく自由視点画像を生成できる技術が望まれていた。
The technology described in
本開示は、以下の形態として実現することが可能である。 This disclosure can be realized in the following forms:
本開示の第1形態によれば、自由視点画像を生成するための対象物の画像の生成方法が提供される。この画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、を含む。 According to a first aspect of the present disclosure, a method for generating an image of an object for generating a free viewpoint image is provided. This image generating method includes the steps of (a) preparing an articulated robot to which an imaging device is attached, (b) acquiring an image of an object by the imaging device capturing an image of the object, (c) controlling the articulated robot to change the relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b), and (d) repeating steps (b) and (c).
本開示の第2形態によれば、上記形態の画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法が提供される。この自由視点画像の生成方法は、(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、を含む。 According to a second aspect of the present disclosure, there is provided a method for generating a free viewpoint image using an image generated by the image generation method of the above aspect. This method for generating a free viewpoint image includes the step of (e) generating data representing a free viewpoint image capable of showing an image of the object as seen from a desired virtual viewpoint, using a plurality of the captured images.
本開示の第3形態によれば、上記形態の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法が提供される。この提供方法は、(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、(j)前記拡大撮像画像を表示するステップと、を含む。 According to a third aspect of the present disclosure, there is provided a method for providing an image using a free viewpoint image generated by the method for generating a free viewpoint image of the above aspect. This method includes the steps of (f) presenting the free viewpoint image generated by executing step (e) to a user, (g) receiving from the user an instruction regarding a desired part and a desired viewpoint in the object, (h) controlling the articulated robot to change the relative position of the imaging device to a relative position that allows the designated desired part to be imaged from the designated desired viewpoint, (i) obtaining an enlarged captured image by the imaging device enlarging and capturing an image of the desired part, and (j) displaying the enlarged captured image.
A.実施形態:
図1は、本実施形態にかかる遠隔操作支援システム1の全体構成を示す概略図である。遠隔操作支援システム1は、ロボットシステムRB1を遠隔地にいるユーザーが監視し、制御することを可能とする。
A. Embodiments:
1 is a schematic diagram showing the overall configuration of a remote
監視対象であるロボットシステムRB1は、6軸ロボットであるマニピュレーター91と、マニピュレーター91に装着されているエンドエフェクター92と、マニピュレーター91を制御するロボットコントローラー93と、作業台94とを備える。エンドエフェクター92は、例えば、ワークW1を把持するグリッパーである。
The robot system RB1 to be monitored includes a
実施形態においては、監視対象のマニピュレーター91は精密な作業を行う。このため、遠隔地にいるユーザーは、遠隔操作支援システム1を利用して、ロボットシステムRB1を観察しながら、ロボットシステムRB1の動作を制御する。監視対象であるロボットシステムRB1を対象物ともよぶ。マニピュレーター91は、自動運転モードと手動運転モードとのいずれかのモードで動作する。自動運転モードでは、マニピュレーター91は、動作の途中でユーザーからの指示を受けることなく自動的に動作する。手動運転モードでは、マニピュレーター91は、ユーザーから逐次受けた指令に応じて動作する。
In the embodiment, the
遠隔操作支援システム1は、自律移動ロボット10と、監視装置80とを備える。
The remote
自律移動ロボット10は、自律走行搬送ロボット(Autonomous Mobile Robot: AMR)である。自律移動ロボット10は、ロボットシステムRB1が設置されている工場内を移動する。自律移動ロボット10は、マニピュレーター20と、撮像装置30と、車両40と、ロボットコントローラー50とを備える。車両40を移動体ともよぶ。
The autonomous
マニピュレーター20は、6軸ロボットである。マニピュレーター20は、基台21と、アーム22とを備える。基台21は、アーム22を支持している。基台21は、車両40に固定されている。アーム22が備える6つの関節J1~J6それぞれには、サーボモーターと減速機と角度センサーとがそれぞれ設けられている。サーボモーターは、ロボットコントローラー50から電流を供給され、各関節を駆動するための回転出力を生成する。減速機は、対応するサーボモーターから与えられた回転入力を減速する。角度センサーは、例えば、エンコーダー、ポテンションメーター、レゾルバーである。角度センサーは、対応するサーボモーターの出力軸の回転角度(軸の位置)をその関節の回転角度として検出する。検出された回転角度は、ロボットコントローラー50に出力される。
The
ロボット座標系RCにおけるマニピュレーター20の制御点の位置は、ロボットコントローラー50により制御される。マニピュレーター20の制御点は、例えば、アーム22の先端の決められた位置に設定される。制御点をTCP(Tool Center Point)とよぶことがある。ロボット座標系RCは、基台21の位置に対して固定されている座標系である。ロボット座標系RCは、水平面上において互いに直交するX軸およびY軸と、鉛直上向きを正方向とするZ軸と、によって規定される三次元直交座標系である。ロボット座標系RCにおける位置は、X軸方向の位置と、Y軸方向の位置と、Z軸方向の位置とにより表すことができる。また、ロボット座標系RCにおける姿勢は、X軸回りの回転の角度位置と、Y軸回りの回転の角度位置と、Z軸回りの回転の角度位置とにより表すことができる。
The position of the control point of the
撮像装置30は、フルカラーの静止画像またはフルカラーの動画像を撮像できるカメラである。撮像装置30は、マニピュレーター20のアーム22の先端に固定されている。
The
図2は、自律移動ロボット10の主要部および監視装置80の概略構成を表すブロック図である。なお、図2においてマニピュレーター20の図示を省略している。
Figure 2 is a block diagram showing the general configuration of the main parts of the autonomous
撮像装置30は、メモリー31と、通信部32と、撮像部33とを備える。メモリー31は、撮像装置30を制御するための各種のデータおよびプログラムを記憶する。通信部32は、無線通信または有線通信により監視装置80と通信する。撮像部33は、監視対象を撮像し、撮像した画像のデータを出力する。撮像された画像のデータは、通信部32により監視装置80に送信される。
The
図1に示すように、車両40は、基台21を支持している。車両40は、マニピュレーター20を床面上の任意の位置に移動させることができる。車両40は、1組の駆動輪DWと、2組の従動輪FW1,FW2と、駆動部41と、車両制御部42と、を備える。1組の駆動輪DWは、駆動部41により回転駆動させられる。従動輪FW1,FW2は、外力を加えられて回転する。
As shown in FIG. 1, the
駆動部41は、1組の駆動輪DWを駆動する。駆動部41は、一組の駆動輪DWそれぞれを駆動するため、一組のサーボモーターと、一組の減速機と、一組の角度センサーとを備える。一組のサーボモーターそれぞれは、車両制御部42の制御に従って、その出力軸を回転させる。一組の減速機それぞれは、対応するサーボモーターの出力軸の回転を減速させて対応する駆動輪DWに伝達する。一組の角度センサーそれぞれは、例えば、エンコーダー、ポテンションメーター、レゾルバーである。角度センサーは、対応するサーボモーターの出力軸の回転角度を検出する。検出された回転角度は、車両制御部42に出力される。
The
図2に示すように、車両制御部42は、メモリー45と、通信部46と、検知部47と、プロセッサー48とを備える。メモリー45は、車両40を制御するための各種のデータおよびプログラムを記憶する。例えば、メモリー45には、車両40を制御するためのプログラム、自律移動ロボット10が移動する工場内の地図データ、車両40の走行速度の指定値を示す速度データが格納されている。通信部46は、無線通信または有線通信により、ロボットコントローラー50および監視装置80と通信する。検知部47は、車両40の周囲状況を検知する。検知部47は、例えば、LiDAR(Light Detection and Ranging)、カメラ、ソナーである。検知部47は、これらのセンサーのうち2つ以上のセンサーを含んでもよい。プロセッサー48は、メモリー45に記憶されたプログラムを実行することにより様々な機能を実現する。例えば、プロセッサー48は、メモリー45に記憶されたプログラムを実行することにより、車両40が指定された目的地に到達するよう、駆動部41の駆動を制御する。
2, the
ロボットコントローラー50は、マニピュレーター20の各関節を駆動することによって、マニピュレーター20の位置および姿勢を変化させる。実施形態においては、ロボットコントローラー50がマニピュレーター20を駆動することにより、撮像装置30が指定された位置に指定された姿勢で配される。図1に示すように、ロボットコントローラー50は、基台21の筐体21aの内部に配置されている。
The
図2に示すように、ロボットコントローラー50は、メモリー51と、通信部52と、プロセッサー53とを備える。メモリー51は、ロボットコントローラー50を制御するための各種のデータおよびプログラムを記憶する。例えば、メモリー51には、マニピュレーター20を動作させるための制御プログラムが格納されている。通信部52は、無線通信または有線通信により、車両制御部42および監視装置80と通信する。プロセッサー53は、メモリー51に格納されている各種のプログラムを実行することにより、様々な機能を実現する。
As shown in FIG. 2, the
プロセッサー53は、マニピュレーター20の位置および姿勢を算出する。マニピュレーター20の姿勢とは、3次元空間におけるマニピュレーター20全体の位置および姿勢を意味する。具体的には、プロセッサー53は、マニピュレーター20の制御点を与えられた座標が表す位置に移動させるために必要な各関節の回転角度を算出し、各関節の回転角度を制御する。これにより、マニピュレーター20の制御点が与えられた座標が表す位置に移動させられる。
The
監視装置80は、自律移動ロボット10を使用してロボットシステムRB1を遠隔地から監視するコンピューターである。監視装置80は、ロボットシステムRB1および自律移動ロボット10が配置されている工場とは異なる他の施設に設置されている。
The
監視装置80は、メモリー81と、通信部82と、入力装置83と、表示装置84と、プロセッサー85と、を備える。メモリー81は、監視装置80が実行する各種処理に使用される各種のプログラムおよびデータを記憶する。通信部82は、ネットワークNWを介して無線通信または有線通信により、撮像装置30、車両制御部42、および、ロボットコントローラー50と通信する。図1に示す、ネットワークNWは、例えば、LAN(Local Area Network)、インターネット、専用線である。図2に示す、入力装置83は、例えば、キーボード、マウスである。表示装置84は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイである。
The
プロセッサー85は、メモリー81に記憶されているプログラムを実行することにより、様々な機能を実現する。プロセッサー85は、メモリー81に記憶されているプログラムを実行することで、画像生成部810と、視点切換部820として機能する。
The
画像生成部810は、複数の視点から撮像されたロボットシステムRB1の複数の画像を用いて、所望の仮想的な視点から見たときのロボットシステムRB1の画像を表すことができる自由視点画像を表すデータを生成する。画像生成部810は、自由視点画像を表すデータに基づいて自由視点画像を表示装置84に表示する。
The
視点切換部820は、ユーザーが所望する視点についての指示を受け付ける。実施形態において、ユーザーは、監視対象であるロボットシステムRB1についての細部を確認するため、表示された指定画像に基づいて所望の部位および所望の視点を決定し、所望の部位および所望の視点を指示する。視点切換部820は、指示された部位を指示された視点でユーザーが視認できるように、自由視点画像の表示を切り換える。また、視点切換部820は、指示された部位を指示された視点でユーザーが視認できるように、マニピュレーター20を制御して、監視対象であるロボットシステムRB1を撮像する。
The
図3は、監視装置80が実行する処理を表すフローチャートである。図3に示すように、ステップS10において、自由視点画像を生成するための画像が生成される。ステップS20において、自由視点画像が生成される。図3に示す処理は、画像生成部810と視点切換部820として機能するプロセッサー85により実行される。例えば、ユーザーが入力装置83を介して処理の開始を指示すると、プロセッサー85は図3に示す処理を開始する。図3に示す処理の実行の開始前にあらかじめ自律移動ロボット10が準備される。
Figure 3 is a flowchart showing the processing executed by the
図4は、図3に示すステップS10の詳細なフローチャートである。以下、自由視点画像を生成するための監視対象の画像の生成方法について説明する。ステップS101において、プロセッサー85は監視対象を指定する指示を受け付けたか否かを判定する。プロセッサー85は監視対象を指定する指示を受け付けた場合(ステップS101;YES)、ステップS102の処理を実行する。以下、ユーザーが監視対象としてロボットシステムRB1を指定した例を説明する。
Figure 4 is a detailed flowchart of step S10 shown in Figure 3. Below, a method for generating an image of a monitoring target for generating a free viewpoint image will be described. In step S101, the
また、ユーザーは、別途、監視対象であるロボットシステムRB1のロボットコントローラー93に対して、マニピュレーター91の動作についての指令を逐次出すものとする。マニピュレーター91の先端には不図示のカメラが備えられており、ユーザーは、マニピュレーター91のカメラが撮像したマニピュレーター91の周囲の状況を表す画像を見ながら指令を出す。よって、マニピュレーター91は指令に応じた動作を行う。
The user also separately issues sequential commands regarding the operation of the
ステップS101において、監視対象を指定する指示を受けていない場合、(ステップS101;NO)、プロセッサー85は待機する。
In step S101, if no instruction to specify a monitoring target has been received (step S101; NO), the
ステップS102において、プロセッサー85は、ロボットシステムRB1の工場内における位置を示す情報を目的地として指定した上で、移動の指示を、車両40の車両制御部42に送信する。
In step S102, the
指示を受けた自律移動ロボット10は、ロボットシステムRB1の工場内における位置を示す情報と、メモリー45に格納されている地図データとを用いて、指定された目的地へ移動する。例えば、車両40は、駆動部41が備えるエンコーダーが検出した回転角度を用いて、SLAM(Simultaneous Localization and Mapping)アルゴリズムにより自己位置を推定しながら目的地に移動する。自律移動ロボット10は、移動が完了すると、移動が完了したことをプロセッサー85に通知する。
The autonomous
ステップS103において、プロセッサー85は、自由視点画像を生成するため監視対象の画像の生成を開始する開始条件が満たされたか否かを判定する。実施形態においては、開始条件とは、自律移動ロボット10の移動が完了したこと、および、監視対象であるマニピュレーター91がユーザーから出される逐次の指令に従って動作し、あらかじめ決められた位置および姿勢を取ったこと、を含む。
In step S103, the
図1に示すように、マニピュレーター91は、例えば、把持したワークWK1を他のワークWK2に形成された穴に差し込む動作を行うものとする。あらかじめ決められた位置および姿勢は、マニピュレーター91がワークWK1をワークWK2に形成された穴に差し込む直前の位置および姿勢である。マニピュレーター91は、ワークWK1をワークWK2に形成された穴の中心に正確に差し込む必要がある。このため、ユーザーは、ワークWK1をワークWK2の穴に差し込む直前にマニピュレーター91の動作を停止させる。
As shown in FIG. 1, the
図4に示す、ステップS103において、プロセッサー85は、開始条件が満たされていると判定すると(ステップS103;YES)、ステップS104を実行する。一方、開始条件が満たされていない場合、(ステップS103;NO)、プロセッサー85は待機する。
In step S103 shown in FIG. 4, if the
ステップS104において、プロセッサー85は、マニピュレーター20が撮像用の動作経路PIに沿って移動するように、ロボットコントローラー50を介してマニピュレーター20を駆動する。
In step S104, the
図5は、マニピュレーター20が撮像用の動作経路PIに沿って移動することにより、あらかじめ設定された複数のポイントそれぞれに配置される撮像装置30と、監視対象であるロボットシステムRB1のマニピュレーター91との位置関係の一例を示す図である。なお、図4では、マニピュレーター20を図示していない。複数の視点からマニピュレーター91を撮像することができるポイントが動作経路PIにおいて設定されている。マニピュレーター20が移動することにより、撮像装置30は、あらかじめ設定された撮像のための複数のポイントに順次配置される。また、マニピュレーター20は、撮像用の動作経路PIにおいて設定された複数のポイントに到達するたび、停止するようにプログラムされている。
Figure 5 shows an example of the positional relationship between the
図4に示す、ステップS105において、プロセッサー85は、マニピュレーター20が次のポイントに到達したか否かを判定する。プロセッサー85は、マニピュレーター20が次のポイントに到達したと判定した場合(ステップS105;YES)、ステップS106を実行する。マニピュレーター20が次のポイントに到達していない場合(ステップS105;NO)、プロセッサー85は待機する。
In step S105 shown in FIG. 4, the
ステップS106において、プロセッサー85は、現在のポイントにおける監視対象の画像IM10を取得する。具体的には、プロセッサー85は、撮像装置30により監視対象を撮像させる。画像IM10は、例えば、監視対象であるマニピュレーター91の手先部分と、ワークW1と、ワークW2とが撮像された画像である。さらに、プロセッサー85は、ロボットコントローラー50を介してマニピュレーター20の関節J1~J6それぞれに設けられた角度センサーの検出値をセンサー情報として取得する。プロセッサー85は、現在のポイントを表す情報と、画像IM10と、センサー情報とを対応付けてメモリー81に格納する。
In step S106, the
ステップS107において、プロセッサー85は、動作経路PIにおいて設定されているすべてのポイントにおいて撮像が行われたかを判定する。すべてのポイントでの撮像が行われた場合(ステップS107;YES)、図4に示す処理が終了される。一方、すべてのポイントで撮像が行われていない場合(ステップS107;NO)、プロセッサー85は、再びステップS104の処理を実行する。よって、マニピュレーター20は撮像用の動作経路PIに沿って移動する。このようにして、プロセッサー85は、撮像装置30のマニピュレーター91に対する相対位置を、直前に実行された撮像時における撮像装置30のマニピュレーター91に対する相対位置から変更する。今回の撮像と前回の撮像との間に他の撮像が行われていないときに、前回の撮像を直前に実行された撮像という。
In step S107, the
図4に示す処理が実行されることにより、ロボットシステムRB1についての自由視点画像を生成するための複数の画像IM10が収集される。 By executing the process shown in Figure 4, multiple images IM10 are collected to generate a free viewpoint image of the robot system RB1.
図6は、図3に示すステップS20の詳細なフローチャートである。以下、図4に示す画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法、および、生成された自由視点画像を用いた画像の提供方法を説明する。図6に示す処理が実行される前に、図4に示す処理が実行されていることを前提とする。 Figure 6 is a detailed flowchart of step S20 shown in Figure 3. Below, a method for generating a free viewpoint image using an image generated by the image generation method shown in Figure 4, and a method for providing an image using the generated free viewpoint image will be described. It is assumed that the process shown in Figure 4 has been executed before the process shown in Figure 6 is executed.
ステップS201において、プロセッサー85は、複数のポイントそれぞれで取得された画像IM10および対応するセンサー情報S1をメモリー81から読み出す。プロセッサー85は、撮像が行われた各ポイントにおける、各関節の変位量を用いて順運動学に基づいてそれぞれのポイントにおけるマニピュレーター20の手先の位置および姿勢を表すロボット座標系RCにおける座標値を算出する。
In step S201, the
ステップS202において、プロセッサー85は、自由視点画像を表すデータを生成する。具体的には、プロセッサー85は、複数の画像IM10とそれぞれについて算出した座標値とを用いて、複数の仮想的な視点それぞれからロボットシステムRB1を見たときの複数の視点画像を生成する。生成された複数の視点画像は、自由視点画像を構成する。プロセッサー85は、生成した視点画像と、複数の画像IM10とを含む、自由視点画像を表すデータをメモリー81に格納する。
In step S202, the
ステップS203において、プロセッサー85は、自由視点画像を表すデータを用いて、ロボットシステムRB1をあらかじめ設定された初期視点から見た場合の視点画像を表示装置84に表示する。このようにして、生成された自由視点画像がユーザーに提示される。
In step S203, the
ステップS204において、プロセッサー85は、ユーザーから視点の切り換えについての指示を受けたか否かを判定する。ユーザーは、ロボットシステムRB1の所望の部位を所望の視点で見た場合の画像を表示装置84に表示することを指示するため、入力装置83を用いて視点の切り換え操作を行うことができる。
In step S204, the
図7は、視点の切り換えの指示についての説明図である。例えば、ステップS203において、プロセッサー85は、図7の上部に示すように、マニピュレーター91の手先部分の視点画像と、ロール、ピッチ、ヨーそれぞれの回転を調整するためのボタンの画像とを表示装置84に表示する。ユーザーは、入力装置83を用いてボタンを操作し、所望の視点から見た場合のロボットシステムRB1を表示装置84に表示させることができる。例えば、ロールは、ロボットシステムRB1に設定されているロボット座標系におけるY軸まわりの回転である。ピッチは、ロボットシステムRB1に設定されているロボット座標系におけるX軸まわりの回転である。ヨーは、ロボットシステムRB1に設定されているロボット座標系におけるZ軸まわりの回転である。
Figure 7 is an explanatory diagram of an instruction to switch the viewpoint. For example, in step S203, the
図6に示すように、ステップS204において、プロセッサー85は、ユーザーから視点の切り換えについての指示を受けると(ステップS204;YES)、ステップS205の処理を実行する。プロセッサー85は、ユーザーから視点の切り換えについての指示がない場合(ステップS204;NO)、ステップS206の処理を実行する。
As shown in FIG. 6, in step S204, if the
ステップS205において、プロセッサー85は、ユーザーが所望する部位を所望の視点で見た場合の視点画像を表示装置84に表示する。例えば、ユーザーの視点の切り換えについての指示に応じて、プロセッサー85は、図7の下部に示すような画像を表示装置84に表示する。
In step S205, the
図6に示す、ステップS206において、プロセッサー85は、ユーザーから拡大表示についての指示を受けたか否かを判定する。ユーザーは、ロボットシステムRB1を拡大して撮像した画像を表示装置84に表示することを、入力装置83を用いて指示することができる。
In step S206 shown in FIG. 6, the
図8は、拡大表示の指示についての説明図である。例えば、ステップS203において、プロセッサー85は、図8の上部に示すように、マニピュレーター91の手先部分の画像と、選択可能な視点方向を示す番号とを重ね合わせた画像を表示装置84に表示する。ユーザーは、入力装置83を用いて所望の視点方向を示す番号を選択することができる。
Figure 8 is an explanatory diagram of an instruction for enlarged display. For example, in step S203, the
図6に示すように、ステップS206において、プロセッサー85は、ユーザーから拡大表示についての指示を受けると(ステップS206;YES)、ステップS207の処理を実行する。プロセッサー85は、ユーザーから拡大表示についての指示がない場合(ステップS206;NO)、ステップS208の処理を実行する。
As shown in FIG. 6, in step S206, if the
ステップS207において、プロセッサー85は、マニピュレーター91の所望の部位を所望の視点で拡大して撮像した画像を表示装置84に表示する。まず、プロセッサー85は、ロボットコントローラー50を介してマニピュレーター20を駆動することにより、マニピュレーター91を指定された視点で指定された部位を撮像できる位置および姿勢に、撮像装置30を配置する。その後、プロセッサー85は、撮像装置30にマニピュレーター91を撮像させる。このとき、プロセッサー85は、自由視点画像を生成するために用いられた画像IM10を撮像したときよりも、撮像装置30のズーム倍率を高くするように撮像装置30を制御する。あるいは、プロセッサー85は、自由視点画像を生成するために用いられた画像IM10を撮像したときよりも、撮像装置30とマニピュレーター91との距離が近くなるようにマニピュレーター20を制御してもよい。その後、プロセッサー85は、撮像装置30により撮像された画像を表示装置84に表示する。拡大して撮像された画像を拡大撮像画像ともよぶ。例えば、図8の上部のような画像が表示装置84に表示されているときに、ユーザーが所望の視点方向として「08」番が選択したとする。この場合、図8の下部に示すような画像が撮像装置30により撮像され、表示装置84に表示される。
In step S207, the
よって、ユーザーは、自由視点画像に基づいて監視対象の所望の部位および所望の視点を決定した上で、監視対象であるマニピュレーター91の所望の部位を所望の視点で拡大して見た場合の画像を視認できる。ユーザーは、ロボットコントローラー93を介してマニピュレーター91の動作を再開させる。ユーザーは、拡大された状態で撮像されているマニピュレーター91を確認しながら、マニピュレーター91の動作についての指令をロボットコントローラー93に対して逐次出すことにより、マニピュレーター91にワークWK2をワークWK1に形成された穴に差し込む動作を行わせる。ユーザーは、必要に応じた回数だけ、自由視点画像における視点の切り換えについての指示と、拡大表示についての指示と、を監視装置80に出す。これにより、撮像装置30のマニピュレーター91に対する相対位置が、直前に実行された撮像時における撮像装置30のマニピュレーター91に対する相対位置から変更される。
Therefore, the user can determine the desired part of the monitored object and the desired viewpoint based on the free viewpoint image, and then view an image of the desired part of the monitored object, the
ステップS208において、プロセッサー85は、処理を継続するか否かを判定する。例えば、プロセッサー85は、ユーザーの操作により処理を停止する指示を示す情報が入力されるまで図6に示す処理を継続すると判定する。プロセッサー85は、ユーザーの操作により処理を停止する指示を示す情報が入力された場合に図6に示す処理を終了すると判定する。処理を継続する場合(ステップS208;YES)、プロセッサー85は、再びステップS204の処理を実行する。処理を継続しない場合(ステップS208;NO)、プロセッサー85は、図6に示す処理を終了する。
In step S208, the
以上説明したように、実施形態においては、多数のカメラを使用することなく、自由視点画像を生成するための、異なる視点から対象物を撮像した複数の撮像画像を得ることができる。よって、多数のカメラを使用することなく、自由視点画像を生成することができる。多数のカメラを用意する態様によれば、個々のカメラの姿勢の調節に加えてメンテナンスも必要となるが、実施形態においては、多数のカメラについての調節、メンテナンス等の手間が不要である。 As described above, in the embodiment, multiple captured images of an object taken from different viewpoints can be obtained to generate a free viewpoint image without using multiple cameras. Therefore, a free viewpoint image can be generated without using multiple cameras. According to an aspect in which multiple cameras are prepared, in addition to adjusting the attitude of each camera, maintenance is also required, but in the embodiment, the effort of adjusting, maintaining, etc., the multiple cameras is not required.
さらに、6軸ロボットであるマニピュレーター20を備える自律移動ロボット10が監視対象の周囲を移動して対象物を撮像することができるので、所望の視点で監視対象を撮像することが容易である。また、ユーザーが遠隔地にいる場合であっても、ユーザーは、自由視点画像に基づいて監視対象の所望の部位および所望の視点を決定した上で、監視対象の所望の部位を所望の視点で拡大された状態で視認できる。また、複数のロボットシステムが監視対象である場合であっても、自律移動ロボット10がそれぞれのロボットシステムの配置位置に移動できるので、ユーザーは、それぞれのロボットシステムを遠隔地から監視できる。
Furthermore, the autonomous
B.他の実施形態:
B1.他の実施形態1
また、撮像装置30が撮像できる範囲が限定されてもよい。具体的には、撮像装置30はマニピュレーター91を含む限定された範囲だけを撮像する。例えば、自律移動ロボット10が走行可能な範囲をあらかじめ設定された範囲に限定することにより、撮像装置30がマニピュレーター91を含む限定された範囲だけを撮像するような制御が行われてもよい。あるいは、自律移動ロボット10があらかじめ設定された範囲内に位置しているときだけ、撮像装置30の撮像の機能が有効にされるような制御が行われてもよい。よって、撮像装置30は限定された範囲以外の範囲を撮像しない。これにより、監視対象であるロボットシステムRB1が配置されている工場、施設等において、視認されることが好ましくない設備、情報等をユーザーに視認させない。よって、例えば、営業秘密にかかる設備、情報等が遠隔地から視認されることを防止できる。
B. Other embodiments:
B1.
Also, the range in which the
B2.他の実施形態2
実施形態においては、撮像装置30が取り付けられたマニピュレーター20が、自律移動ロボット10により監視対象の周囲を移動可能である例を説明した。しかしながら、マニピュレーター20は、車両40に支持されておらず、監視対象の周囲を移動できなくてもよい。この場合であっても、マニピュレーター20を、ロボットシステムRB1の近傍であって、マニピュレーター91を撮像することができる位置に配置することで、自由視点画像を生成するための画像を取得することができる。
B2. Other embodiment 2
In the embodiment, an example has been described in which the
実施形態においては、監視装置80が、ロボットシステムRB1および自律移動ロボット10が配置されている工場とは異なる他の施設に設置されており、ユーザーが遠隔でロボットシステムRB1を監視、制御する例を説明した。しかしながら、ロボットシステムRB1は、遠隔から制御されなくてもよい。この場合、監視装置80は、ロボットシステムRB1および自律移動ロボット10が配置されている工場に設置される。例えば、複数のロボットシステムが監視対象である場合、ユーザーは、監視装置80を使用して、複数のロボットシステムを監視、制御を行うことができる。
In the embodiment, an example has been described in which the
実施形態においては、1つの撮像装置30がマニピュレーター20に取り付けられている例を説明したが、2つ以上の撮像装置がマニピュレーター20に取り付けられていてもよい。
In the embodiment, an example in which one
また、自律移動ロボット10が備えるマニピュレーター20が有する関節の数は6つに限られない。また、実施形態のマニピュレーター20は垂直多関節ロボットであったが、マニピュレーター20は水平多関節ロボットであってもよい。
The number of joints of the
監視装置80の機能を実現する手段は、ソフトウェアに限られず、その一部または全部を、専用のハードウェアによって実現してもよい。例えば、専用のハードウェアとして、FPGA(Field Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)に代表される回路を使用してもよい。
The means for realizing the functions of the
C.他の形態:
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替え、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
C. Other Forms:
The present disclosure is not limited to the above-mentioned embodiment, and can be realized in various configurations without departing from the spirit of the present disclosure. For example, the technical features in the embodiments corresponding to the technical features in each form described in the Summary of the Invention column can be appropriately replaced or combined to solve some or all of the above-mentioned problems or to achieve some or all of the above-mentioned effects. Furthermore, if the technical feature is not described as essential in this specification, it can be appropriately deleted.
(1)本開示の第1形態によれば、自由視点画像を生成するための対象物の画像の生成方法が提供される。この画像の生成方法は、(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、を含む。
上記形態によれば、多数のカメラを使用することなく、自由視点画像を生成するための、異なる視点から対象物を撮像した複数の撮像画像が得られる。
(1) According to a first aspect of the present disclosure, there is provided a method for generating an image of an object for generating a free viewpoint image, the method for generating an image of the object includes the steps of: (a) preparing an articulated robot having an imaging device attached thereto; (b) acquiring an image of the object by the imaging device; (c) controlling the articulated robot to change a relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b); and (d) repeating steps (b) and (c).
According to the above aspect, a plurality of captured images of an object can be obtained from different viewpoints to generate a free viewpoint image without using a large number of cameras.
(2)上記形態において、前記ステップ(a)は、(a1)移動体に搭載された前記多関節ロボットであって、前記対象物の周囲を移動可能な自律走行搬送ロボットを準備するステップ、を含み、前記ステップ(c)は、(c1)前記自律走行搬送ロボットを移動させることにより、前記撮像装置の前記対象物に対する前記相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップを含んでもよい。
この形態によれば、多関節ロボットが対象物の周囲を移動して対象物を撮像することができるので、所望の視点で対象物を撮像することが容易である。
(2) In the above embodiment, the step (a) may include (a1) a step of preparing an autonomous mobile transport robot, the autonomous mobile transport robot being a multi-joint robot mounted on a moving body and capable of moving around the object, and the step (c) may include (c1) a step of changing the relative position of the imaging device to the object from the relative position in the step (b) executed immediately before by moving the autonomous mobile transport robot.
According to this aspect, since the articulated robot can move around the object and capture the image of the object, it is easy to capture the image of the object from a desired viewpoint.
(3)本開示の第2形態によれば、上記形態の画像の生成方法により生成された画像を用いて自由視点画像を生成する自由視点画像の生成方法が提供される。この自由視点画像の生成方法は、(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、を含む。
この形態によれば、多数のカメラを使用することなく、自由視点画像を生成することができる。
(3) According to a second aspect of the present disclosure, there is provided a method for generating a free-viewpoint image by using an image generated by the image generating method of the above aspect, the method including: (e) generating data representing a free-viewpoint image capable of showing an image of the object as seen from a desired virtual viewpoint by using a plurality of the captured images.
According to this aspect, a free viewpoint image can be generated without using a large number of cameras.
(4)本開示の第3形態によれば、上記形態の自由視点画像の生成方法により生成された自由視点画像を用いた画像の提供方法が提供される。この提供方法は、(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、(j)前記拡大撮像画像を表示するステップと、を含む。
上記形態によれば、ユーザーは、自由視点画像に基づいて、対象物の所望の部位および所望の視点を決定した上で、対象物の所望の部位を所望の視点で拡大された状態で視認できる。
(4) According to a third aspect of the present disclosure, there is provided a method for providing an image using a free viewpoint image generated by the method for generating a free viewpoint image according to the above aspect, the method for providing an image including: (f) presenting the free viewpoint image generated by executing the step (e) to a user; (g) receiving, from the user, an instruction regarding a desired part and a desired viewpoint in the object; (h) controlling the articulated robot to change the relative position of the imaging device with respect to the object to a relative position that allows the designated desired part to be imaged from the designated desired viewpoint; (i) acquiring an enlarged captured image by the imaging device enlarging and imaging the desired part; and (j) displaying the enlarged captured image.
According to the above aspect, the user can determine a desired portion of an object and a desired viewpoint based on the free viewpoint image, and then visually recognize the desired portion of the object in an enlarged state from the desired viewpoint.
(5)上記形態において、前記ステップ(a)は、(a2)前記撮像装置が取り付けられ、遠隔地にあるコンピューターと通信可能な前記多関節ロボットを準備するステップ、を含み、前記ステップ(g)は、(g1)前記コンピューターを介して前記遠隔地にいる前記ユーザーから、前記対象物における前記所望の部位と前記所望の視点とについての前記指示を受け付けるステップ、を含んでもよい。
この形態によれば、遠隔地にいるユーザーが対象物の所望の部位を所望の視点で拡大された状態で視認できる。
(5) In the above embodiment, step (a) may include (a2) a step of preparing the articulated robot to which the imaging device is attached and capable of communicating with a computer at a remote location, and step (g) may include (g1) a step of receiving the instruction regarding the desired part and the desired viewpoint of the object from the user at the remote location via the computer.
According to this embodiment, a user at a remote location can view a desired portion of the object in an enlarged state from a desired viewpoint.
(6)上記形態において、前記ステップ(b)は、(b1)前記撮像装置が、前記対象物を含む限定された範囲以外の範囲を撮像することなく、前記対象物を含む前記限定された範囲を撮像することにより、前記撮像画像を取得するステップ、を含み、前記提供方法は、前記限定された範囲以外の範囲を撮像するステップ、を含まなくてもよい。
この形態によれば、撮像装置が撮像できる範囲が限定される。例えば、多関節ロボットが配置されている工場、施設等において、撮像装置が撮像できる範囲に、視認されることが好ましくない設備、情報等が含まれないように設定する。これにより、視認されることが好ましくない設備、情報等を遠隔地にいるユーザーに視認させない。よって、例えば、営業秘密にかかる設備、情報等が遠隔地から視認されることを防止できる。
(6) In the above embodiment, the step (b) includes a step (b1) of the imaging device acquiring the captured image by imaging a limited range including the object without imaging a range other than the limited range including the object, and the providing method may not include the step of imaging a range other than the limited range.
According to this embodiment, the range in which the imaging device can capture an image is limited. For example, in a factory, facility, etc. in which an articulated robot is installed, the range in which the imaging device can capture an image is set so as not to include equipment, information, etc. that is undesirable to be viewed. This prevents equipment, information, etc. that is undesirable to be viewed from being viewed by a user in a remote location. Therefore, for example, equipment, information, etc. related to trade secrets can be prevented from being viewed from a remote location.
1…遠隔操作支援システム、10…自律移動ロボット、20…マニピュレーター、21…基台、21a…筐体、22…アーム、30…撮像装置、31…メモリー、32…通信部、33…撮像部、40…車両、41…駆動部、42…車両制御部、45…メモリー、46…通信部、47…検知部、48…プロセッサー、50…ロボットコントローラー、51…メモリー、52…通信部、53…プロセッサー、80…監視装置、81…メモリー、82…通信部、83…入力装置、84…表示装置、85…プロセッサー、91…マニピュレーター、92…エンドエフェクター、93…ロボットコントローラー、94…作業台、810…画像生成部、820…視点切換部、DW…駆動輪、FW1,FW2…従動輪、IM10…画像、NW…ネットワーク、PI…動作経路、RB1…ロボットシステム、RC…ロボット座標系、S1…センサー情報、WK1,WK2…ワーク 1...Remote operation support system, 10...Autonomous mobile robot, 20...Manipulator, 21...Base, 21a...Housing, 22...Arm, 30...Imaging device, 31...Memory, 32...Communication unit, 33...Imaging unit, 40...Vehicle, 41...Drive unit, 42...Vehicle control unit, 45...Memory, 46...Communication unit, 47...Detection unit, 48...Processor, 50...Robot controller, 51...Memory, 52...Communication unit, 53...Processor, 80...Monitoring device, 81...Memory Molly, 82... communication unit, 83... input device, 84... display device, 85... processor, 91... manipulator, 92... end effector, 93... robot controller, 94... work table, 810... image generation unit, 820... viewpoint switching unit, DW... driving wheel, FW1, FW2... driven wheel, IM10... image, NW... network, PI... motion path, RB1... robot system, RC... robot coordinate system, S1... sensor information, WK1, WK2... work
Claims (6)
(a)撮像装置が取り付けられた多関節ロボットを準備するステップと、
(b)前記撮像装置が対象物を撮像することにより撮像画像を取得するステップと、
(c)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップと、
(d)前記ステップ(b)と前記ステップ(c)とを繰り返すステップと、
を含む、
画像の生成方法。 A method for generating an image of an object for generating a free viewpoint image, comprising the steps of:
(a) preparing an articulated robot having an imaging device attached thereto;
(b) acquiring a captured image by capturing an image of an object with the imaging device;
(c) controlling the articulated robot to change a relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b);
(d) repeating steps (b) and (c);
including,
How the image is generated.
前記ステップ(a)は、
(a1)移動体に搭載された前記多関節ロボットであって、前記対象物の周囲を移動可能な自律走行搬送ロボットを準備するステップ、
を含み、
前記ステップ(c)は、
(c1)前記自律走行搬送ロボットを移動させることにより、前記撮像装置の前記対象物に対する前記相対位置を、直前に実行された前記ステップ(b)における相対位置から変えるステップを含む、
画像の生成方法。 The method of claim 1 , further comprising:
The step (a) comprises:
(a1) preparing an autonomous traveling transport robot that is the articulated robot mounted on a moving body and capable of moving around the object;
Including,
The step (c)
(c1) moving the autonomous traveling transfer robot to change the relative position of the imaging device with respect to the object from the relative position in the immediately preceding step (b);
How the image is generated.
(e)複数の前記撮像画像を用いて、所望の仮想的な視点から見たときの前記対象物の画像を表すことができる自由視点画像を表すデータを生成するステップ、
を含む自由視点画像の生成方法。 A method for generating a free viewpoint image by using an image generated by the generation method according to claim 2, comprising the steps of:
(e) generating data representing a free viewpoint image that can represent an image of the object as viewed from a desired virtual viewpoint using a plurality of the captured images;
A method for generating a free viewpoint image, comprising:
(f)前記ステップ(e)が実行されることにより生成された前記自由視点画像をユーザーに提示するステップと、
(g)前記対象物における所望の部位と所望の視点とについての指示を前記ユーザーから受け付けるステップと、
(h)前記多関節ロボットを制御して、前記撮像装置の前記対象物に対する前記相対位置を、指示された前記所望の部位を指示された前記所望の視点で撮像できる相対位置に変えるステップと、
(i)前記撮像装置が前記所望の部位を拡大して撮像することにより拡大撮像画像を取得するステップと、
(j)前記拡大撮像画像を表示するステップと、
を含む提供方法。 A method for providing an image using a free viewpoint image generated by the method for generating a free viewpoint image according to claim 3,
(f) presenting the free viewpoint image generated by executing the step (e) to a user;
(g) receiving from the user an indication of a desired portion and a desired viewpoint on the object;
(h) controlling the articulated robot to change the relative position of the imaging device with respect to the target object to a relative position where the designated desired portion can be imaged from the designated desired viewpoint;
(i) acquiring an enlarged captured image by the imaging device enlarging and imaging the desired portion;
(j) displaying the enlarged captured image;
The method of provision includes:
前記ステップ(a)は、
(a2)前記撮像装置が取り付けられ、遠隔地にあるコンピューターと通信可能な前記多関節ロボットを準備するステップ、
を含み、
前記ステップ(g)は、
(g1)前記コンピューターを介して前記遠隔地にいる前記ユーザーから、前記対象物における前記所望の部位と前記所望の視点とについての前記指示を受け付けるステップ、
を含む、
提供方法。 The method of claim 4, further comprising:
The step (a) comprises:
(a2) preparing the articulated robot to which the imaging device is attached and which is capable of communicating with a computer at a remote location;
Including,
The step (g)
(g1) receiving the instruction regarding the desired portion and the desired viewpoint of the object from the user at the remote location via the computer;
including,
How it's provided.
前記ステップ(b)は、
(b1)前記撮像装置が、前記対象物を含む限定された範囲以外の範囲を撮像することなく、前記対象物を含む前記限定された範囲を撮像することにより、前記撮像画像を取得するステップ、
を含み、
前記提供方法は、前記限定された範囲以外の範囲を撮像するステップ、を含まない、
提供方法。 The method of claim 5, further comprising:
The step (b)
(b1) acquiring the captured image by the imaging device capturing an image of a limited range including the object without capturing an image of a range other than the limited range including the object;
Including,
The providing method does not include a step of imaging a range other than the limited range.
How it's provided.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023006296A JP2024102426A (en) | 2023-01-19 | 2023-01-19 | Generation method of image, generation method of free viewpoint image and provision method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023006296A JP2024102426A (en) | 2023-01-19 | 2023-01-19 | Generation method of image, generation method of free viewpoint image and provision method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024102426A true JP2024102426A (en) | 2024-07-31 |
Family
ID=91968745
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023006296A Pending JP2024102426A (en) | 2023-01-19 | 2023-01-19 | Generation method of image, generation method of free viewpoint image and provision method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024102426A (en) |
-
2023
- 2023-01-19 JP JP2023006296A patent/JP2024102426A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10980606B2 (en) | Remote-control manipulator system and method of operating the same | |
| US8306661B2 (en) | Method and system for establishing no-entry zone for robot | |
| JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
| JP3782679B2 (en) | Interference avoidance device | |
| CN103097086B (en) | Master-slave manipulator | |
| JP2022036201A (en) | Robot system | |
| US20050065653A1 (en) | Robot and robot operating method | |
| US12138786B2 (en) | Teaching device, teaching method, and recording medium | |
| US11618166B2 (en) | Robot operating device, robot, and robot operating method | |
| JP2018111155A (en) | Robot control device, robot and robot system | |
| JP2019025578A (en) | Control device, robot system, and control method | |
| CN113165186B (en) | Robot system, control device and method thereof, imaging device, and storage medium | |
| CN114055460B (en) | Teaching method and robot system | |
| JP5573537B2 (en) | Robot teaching system | |
| JP2021146445A (en) | Calibration method | |
| JP2024102426A (en) | Generation method of image, generation method of free viewpoint image and provision method | |
| WO2024262397A1 (en) | Control method for multi-joint robot, teaching method for multi-joint robot, and robot system | |
| JP7230626B2 (en) | robot equipment | |
| JP7757309B2 (en) | Robot operation device, robot operation method, and robot system | |
| US20220250236A1 (en) | Teaching device, teaching method, and recording medium | |
| JP2015000438A (en) | Robot, positional attitude correction device, and positional attitude correction method | |
| JP2025034970A (en) | ROBOT SYSTEM AND IMAGE PROCESSING METHOD |