JP7536312B2 - Image interface device, image operation device, operation object operation device, operation object operation system, operation object presentation method, and operation object presentation program - Google Patents
Image interface device, image operation device, operation object operation device, operation object operation system, operation object presentation method, and operation object presentation program Download PDFInfo
- Publication number
- JP7536312B2 JP7536312B2 JP2021520790A JP2021520790A JP7536312B2 JP 7536312 B2 JP7536312 B2 JP 7536312B2 JP 2021520790 A JP2021520790 A JP 2021520790A JP 2021520790 A JP2021520790 A JP 2021520790A JP 7536312 B2 JP7536312 B2 JP 7536312B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- surrogate
- user
- operated
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 19
- 230000007246 mechanism Effects 0.000 claims description 21
- 239000000203 mixture Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009429 electrical wiring Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
Description
本発明は、画像インタフェース装置、画像操作装置、操作対象物操作装置、操作対象物操作システム、操作対象物提示方法および操作対象物提示プログラムに関する。 The present invention relates to an image interface device, an image operation device, an operation object operation device, an operation object operation system, an operation object presentation method, and an operation object presentation program.
遠隔ロボットをあたかもユーザの手元にあるかのようなものとして制御する技術に、テレイグジスタンスがある(例えば、非特許文献1参照)。Telexistence is a technology that allows a user to control a remote robot as if it were in the user's hands (see, for example, non-patent document 1).
テレイグジスタンスは、遠隔にあるロボットに設置したセンサ等から得た情報に基づいて、該ロボットを制御、操縦する技術である。テレイグジスタンスでは、ロボットの動作がユーザの身体動作にマッピングされるため、ユーザはロボットに「憑依」して操作しているような感覚を得る。これによりユーザは、遠隔地にあるものをあたかも身近にあるかのように感じながらロボットを操作することができる。 Telexistence is a technology that controls and steers a robot based on information obtained from sensors installed in a remote robot. With telexistence, the robot's movements are mapped to the user's physical movements, giving the user the sensation of being "possessed" by the robot and controlling it. This allows the user to operate a robot while feeling as if a remote object were close by.
しかしながら従来のテレイグジスタンスでは、ロボットのサイズに対するユーザのサイズは、予め定められたものとして固定されている。このためロボットのサイズ、動作または位置などがロボットごとに変わったような場合、ユーザはこれに対応して違和感なくロボットを操作することができない。However, in conventional telexistence, the size of the user relative to the size of the robot is fixed and predetermined. Therefore, if the size, movement, or position of the robot changes from robot to robot, the user cannot operate the robot in a natural way.
本発明はこうした状況に鑑みてなされたものであり、その目的は、多様なサイズ、位置、動作または運動特性を持つロボット等の操作対象物を、違和感なく操作できる技術を提供することにある。The present invention has been made in consideration of these circumstances, and its purpose is to provide technology that enables users to seamlessly operate objects, such as robots, that have a variety of sizes, positions, movements or movement characteristics.
上記課題を解決するために、本発明のある態様の画像インタフェース装置は、ユーザが操作する操作対象物の画像を表示する画像表示部と、画像表示部にユーザの仮想的な代理身体を描画する代理身体描画部と、操作対象物に対するユーザからの操作信号が入力される操作信号入力部と、を備える。代理身体の大きさは、操作対象物の大きさに応じて可変である。画像表示部に表示される操作対象物の画像は、代理身体から見た主観画像である。 In order to solve the above problems, an image interface device according to one aspect of the present invention includes an image display unit that displays an image of an object to be operated by a user, a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit, and an operation signal input unit to which an operation signal from the user for the object to be operated is input. The size of the surrogate body is variable according to the size of the object to be operated. The image of the object to be operated displayed on the image display unit is a subjective image as seen from the surrogate body.
実施の形態の代理身体は複数の大きさを有し、これら複数の大きさは前記操作対象物に対して動的に切替可能であってよい。 The surrogate body in the embodiment may have multiple sizes, and these multiple sizes may be dynamically switchable for the object to be operated.
実施の形態の代理身体は操作対象物に対する複数の位置を有し、これら複数の位置は動的に切替可能であってよい。 In an embodiment, the surrogate body has multiple positions relative to the object to be manipulated, and these multiple positions may be dynamically switchable.
実施の形態の代理身体の位置は、操作対象物の位置に応じて可変であってよい。 The position of the proxy body in the embodiment may be variable depending on the position of the object to be operated.
実施の形態の代理身体は、操作対象物の画像に対してなされる操作とともに画像表示部上で運動してもよい。このとき代理身体の画像表示部上での運動速度は、操作対象物の運動速度に応じて可変であってもよい。In the embodiment, the surrogate body may move on the image display unit in conjunction with the operation performed on the image of the operation target object. In this case, the speed of movement of the surrogate body on the image display unit may be variable according to the speed of movement of the operation target object.
実施の形態の代理身体は、操作対象物に対する位置または向きが可変であってもよい。 In an embodiment, the surrogate body may have a variable position or orientation relative to the object being operated.
実施の形態の操作対象物は大きさの異なる複数の操作対象物を含んでもよい。このとき、複数の操作対象物が連続的に切り替えて操作されるとき、代理身体の大きさは連続的に可変であってもよい。In the embodiment, the operation object may include a plurality of operation objects having different sizes. In this case, when the plurality of operation objects are operated by successively switching between them, the size of the surrogate body may be continuously variable.
実施の形態の代理身体は、2つの異なる大きさの代理身体を含んでもよい。このとき、画像表示部に表示される操作対象物の画像は、2つの異なる大きさの代理身体から見た操作対象物の画像成分を混合したものであってもよい。The surrogate body of the embodiment may include two surrogate bodies of different sizes. In this case, the image of the operation object displayed on the image display unit may be a mixture of image components of the operation object as seen from the two surrogate bodies of different sizes.
実施の形態の操作対象物の画像は、操作対象物の近辺に設置されたカメラによって撮影された画像であってもよい。In the embodiment, the image of the object to be operated may be an image captured by a camera installed in the vicinity of the object to be operated.
本発明の別の態様は、画像操作装置である。この画像操作装置は、ユーザが操作する操作対象物の画像を表示する画像表示部と、画像表示部にユーザの仮想的な代理身体を描画する代理身体描画部と、操作対象物に対するユーザからの操作信号が入力される操作信号入力部と、ユーザが操作することにより操作信号を生成する操作部と、を備える。代理身体の大きさは、操作対象物の大きさに応じて可変である。画像表示部に表示される操作対象物の画像は、代理身体から見た主観画像である。 Another aspect of the present invention is an image manipulation device. This image manipulation device includes an image display unit that displays an image of an object to be manipulated by a user, a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit, an operation signal input unit to which an operation signal from the user for the object to be manipulated is input, and an operation unit that generates an operation signal through operation by the user. The size of the surrogate body is variable according to the size of the object to be manipulated. The image of the object to be manipulated displayed on the image display unit is a subjective image as seen from the surrogate body.
実施の形態の代理身体は複数の大きさを有し、これら複数の大きさは前記操作対象物に対して動的に切替可能であってよい。 The surrogate body in the embodiment may have multiple sizes, and these multiple sizes may be dynamically switchable for the object to be operated.
実施の形態の代理身体は操作対象物に対する複数の位置を有し、これら複数の位置は動的に切替可能であってよい。 In an embodiment, the surrogate body has multiple positions relative to the object to be manipulated, and these multiple positions may be dynamically switchable.
本発明のさらに別の態様は、操作対象物操作装置である。この操作対象物操作装置は、ユーザが操作する操作対象物の画像を表示する画像表示部と、画像表示部にユーザの仮想的な代理身体を描画する代理身体描画部と、操作対象物に対するユーザからの操作信号が入力される操作信号入力部と、ユーザが操作することにより操作信号を生成する操作部と、ユーザの操作信号を操作対象物に出力する操作信号出力部と、を備える。代理身体の大きさは、操作対象物の大きさに応じて可変である。画像表示部に表示される操作対象物の画像は、代理身体から見た主観画像である。 Yet another aspect of the present invention is an operation object operation device. This operation object operation device includes an image display unit that displays an image of an operation object operated by a user, a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit, an operation signal input unit to which an operation signal from the user for the operation object is input, an operation unit that generates an operation signal through operation by the user, and an operation signal output unit that outputs the user's operation signal to the operation object. The size of the surrogate body is variable depending on the size of the operation object. The image of the operation object displayed on the image display unit is a subjective image seen from the surrogate body.
本発明のさらに別の態様は、操作対象物操作システムである。この操作対象物操作システムは、ユーザが操作する操作対象物の画像を表示する画像表示部と、画像表示部にユーザの仮想的な代理身体を描画する代理身体描画部と、操作対象物に対するユーザからの操作信号が入力される操作信号入力部と、ユーザが操作することにより操作信号を生成する操作部と、ユーザの操作信号を操作対象物に出力する操作信号出力部と、操作対象物を撮影するカメラと、を備える。代理身体の大きさは、操作対象物の大きさに応じて可変である。画像表示部に表示される操作対象物の画像は、代理身体から見た主観画像である。 Yet another aspect of the present invention is a system for manipulating an object to be operated. This system for manipulating an object to be operated includes an image display unit that displays an image of the object to be operated by the user, a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit, an operation signal input unit to which an operation signal from the user to the object to be operated is input, an operation unit that generates an operation signal by the user's operation, an operation signal output unit that outputs the user's operation signal to the object to be operated, and a camera that photographs the object to be operated. The size of the surrogate body is variable depending on the size of the object to be operated. The image of the object to be operated displayed on the image display unit is a subjective image seen from the surrogate body.
実施の形態の代理身体は複数の大きさを有し、これら複数の大きさは前記操作対象物に対して動的に切替可能であってよい。 The surrogate body in the embodiment may have multiple sizes, and these multiple sizes may be dynamically switchable for the object to be operated.
実施の形態の代理身体は操作対象物に対する複数の位置を有し、これら複数の位置は動的に切替可能であってよい。 In an embodiment, the surrogate body has multiple positions relative to the object to be manipulated, and these multiple positions may be dynamically switchable.
実施の形態のカメラは、位置を変えるための移動機構を備えてもよい。 The camera of the embodiment may be provided with a movement mechanism for changing its position.
実施の形態のカメラは、撮影方向を変えるための回転機構を備えてもよい。 The camera of the embodiment may be equipped with a rotation mechanism to change the shooting direction.
実施の形態のカメラの移動機構と回転機構は、ユーザの操作方向と反対方向にカメラを動かし、画像表示部に表示される画像は、カメラが撮影した画像の左右を反転させたものであってもよい。 The camera movement mechanism and rotation mechanism of the embodiment move the camera in the direction opposite to the user's operation direction, and the image displayed on the image display unit may be a left-right inverted version of the image captured by the camera.
実施の形態のカメラは、2つのカメラを備えたステレオカメラであってもよい。 The camera of the embodiment may be a stereo camera having two cameras.
実施の形態のステレオカメラの眼間距離は、代理身体の大きさに応じて可変であってもよい。 The interocular distance of the stereo camera in the embodiment may be variable depending on the size of the surrogate body.
実施の形態のカメラは、操作対象物までの距離をリアルタイムに検知する深度カメラであってよい。 The camera in the embodiment may be a depth camera that detects the distance to the object to be operated in real time.
実施の形態のカメラは、それぞれ異なる視野を撮影する複数のカメラを備えてよい。 The camera in the embodiment may include multiple cameras, each capturing a different field of view.
本発明のさらに別の態様は、操作対象物提示方法である。この方法は、操作対象物の大きさの情報を取得するステップと、ユーザの仮想的な代理身体を描画するステップと、操作対象物の画像を表示するステップと、を備える。代理身体の大きさは操作対象物の大きさに応じて可変である。操作対象物の画像は代理身体から見た主観画像である。 Yet another aspect of the present invention is a method for presenting an object to be operated. This method includes the steps of acquiring information on the size of the object to be operated, drawing a virtual surrogate body of the user, and displaying an image of the object to be operated. The size of the surrogate body is variable depending on the size of the object to be operated. The image of the object to be operated is a subjective image seen from the surrogate body.
実施の形態の代理身体は複数の大きさを有し、これら複数の大きさは前記操作対象物に対して動的に切替可能であってよい。 The surrogate body in the embodiment may have multiple sizes, and these multiple sizes may be dynamically switchable for the object to be operated.
実施の形態の代理身体は操作対象物に対する複数の位置を有し、これら複数の位置は動的に切替可能であってよい。 In an embodiment, the surrogate body has multiple positions relative to the object to be manipulated, and these multiple positions may be dynamically switchable.
本発明のさらに別の態様は、操作対象物提示プログラムである。このプログラムは、操作対象物の大きさの情報を取得するステップと、ユーザの仮想的な代理身体を描画するステップと、操作対象物の画像を表示するステップと、をコンピュータに実行させる。代理身体の大きさは操作対象物の大きさに応じて可変である。操作対象物の画像は代理身体から見た主観画像である。 Yet another aspect of the present invention is a program for presenting an object to be operated. This program causes a computer to execute the steps of acquiring information on the size of the object to be operated, drawing a virtual surrogate body of the user, and displaying an image of the object to be operated. The size of the surrogate body is variable depending on the size of the object to be operated. The image of the object to be operated is a subjective image seen from the surrogate body.
実施の形態の代理身体は複数の大きさを有し、これら複数の大きさは前記操作対象物に対して動的に切替可能であってよい。 The surrogate body in the embodiment may have multiple sizes, and these multiple sizes may be dynamically switchable for the object to be operated.
実施の形態の代理身体は操作対象物に対する複数の位置を有し、これら複数の位置は動的に切替可能であってよい。 In an embodiment, the surrogate body has multiple positions relative to the object to be manipulated, and these multiple positions may be dynamically switchable.
なお、以上の構成要素の任意の組合せ、本発明の表現を装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 In addition, any combination of the above components, and conversions of the present invention between devices, methods, systems, recording media, computer programs, etc., are also valid aspects of the present invention.
本発明によれば、多様なサイズや運動特性を持つロボットなどの操作対象物を違和感なく操作可能な画像を画面上に提示することができる。 According to the present invention, it is possible to present on a screen images that allow the user to seamlessly control objects, such as robots, that have a variety of sizes and movement characteristics.
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。実施の形態は、発明を限定するものではなく例示である。実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図に示す各部の縮尺や形状は、説明を容易にするために便宜的に設定されており、特に言及がない限り限定的に解釈されるものではない。また、本明細書または請求項の中で「第1」、「第2」等の用語が用いられる場合、特に言及がない限りこの用語はいかなる順序や重要度を表すものでもなく、ある構成と他の構成とを区別するだけのためのものである。また、各図面において実施の形態を説明する上で重要ではない部材の一部は省略して表示する。The present invention will be described below with reference to the drawings based on preferred embodiments. The embodiments are illustrative and do not limit the invention. All features and combinations described in the embodiments are not necessarily essential to the invention. The same or equivalent components, members, and processes shown in each drawing are given the same reference numerals, and duplicated descriptions are omitted as appropriate. In addition, the scale and shape of each part shown in each drawing are set for convenience to facilitate explanation, and are not to be interpreted as being limiting unless otherwise specified. In addition, when terms such as "first" and "second" are used in this specification or claims, unless otherwise specified, these terms do not represent any order or importance, but are intended only to distinguish one configuration from another. In addition, some of the members that are not important in explaining the embodiment in each drawing are omitted.
[第1の実施の形態]
図1に、第1の実施の形態に係る画像インタフェース装置1の機能ブロック図を示す。画像インタフェース装置1は、画像表示部11と、代理身体描画部14と、操作信号入力部15と、を備える。
[First embodiment]
1 shows a functional block diagram of an image interface device 1 according to the first embodiment. The image interface device 1 includes an image display unit 11, a proxy body drawing unit 14, and an operation signal input unit 15.
画像表示部11は、例えば液晶ディスプレイ、ビデオプロジェクタ、ヘッドマウントディスプレイといった動画像を表示するディスプレイである。画像表示部11には、ユーザ12が操作する操作対象物の画像10が表示される。さらに画像表示部11には、代理身体描画部14によって、ユーザ12の仮想的な代理身体13が描画される。画像表示部11に表示される操作対象物の画像10は、代理身体13から見た主観画像である。すなわち操作対象物の画像10は、画像表示部11に描画された代理身体13の目から見た画像として表示される。操作対象物の画像10は、カメラなどによって撮影された遠隔の操作対象物の実画像であってもよいし、シミュレータやゲームなどの仮想的な画像であってもよい。以下、主に建設機械などの産業用ロボットを操作対象物の例として説明する。しかしこれに限られず、操作対象物は、人型ロボット、乗り物、医療用器具など、ユーザの操作の対象になるものであれば何であってもよい。The image display unit 11 is a display that displays moving images, such as a liquid crystal display, a video projector, or a head-mounted display. The image display unit 11 displays an image 10 of an object to be operated by the user 12. Furthermore, the virtual surrogate body 13 of the user 12 is drawn on the image display unit 11 by the surrogate body drawing unit 14. The image 10 of the object to be operated displayed on the image display unit 11 is a subjective image seen from the surrogate body 13. That is, the image 10 of the object to be operated is displayed as an image seen from the eyes of the surrogate body 13 drawn on the image display unit 11. The image 10 of the object to be operated may be a real image of a remote object to be operated, photographed by a camera or the like, or may be a virtual image of a simulator or game. Below, an industrial robot such as a construction machine will be mainly described as an example of an object to be operated. However, the object to be operated is not limited to this, and may be anything that can be operated by a user, such as a humanoid robot, a vehicle, or a medical instrument.
代理身体描画部14は、画像表示部11にユーザ12の仮想的な代理身体13を描画する。 The proxy body drawing unit 14 draws a virtual proxy body 13 of the user 12 on the image display unit 11.
操作信号入力部15には、操作対象物に対するユーザ12からの操作信号が入力される。操作信号入力部15に入力された操作信号は、画像表示部11に送信される。画像表示部11に表示された操作対象物の画像10は、この操作信号によって操作される。An operation signal from the user 12 for the operation object is input to the operation signal input unit 15. The operation signal input to the operation signal input unit 15 is transmitted to the image display unit 11. The image 10 of the operation object displayed on the image display unit 11 is operated by this operation signal.
代理身体13は、ユーザ12の身体を仮想的に代理するものであり、前述のように代理身体描画部14によって画像表示部11に描画される。すなわち、画像インタフェース装置1を操作するユーザ12から見たとき、代理身体13は画像表示部11上で自分の分身のように振る舞う。代理身体13は、ユーザ12の身体に類似した具象的な画像であってもよいし、シルエット、線画、半透明画像といった抽象的な画像であってもよい。The surrogate body 13 virtually represents the body of the user 12, and is drawn on the image display unit 11 by the surrogate body drawing unit 14 as described above. That is, when viewed from the perspective of the user 12 operating the image interface device 1, the surrogate body 13 behaves like an alter ego on the image display unit 11. The surrogate body 13 may be a concrete image similar to the body of the user 12, or may be an abstract image such as a silhouette, a line drawing, or a semi-transparent image.
代理身体13の大きさは、操作対象物の大きさに応じて可変である。典型的には代理身体13は、操作対象物が大きければ大きいほど大きな身体として描画され、操作対象物が小さければ小さいほど小さな身体として描画される。例えば代理身体13は、操作対象物の大きさと実質的に同じ大きさのものとして描画される。例えば操作対象物が重機である場合、代理身体13は当該重機とほぼ同じ大きさの「巨人」として描画される。逆に操作対象物がマイクロマシンである場合、代理身体13は当該マイクロマシンとほぼ同じ大きさの「小人」として描画される。前述のように、画像表示部11に表示される操作対象物の画像10は代理身体13から見た主観画像である。これによりユーザは、操作対象物の大きさに応じた大きさを持つ代理身体13の立場で、画像表示部11に表示された操作対象物の画像10を操作することができる。The size of the surrogate body 13 varies depending on the size of the object to be operated. Typically, the larger the object to be operated, the larger the surrogate body 13 is drawn, and the smaller the object to be operated, the smaller the body is drawn. For example, the surrogate body 13 is drawn as being substantially the same size as the object to be operated. For example, if the object to be operated is heavy machinery, the surrogate body 13 is drawn as a "giant" that is approximately the same size as the heavy machinery. Conversely, if the object to be operated is a micromachine, the surrogate body 13 is drawn as a "dwarf" that is approximately the same size as the micromachine. As described above, the image 10 of the object to be operated displayed on the image display unit 11 is a subjective image seen from the surrogate body 13. This allows the user to operate the image 10 of the object to be operated displayed on the image display unit 11 from the standpoint of the surrogate body 13, whose size corresponds to the size of the object to be operated.
一般にユーザが画面に表示された操作対象物を操作する場合、画面上の操作対象物と自分の大きさとが異なっていると、ユーザは操作に違和感を覚える。例えば画面上で重機のアームを手で動かす操作をしたとき、そのままでは重機に対する自分のサイズが小さすぎるため、アームの可動域と自分の腕の可動域とが大きく異なり、ユーザは思い通りの操作がしにくいと感じる。これに対し、画面上に重機と同じサイズの代理身体を配置し、この代理身体の立場で重機を操作することにより、アームの可動域と自分の腕の可動域とが一致するように感じられ、違和感のない操作が可能となる。逆に例えば画面上でマイクロマシンを手で操作したとき、そのままではマイクロマシンに対する自分のサイズが大きすぎるため、マイクロマシンの微細な動きと手の動きとが大きく異なり、ユーザは思い通りの操作がしにくいと感じる。これに対し、画面上にマイクロマシンと同じサイズの代理身体を配置し、この代理身体の立場でマイクロマシンを操作することにより、マイクロマシンの精細な動きと自分の手の動きとが一致するように感じられ、違和感のない操作が可能となる。 In general, when a user operates an object displayed on a screen, if the size of the object on the screen differs from the user's own size, the user feels uncomfortable with the operation. For example, when moving the arm of a heavy machine on the screen with his/her hand, the user's size is too small compared to the heavy machine, so the range of motion of the arm and the range of motion of the user's arm are significantly different, and the user feels that it is difficult to operate as intended. In contrast, by placing a surrogate body of the same size as the heavy machine on the screen and operating the heavy machine from the position of this surrogate body, the user feels that the range of motion of the arm and the range of motion of the user's arm match, and operation without discomfort is possible. Conversely, for example, when operating a micromachine on the screen with his/her hand, the user's size is too large compared to the micromachine, so the fine movement of the micromachine and the movement of the hand are significantly different, and the user feels that it is difficult to operate as intended. In contrast, by placing a surrogate body of the same size as the micromachine on the screen and operating the micromachine from the position of this surrogate body, the user feels that the fine movement of the micromachine and the movement of the user's hand match, and operation without discomfort is possible.
ある実施の形態では、代理身体13は複数の大きさを有してもよい。このとき代理身体13の大きさは、操作対象物に対して動的に切替可能であってよい。上記の説明では、代理身体13の典型的な例として、操作対象物が大きければ大きいほど大きな身体として描画され、操作対象物が小さければ小さいほど小さな身体として描画されるものを示した。しかしこれに限られず、代理身体13は、1つの操作対象物に対し、用途や状況に応じて様々な大きさを持つものであってもよい。例えば操作対象物高さ6mの重機である場合、代理身体13は、身長10mの「非常に大きな巨人」、当該重機とほぼ同じ大きさの「巨人」、身長4mの「小さめの巨人」、身長1m台の「人間」といったように、4つの身長を持つものとして描画されてもよい。In one embodiment, the surrogate body 13 may have a plurality of sizes. In this case, the size of the surrogate body 13 may be dynamically switchable with respect to the object to be operated. In the above description, a typical example of the surrogate body 13 has been shown in which the larger the object to be operated, the larger the body is drawn, and the smaller the object to be operated, the smaller the body is drawn. However, this is not limited to this, and the surrogate body 13 may have various sizes for one object to be operated depending on the purpose and situation. For example, if the object to be operated is a heavy machine with a height of 6 m, the surrogate body 13 may be drawn as having four heights, such as a "very large giant" with a height of 10 m, a "giant" with a height of approximately the same size as the heavy machine, a "small giant" with a height of 4 m, and a "human" with a height of about 1 m.
上記の例で代理身体13が「巨人」として描画された場合、代理身体13と操作対象物とがほぼ同じスケールとなるので、ユーザは違和感を覚えることがない。その一方で、操作対象物は「巨人」によって操作される結果、操作の精度は粗いものとなる。次に代理身体13が「小さめの巨人」として描画された場合、代理身体13と操作対象物のスケールが大きく違わないため、一定程度違和感が改善されつつ、精度の低下も抑制された操作感が得られる。次に代理身体13が「人間」として描画された場合、代理身体13と操作対象物のスケールの違いによる違和感はあるものの、高い精度の操作感が得られる。最後に代理身体13が「非常に大きな巨人」として描画された場合、代理身体13が操作対象より大きいことによる違和感はあるものの、大きなスケールでの操作感が得られる。このように、代理身体13に複数の大きさを持たせ、この複数の大きさを動的に切り替えることにより、ユーザは、操作の用途や目的、操作対象物の置かれた状況。自分の好みなどに応じて、代理身体13の大きさを的確なものとすることができる。In the above example, when the surrogate body 13 is drawn as a "giant", the scale of the surrogate body 13 and the object to be operated are almost the same, so the user does not feel any discomfort. On the other hand, the object to be operated is operated by a "giant", resulting in a coarse operation accuracy. Next, when the surrogate body 13 is drawn as a "small giant", the scale of the surrogate body 13 and the object to be operated are not significantly different, so a feeling of operation in which the sense of discomfort is improved to a certain extent while the decrease in accuracy is suppressed is obtained. Next, when the surrogate body 13 is drawn as a "human", a feeling of high precision operation is obtained, although there is a sense of discomfort due to the difference in scale between the surrogate body 13 and the object to be operated. Finally, when the surrogate body 13 is drawn as a "very large giant", a feeling of operation on a large scale is obtained, although there is a sense of discomfort due to the surrogate body 13 being larger than the object to be operated. In this way, by giving the surrogate body 13 multiple sizes and dynamically switching between these multiple sizes, the user can accurately select the size of the surrogate body 13 according to the purpose and purpose of the operation, the situation in which the object to be operated is placed, and his/her own preferences.
代理身体13が複数の大きさを有し、この大きさが操作対象物に対して動的に切替可能である場合、代理身体13は、操作対象物に対する複数の位置を有してもよい。このとき代理身体13の位置は、代理身体13の大きさに応じて動的に切替可能であってよい。When the surrogate body 13 has multiple sizes and the sizes can be dynamically switched relative to the object to be operated, the surrogate body 13 may have multiple positions relative to the object to be operated. In this case, the position of the surrogate body 13 may be dynamically switched depending on the size of the surrogate body 13.
一般に、操作対象物に対して代理身体13をどこに位置付ければよいかは、代理身体13の大きさによる。特に代理身体13と操作対象物の大きさが異なるほど、代理身体13の操作対象物に対する位置は重要となる。例えば上記の例で代理身体13が「非常に大きな巨人」「巨人」「小さめの巨人」「人間」の大きさを有する場合、この代理身体13は、それぞれのそれぞれの大きさにおいて、操作対象物の最上部から最下部までの範囲で複数の高さ位置を有してよい。ここで代理身体13が「巨人」として描画された場合、代理身体13と操作対象物はほぼ同じサイズであるため、代理身体13の高さ位置は概ね操作対象物と一致していればよい。ここで代理身体13の大きさが「人間」に切り替わった場合、代理身体13の中心位置を操作対象物の操作位置(アームの先端や、ロボットのエンドエフェクタ等)に一致させることにより、より精度の高い操作を実現することができる。
このように、代理身体13に操作対象物に対する複数の位置を持たせ、この複数の位置を動的に切り替えることにより、ユーザは、代理身体の大きさに応じて、代理身体13を的確に位置付けることができる。
In general, where the surrogate body 13 should be positioned relative to the operation object depends on the size of the surrogate body 13. In particular, the more the size of the surrogate body 13 and the operation object differs, the more important the position of the surrogate body 13 relative to the operation object becomes. For example, in the above example, when the surrogate body 13 has the size of a "very large giant", a "giant", a "small giant", or a "human", the surrogate body 13 may have a plurality of height positions in the range from the top to the bottom of the operation object at each of the sizes. Here, when the surrogate body 13 is drawn as a "giant", the surrogate body 13 and the operation object are almost the same size, so the height position of the surrogate body 13 may be roughly the same as the operation object. Here, when the size of the surrogate body 13 is switched to a "human", a more accurate operation can be realized by matching the center position of the surrogate body 13 with the operation position of the operation object (the tip of an arm, the end effector of a robot, etc.).
In this way, by giving the surrogate body 13 multiple positions relative to the object to be operated and dynamically switching between these multiple positions, the user can accurately position the surrogate body 13 according to the size of the surrogate body.
ある実施の形態では、代理身体13の位置は、操作対象物の位置に応じて可変であってよい。一般にユーザが画面に表示された操作対象物を操作する場合、画面上の操作対象物に対して自分が適切でないところ位置すると違和感を覚える。例えば、操作対象物が壁際に位置するようなとき、ユーザは操作対象物と壁とに挟まれるような狭い場所からは操作しない。このような場合、操作対象物の位置に応じて、ユーザが操作しやすい位置に代理身体13を位置づけることにより、ユーザにとって違和感のない操作が可能となる。In one embodiment, the position of the surrogate body 13 may be variable depending on the position of the object to be operated. Generally, when a user operates an object to be operated displayed on a screen, the user feels uncomfortable if he or she is positioned in an inappropriate location relative to the object to be operated on the screen. For example, when the object to be operated is positioned next to a wall, the user will not operate the object from a narrow location between the object to be operated and the wall. In such a case, by positioning the surrogate body 13 in a position that is easy for the user to operate depending on the position of the object to be operated, it becomes possible for the user to perform an operation that does not feel strange.
ある実施の形態では、代理身体13は、操作対象物の画像10に対してなされる操作とともに画像表示部上で運動してもよい。このとき代理身体13の運動速度は、操作対象物の運動速度に応じて可変であってもよい。典型的には代理身体13は、操作対象物が大きければ大きいほどゆっくり動くように描画され、操作対象物が小さければ小さいほど速く動くように描画される。前述と同様に画像表示部上で重機のアームを手で動かす操作をしたとき、ユーザはそのままでは、アームの運動速度に比べて自分の手の運動速度が速すぎると感じる。同様に、画像表示部上でマイクロマシンを手で動かす操作をしたとき、ユーザはそのままでは、マイクロマシンの運動速度に比べて自分の手の運動速度が遅すぎると感じる。これに対し、画像表示部上に描画された代理身体13の手が、マイクロマシンの動きに対応して素早く動くようにすれば、ユーザは違和感なくマイクロマシンを操作することができる。In one embodiment, the surrogate body 13 may move on the image display unit together with the operation performed on the image 10 of the operation object. In this case, the speed of movement of the surrogate body 13 may be variable according to the speed of movement of the operation object. Typically, the surrogate body 13 is drawn to move slower the larger the operation object, and to move faster the smaller the operation object. As described above, when the user operates the arm of a heavy machine by hand on the image display unit, the user feels that the movement speed of the hand is too fast compared to the movement speed of the arm. Similarly, when the user operates the micromachine by hand on the image display unit, the user feels that the movement speed of the hand is too slow compared to the movement speed of the micromachine. In contrast, if the hand of the surrogate body 13 drawn on the image display unit is made to move quickly in response to the movement of the micromachine, the user can operate the micromachine without any discomfort.
ある実施の形態では、代理身体13は、操作対象物に対する位置や向きが可変であってもよい。例えば代理身体13は、操作対象物の前、後、左、右、上または下に位置するように描画されてよい。この場合ユーザは、この操作対象物をそれぞれ前、後、左、右、上、下から操作するように感じる。例えばユーザが画像表示部上で重機のアームを手で動かす操作をするとき、重機の姿勢や運動方向に応じて、重機に対してどの位置からどの向きで操作すれば自然であるかが異なる。従って、重機に対する自分の位置や向きが固定的であると、操作が不自然だと感じられる場合がある。これに対し、重機に対する位置や向きが適当であるように代理身体13が描画されれば、ユーザは違和感なく重機を操作することができる。In one embodiment, the surrogate body 13 may have a variable position and orientation relative to the object to be operated. For example, the surrogate body 13 may be drawn to be located in front, behind, left, right, above, or below the object to be operated. In this case, the user feels as if he or she is operating the object to be operated from the front, back, left, right, above, or below, respectively. For example, when a user operates the arm of a heavy machine by hand on an image display unit, the natural position and orientation of the heavy machine to operate the heavy machine differs depending on the posture and direction of movement of the heavy machine. Therefore, if the user's position and orientation relative to the heavy machine are fixed, the operation may be felt to be unnatural. In contrast, if the surrogate body 13 is drawn to be in an appropriate position and orientation relative to the heavy machine, the user can operate the heavy machine without any discomfort.
ある実施の形態では、大きさの異なる複数の操作対象物が存在し、ユーザがこれらを連続的に切り替えて操作するとき、代理身体13はその大きさを連続的に変えてもよい。例えば、重機のような巨大な第1の操作対象物と、微細な電気配線を行うロボットのような小さな第2の操作対象物とがある場合を考える。ユーザは、第1の操作対象物を操作して自動車を持ち上げて移動した後、速やかに第2の操作対象物を操作して自動車のエンジンルーム内の電気配線作業を行うものとする。このとき、ユーザが第1の操作対象物を操作している間は代理身体13は「巨人」であり、ユーザが第2の操作対象物の操作を開始すると代理身体13は連続的に「小人」に変身する。これにより、大きさの異なる操作対象物を連続的に切り替えて操作するとき、ユーザはこれらの操作対象物の操作に最適なサイズの身体に連続的に乗り移ったかのように、自然に操作を行うことができる。In one embodiment, when there are a plurality of operation objects of different sizes and the user switches between them continuously to operate them, the surrogate body 13 may change its size continuously. For example, consider a case where there is a huge first operation object such as a heavy machine and a small second operation object such as a robot that performs fine electrical wiring. The user operates the first operation object to lift and move a car, and then quickly operates the second operation object to perform electrical wiring work in the engine room of the car. At this time, while the user is operating the first operation object, the surrogate body 13 is a "giant", and when the user starts operating the second operation object, the surrogate body 13 is continuously transformed into a "dwarf". As a result, when operating operation objects of different sizes continuously, the user can naturally operate them as if he or she had continuously transferred to a body of the size optimal for operating these operation objects.
ある実施の形態では、操作対象物が複数の構成やパーツを有し、ユーザがこれらを連続的に切り替えて操作するとき、代理身体13はその大きさを連続的に変えてもよい。例えば、サイズが大きく動作精度が粗い第1の腕と、サイズが小さく動作精度が精密な第2の腕とを持つロボットがある場合を考える。すなわちこのロボットは、大きさや動作精度が異なる2つのパーツを有する。ユーザは、このロボットの第1の腕を操作して精密機器を移動した後、速やかに第2の腕を操作してこの精密機器を修理するものとする。このとき、ユーザが第1の腕を操作している間は代理身体13は「人間」であり、ユーザが第2の腕の操作を開始すると代理身体13は連続的に「小人」に変身する。これにより、操作対象物が持つ大きさや動作精度が異なる複数のパーツを連続的に切り替えて操作するとき、ユーザはこれらのパーツの操作に最適なサイズの身体に連続的に乗り移ったかのように、自然に操作を行うことができる。In one embodiment, when the object to be operated has multiple configurations or parts and the user operates them by continuously switching between them, the surrogate body 13 may continuously change its size. For example, consider a robot having a first arm that is large in size and has low operating accuracy, and a second arm that is small in size and has high operating accuracy. That is, the robot has two parts with different sizes and operating accuracy. The user operates the first arm of the robot to move a precision device, and then quickly operates the second arm to repair the precision device. At this time, the surrogate body 13 is a "human" while the user is operating the first arm, and when the user starts operating the second arm, the surrogate body 13 is continuously transformed into a "dwarf". As a result, when the object to be operated has multiple parts with different sizes and operating accuracy that are continuously switched between and operated, the user can naturally operate the parts as if he or she had continuously moved into a body of the size optimal for operating these parts.
ある実施の形態では、画像表示部11に表示される操作対象物の画像10は、2つの異なる大きさの代理身体から見た操作対象物の画像成分を混合したものであってよい。例えば、大きな代理身体から見た大きな操作対象物の画像成分と、小さな代理身体から見た小さな操作対象物の画像成分とを混合したものであってよい。この実施の形態によれば、ユーザは、どちらの画像を見るかの意識を切り替えることによって、それぞれの画像を瞬時に切り替えて見ることができる。In one embodiment, the image 10 of the object to be operated displayed on the image display unit 11 may be a mixture of image components of the object to be operated as seen from two different sizes of surrogate bodies. For example, it may be a mixture of image components of a large object to be operated as seen from a large surrogate body and image components of a small object to be operated as seen from a small surrogate body. According to this embodiment, the user can instantly switch between the images by switching their awareness of which image to view.
以上述べたように、これらの実施の形態によれば、操作対象物の画像を画像表示部に表示することができる。このとき表示される画像は仮想身体から見た主観画像なので、ユーザはこれを違和感なく操作することができる。As described above, according to these embodiments, an image of the object to be operated can be displayed on the image display unit. Since the image displayed at this time is a subjective image seen from the virtual body, the user can operate it without feeling uncomfortable.
[第2の実施の形態]
図2に、第2の実施の形態に係る画像インタフェース装置1の機能ブロック図を示す。画像インタフェース装置1は、ユーザ12が操作する操作対象物110の画像10を表示する画像表示部11と、画像表示部11にユーザ12の仮想的な代理身体13を描画する代理身体描画部14と、操作対象物110に対するユーザ12からの操作信号が入力される操作信号入力部15と、を備える。操作対象物110の画像10は、操作対象物110の近辺に設置されたカメラ100によって撮影された画像である。すなわちこの実施の形態は、特に操作対象物110の画像がカメラ100によって撮影された画像であるという点で、より一般的な第1の実施の形態と異なる。その他の構成と動作は、第1の実施の形態と共通である。
[Second embodiment]
2 shows a functional block diagram of an image interface device 1 according to the second embodiment. The image interface device 1 includes an image display unit 11 that displays an image 10 of an operation object 110 operated by a user 12, a surrogate body drawing unit 14 that draws a virtual surrogate body 13 of the user 12 on the image display unit 11, and an operation signal input unit 15 to which an operation signal from the user 12 to the operation object 110 is input. The image 10 of the operation object 110 is an image captured by a camera 100 installed near the operation object 110. That is, this embodiment differs from the more general first embodiment in that the image of the operation object 110 is an image captured by the camera 100. Other configurations and operations are common to the first embodiment.
カメラ100は、例えばビデオカメラである。カメラ100は操作対象物110の近辺に配置される。カメラ100が撮影した画像は、代理身体13から見た景色とほぼ同じものである。この意味でカメラ100は、代理身体13と視点を共有する。カメラ100は、撮影した画像を画像表示部11に送信する。画像表示部11は、カメラ100から受信した画像を表示する。 Camera 100 is, for example, a video camera. Camera 100 is placed near the object to be operated 110. The image captured by camera 100 is almost the same as the view seen from the surrogate body 13. In this sense, camera 100 shares a viewpoint with surrogate body 13. Camera 100 transmits the captured image to image display unit 11. Image display unit 11 displays the image received from camera 100.
この実施の形態によれば、現実の操作対象物を画像表示部に表示することができる。このとき表示される画像は仮想身体から見た主観画像なので、ユーザはこれを違和感なく操作することができる。According to this embodiment, a real object to be operated can be displayed on the image display unit. The image displayed at this time is a subjective image seen from the virtual body, so the user can operate it without feeling uncomfortable.
[第3の実施の形態]
図3に、第3の実施の形態に係る画像操作装置2の機能ブロック図を示す。画像操作装置2は、ユーザ12が操作する操作対象物110の画像10を表示する画像表示部11と、画像表示部11にユーザ12の仮想的な代理身体13を描画する代理身体描画部14と、操作対象物110に対するユーザ12からの操作信号が入力される操作信号入力部15と、操作部20と、を備える。すなわちこの実施の形態は、図1の画像インタフェース装置に操作部20を追加したものである。
[Third embodiment]
3 shows a functional block diagram of an image manipulation device 2 according to a third embodiment. The image manipulation device 2 includes an image display unit 11 that displays an image 10 of an operation object 110 to be operated by a user 12, a surrogate body drawing unit 14 that draws a virtual surrogate body 13 of the user 12 on the image display unit 11, an operation signal input unit 15 to which an operation signal from the user 12 to the operation object 110 is input, and an operation unit 20. That is, in this embodiment, the operation unit 20 is added to the image interface device of FIG. 1.
操作部20は、ユーザ12が操作することにより操作信号を生成する。操作部20は、例えばユーザ12の手に把持されるモーションコントローラである。これに限られず、操作部20は、マウス、ジョイスティック、ゲームパッドなどの任意の好適なコントローラであってよい。The operation unit 20 generates an operation signal by being operated by the user 12. The operation unit 20 is, for example, a motion controller held in the hand of the user 12. The operation unit 20 is not limited to this, and may be any suitable controller such as a mouse, a joystick, or a game pad.
ユーザ12は、画像表示部11に表示された操作対象物の画像10を見ながら、画像10を操作するために、操作部20を操作する。これにより操作部20は、画像10の動作を定める操作信号を生成する。操作部20は、生成した操作信号を操作信号入力部15に送信する。操作信号入力部15は、操作信号を画像表示部11に送信する。 While viewing an image 10 of an object to be operated displayed on the image display unit 11, the user 12 operates the operation unit 20 to operate the image 10. This causes the operation unit 20 to generate an operation signal that determines the behavior of the image 10. The operation unit 20 transmits the generated operation signal to the operation signal input unit 15. The operation signal input unit 15 transmits the operation signal to the image display unit 11.
操作対象物の画像10は、カメラなどによって撮影された遠隔の操作対象物の画像であってもよいし、シミュレータやゲームなどの仮想的な画像であってもよい。The image 10 of the object to be operated may be an image of a remote object to be operated captured by a camera or the like, or it may be a virtual image such as a simulator or game.
この実施の形態によれば、ユーザは、画像表示部に表示された操作対象物の画像を見ながら、この画像を画面上で違和感なく操作することができる。According to this embodiment, the user can view the image of the object to be operated displayed on the image display unit and operate the image on the screen without feeling uncomfortable.
[第4の実施の形態]
図4に、第4の実施の形態に係る操作対象物操作装置3の機能ブロック図を示す。操作対象物操作装置3は、ユーザ12が操作する操作対象物110の画像10を表示する画像表示部11と、画像表示部11にユーザ12の仮想的な代理身体13を描画する代理身体描画部14と、操作対象物110に対するユーザ12からの操作信号が入力される操作信号入力部15と、操作部20と、操作信号出力部30と、を備える。すなわちこの実施の形態は、図3の画像操作装置2に操作信号出力部30を追加したものである。
[Fourth embodiment]
Fig. 4 shows a functional block diagram of an operation object manipulation device 3 according to a fourth embodiment. The operation object manipulation device 3 includes an image display unit 11 that displays an image 10 of an operation object 110 manipulated by a user 12, a surrogate body drawing unit 14 that draws a virtual surrogate body 13 of the user 12 on the image display unit 11, an operation signal input unit 15 to which an operation signal from the user 12 to the operation object 110 is input, an operation unit 20, and an operation signal output unit 30. That is, in this embodiment, the operation signal output unit 30 is added to the image manipulation device 2 in Fig. 3.
操作信号出力部30は、ユーザ12からの操作信号を画像表示部11から受信する。
操作信号出力部30は、この操作信号を操作対象物110に出力する。
The operation signal output unit 30 receives an operation signal from the user 12 via the image display unit 11 .
The operation signal output section 30 outputs this operation signal to the operation target 110 .
ユーザ12は、画像表示部11に表示された操作対象物110の画像10を見ながら、遠隔にある操作対象物110を操作するために、操作部20を操作する。これにより操作部20は、操作対象物110の動作を定める操作信号を生成する。操作部20は、生成した操作信号を操作信号入力部15に送信する。操作信号入力部15は、操作信号を画像表示部11に送信する。画像表示部11は、操作信号を操作信号出力部30に送信する。操作信号出力部30は、操作信号を操作対象物110に出力する。 While viewing the image 10 of the operation object 110 displayed on the image display unit 11, the user 12 operates the operation unit 20 to operate the remote operation object 110. This causes the operation unit 20 to generate an operation signal that determines the behavior of the operation object 110. The operation unit 20 transmits the generated operation signal to the operation signal input unit 15. The operation signal input unit 15 transmits the operation signal to the image display unit 11. The image display unit 11 transmits the operation signal to the operation signal output unit 30. The operation signal output unit 30 outputs the operation signal to the operation object 110.
この実施の形態によれば、ユーザは、画像表示部に表示された操作対象物の画像を見ながら、操作対象物を遠隔から違和感なく操作することができる。According to this embodiment, the user can operate the object remotely and seamlessly while viewing the image of the object displayed on the image display unit.
[第5の実施の形態]
図5に、第5の実施の形態に係る操作対象物操作システム4の機能ブロック図を示す。操作対象物操作システム4は、ユーザ12が操作する操作対象物110の画像10を表示する画像表示部11と、画像表示部11にユーザ12の仮想的な代理身体13を描画する代理身体描画部14と、操作対象物110に対するユーザ12からの操作信号が入力される操作信号入力部15と、操作部20と、操作信号出力部30と、カメラ100と、を備える。すなわちこの実施の形態は、図4の操作対象物操作装置3にカメラ100を追加したものである。
[Fifth embodiment]
5 shows a functional block diagram of an operation object manipulation system 4 according to a fifth embodiment. The operation object manipulation system 4 includes an image display unit 11 that displays an image 10 of an operation object 110 manipulated by a user 12, a surrogate body drawing unit 14 that draws a virtual surrogate body 13 of the user 12 on the image display unit 11, an operation signal input unit 15 to which an operation signal from the user 12 to the operation object 110 is input, an operation unit 20, an operation signal output unit 30, and a camera 100. That is, in this embodiment, the camera 100 is added to the operation object manipulation device 3 of FIG. 4.
カメラ100は、例えばビデオカメラであり、操作対象物110の近辺に配置される。カメラ100が撮影した画像は、代理身体13から見た景色とほぼ同じものである。この意味でカメラ100は、代理身体13と視点を共有する。カメラ100は、撮影した画像を画像表示部11に送信する。画像表示部11は、カメラ100から受信した画像を表示する。The camera 100 is, for example, a video camera, and is placed near the object to be operated 110. The image captured by the camera 100 is almost the same as the view seen from the surrogate body 13. In this sense, the camera 100 shares a viewpoint with the surrogate body 13. The camera 100 transmits the captured image to the image display unit 11. The image display unit 11 displays the image received from the camera 100.
この実施の形態によれば、ユーザは、このシステムに備えられたカメラによって撮影された現実の操作対象物の画像を見ながら、操作対象物を遠隔から違和感なく操作することができる。According to this embodiment, the user can operate the object remotely and seamlessly while viewing an image of the real object captured by a camera provided in the system.
ある実施の形態では、カメラ100は、位置を変えるための移動機構を備えてもよい。移動機構は、例えばモータで操作対象物110に対するカメラ100の位置を移動する。これによりカメラ100は、例えば前、後、左、右、上または下から操作対象物110を撮影することができる。従って代理身体13から見た主観画像も、前、後、左、右、上または下から操作対象物110を見たものとなる。In one embodiment, the camera 100 may be provided with a movement mechanism for changing its position. The movement mechanism moves the position of the camera 100 relative to the object to be operated 110, for example, by a motor. This allows the camera 100 to capture the object to be operated 110, for example, from the front, back, left, right, above, or below. Therefore, the subjective image seen by the surrogate body 13 also shows the object to be operated 110 seen from the front, back, left, right, above, or below.
ある実施の形態では、カメラ100は、撮影方向を変えるための回転機構を備えてもよい。回転機構は、例えばモータでカメラ100を所定の軸周りに回転させる。軸回りの回転は、例えばカメラのローリング、ピッチング、ヨーイングなどに相当する。これによりカメラ100は、様々な角度から操作対象物110を撮影することができる。従って代理身体13から見た主観画像も、様々な角度から操作対象物110を見たものとなる。In one embodiment, the camera 100 may be equipped with a rotation mechanism for changing the shooting direction. The rotation mechanism rotates the camera 100 around a predetermined axis, for example, using a motor. Rotation around the axis corresponds to, for example, rolling, pitching, yawing, etc. of the camera. This allows the camera 100 to shoot the object to be operated 110 from various angles. Therefore, the subjective images seen by the surrogate body 13 also show the object to be operated 110 seen from various angles.
ある実施の形態では、カメラ100の移動機構や回転機構は、ユーザの操作方向と反対方向にカメラを動かしてもよい。さらに画像表示部に表示される画像は、カメラ100が撮影した画像の左右を反転させたものであってもよい。このときユーザは、画像表示部11上で、代理身体から見た景色であって、実際とは左右が反転した景色を見る。さらにユーザは、自分のした操作の方向と反対方向に操作対象物を操作する。言い換えればユーザは、実際の世界とは左右の逆転した世界で操作対象物を操作しているかのような感覚を覚える。この実施の形態によれば、例えば右利きのユーザが、自分の身体感覚としては右手で右側からアプローチしたいが、操作対象物のおかれた環境によって左側からしかアプローチできないような場合、右手を使って違和感なく操作することができる。In one embodiment, the moving mechanism or rotating mechanism of the camera 100 may move the camera in the opposite direction to the user's operation direction. Furthermore, the image displayed on the image display unit may be an image captured by the camera 100 with the left and right reversed. In this case, the user sees a view from the surrogate body on the image display unit 11, which is a view with the left and right reversed from the actual view. Furthermore, the user operates the object to be operated in the opposite direction to the direction of the operation performed by the user. In other words, the user feels as if he or she is operating the object to be operated in a world with the left and right reversed from the actual world. According to this embodiment, for example, if a right-handed user wants to approach the object from the right side with his or her right hand according to his or her physical sensation, but can only approach the object to be operated from the left side due to the environment in which it is placed, the user can operate the object using his or her right hand without feeling uncomfortable.
ある実施の形態では、カメラ100は、2つのカメラを備えたステレオカメラであってよい。この場合、カメラ100が撮影した操作対象物110の画像は、ユーザにとって立体的で奥行き感のあるものとなる。In one embodiment, the camera 100 may be a stereo camera equipped with two cameras. In this case, the image of the operation target object 110 captured by the camera 100 is three-dimensional and has a sense of depth for the user.
ある実施の形態では、ステレオカメラの眼間距離は、代理身体13の大きさに応じて可変であってもよい。この場合、カメラ100は、モータなどを用いて眼間距離を動的に調整するための眼間距離調整機構を備えてもよい。典型的にはステレオカメラの眼間距離は、代理身体13が大きければ大きいほど長く調整され、代理身体13が小さければ小さいほど短く調整される。この実施の形態では、ステレオカメラの眼間距離が代理身体13の大きさに合わせて調整されるので、ユーザは、操作対象物110ごとにより自然な奥行き感を持つ画像を見ることができる。In one embodiment, the interocular distance of the stereo camera may be variable depending on the size of the surrogate body 13. In this case, the camera 100 may be provided with an interocular distance adjustment mechanism for dynamically adjusting the interocular distance using a motor or the like. Typically, the interocular distance of the stereo camera is adjusted to be longer the larger the surrogate body 13 is, and is adjusted to be shorter the smaller the surrogate body 13 is. In this embodiment, the interocular distance of the stereo camera is adjusted according to the size of the surrogate body 13, so that the user can see an image with a more natural sense of depth for each operation target object 110.
ある実施の形態では、カメラ100は、操作対象物110までの距離をリアルタイムに検知する深度カメラであってよい。この場合、カメラ100が撮影した操作対象物110の画像は、ユーザにとってよりリアルな奥行き感と没入感が得られるものとなる。In one embodiment, the camera 100 may be a depth camera that detects the distance to the object of operation 110 in real time. In this case, the image of the object of operation 110 captured by the camera 100 provides the user with a more realistic sense of depth and immersion.
ある実施の形態では、カメラ100は、それぞれ異なる視野を撮影する複数のカメラを備えてよい。このとき、これら複数のカメラによって撮影された複数の視野の画像は、同時に表示されてもよいし、ユーザが切り替えて別々に表示されてもよい。この実施の形態では、ユーザは、代理身体13の複数の視点から見た操作対象物110を見ることができる。In one embodiment, the camera 100 may include multiple cameras each capturing a different field of view. In this case, the images of the multiple fields of view captured by the multiple cameras may be displayed simultaneously, or may be displayed separately by switching between them as the user wishes. In this embodiment, the user can view the object 110 to be operated from multiple viewpoints of the surrogate body 13.
[第6の実施の形態]
図6は、第6の実施の形態に係る操作対象物提示方法の処理手順を示すフローチャートである。
Sixth embodiment
FIG. 6 is a flowchart showing a processing procedure of the operation target object presenting method according to the sixth embodiment.
ステップS1は、提示の目的となる操作対象物の大きさの情報を取得する処理である。大きさの情報は、カメラ等によりリアルタイムに取得したものであってもよいし、予めデータベース等に記憶されたデータから取得されたものであってもよい。操作対象物の大きさは任意であるが、例えば建設機械であれば数10m、マイクロマシンであれば数mmである。操作対象物の大きさの情報が取得されると、処理はステップS2に移る。 Step S1 is a process for acquiring information on the size of the operation object to be presented. The size information may be acquired in real time by a camera or the like, or may be acquired from data previously stored in a database or the like. The size of the operation object is arbitrary, but for example, it may be several tens of meters for construction machinery or several mm for a micromachine. Once the size information of the operation object has been acquired, the process proceeds to step S2.
ステップS2は、操作対象物の大きさに応じた代理身体を画像表示部に描画する処理である。この代理身体は、ユーザの身体を仮想的に代理するものである。これは、ユーザの身体に類似した具象的な画像であってもよいし、シルエット、線画、半透明画像といった抽象的な画像であってもよい。代理身体の大きさは、操作対象物の大きさに応じて可変である。典型的には代理身体は、操作対象物が大きければ大きいほど大きな身体として描画され、操作対象物が小さければ小さいほど小さな身体として描画される。例えば代理身体は、操作対象物の大きさと実質的に同じ大きさのものとして描画される。画像表示部に代理身体が描画されると、処理はステップS3に移る。 Step S2 is a process of drawing a surrogate body on the image display unit according to the size of the object to be operated. This surrogate body virtually represents the user's body. It may be a concrete image similar to the user's body, or an abstract image such as a silhouette, line drawing, or semi-transparent image. The size of the surrogate body is variable according to the size of the object to be operated. Typically, the larger the object to be operated, the larger the surrogate body is drawn, and the smaller the object to be operated, the smaller the body is drawn. For example, the surrogate body is drawn as being substantially the same size as the object to be operated. Once the surrogate body is drawn on the image display unit, the process proceeds to step S3.
ステップS3は、操作対象物の画像を代理身体の主観画像として画像表示部に表示する処理である。すなわち操作対象物の画像は、画像表示部に描画された代理身体の目から見た画像として表示される。操作対象物の画像は、カメラなどによって撮影された遠隔の操作対象物の実画像であってもよいし、シミュレータやゲームなどの仮想的な画像であってもよい。Step S3 is a process of displaying an image of the operation object on the image display unit as a subjective image of the surrogate body. That is, the image of the operation object is displayed as an image seen from the eyes of the surrogate body drawn on the image display unit. The image of the operation object may be a real image of a remote operation object captured by a camera or the like, or may be a virtual image of a simulator, game, or the like.
この実施の形態によれば、ユーザに対して操作対象物を提示することができる。このとき提示される画像は仮想身体から見た主観画像なので、ユーザはこれを違和感なく操作することができる。According to this embodiment, an object to be operated can be presented to the user. The image presented at this time is a subjective image seen from the virtual body, so the user can operate it without feeling uncomfortable.
[第7の実施の形態]
第7の実施の形態は、操作対象物提示プログラムである。このプログラムは、ユーザが操作する操作対象物の画像を画像表示部に表示するステップS1と、ユーザの仮想的な代理身体を画像表示部に描画するステップS2と、ユーザからの操作信号により操作対象物の画像を操作するステップS3と、をコンピュータに実行させる。各ステップの処理手順は前述の第6の実施形態で説明したものと共通するので、詳しい説明は省略する。
[Seventh embodiment]
The seventh embodiment is an operation object presentation program. This program causes a computer to execute step S1 of displaying an image of an operation object operated by a user on an image display unit, step S2 of drawing a virtual surrogate body of the user on the image display unit, and step S3 of operating the image of the operation object by an operation signal from the user. The processing procedure of each step is the same as that explained in the sixth embodiment, so a detailed explanation will be omitted.
この実施の形態によれば、コンピュータを用いてユーザに対して操作対象物を提示することができる。このとき提示される画像は仮想身体から見た主観画像なので、ユーザはこれを違和感なく操作することができる。According to this embodiment, a computer can be used to present an object to be operated to a user. The image presented at this time is a subjective image seen from the virtual body, so the user can operate it without feeling uncomfortable.
(変形例)
以上、本発明を実施例を基に説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(Modification)
The present invention has been described above based on the embodiments. These embodiments are merely illustrative, and it will be understood by those skilled in the art that various modifications are possible in the combination of each component and each treatment process, and that such modifications are also within the scope of the present invention.
[変形例1]
実施の形態のカメラの移動機構や回転機構は、ヘッドマウントディスプレイを用いて操作されてもよい。このときヘッドマウントディスプレイは、カメラの移動機構や回転機構を操作するための信号を、移動機構や回転機構に送信する。この信号は、ユーザの頭部の動きに連動して、カメラの撮影位置や方向を動かすためのものである。
本変形例によれば、ユーザは、頭の動きによって操作対象物の撮影位置や方向を自在に操作することができる。
[Modification 1]
The moving mechanism and the rotating mechanism of the camera in the embodiment may be operated using a head mounted display. In this case, the head mounted display transmits a signal for operating the moving mechanism and the rotating mechanism of the camera to the moving mechanism and the rotating mechanism. This signal is for moving the shooting position and the direction of the camera in conjunction with the movement of the user's head.
According to this modification, the user can freely control the shooting position and direction of the operation object by moving his/her head.
[変形例2]
実施の形態の操作対象物操作装置は、操作対象物の近辺にマイクロフォンを備えてもよい。マイクロフォンが集音した音は、代理身体が聞く音としてユーザに送信される。ユーザは、画像表示部に表示された画像を見るとともに、マイクロフォンが集音した音を聞きながら、操作対象物を操作する。
本変形例によれば、ユーザは、視点に加えて聴覚をも代理身体と共有することができる。
これによりユーザは、より自然な感覚で操作対象物を操作することができる。
[Modification 2]
The operation target object operating device according to the embodiment may include a microphone in the vicinity of the operation target object. Sound collected by the microphone is transmitted to the user as sound heard by the surrogate body. The user operates the operation target object while viewing the image displayed on the image display unit and listening to the sound collected by the microphone.
According to this modification, the user can share hearing as well as the viewpoint with the surrogate body.
This allows the user to operate the operation object in a more natural way.
各変形例は実施の形態と同様の作用・効果を奏する。 Each modified example has the same effect and functionality as the embodiment.
上述した各実施の形態と変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる各実施の形態および変形例それぞれの効果をあわせもつ。Any combination of the above-described embodiments and modifications is also useful as an embodiment of the present invention. The new embodiment resulting from the combination has the combined effects of each of the combined embodiments and modifications.
本発明は、建設機械の遠隔操作、手術支援、人型ロボットの操縦、乗り物の操縦、シミュレータ、ゲームなど多岐にわたる。本発明による手法はこうした様々な用途に利用可能である。 The present invention has a wide range of applications, including remote control of construction machinery, surgical assistance, operation of humanoid robots, operation of vehicles, simulators, and games. The method according to the present invention can be used for such a variety of applications.
1・・画像インタフェース装置
2・・画像操作装置
3・・操作対象物操作装置
4・・操作対象物操作システム
10・・画像
11・・画像表示部
12・・ユーザ
13・・代理身体
14・・代理身体描画部
15・・操作信号入力部
20・・操作部
30・・操作信号出力部
100・・カメラ
110・・操作対象物
S1・・操作対象物の大きさの情報を取得するステップ
S2・・操作対象物の大きさに応じた代理身体を表示部に描画するステップ
S3・・操作対象物の画像を代理身体の主観画像として表示部に表示するステップ
DESCRIPTION OF SYMBOLS 1. Image interface device 2. Image operation device 3. Operation object operation device 4. Operation object operation system 10. Image 11. Image display unit 12. User 13. Surrogate body 14. Surrogate body drawing unit 15. Operation signal input unit 20. Operation unit 30. Operation signal output unit 100. Camera 110. Operation object S1. Step of acquiring information on the size of the operation object S2. Step of drawing a surrogate body according to the size of the operation object on the display unit S3. Step of displaying an image of the operation object on the display unit as a subjective image of the surrogate body.
Claims (19)
前記画像表示部に前記ユーザの仮想的な代理身体を描画する代理身体描画部と、
前記操作対象物に対する前記ユーザからの操作信号が入力される操作信号入力部と、を備え、
前記代理身体の大きさは、前記操作対象物の大きさに応じて可変であり、
前記画像表示部に表示される操作対象物の画像は、前記代理身体から見た主観画像であり、
前記代理身体は複数の大きさを有し、前記複数の大きさは前記操作対象物に対して動的に切替可能であり、
前記代理身体は前記操作対象物に対する複数の位置を有し、前記複数の位置は動的に切替可能であることを特徴とする画像インタフェース装置。 an image display unit that displays an image of an object to be operated by a user;
a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit;
an operation signal input unit to which an operation signal from the user for the operation object is input,
The size of the surrogate body is variable depending on the size of the operation target object;
the image of the operation object displayed on the image display unit is a subjective image seen from the surrogate body,
The surrogate body has a plurality of sizes, and the plurality of sizes are dynamically switchable with respect to the operation object;
An image interface device, characterized in that the surrogate body has a plurality of positions relative to the object to be operated, and the plurality of positions are dynamically switchable.
前記代理身体の画像表示部上での運動速度は、前記操作対象物の運動速度に応じて可変であることを特徴とする請求項1または2に記載の画像インタフェース装置。 the surrogate body moves on the image display unit in accordance with an operation performed on the image of the operation target object;
3. The image interface device according to claim 1, wherein the moving speed of said representative body on the image display unit is variable according to the moving speed of said operation target object.
前記複数の操作対象物が連続的に切り替えて操作されるとき、前記代理身体の大きさは連続的に可変であることを特徴とする請求項1から4のいずれかに記載の画像インタフェース装置。 The operation object includes a plurality of operation objects having different sizes,
5. The image interface device according to claim 1 , wherein the size of the representative body is continuously variable when the plurality of operation objects are successively switched and operated.
前記画像表示部に表示される操作対象物の画像は、前記2つの異なる大きさの代理身体から見た操作対象物の画像成分を混合したものであることを特徴とする請求項1から5のいずれかに記載の画像インタフェース装置。 The surrogate body includes two different sized surrogate bodies;
An image interface device according to any one of claims 1 to 5, characterized in that the image of the object to be operated displayed on the image display unit is a mixture of image components of the object to be operated as seen from the two differently sized surrogate bodies.
前記画像表示部に前記ユーザの仮想的な代理身体を描画する代理身体描画部と、
前記操作対象物に対する前記ユーザからの操作信号が入力される操作信号入力部と、
前記ユーザが操作することにより操作信号を生成する操作部と、を備え、
前記代理身体の大きさは、前記操作対象物の大きさに応じて可変であり、
前記画像表示部に表示される操作対象物の画像は、前記代理身体から見た主観画像であり、
前記代理身体は複数の大きさを有し、前記複数の大きさは前記操作対象物に対して動的に切替可能であり、
前記代理身体は前記操作対象物に対する複数の位置を有し、前記複数の位置は動的に切替可能であることを特徴とする画像操作装置。 an image display unit that displays an image of an object to be operated by a user;
a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit;
an operation signal input unit to which an operation signal from the user for the operation object is input;
an operation unit that generates an operation signal by being operated by the user;
The size of the surrogate body is variable depending on the size of the operation target object;
the image of the operation object displayed on the image display unit is a subjective image seen from the surrogate body,
The surrogate body has a plurality of sizes, and the plurality of sizes are dynamically switchable with respect to the operation object;
An image manipulation device, characterized in that the surrogate body has a plurality of positions relative to the object to be manipulated, and the plurality of positions are dynamically switchable .
前記画像表示部に前記ユーザの仮想的な代理身体を描画する代理身体描画部と、
前記操作対象物に対する前記ユーザからの操作信号が入力される操作信号入力部と、
前記ユーザが操作することにより操作信号を生成する操作部と、
前記ユーザの操作信号を前記操作対象物に出力する操作信号出力部と、を備え、
前記代理身体の大きさは、前記操作対象物の大きさに応じて可変であり、
前記画像表示部に表示される操作対象物の画像は、前記代理身体から見た主観画像であり、
前記代理身体は複数の大きさを有し、前記複数の大きさは前記操作対象物に対して動的に切替可能であり、
前記代理身体は前記操作対象物に対する複数の位置を有し、前記複数の位置は動的に切替可能であることを特徴とする対象物操作装置。 an image display unit that displays an image of an object to be operated by a user;
a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit;
an operation signal input unit to which an operation signal from the user for the operation object is input;
an operation unit that generates an operation signal when operated by the user;
an operation signal output unit that outputs an operation signal of the user to the operation target,
The size of the surrogate body is variable depending on the size of the operation target object;
the image of the operation object displayed on the image display unit is a subjective image seen from the surrogate body,
The surrogate body has a plurality of sizes, and the plurality of sizes are dynamically switchable with respect to the operation object;
An object manipulation device, characterized in that the surrogate body has a plurality of positions relative to the object to be manipulated, and the plurality of positions are dynamically switchable .
前記画像表示部に前記ユーザの仮想的な代理身体を描画する代理身体描画部と、
前記操作対象物に対する前記ユーザからの操作信号が入力される操作信号入力部と、
前記ユーザが操作することにより操作信号を生成する操作部と、
前記ユーザの操作信号を前記操作対象物に出力する操作信号出力部と、
前記操作対象物を撮影するカメラと、を備え、
前記代理身体の大きさは、前記操作対象物の大きさに応じて可変であり、
前記画像表示部に表示される操作対象物の画像は、前記代理身体から見た主観画像であり、
前記代理身体は複数の大きさを有し、前記複数の大きさは前記操作対象物に対して動的に切替可能であり、
前記代理身体は前記操作対象物に対する複数の位置を有し、前記複数の位置は動的に切替可能であることを特徴とする対象物操作システム。 an image display unit that displays an image of an object to be operated by a user;
a surrogate body drawing unit that draws a virtual surrogate body of the user on the image display unit;
an operation signal input unit to which an operation signal from the user for the operation object is input;
an operation unit that generates an operation signal when operated by the user;
an operation signal output unit that outputs an operation signal of the user to the operation target;
a camera for photographing the operation object,
The size of the surrogate body is variable depending on the size of the operation target object;
the image of the operation object displayed on the image display unit is a subjective image seen from the surrogate body,
The surrogate body has a plurality of sizes, and the plurality of sizes are dynamically switchable with respect to the operation object;
An object manipulation system, characterized in that the surrogate body has a plurality of positions relative to the object to be manipulated, and the plurality of positions are dynamically switchable .
画像表示部に表示される画像は、前記カメラが撮影した画像の左右を反転させたものであることを特徴とする請求項12に記載の対象物操作システム。 the moving mechanism and the rotating mechanism move the camera in a direction opposite to a user's operation direction;
13. The object manipulation system according to claim 12 , wherein the image displayed on the image display unit is a left-right inverted version of the image captured by the camera.
操作対象物の大きさに応じた代理身体を画像表示部に描画するステップと、
操作対象物の画像を前記代理身体の主観画像として画像表示部に表示するステップと、を備え、
前記代理身体の大きさは前記操作対象物の大きさに応じて可変であり、
前記操作対象物の画像は、前記代理身体から見た主観画像であり、
前記代理身体は複数の大きさを有し、前記複数の大きさは前記操作対象物に対して動的に切替可能であり、
前記代理身体は前記操作対象物に対する複数の位置を有し、前記複数の位置は動的に切替可能であることを特徴とする操作対象物提示方法。 acquiring information on the size of an object to be operated;
A step of drawing a surrogate body on an image display unit according to a size of the operation target object;
and displaying an image of the operation object on an image display unit as a subjective image of the surrogate body,
The size of the surrogate body is variable according to the size of the operation target object;
the image of the operation object is a subjective image seen from the surrogate body,
The surrogate body has a plurality of sizes, and the plurality of sizes are dynamically switchable with respect to the operation object;
A method for presenting an object to be operated, characterized in that the surrogate body has a plurality of positions relative to the object to be operated, and the plurality of positions are dynamically switchable .
操作対象物の大きさに応じた代理身体を画像表示部に描画するステップと、
操作対象物の画像を前記代理身体の主観画像として画像表示部に表示するステップと、をコンピュータに実行させ、
前記代理身体の大きさは前記操作対象物の大きさに応じて可変であり、
前記操作対象物の画像は前記代理身体から見た主観画像であり、
前記代理身体は複数の大きさを有し、前記複数の大きさは前記操作対象物に対して動的に切替可能であり、
前記代理身体は前記操作対象物に対する複数の位置を有し、前記複数の位置は動的に切替可能であることを特徴とする操作対象物提示プログラム。 acquiring information on the size of an object to be operated;
A step of drawing a surrogate body on an image display unit according to a size of the operation target object;
displaying an image of the operation object on the image display unit as a subjective image of the surrogate body;
The size of the surrogate body is variable according to the size of the operation target object;
the image of the operation object is a subjective image seen from the representative body,
The surrogate body has a plurality of sizes, and the plurality of sizes are dynamically switchable with respect to the operation object;
The surrogate body has a plurality of positions relative to the object to be operated, and the plurality of positions are dynamically switchable.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962850046P | 2019-05-20 | 2019-05-20 | |
US62/850,046 | 2019-05-20 | ||
PCT/JP2020/019706 WO2020235541A1 (en) | 2019-05-20 | 2020-05-19 | Image interface device, image manipulation device, manipulation-object manipulation device, manipulation-object manipulation system, manipulation-object presentation method, and manipulation-object presentation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020235541A1 JPWO2020235541A1 (en) | 2020-11-26 |
JP7536312B2 true JP7536312B2 (en) | 2024-08-20 |
Family
ID=73459415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520790A Active JP7536312B2 (en) | 2019-05-20 | 2020-05-19 | Image interface device, image operation device, operation object operation device, operation object operation system, operation object presentation method, and operation object presentation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7536312B2 (en) |
WO (1) | WO2020235541A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011110620A (en) | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | Method of controlling action of robot, and robot system |
WO2018097223A1 (en) | 2016-11-24 | 2018-05-31 | 国立大学法人京都大学 | Robot control system, machine control system, robot control method, machine control method, and recording medium |
JP2018111165A (en) | 2017-01-12 | 2018-07-19 | ファナック株式会社 | Calibration device of visual sensor, method and program |
JP2019038048A (en) | 2017-08-23 | 2019-03-14 | 株式会社日立製作所 | Robot procurement device and robot procurement method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3311025B2 (en) * | 1991-07-12 | 2002-08-05 | 株式会社東芝 | Information retrieval device |
JPH08257948A (en) * | 1995-03-20 | 1996-10-08 | Yaskawa Electric Corp | Remote control device for robot |
-
2020
- 2020-05-19 WO PCT/JP2020/019706 patent/WO2020235541A1/en active Application Filing
- 2020-05-19 JP JP2021520790A patent/JP7536312B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011110620A (en) | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | Method of controlling action of robot, and robot system |
WO2018097223A1 (en) | 2016-11-24 | 2018-05-31 | 国立大学法人京都大学 | Robot control system, machine control system, robot control method, machine control method, and recording medium |
JP2018111165A (en) | 2017-01-12 | 2018-07-19 | ファナック株式会社 | Calibration device of visual sensor, method and program |
JP2019038048A (en) | 2017-08-23 | 2019-03-14 | 株式会社日立製作所 | Robot procurement device and robot procurement method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020235541A1 (en) | 2020-11-26 |
WO2020235541A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116324680A (en) | Method for manipulating objects in an environment | |
US10217264B2 (en) | 3D digital painting | |
JP2023101560A (en) | Information processing device, information processing method, and information processing program | |
JP4871270B2 (en) | System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system | |
EP3107286B1 (en) | Medical robotic system providing three-dimensional telestration | |
CN116719415A (en) | Apparatus, method, and graphical user interface for providing a computer-generated experience | |
KR20130028878A (en) | Combined stereo camera and stereo display interaction | |
EP3262505B1 (en) | Interactive system control apparatus and method | |
CN109416589A (en) | Interactive systems and methods of interaction | |
WO2013028268A1 (en) | Method and system for use in providing three dimensional user interface | |
JP2022184958A (en) | animation production system | |
JP2020511709A (en) | Paired local and global user interfaces for an enhanced augmented reality experience | |
EP2593197A2 (en) | Improvements relating to viewing of real-time, computer-generated environments | |
JP2023116432A (en) | animation production system | |
JP2021193613A (en) | Animation creation method | |
JPH06131442A (en) | Three-dimensional virtual image modeling device | |
CN111612916B (en) | Movement within an environment | |
WO2019121654A1 (en) | Methods, apparatus, systems, computer programs for enabling mediated reality | |
JP7536312B2 (en) | Image interface device, image operation device, operation object operation device, operation object operation system, operation object presentation method, and operation object presentation program | |
JP6964302B2 (en) | Animation production method | |
JP2019219702A (en) | Method for controlling virtual camera in virtual space | |
EP1601783B1 (en) | Wheel motion control input device for animation system | |
JP2020031413A (en) | Display device, mobile body, mobile body control system, manufacturing method for them, and image display method | |
US8307295B2 (en) | Method for controlling a computer generated or physical character based on visual focus | |
WO2022107294A1 (en) | Vr image space generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7536312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |