JP7398227B2 - Work support systems and programs - Google Patents
Work support systems and programs Download PDFInfo
- Publication number
- JP7398227B2 JP7398227B2 JP2019160777A JP2019160777A JP7398227B2 JP 7398227 B2 JP7398227 B2 JP 7398227B2 JP 2019160777 A JP2019160777 A JP 2019160777A JP 2019160777 A JP2019160777 A JP 2019160777A JP 7398227 B2 JP7398227 B2 JP 7398227B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- fingers
- supporter
- tool
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 11
- 230000005057 finger movement Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 241001422033 Thestylus Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、VR(Virtual Reality,仮想現実)、AR(Augmented Reality,拡張現実)、あるいはMR(Mixed Reality, 複合現実)等(以下単に「VR等」という。)の技術を用いて、遠隔から作業者に対して効率的に指示を行うことのできる作業支援システム及びプログラムに関する。 The present invention uses technology such as VR (Virtual Reality), AR (Augmented Reality), or MR (Mixed Reality) (hereinafter simply referred to as "VR etc.") to remotely The present invention relates to a work support system and program that can efficiently give instructions to workers.
従来、VR等の技術を用いて、作業支援者が現場の作業者に対して指示を行うシステムが提案されている。 2. Description of the Related Art Conventionally, systems have been proposed in which a work supporter gives instructions to workers on site using technology such as VR.
例えば、特許文献1では、作業者が観察している映像を遠隔地にいる指示者(支援者)へ伝送し、指示者がこの映像を観察しながら作業者に三次元的な作業支援を行うシステムが提案されている。このシステムでは、指示者および作業者の双方が、磁気センサを備えるスタイラスを所持し、3次元位置姿勢センサを備えるヘッドマウントディスプレイ(HMD)を装着する。そして、指示者のHMDの3次元位置姿勢センサと指示者が使用するスタイラスとの位置姿勢関係を示すデータを指示者側から作業者側へ送信する。作業者側では、このデータをもとに作業者の視点に合わせて、指示者のスタイラスを示すポインタを仮想表示する。スタイラスにはボタンが設けられており、このボタンを押下することにより仮想物体を移動させることができる。
For example, in
しかしながら、上記の特許文献1の技術によれば、作業者、指示者共にスタイラスを手に持って作業あるいは指示を行うため、作業内容が限られてしまう。また、作業者のみならず支援者もHMDを装着する必要があり煩雑になる。
However, according to the technique disclosed in
本発明はかかる従来の事情に対処してなされたものであり、作業現場においてスタイラスを用いる必要がなく、また作業支援者はHMDを装着する必要がなく、種々の工具を用いた作業に対する作業支援が可能な作業支援システム及びプログラムを提供することを目的とする。 The present invention has been made in response to such conventional circumstances, and it is not necessary to use a stylus at the work site, and the work support person does not need to wear an HMD, and can provide work support for work using various tools. The purpose is to provide a work support system and program that allows for.
上記目的を達成するため、本開示に係る作業支援システムは、
作業の支援者が遠隔地の作業者に指示を行うための作業支援装置と、前記作業者が装着する頭部装着型表示装置と、を有する作業支援システムであって、
前記作業支援装置は、支援者の手指を撮影するハンド位置撮影部と、撮影された前記支援者の手指の位置又は動き情報を演算するジェスチャ判定部と、前記手指の位置又は動き情報を前記頭部装着型表示装置へ送信するハンド位置情報送信部と、前記頭部装着型表示装置から送られてくる映像情報を受信する映像受信部と、受信した前記映像情報を表示する映像表示部と、を備え、
前記頭部装着型表示装置は、透過表示された現実空間の像に仮想映像を重畳して表示する透過型表示部と、前記作業支援装置から送信される前記支援者の手指の位置又は動き情報を受信するハンド位置情報受信部と、前記支援者の手指の位置又は動き情報に基づいて前記透過型表示部へ前記支援者の手指の仮想映像を表示するバーチャルハンド表示部と、前記透過型表示部に表示される現実空間の像及び仮想映像を映像情報として前記作業支援装置へ送信する映像送信部と、を備えたことを特徴とする。
In order to achieve the above purpose, the work support system according to the present disclosure:
A work support system comprising a work support device for a work supporter to give instructions to a worker in a remote location, and a head-mounted display device worn by the worker,
The work support device includes a hand position photographing unit that photographs the hands and fingers of a supporter, a gesture determination unit that calculates position or movement information of the photographed hands and fingers of the supporter, and a gesture determination unit that calculates position or movement information of the hands and fingers of the supporter, and a gesture determination unit that calculates position or movement information of the photographed hands and fingers of the supporter. a hand position information transmission unit that transmits to the head-mounted display device; a video reception unit that receives video information sent from the head-mounted display device; and a video display unit that displays the received video information; Equipped with
The head-mounted display device includes a transparent display section that displays a virtual image superimposed on a transparently displayed image of the real space, and position or movement information of the supporter's fingers transmitted from the work support device. a virtual hand display section that displays a virtual image of the supporter's hand and fingers on the transparent display section based on the position or movement information of the supporter's hand; and the transparent display. The present invention is characterized by comprising a video transmitter that transmits an image of the real space and a virtual video displayed on the work support device as video information to the work support device.
本開示によれば、頭部装着型表示装置(例えば、透過型ヘッドマウントディスプレイ)に、透過表示された現実空間の像(シーン)に作業支援者の手指の仮想映像を重畳表示させることによって作業支援を行う。 According to the present disclosure, a virtual image of the hands and fingers of a work supporter is superimposed on a transparently displayed image (scene) of the real space on a head-mounted display device (for example, a transparent head-mounted display). Provide support.
また、前記頭部装着型表示装置は、作業者の手指を検出する自ハンド検出部と、前記自ハンド検出部によって検出された前記作業者の手指と、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定部と、当該ハンド重なり判定部の判定の結果を出力する重なり判定表示部とを備える。 Further, the head-mounted display device includes an own hand detection unit that detects the worker's fingers, a worker's hand detected by the own hand detection unit, and the virtual hand display unit that displays the worker's hand and fingers. The present invention includes a hand overlap determination unit that determines whether the supporter's fingers overlap with the virtual image, and an overlap determination display unit that outputs the determination result of the hand overlap determination unit.
特に、前記バーチャルハンド表示部は、前記ハンド重なり判定部が重なり有りと判定したときの前記作業者の手指の位置に基づいて前記手指の仮想映像の基準位置を設定し、その後ハンド位置情報受信部によって受信する前記手指の位置又は動き情報と前記基準位置に基づいて前記透過型表示部において前記仮想映像を移動させる。 In particular, the virtual hand display section sets a reference position of the virtual image of the hand and fingers based on the position of the worker's fingers when the hand overlap determination section determines that there is an overlap, and then the hand position information reception section The virtual image is moved on the transparent display section based on the reference position and the position or movement information of the hand and fingers received by the user.
これにより、作業支援装置における空間座標系と現場の頭部装着型表示装置における空間座標系の違いを吸収して、頭部装着型表示装置の座標系で作業支援者の手指の仮想映像を移動させて、現場の対象物に対する作業支援を可能にする。また、作業支援者は、ヘッドマウントディスプレイを装着する必要がなく、汎用のコンピュータモニター装置を介して現場の様子を視認しながら、現場の作業者に対して指示を行うことができる。 This absorbs the difference between the spatial coordinate system of the work support device and the spatial coordinate system of the head-mounted display device at the site, and moves the virtual image of the work support person's hands and fingers in the coordinate system of the head-mounted display device. This makes it possible to support work on objects at the site. Further, the work support person does not need to wear a head-mounted display, and can give instructions to the workers at the site while visually checking the situation on the site via a general-purpose computer monitor.
また、作業支援装置は、受信した映像情報を記録する映像記録部を備える。このとき、映像記録部は、支援者の特定の手指の動きを検知すると、検知した時点の前後所定の時間分の前記映像情報を記録するのが好ましい。 The work support device also includes a video recording unit that records received video information. At this time, it is preferable that, when the video recording section detects the movement of a specific finger of the supporter, it records the video information for a predetermined period of time before and after the time of detection.
また、本開示に係る作業支援システムは、前記ジェスチャ判定部によって特定の手指の動きが検知されたときに、前記ハンド位置情報送信部は、描画の開始指令または終了指令を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、描画の開始指令を受信すると、その後の手指の動きに従って前記透過型表示部への仮想映像の描画を行い、描画の終了指令を受信すると、前記仮想映像の描画を終了することを特徴とする。
これにより、より具体的な作業支援が可能になる。
Further, in the work support system according to the present disclosure, when the gesture determination unit detects a specific finger movement, the hand position information transmission unit transmits a drawing start command or end command to the head-mounted display. send to the device,
When the head-mounted display device receives a drawing start command, it draws a virtual image on the transparent display section according to the subsequent hand and finger movements, and when it receives a drawing end command, it draws the virtual image. It is characterized by ending.
This enables more specific work support.
さらに、本開示に係る作業支援システムにおいて、
前記作業支援装置は、工具の仮想映像を表示するための工具情報を記憶する工具情報記憶部と、前記工具情報を選択する工具情報選択部とを備え、前記ハンド位置情報送信部は、前記工具情報選択部によって選択された前記工具情報を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、前記工具情報を受信すると、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像に重ねて、該工具情報に基づいて工具の仮想映像を表示するバーチャル工具表示部を備えたことを特徴とする。
Furthermore, in the work support system according to the present disclosure,
The work support device includes a tool information storage unit that stores tool information for displaying a virtual image of the tool, and a tool information selection unit that selects the tool information, and the hand position information transmission unit transmitting the tool information selected by the information selection unit to the head-mounted display device;
Upon receiving the tool information, the head-mounted display device displays a virtual image of the tool based on the tool information, superimposed on a virtual image of the supporter's fingers displayed by the virtual hand display section. It is characterized by being equipped with a virtual tool display section.
特に、支援者の手指の仮想映像と工具の仮想映像の対応する箇所(例えば、工具と手指との接点など)を関連付けて保存する記憶手段を備え、前記バーチャル工具表示部は、前記工具の仮想映像を、前記支援者の手指の仮想映像と前記対応する箇所が重なるように前記工具の仮想映像を回転又は変形させて表示するのが好ましい。これにより、支援者の手指の動きに伴って工具の仮想映像も動くので、よりリアルに作業支援を行うことができる。 In particular, the virtual tool display section includes a storage means for storing a virtual image of the supporter's hand and a virtual image of the tool in association with corresponding locations (for example, points of contact between the tool and the fingers), and the virtual tool display section stores the virtual image of the tool. Preferably, the image is displayed by rotating or deforming the virtual image of the tool so that the virtual image of the supporter's fingers and the corresponding location overlap. As a result, the virtual image of the tool moves with the movement of the supporter's fingers, making it possible to provide more realistic work support.
また、本開示に係わる、作業者の装着する頭部装着型表示装置において、作業の支援者の使用する作業支援装置から送られてくる情報をもとに作業者に作業を指示する方法は、
前記作業支援装置において、支援者の手指の位置又は動き情報を取得して、前記頭部装着型表示装置へ送信する段階と、
支援者の手指の位置又は動き情報をもとに支援者の手指の仮想映像を透過型表示部へ表示する段階と、
前記透過型表示部に表示される作業者の手指の映像と、前記仮想映像との重なりを検出する段階と、
重なりを検出した場合は、最初に重なりを検出した時点の作業者の所定部位の座標と、当該時点の前記支援者の手指の位置又は動き情報とを対応づける段階と、
最初に重なりを検出したときに前記仮想映像を識別表示する段階と、
を含むことを特徴とする。
Further, in the head-mounted display device worn by a worker according to the present disclosure, a method for instructing a worker to perform a task based on information sent from a task support device used by a task supporter is as follows:
In the work support device, acquiring position or movement information of the supporter's fingers and transmitting the information to the head-mounted display device;
displaying a virtual image of the supporter's hand and fingers on a transparent display section based on the position or movement information of the supporter's finger;
detecting an overlap between an image of the worker's hand and fingers displayed on the transparent display section and the virtual image;
If an overlap is detected, a step of associating the coordinates of a predetermined part of the worker at the time when the overlap is first detected with the position or movement information of the supporter's fingers at that time;
identifying and displaying the virtual image when an overlap is first detected;
It is characterized by including.
好ましくは、頭部装着型表示装置は、作業対象物との距離が検出可能であって、当該距離が予め定めた閾値よりも大きい場合は、前記支援者の手指の位置又は動き情報を作業者の所定の部位(作業者の装着する頭部装着型表示装置を含む。)の位置を基準とした相対的な位置又は移動量として用い、当該距離が閾値以下の場合は、その後に送られてくる前記支援者の手指の位置又は動き情報を、該距離が閾値以下になったことを検出した時点の該仮想映像のワールド座標を基準とした相対的な位置又は移動量として用いるのが好ましい。 Preferably, the head-mounted display device is capable of detecting a distance to the work object, and if the distance is greater than a predetermined threshold, the head-mounted display device transmits position or movement information of the supporter's fingers to the worker. It is used as the relative position or amount of movement based on the position of a predetermined part (including the head-mounted display device worn by the worker) of the It is preferable to use the position or movement information of the supporter's hand or finger as the relative position or movement amount with respect to the world coordinates of the virtual image at the time when it is detected that the distance becomes equal to or less than the threshold value.
上記において、作業者の所定部位の座標とは、例えば、作業者の手指の座標であってもよいし、作業者の装着する装着型表示装置の例えば赤外線距離センサの位置の座標であってもよい。また、対応付けとは、各データを関連付けて保持してもよいし、作業支援装置側の座標から装着型表示装置側の座標への変換パラメータを求めるようにしてもよい。 In the above, the coordinates of a predetermined part of the worker may be, for example, the coordinates of the worker's fingers, or the coordinates of the position of, for example, an infrared distance sensor of a wearable display device worn by the worker. good. Further, the association may be associated with each data and held, or may be obtained by determining a conversion parameter from the coordinates on the work support device side to the coordinates on the wearable display device side.
また、本開示に係るプログラムは、
作業の支援者の手指の位置又は動き情報を受信して、透過表示される現実空間の像に前記支援者の手指の仮想映像を重畳して表示する透過型表示部を備える頭部装着型表示装置で動作するコンピュータ実行可能なプログラムであって、
作業者の手指を検出する自ハンド検出処理と、
前記自ハンド検出処理によって検出された前記作業者の手指と、前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定処理と、
前記ハンド重なり判定処理が重なり有りと判定したときの前記作業者の手指の位置を前記手指の仮想映像の基準位置として、その後受信する前記手指の位置又は動き情報に基づいて前記透過型表示部において前記仮想映像を移動させるバーチャルハンド表示処理と、
を実行することを特徴とする。
In addition, the program related to this disclosure is
A head-mounted display that includes a transparent display section that receives position or movement information of the hands and fingers of a work supporter and displays a virtual image of the supporter's hands and fingers superimposed on a transparently displayed image of the real space. A computer-executable program running on a device, the program comprising:
Own hand detection processing that detects the worker's fingers;
hand overlap determination processing that determines whether or not there is an overlap between the worker's hand detected by the own hand detection processing and a virtual image of the supporter's hand and fingers;
The position of the hand and finger of the worker when the hand overlap determination process determines that there is an overlap is set as the reference position of the virtual image of the hand, and the position or movement information of the hand and finger that is subsequently received is used in the transparent display section. virtual hand display processing for moving the virtual image;
It is characterized by carrying out.
本開示によれば、作業支援者はHMDを装着する必要がなく、種々の工具を用いた作業に対する作業支援を簡便な設備で行うことができる。 According to the present disclosure, a work support person does not need to wear an HMD, and can perform work support for work using various tools with simple equipment.
以下に本発明の実施の形態に係る作業支援システムについて図面を参照しながら説明する。なお、頭部装着型表示装置の例として、透過型ヘッドマウントディスプレイ(以下、単に「HMD」という。)を用いる。 A work support system according to an embodiment of the present invention will be described below with reference to the drawings. Note that a transmissive head-mounted display (hereinafter simply referred to as "HMD") is used as an example of the head-mounted display device.
図1において、作業支援システム1は、作業支援者が現場の作業者に作業の指示を行うための作業支援装置50と、現場の作業者が装着するHMD10で構成される。作業支援装置50とHMD10は有線又は無線の通信回線2を介して接続される。
In FIG. 1, a
作業支援装置50は、作業支援者の手指の位置や動きを検知して、その位置や動きを作業者側のHMD10に送信したり、HMD10から送られてくる映像情報を受信して、映像表示部51に表示する。また作業支援装置50では、作業者の使用すべき工具を選択することができる。選択された工具の識別情報はHMD10に送られる。このような機能を有する作業支援装置50は汎用のコンピュータ装置を用いて実現することができる。手指の位置や動きを検知する技術としては、既存のモーションジェスチャトラッキング技術を利用することができる。一例としては、特表2009-525538号公報や、米国リープモーション社の「LEAP MOTION」(登録商標)が挙げられる。
The
HMD10は、作業支援装置50から送られてくる作業支援者の手指の動き情報を受信して、当該手指の仮想映像を現実映像と重ねて表示する。また、HMD10は工具の識別情報を受信すると、当該工具を把持した作業者の手指を仮想表示させる。この仮想映像と現実映像は合成されて作業支援装置50へ送信される。
The
(構成)
以下、各装置50,10の構成を詳述する。
作業支援装置50は、作業支援者の手指を撮影するためのハンド位置撮影部52、撮影された手指の位置又は動き情報を演算するジェスチャ判定部54、支援者の手指の位置情報をHMD10へ送信するハンド位置情報送信部55、作業に使用する工具情報の一覧を記憶する工具情報記憶部1(61)、工具情報記憶部1(61)から工具を選択する工具選択部56、HMD10から送られてくる映像情報を受信する映像受信部53、受信した映像情報を表示する映像表示部51、および映像情報を記録する映像記録部60を備える。
(composition)
The configuration of each
The
なお、映像表示部51は汎用のディスプレイ装置を用いることができる。また、ハンド位置撮影部52とジェスチャ判定部54は上述したモーションジェスチャトラッキング装置の技術を用いることができる。
Note that a general-purpose display device can be used as the
HMD10は、透過表示された現実空間の現実映像に仮想映像を重畳して表示する透過型表示部11、透過型表示部11に表示される現実空間の像及び仮想映像を映像情報として作業支援装置50へ送信する映像送信部12、作業支援装置50から送信される作業支援者の手指の位置又は動き情報を受信するハンド位置情報受信部13、受信した作業支援者の手指の位置又は動き情報に基づいて透過型表示部11へ作業支援者の手指の仮想映像を表示するバーチャルハンド表示部14、透過型表示部11に映し出される作業者の手指を検知する自ハンド検出部16、自ハンド検出部16によって検知された作業者の手指とバーチャルハンド表示部14によって表示される作業支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定部17、この判定の結果を透過型表示部11に出力する重なり判定表示部18、工具の仮想映像を表示するための工具情報を記憶する工具情報記憶部2(20)、および、作業支援装置50から送られてくる工具情報を受信すると、バーチャルハンド表示部14によって表示される作業支援者の手指の仮想映像に重ねて、工具情報記憶部2(20)に保存されている工具情報に基づいて工具の仮想映像を透過型表示部11へ表示するバーチャル工具表示部15を備える。
The
HMD10は、上記各機能のほか、図示しない3次元位置姿勢センサおよび距離センサを備える。これらは従来の技術を用いることができ、現実空間における物体の位置を3次元座標系で取得することができる。距離センサとして例えば赤外線距離センサを用いることができる。HMD10の起動後、作業者は自分を中心に一回転することで、周囲の物体との距離や3次元座標を取得することができる。
In addition to the above functions, the
上記において、HMD10における各部12~18、作業支援装置50における各部53~56は、コンピュータの機能としてプログラムによって実現することができる。
In the above, each
(動作)
まず、HMD10と作業支援装置50とを通信接続した初期段階で実施されるキャリブレーション処理について説明する。この処理は、作業支援装置50側での作業支援者の手指の動きをHMD10側の座標系に置き換える処理である。この処理を行うことにより、HMD10の透過型表示部11に表示される現実映像の適切な位置に作業支援者の手指70を仮想表示させることができ、効果的な作業支援が可能となる。
(motion)
First, a description will be given of a calibration process performed at an initial stage when the
1.キャリブレーション処理
(キャリブレーション処理の概要)
図2に示すように、作業支援者がハンド位置撮影部52の上方に手をかざすと、上述したモーションジェスチャトラッキング技術によって動作するジェスチャ判定部54により、支援者の手指の位置情報が取り込まれる。この位置情報は、ハンド位置情報送信部55によってHMD10へ送信される。HMD10のハンド位置情報受信部13は、この位置情報を受信すると、バーチャルハンド表示部14により透過型表示部11の予め定めた位置に表示する。バーチャルハンド表示部14は、また仮想表示する支援者の手指の位置座標をハンド重なり判定部17に渡す。
1. Calibration processing (overview of calibration processing)
As shown in FIG. 2, when the work supporter holds his hand above the hand
作業者は、図3に示すように、自分の手を仮想表示されている支援者の手に重ね合わせる。キャリブレーション時は、支援者の視線と支援者の手の位置関係と、作業者の視線と作業者の手の位置関係は略同じになるように予め決めておくのが好ましい。 As shown in FIG. 3, the worker places his or her hand over the virtually displayed hand of the supporter. At the time of calibration, it is preferable to determine in advance so that the positional relationship between the supporter's line of sight and the supporter's hand is approximately the same as the positional relationship between the worker's line of sight and the worker's hand.
HMD10の自ハンド検出部16は、透過型表示部11に表示された自身の手指を検出すると、その座標をハンド重なり判定部17に渡す。ハンド重なり判定部17は、自身の手指の座標と仮想表示された支援者の手指の座標をもとに、両者が重なっているか否かを判定する。
When the own
この判定の結果、重なっていると判定すると、ハンド重なり判定部17は、ハンド位置情報受信部13が受信した作業支援装置50側での支援者の手指の位置座標と、HMD10上で仮想表示されている支援者の手指30の位置座標すなわち作業者の手指40の位置座標とを関係付けて図示しない記憶部に保存する。また、このときのHMD10での支援者の手指30の位置座標(即ち作業者の手指40の位置座標)は、支援者の手指を移動させるときの基準座標とすることができる。
As a result of this determination, if it is determined that they overlap, the hand
例えば、キャリブレーション処理後に作業支援者が手指を動かした場合、バーチャルハンド表示部14は、作業支援装置50から送られてくる手指の移動後の位置座標を受信して、前回受信した作業支援者の手指の位置座標との変化分を、前記基準座標から変化させる。この変化後の座標が現在のHMD10における支援者の手指の移動後の位置になる。作業支援装置50から手指の動き情報(変化方向および変化量)が送られてくる場合は、前記基準座標に対して変化方向および変化量分だけ移動させた座標が現在のHMD10における支援者の手指の位置になる。なお、基準座標は上記に限らず、例えばHMD10の赤外線距離センサからの相対的位置を基準にしてもよい。
For example, when the work supporter moves his or her fingers after the calibration process, the virtual
(キャリブレーション処理の詳細)
作業支援装置50側において、ハンド位置撮影部52は、支援者の手の稼動範囲のいずれの方向への動きも検出できるような位置に配置するのが好ましい。一例として、支援者は、自身の正面に映像表示部51を配置し、手を正面に向かって伸ばしたときの腕の中央付近の下方にハンド位置撮影部52を配置する(図2参照)。支援者は椅子にすわり、机の上にモーションジェスチャーを置いてもよいし、床等の上においてもよい。上記のごとくハンド位置撮影部52を配置して、手をその上方にかざして手の平を広げる。この手の平の位置がキャリブレーション時の位置(ニュートラルの位置)となる。
(Details of calibration process)
On the side of the
以下、図5を参照しながら、本実施の形態によるキャリブレーション処理の手順について説明する。 Hereinafter, the procedure of the calibration process according to this embodiment will be described with reference to FIG. 5.
ジェスチャ判定部54は手指を検知すると、その位置座標をHMD10へ送信する(S101,S102)。なお、キャリブレーション時に作業支援装置50からHMD10へ送信する位置座標は、ジェスチャ判定部54の管理する任意の空間座標でよい。例えば、原点(0,0,0)であってもよいし、それ以外の座標であってもよい。
When the
HMD10は、作業支援装置50から送られてくる手指の位置座標を受信すると、透過型表示部11に表示するための予め定めた所定位置に表示するように現実空間上での座標を定める(S103)。
When the
たとえば、作業者側(HMD10側)および支援者側(作業支援装置50側)の左右、上下、奥行きをそれぞれ3次元座標(X,Y,Z)および(x,y,z)で表すとすると、最初に手指の座標を受信したときの作業者の視野の中央の座標(X1,Y1)を演算し、この座標(X1,Y1)を、作業支援装置50から送られてきた座標(x1,y1)に対応させる。奥行き(Z軸)方向に関しては、作業者から見て予め定めた任意の奥行き方向の距離(Z1)を、作業支援装置50から送られてきた座標(z1)に対応させる。なお、予め定める奥行き方向の距離(Z1)については、支援者の視点から前記ニュートラルの位置までの奥行き方向の距離に合わせておくのがよい。
For example, suppose that the left and right, top and bottom, and depth of the worker side (
上記の例では、座標(x1,y1)は、支援者の両手の中間位置の座標にすれば、作業者の視野において左右等距離の位置に支援者の手指を仮想表示させることができる。仮想表示のさせ方はこれに限らず、作業者の視野内に支援者の両手がその両手間隔を維持して表示されるようになっておればよい。なお、HMD10側の座標系はワールド座標系とすることができるが、キャリブレーション時のHMD10側の3次元座標(X,Y,Z)は、作業者(例えば、HMD10に搭載した赤外線距離センサ)を基準(原点)とした座標系とするのが好ましい。
In the above example, if the coordinates (x1, y1) are the coordinates of the middle position of both hands of the supporter, the hands and fingers of the supporter can be virtually displayed at positions equidistant to the left and right in the visual field of the worker. The virtual display is not limited to this, and it is sufficient that the supporter's hands are displayed within the field of view of the worker while maintaining the distance between them. Note that the coordinate system on the
以上のように作業支援装置50側の支援者の手指の座標(x1,y1,z1)をHMD10側の座標(X1,Y1,Z1)に変換して当該座標の位置に支援者の手指を仮想表示させる。なお、上記は手指の座標のうち一点を例に挙げて説明したが、複数の特徴点によって手指の座標を表す場合は、任意の一点を上記のごとく変換し、それ以外の特徴点については、作業支援装置50側の座標系における当該一点からの相対座標によってHMD10側の座標系に変換することができる。
As described above, the coordinates (x1, y1, z1) of the supporter's fingers on the
以上、キャリブレーション時の座標変換のしかたについて説明したが、座標系は上記に限らず、例えば、それぞれの軸に対する回転量をさらに追加して次元を増やしてもよい。また、位置座標に代えて、あるいは位置座標と共に動き情報(移動方向と移動量)を送るようにしてもよい。 The method of coordinate transformation during calibration has been described above, but the coordinate system is not limited to the above, and for example, the dimension may be increased by further adding rotation amounts with respect to each axis. Further, movement information (direction and amount of movement) may be sent instead of or together with the position coordinates.
(作業者の手指との位置合わせ)
作業者は、図3に示すように透過型表示部11に仮想表示される支援者の手指に自身の手指を重ねる。
(Alignment with worker's fingers)
As shown in FIG. 3, the worker places his or her own hand on the supporter's hand that is virtually displayed on the
HMD10の自ハンド検出部16は、透過型表示部11に表示される作業者自身の手指を検知すると、その座標を取得する(S104)。ハンド重なり判定部17は、作業者の手指の座標と、仮想表示される支援者の手指の座標が一定の範囲内にある場合は、作業者と支援者の手指が重なったと判定する(S105)。
When the worker's own
なおHMD10の自ハンド検出部16が検出する作業者の手指の特徴点と、作業支援装置50とのジェスチャ判定部54が検出する支援者の手指の特徴点は完全に一致している必要はなく、例えば作業者と支援者の手指の各特徴点の座標の平均値が一定の範囲内になったときに重なったと判定するようにしてもよい。重なり判定表示部18は、作業者と支援者の手指が重なったと判定したときに、重なりを検知したことがわかるように支援者の手指の仮想映像を識別表示する(S106)。
Note that the feature points of the worker's hand and fingers detected by the own
ハンド重なり検出部16は、作業者の手と支援者の手の位置が重なったことを検知して、このときのHMD10での作業者の手指の位置座標(作業者の手指の位置座標)を、支援者の手指の基準座標として記憶部に登録する(S107)。これにより、以降の指示動作において、支援者は自身の手指をHMD10の空間内で動かすことができる。
The hand
なお、HMD10の空間上での支援者の手指の移動のさせ方は次の3通りがある。
1)支援者の手指の位置を、作業者の位置を基準とした相対座標で表して、作業者の移動と共に支援者の手指も移動させる。さらに支援者が動かした移動量および移動方向へHMD10側の空間で手指を移動させる。
2)支援者の手指をHMD側の絶対座標(ワールド座標系)で表す。この場合、支援者の手指は、作業者の移動に伴って動かない。
3)作業者から見て奥行き(例えばZ軸方向)のみは、作業者のZ座標を基準とし、そこからのHMD側の移動量で表す。左右上下(X,Y方向)はキャリブレーション時の基準(絶対)座標を基準とする。
Note that there are three ways to move the supporter's fingers in the space of the
1) The position of the supporter's fingers is expressed in relative coordinates with respect to the worker's position, and the supporter's fingers are moved as the worker moves. Furthermore, the supporter moves his or her fingers in the space on the
2) Represent the supporter's fingers in absolute coordinates (world coordinate system) on the HMD side. In this case, the supporter's fingers do not move as the worker moves.
3) Only the depth (for example, the Z-axis direction) as seen from the worker is expressed by the amount of movement on the HMD side from the Z coordinate of the worker as a reference. The left, right, top, and bottom (X, Y directions) are based on reference (absolute) coordinates at the time of calibration.
いずれの方法にするかは、予め初期設定しておいてもよいし、支援者からの選択によって変更可能にしてもよい。 Which method to use may be initialized in advance, or may be changed by the supporter's selection.
以下、キャリブレーション後の支援者の手指の仮想映像の移動のさせ方の一例について図6を参照しながら説明する。本処理の特徴は作業者と作業対象の距離によって上記1)又は3)の座標系と2)の座標系とを切り換えるものである。この座標系切換機能は、HMD10の機能として独立して設けることもできるが、バーチャルハンド表示部14の機能として実現してもよい。以下、バーチャルハンド表示部14の機能として説明する。
An example of how to move the virtual image of the supporter's fingers after calibration will be described below with reference to FIG. 6. A feature of this process is that the coordinate system 1) or 3) and the coordinate system 2) are switched depending on the distance between the worker and the work object. Although this coordinate system switching function can be provided independently as a function of the
バーチャルハンド表示部14は、ハンド位置情報受信部13から手指の位置または動き情報を受信すると次の処理を実行する。
When the virtual
まず、HMD10の搭載する赤外線距離センサ等によって計測される作業者と作業対象物との距離を取得する(S201)。作業対象物か否かは、たとえば作業者あるいは支援者が手指で指し示すなどジェスチャによって設定することができる。なお、作業者と作業対象物との距離は、たとえば作業者の手指と作業対象物、あるいは支援者の仮想映像位置と作業対象物との距離であってもよい。
First, the distance between the worker and the work object measured by an infrared distance sensor mounted on the
次に、ステップS201で取得された距離が閾値以下か否かを判定し(S202)、否の場合、すなわち作業者が作業対象物からある程度離れている場合は、作業者(HMD10)の位置を基準座標(以下、基準座標A)に設定する(S203)。そして、基準座標Aの設定であることがわかるように支援者の手指の仮想画像を識別表示し(S204)、ハンド位置情報受信部13で受信した手指の位置又は動き情報は、HMD10の空間において基準座標Aからの動きとしてその仮想映像を表示する(S205)。
Next, it is determined whether the distance acquired in step S201 is less than or equal to a threshold value (S202), and if no, that is, if the worker is a certain distance from the work object, the position of the worker (HMD 10) is determined. The reference coordinates (hereinafter referred to as reference coordinates A) are set (S203). Then, a virtual image of the supporter's hand and fingers is identified and displayed so that it can be seen that the reference coordinate A is set (S204), and the position or movement information of the hand and finger received by the hand position
一方、ステップS202で、前記距離が閾値以下の場合、すなわち作業者が作業対象物に近づいた場合は、当該閾値以下になった時点の支援者の手指のワールド座標を基準座標(以下、基準座標B)に設定する(S206)。そして、基準座標Bの設定であることがわかるように支援者の手指の仮想画像を識別表示し(S207)、その後ハンド位置情報受信部13で受信した手指の位置又は動き情報は、HMD10の空間において基準座標Bからの動きとしてその仮想映像を表示する(S208)。
On the other hand, in step S202, if the distance is less than the threshold value, that is, if the worker approaches the work object, the world coordinates of the supporter's fingers at the time when the distance becomes less than the threshold value are set as reference coordinates (hereinafter referred to as reference coordinates). B) (S206). Then, a virtual image of the supporter's hand and fingers is identified and displayed so that it can be seen that the reference coordinate B is set (S207), and the position or movement information of the hand and finger received by the hand position
以上の処理によって、支援者の手指の仮想映像を移動させることにより、作業者が作業対象物に近づくまでは作業者に追従して当該仮想映像も移動し、作業者が作業対象物に近づくと当該仮想映像は作業者の動きから切り離されて、作業対象物に対して安定した動きを実現させることができる。 Through the above processing, by moving the virtual image of the supporter's fingers, the virtual image will follow the worker until the worker approaches the work object, and when the worker approaches the work object, the virtual image will also move. The virtual image is separated from the movement of the worker, allowing stable movement of the work object.
HMD10の透過型表示部11は3次元(3D)表示であり、作業支援装置50の映像表示部51は2次元(2D)表示であるため、これを如何に3D表示と同様に奥行きを含めて作業支援者に認識させるかが問題となるが、上記の方法により、作業支援装置50側の支援者の手指の位置および動きを、HMD10側の空間上で適切に表すことができる。
The
2.工具の選択及び表示処理
作業支援装置50において支援者は、工具を選択する。工具の選択は、パレットを表示させて一覧から選択させるようにしてもよい、工具選択部56が手指の動きあるいは形状を検知したときに、その動きに対応する工具の識別情報を工具情報記憶部1(61)から抽出してHMD10へ送信するようにしてもよい。
2. Tool Selection and Display Processing The supporter selects a tool in the
HMD10は、工具の識別情報を受信すると、バーチャル工具表示部15により、工具情報記憶部2(20)から当該工具の識別情報に対応する仮想映像情報を抽出して、その工具を把持した手指の仮想映像を透過型表示部11に表示する。
When the
この仮想表示された映像および現実映像は合成されて作業支援装置50へ送信され、映像表示部51に表示される。
The virtually displayed video and the real video are combined, transmitted to the
図4に示すように、工具は、少なくとも2箇所の手指の特徴点と工具の所定の位置とが対応づけられている。そして手指の特徴点の位置関係により、工具の所定位置をその手指の特徴点の座標に合わせて工具全体を表示する。 As shown in FIG. 4, the tool has at least two finger feature points associated with a predetermined position of the tool. Then, based on the positional relationship of the feature points of the fingers, a predetermined position of the tool is aligned with the coordinates of the feature points of the fingers, and the entire tool is displayed.
図4を用いて詳述すると、工具と手指の特徴点A,Bは互いに対応付けられており、それぞれ工具を把持したときに手指に接触する位置である。そして、図4(a)の工具を動かす前の状態における点Aの座標が(X1,Y1,Z1)、点Bの座標が(X2,Y2,Z2)であり、図4(b)の工具を動かした後の状態における点Aの座標が(X1',Y1',Z1')、点Bの座標が(X2',Y2',Z2')であったとする。 To explain in detail using FIG. 4, feature points A and B on the tool and the fingers are associated with each other, and are the positions where the tool comes into contact with the fingers when the tool is gripped. Then, in the state before moving the tool in Fig. 4(a), the coordinates of point A are (X1, Y1, Z1), the coordinates of point B are (X2, Y2, Z2), and the tool in Fig. 4(b) is Suppose that the coordinates of point A in the state after moving are (X1', Y1', Z1') and the coordinates of point B are (X2', Y2', Z2').
このとき、バーチャルハンド表示部14は、ハンド位置情報受信部13が受信した作業支援者の手指の位置座標を用いて現実空間(HMD10側の空間)での座標を求め、作業者の手指を仮想表示する。バーチャル工具表示部15は、バーチャルハンド表示部14で仮想表示に用いた座標情報のうち、上記の特徴点A,Bの座標を取得する。図4(a)の状態においては、点Aの座標(X1,Y1,Z1)、点Bの座標(X2,Y2,Z2)を結んだ直線上、点A方向に工具を予め定めた所定長延在させて仮想表示する。図4(b)の状態に移行したときは、点Aの座標(X1',Y1',Z1')、点Bの座標(X2',Y2',Z2')を結んだ直線上、点A方向に工具を予め定めた所定長延在させて仮想表示する。なお、直線を軸とした回転方向の動きが重要になる場合には、さらに特徴点を追加するか、次元を増やすのが好ましい。
At this time, the virtual
3.作業支援
作業者が作業対象物に近づくと、これに伴い支援者の手指も近づく。そして、支援者は手を伸ばすと、作業対象方向へ仮想表示された手指が移動する。なお、作業者の手指と仮想表示された支援者の手指とが一定距離以上離れるとアラーム出力するようにしてもよい。
3. Work Support When the worker approaches the work object, the supporter's hands and fingers also approach. Then, when the supporter extends his hand, the virtually displayed hand and fingers move in the direction of the work target. Note that an alarm may be output when the worker's hand and the virtually displayed supporter's hand are separated by a certain distance or more.
なお、仮想表示される手指および工具と現実の作業対象物との距離が一定値以下になり、あるいは接触を検知すると、仮想表示される手および工具を識別表示するようにしてもよい。これにより支援者は作業対象物との距離を知得することができる。 Note that when the distance between the virtually displayed hand and the tool and the real work object becomes less than a certain value, or when contact is detected, the virtually displayed hand and the tool may be identified and displayed. This allows the support person to know the distance to the work target.
作業者は、仮想表示された工具と同じ工具を把持し、仮想表示された手指に自身の手指重ねるようにする。これにより、作業者は、工具の持ち方や使用のしかたを仮想表示された映像により知得することができる。 The worker grasps the same tool as the virtually displayed tool and places his or her own finger over the virtually displayed finger. This allows the worker to learn how to hold and use the tool from the virtually displayed image.
以上、本実施の形態によれば、作業前の両装置10,50の起動直後に作業支援者の手指の動きの基準となる位置を作業者側の現実空間内に定めるので、その後の作業の支援・指示を容易かつ効率的に行うことができる。また、作業支援者はHMDなどの3D表示装置を装着する必要がなく、種々の工具を用いた作業に対する作業支援を簡便な設備で行うことができる。
As described above, according to the present embodiment, the reference position for the movement of the hand and fingers of the work supporter is determined in the real space of the worker side immediately after starting both the
本発明は上述した実施の形態に限定されることなく、その要旨を逸脱しない範囲で種々変形して実現することができる。 The present invention is not limited to the embodiments described above, and can be implemented with various modifications without departing from the gist thereof.
たとえば、作業支援装置50は、ジェスチャ判定部54によって特定の手指の動きが検知されたときに、ハンド位置情報送信部55は、描画の開始指令または終了指令を前記頭部装着型表示装置へ送信し、HMD10は、描画の開始指令を受信すると、その後の手指の動きに従って透過型表示部11への仮想映像の描画を行い、描画の終了指令を受信すると、仮想映像の描画を終了するようにしてもよい。
For example, in the
また、ジェスチャ判定部54によって特定の手指の動きが検知されたときに、HMD10から受信した映像情報を前後一定時間に亘って記録するようにしてもよい。
Furthermore, when the
バーチャル工具表示部15のより簡単な処理として、予め工具を把持した手指の仮想映像情報を工具情報記憶部2(20)に保存しておき、ハンド位置情報受信部13によって受信される位置情報に基づいて、この仮想映像を回転、変形等させて表示するようにしてもよい。
As a simpler process for the virtual
1 作業支援システム
2 通信回線
10 頭部装着型表示装置(HMD)
11 透過型表示部
12 映像送信部
13 ハンド位置情報受信部
14 バーチャルハンド表示部
15 バーチャル工具表示部
16 自ハンド検出部
17 ハンド重なり判定部
20 工具情報記憶部2
30 仮想表示される支援者の手指
31 仮想表示される工具
40 現実空間における作業者の手指
50 作業支援装置
51 映像表示部
52 ハンド位置撮影部
53 映像受信部
54 ジェスチャ判定部
55 ハンド位置情報送信部
56 工具選択部
60 映像記録部
70 作業支援装置側での作業支援者の手指
1
11
30 Virtually displayed supporter's fingers 31 Virtually displayed tools 40 Worker's fingers in
Claims (7)
前記作業支援装置は、
支援者の手指を撮影するハンド位置撮影部と、
撮影された前記支援者の手指の位置又は動き情報を演算するジェスチャ判定部と、
前記手指の位置又は動き情報を前記頭部装着型表示装置へ送信するハンド位置情報送信部と、
前記頭部装着型表示装置から送られてくる映像情報を受信する映像受信部と、
受信した前記映像情報を表示する映像表示部と、
工具の仮想映像を表示するための工具情報を記憶する工具情報記憶部と、
前記工具情報を選択する工具情報選択部と、
を備え、
前記頭部装着型表示装置は、
透過表示された現実空間の像に仮想映像を重畳して表示する透過型表示部と、
前記作業支援装置から送信される前記支援者の手指の位置又は動き情報を受信するハンド位置情報受信部と、
前記支援者の手指の位置又は動き情報に基づいて前記透過型表示部へ前記支援者の手指の仮想映像を表示するバーチャルハンド表示部と、
前記透過型表示部に表示される現実空間の像及び仮想映像を映像情報として前記作業支援装置へ送信する映像送信部と、
を備え、
前記ハンド位置情報送信部は、前記工具情報選択部によって選択された前記工具情報を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、前記工具情報を受信すると、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像に重ねて、該工具情報に基づいて工具の仮想映像を表示するバーチャル工具表示部を備えたことを特徴とする作業支援システム。 A work support system comprising a work support device for a work supporter to give instructions to a worker, and a head-mounted display device worn by the worker, the work support system comprising:
The work support device includes:
a hand position photographing unit that photographs the hands and fingers of the supporter;
a gesture determination unit that calculates position or movement information of the photographed fingers of the supporter;
a hand position information transmitting unit that transmits position or movement information of the hand and fingers to the head-mounted display device;
a video receiving unit that receives video information sent from the head-mounted display device;
a video display unit that displays the received video information;
a tool information storage unit that stores tool information for displaying a virtual image of the tool;
a tool information selection unit that selects the tool information;
Equipped with
The head-mounted display device includes:
a transparent display section that superimposes and displays a virtual image on the transparently displayed image of the real space;
a hand position information receiving unit that receives position or movement information of the supporter's fingers transmitted from the work support device;
a virtual hand display unit that displays a virtual image of the supporter's fingers on the transparent display unit based on position or movement information of the supporter's fingers;
a video transmitting unit that transmits the real space image and virtual video displayed on the transparent display unit as video information to the work support device;
Equipped with
The hand position information transmitting unit transmits the tool information selected by the tool information selecting unit to the head-mounted display device,
Upon receiving the tool information, the head-mounted display device displays a virtual image of the tool based on the tool information, superimposed on a virtual image of the supporter's fingers displayed by the virtual hand display section. A work support system characterized by being equipped with a virtual tool display section .
作業者の手指を検出する自ハンド検出部と、
前記自ハンド検出部によって検出された前記作業者の手指と、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定部と、
当該ハンド重なり判定部の判定の結果を出力する重なり判定表示部と、
を備えたことを特徴とする請求項1又は2に記載の作業支援システム。 The head-mounted display device includes:
an own hand detection unit that detects the worker's fingers;
a hand overlap determination unit that determines whether there is an overlap between the worker's hand detected by the own hand detection unit and a virtual image of the supporter's hand and fingers displayed by the virtual hand display unit;
an overlap determination display unit that outputs the determination result of the hand overlap determination unit;
The work support system according to claim 1 or 2, further comprising:
前記頭部装着型表示装置は、描画の開始指令を受信すると、その後の手指の動きに従って前記透過型表示部への仮想映像の描画を行い、描画の終了指令を受信すると、前記仮想映像の描画を終了することを特徴とする請求項1~5のいずれか一項に記載の作業支援システム。 In the work support device, when the gesture determination unit detects a specific finger movement, the hand position information transmission unit transmits a drawing start command or end command to the head-mounted display device,
When the head-mounted display device receives a drawing start command, it draws a virtual image on the transparent display section according to the subsequent hand and finger movements, and when it receives a drawing end command, it draws the virtual image. The work support system according to any one of claims 1 to 5 , characterized in that:
作業者の手指を検出する自ハンド検出処理と、
前記自ハンド検出処理によって検出された前記作業者の手指と、前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定処理と、
前記ハンド重なり判定処理が重なり有りと判定したときの前記作業者の手指の位置を前記手指の仮想映像の基準位置として、その後受信する前記手指の位置又は動き情報に基づいて前記透過型表示部において前記仮想映像を移動させるバーチャルハンド表示処理と、
を実行することを特徴とするプログラム。 A head-mounted display that includes a transparent display section that receives position or movement information of the hands and fingers of a work supporter and displays a virtual image of the supporter's hands and fingers superimposed on a transparently displayed image of the real space. A computer-executable program running on a device, the program comprising:
Own hand detection processing that detects the worker's fingers;
hand overlap determination processing that determines whether or not there is an overlap between the worker's hand detected by the own hand detection processing and a virtual image of the supporter's hand and fingers;
The position of the hand and finger of the worker when the hand overlap determination process determines that there is an overlap is set as the reference position of the virtual image of the hand, and the position or movement information of the hand and finger that is subsequently received is used in the transparent display section. virtual hand display processing for moving the virtual image;
A program characterized by executing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019160777A JP7398227B2 (en) | 2019-09-03 | 2019-09-03 | Work support systems and programs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019160777A JP7398227B2 (en) | 2019-09-03 | 2019-09-03 | Work support systems and programs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021039567A JP2021039567A (en) | 2021-03-11 |
| JP7398227B2 true JP7398227B2 (en) | 2023-12-14 |
Family
ID=74847166
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019160777A Active JP7398227B2 (en) | 2019-09-03 | 2019-09-03 | Work support systems and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7398227B2 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023032037A (en) * | 2021-08-26 | 2023-03-09 | 沖電気工業株式会社 | Operator-side device, instructor-side device, method and program |
| JP7289566B1 (en) | 2022-01-25 | 2023-06-12 | アルム株式会社 | Cutting control device, cutting control method, and cutting control program |
| WO2024196221A1 (en) * | 2023-03-21 | 2024-09-26 | 삼성전자 주식회사 | Electronic device for supporting xr content, and input mode support method therefor |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002132487A (en) | 2000-10-25 | 2002-05-10 | Oki Electric Ind Co Ltd | Remote operation supporting system |
| JP2005063225A (en) | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, apparatus, and program using self-image display |
-
2019
- 2019-09-03 JP JP2019160777A patent/JP7398227B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002132487A (en) | 2000-10-25 | 2002-05-10 | Oki Electric Ind Co Ltd | Remote operation supporting system |
| JP2005063225A (en) | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, apparatus, and program using self-image display |
Non-Patent Citations (1)
| Title |
|---|
| 後藤 充裕,外4名,作業者視点の連続撮影映像を活用した作業記録自動生成システムの提案,情報処理学会 研究報告 マルチメディア通信と分散処理(DPS) ,日本,情報処理学会,2015年12月03日,Vol.2015-DPS-165, No.2,pp.1-6 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021039567A (en) | 2021-03-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5843340B2 (en) | 3D environment sharing system and 3D environment sharing method | |
| JP5499762B2 (en) | Image processing apparatus, image processing method, program, and image processing system | |
| JPWO2014141504A1 (en) | 3D user interface device and 3D operation processing method | |
| US7123214B2 (en) | Information processing method and apparatus | |
| JPWO2014147858A1 (en) | 3D unlock device, 3D unlock method and program | |
| JP5656514B2 (en) | Information processing apparatus and method | |
| JP4926826B2 (en) | Information processing method and information processing apparatus | |
| JP7398227B2 (en) | Work support systems and programs | |
| JP2017059062A (en) | Information processing apparatus, information processing method, and program | |
| JP7451084B2 (en) | Information processing device and information processing method | |
| JP2005174021A (en) | Information presentation method and apparatus | |
| JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
| JP2023507241A (en) | A proxy controller suit with arbitrary dual-range kinematics | |
| JP2009169622A (en) | Image processing apparatus and image processing method | |
| US20220331972A1 (en) | Robot Image Display Method, Recording Medium, And Robot Image Display System | |
| JP2004265222A (en) | Interface method, apparatus, and program | |
| JP6730577B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
| JP2016110177A (en) | Three-dimensional input device and input system | |
| JP2025188268A (en) | Computer, method, and program | |
| KR20190048810A (en) | Apparatus and method for providing augmented reality contents | |
| JP2019101476A (en) | Operation guide system | |
| JP6981340B2 (en) | Display control programs, devices, and methods | |
| JP5863984B2 (en) | User interface device and user interface method | |
| WO2020174586A1 (en) | Information processing device, information processing method, and program | |
| WO2020235539A1 (en) | Method and device for specifying position and posture of object |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220624 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230626 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230816 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231204 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7398227 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |