[go: up one dir, main page]

JP7398227B2 - Work support systems and programs - Google Patents

Work support systems and programs Download PDF

Info

Publication number
JP7398227B2
JP7398227B2 JP2019160777A JP2019160777A JP7398227B2 JP 7398227 B2 JP7398227 B2 JP 7398227B2 JP 2019160777 A JP2019160777 A JP 2019160777A JP 2019160777 A JP2019160777 A JP 2019160777A JP 7398227 B2 JP7398227 B2 JP 7398227B2
Authority
JP
Japan
Prior art keywords
hand
fingers
supporter
tool
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019160777A
Other languages
Japanese (ja)
Other versions
JP2021039567A (en
Inventor
茂 平野
要 今澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba System Technology Corp
Original Assignee
Toshiba System Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba System Technology Corp filed Critical Toshiba System Technology Corp
Priority to JP2019160777A priority Critical patent/JP7398227B2/en
Publication of JP2021039567A publication Critical patent/JP2021039567A/en
Application granted granted Critical
Publication of JP7398227B2 publication Critical patent/JP7398227B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、VR(Virtual Reality,仮想現実)、AR(Augmented Reality,拡張現実)、あるいはMR(Mixed Reality, 複合現実)等(以下単に「VR等」という。)の技術を用いて、遠隔から作業者に対して効率的に指示を行うことのできる作業支援システム及びプログラムに関する。 The present invention uses technology such as VR (Virtual Reality), AR (Augmented Reality), or MR (Mixed Reality) (hereinafter simply referred to as "VR etc.") to remotely The present invention relates to a work support system and program that can efficiently give instructions to workers.

従来、VR等の技術を用いて、作業支援者が現場の作業者に対して指示を行うシステムが提案されている。 2. Description of the Related Art Conventionally, systems have been proposed in which a work supporter gives instructions to workers on site using technology such as VR.

例えば、特許文献1では、作業者が観察している映像を遠隔地にいる指示者(支援者)へ伝送し、指示者がこの映像を観察しながら作業者に三次元的な作業支援を行うシステムが提案されている。このシステムでは、指示者および作業者の双方が、磁気センサを備えるスタイラスを所持し、3次元位置姿勢センサを備えるヘッドマウントディスプレイ(HMD)を装着する。そして、指示者のHMDの3次元位置姿勢センサと指示者が使用するスタイラスとの位置姿勢関係を示すデータを指示者側から作業者側へ送信する。作業者側では、このデータをもとに作業者の視点に合わせて、指示者のスタイラスを示すポインタを仮想表示する。スタイラスにはボタンが設けられており、このボタンを押下することにより仮想物体を移動させることができる。 For example, in Patent Document 1, an image observed by a worker is transmitted to an instructor (supporter) located at a remote location, and the instructor provides three-dimensional work support to the worker while observing this image. system is proposed. In this system, both the instructor and the worker carry a stylus equipped with a magnetic sensor and wear a head mounted display (HMD) equipped with a three-dimensional position and orientation sensor. Then, data indicating the position/posture relationship between the three-dimensional position/posture sensor of the HMD of the instructor and the stylus used by the instructor is transmitted from the instructor to the worker. On the worker's side, based on this data, a pointer indicating the instructor's stylus is displayed virtually according to the worker's viewpoint. The stylus is provided with a button, and by pressing this button, the virtual object can be moved.

特開2006-209664号公報JP2006-209664A

しかしながら、上記の特許文献1の技術によれば、作業者、指示者共にスタイラスを手に持って作業あるいは指示を行うため、作業内容が限られてしまう。また、作業者のみならず支援者もHMDを装着する必要があり煩雑になる。 However, according to the technique disclosed in Patent Document 1, both the operator and the instructor hold the stylus in their hands to perform work or give instructions, which limits the content of the work. In addition, not only the worker but also the supporter must wear the HMD, which becomes complicated.

本発明はかかる従来の事情に対処してなされたものであり、作業現場においてスタイラスを用いる必要がなく、また作業支援者はHMDを装着する必要がなく、種々の工具を用いた作業に対する作業支援が可能な作業支援システム及びプログラムを提供することを目的とする。 The present invention has been made in response to such conventional circumstances, and it is not necessary to use a stylus at the work site, and the work support person does not need to wear an HMD, and can provide work support for work using various tools. The purpose is to provide a work support system and program that allows for.

上記目的を達成するため、本開示に係る作業支援システムは、
作業の支援者が遠隔地の作業者に指示を行うための作業支援装置と、前記作業者が装着する頭部装着型表示装置と、を有する作業支援システムであって、
前記作業支援装置は、支援者の手指を撮影するハンド位置撮影部と、撮影された前記支援者の手指の位置又は動き情報を演算するジェスチャ判定部と、前記手指の位置又は動き情報を前記頭部装着型表示装置へ送信するハンド位置情報送信部と、前記頭部装着型表示装置から送られてくる映像情報を受信する映像受信部と、受信した前記映像情報を表示する映像表示部と、を備え、
前記頭部装着型表示装置は、透過表示された現実空間の像に仮想映像を重畳して表示する透過型表示部と、前記作業支援装置から送信される前記支援者の手指の位置又は動き情報を受信するハンド位置情報受信部と、前記支援者の手指の位置又は動き情報に基づいて前記透過型表示部へ前記支援者の手指の仮想映像を表示するバーチャルハンド表示部と、前記透過型表示部に表示される現実空間の像及び仮想映像を映像情報として前記作業支援装置へ送信する映像送信部と、を備えたことを特徴とする。
In order to achieve the above purpose, the work support system according to the present disclosure:
A work support system comprising a work support device for a work supporter to give instructions to a worker in a remote location, and a head-mounted display device worn by the worker,
The work support device includes a hand position photographing unit that photographs the hands and fingers of a supporter, a gesture determination unit that calculates position or movement information of the photographed hands and fingers of the supporter, and a gesture determination unit that calculates position or movement information of the hands and fingers of the supporter, and a gesture determination unit that calculates position or movement information of the photographed hands and fingers of the supporter. a hand position information transmission unit that transmits to the head-mounted display device; a video reception unit that receives video information sent from the head-mounted display device; and a video display unit that displays the received video information; Equipped with
The head-mounted display device includes a transparent display section that displays a virtual image superimposed on a transparently displayed image of the real space, and position or movement information of the supporter's fingers transmitted from the work support device. a virtual hand display section that displays a virtual image of the supporter's hand and fingers on the transparent display section based on the position or movement information of the supporter's hand; and the transparent display. The present invention is characterized by comprising a video transmitter that transmits an image of the real space and a virtual video displayed on the work support device as video information to the work support device.

本開示によれば、頭部装着型表示装置(例えば、透過型ヘッドマウントディスプレイ)に、透過表示された現実空間の像(シーン)に作業支援者の手指の仮想映像を重畳表示させることによって作業支援を行う。 According to the present disclosure, a virtual image of the hands and fingers of a work supporter is superimposed on a transparently displayed image (scene) of the real space on a head-mounted display device (for example, a transparent head-mounted display). Provide support.

また、前記頭部装着型表示装置は、作業者の手指を検出する自ハンド検出部と、前記自ハンド検出部によって検出された前記作業者の手指と、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定部と、当該ハンド重なり判定部の判定の結果を出力する重なり判定表示部とを備える。 Further, the head-mounted display device includes an own hand detection unit that detects the worker's fingers, a worker's hand detected by the own hand detection unit, and the virtual hand display unit that displays the worker's hand and fingers. The present invention includes a hand overlap determination unit that determines whether the supporter's fingers overlap with the virtual image, and an overlap determination display unit that outputs the determination result of the hand overlap determination unit.

特に、前記バーチャルハンド表示部は、前記ハンド重なり判定部が重なり有りと判定したときの前記作業者の手指の位置に基づいて前記手指の仮想映像の基準位置を設定し、その後ハンド位置情報受信部によって受信する前記手指の位置又は動き情報と前記基準位置に基づいて前記透過型表示部において前記仮想映像を移動させる。 In particular, the virtual hand display section sets a reference position of the virtual image of the hand and fingers based on the position of the worker's fingers when the hand overlap determination section determines that there is an overlap, and then the hand position information reception section The virtual image is moved on the transparent display section based on the reference position and the position or movement information of the hand and fingers received by the user.

これにより、作業支援装置における空間座標系と現場の頭部装着型表示装置における空間座標系の違いを吸収して、頭部装着型表示装置の座標系で作業支援者の手指の仮想映像を移動させて、現場の対象物に対する作業支援を可能にする。また、作業支援者は、ヘッドマウントディスプレイを装着する必要がなく、汎用のコンピュータモニター装置を介して現場の様子を視認しながら、現場の作業者に対して指示を行うことができる。 This absorbs the difference between the spatial coordinate system of the work support device and the spatial coordinate system of the head-mounted display device at the site, and moves the virtual image of the work support person's hands and fingers in the coordinate system of the head-mounted display device. This makes it possible to support work on objects at the site. Further, the work support person does not need to wear a head-mounted display, and can give instructions to the workers at the site while visually checking the situation on the site via a general-purpose computer monitor.

また、作業支援装置は、受信した映像情報を記録する映像記録部を備える。このとき、映像記録部は、支援者の特定の手指の動きを検知すると、検知した時点の前後所定の時間分の前記映像情報を記録するのが好ましい。 The work support device also includes a video recording unit that records received video information. At this time, it is preferable that, when the video recording section detects the movement of a specific finger of the supporter, it records the video information for a predetermined period of time before and after the time of detection.

また、本開示に係る作業支援システムは、前記ジェスチャ判定部によって特定の手指の動きが検知されたときに、前記ハンド位置情報送信部は、描画の開始指令または終了指令を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、描画の開始指令を受信すると、その後の手指の動きに従って前記透過型表示部への仮想映像の描画を行い、描画の終了指令を受信すると、前記仮想映像の描画を終了することを特徴とする。
これにより、より具体的な作業支援が可能になる。
Further, in the work support system according to the present disclosure, when the gesture determination unit detects a specific finger movement, the hand position information transmission unit transmits a drawing start command or end command to the head-mounted display. send to the device,
When the head-mounted display device receives a drawing start command, it draws a virtual image on the transparent display section according to the subsequent hand and finger movements, and when it receives a drawing end command, it draws the virtual image. It is characterized by ending.
This enables more specific work support.

さらに、本開示に係る作業支援システムにおいて、
前記作業支援装置は、工具の仮想映像を表示するための工具情報を記憶する工具情報記憶部と、前記工具情報を選択する工具情報選択部とを備え、前記ハンド位置情報送信部は、前記工具情報選択部によって選択された前記工具情報を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、前記工具情報を受信すると、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像に重ねて、該工具情報に基づいて工具の仮想映像を表示するバーチャル工具表示部を備えたことを特徴とする。

Furthermore, in the work support system according to the present disclosure,
The work support device includes a tool information storage unit that stores tool information for displaying a virtual image of the tool, and a tool information selection unit that selects the tool information, and the hand position information transmission unit transmitting the tool information selected by the information selection unit to the head-mounted display device;
Upon receiving the tool information, the head-mounted display device displays a virtual image of the tool based on the tool information, superimposed on a virtual image of the supporter's fingers displayed by the virtual hand display section. It is characterized by being equipped with a virtual tool display section.

特に、支援者の手指の仮想映像と工具の仮想映像の対応する箇所(例えば、工具と手指との接点など)を関連付けて保存する記憶手段を備え、前記バーチャル工具表示部は、前記工具の仮想映像を、前記支援者の手指の仮想映像と前記対応する箇所が重なるように前記工具の仮想映像を回転又は変形させて表示するのが好ましい。これにより、支援者の手指の動きに伴って工具の仮想映像も動くので、よりリアルに作業支援を行うことができる。 In particular, the virtual tool display section includes a storage means for storing a virtual image of the supporter's hand and a virtual image of the tool in association with corresponding locations (for example, points of contact between the tool and the fingers), and the virtual tool display section stores the virtual image of the tool. Preferably, the image is displayed by rotating or deforming the virtual image of the tool so that the virtual image of the supporter's fingers and the corresponding location overlap. As a result, the virtual image of the tool moves with the movement of the supporter's fingers, making it possible to provide more realistic work support.

また、本開示に係わる、作業者の装着する頭部装着型表示装置において、作業の支援者の使用する作業支援装置から送られてくる情報をもとに作業者に作業を指示する方法は、
前記作業支援装置において、支援者の手指の位置又は動き情報を取得して、前記頭部装着型表示装置へ送信する段階と、
支援者の手指の位置又は動き情報をもとに支援者の手指の仮想映像を透過型表示部へ表示する段階と、
前記透過型表示部に表示される作業者の手指の映像と、前記仮想映像との重なりを検出する段階と、
重なりを検出した場合は、最初に重なりを検出した時点の作業者の所定部位の座標と、当該時点の前記支援者の手指の位置又は動き情報とを対応づける段階と、
最初に重なりを検出したときに前記仮想映像を識別表示する段階と、
を含むことを特徴とする。
Further, in the head-mounted display device worn by a worker according to the present disclosure, a method for instructing a worker to perform a task based on information sent from a task support device used by a task supporter is as follows:
In the work support device, acquiring position or movement information of the supporter's fingers and transmitting the information to the head-mounted display device;
displaying a virtual image of the supporter's hand and fingers on a transparent display section based on the position or movement information of the supporter's finger;
detecting an overlap between an image of the worker's hand and fingers displayed on the transparent display section and the virtual image;
If an overlap is detected, a step of associating the coordinates of a predetermined part of the worker at the time when the overlap is first detected with the position or movement information of the supporter's fingers at that time;
identifying and displaying the virtual image when an overlap is first detected;
It is characterized by including.

好ましくは、頭部装着型表示装置は、作業対象物との距離が検出可能であって、当該距離が予め定めた閾値よりも大きい場合は、前記支援者の手指の位置又は動き情報を作業者の所定の部位(作業者の装着する頭部装着型表示装置を含む。)の位置を基準とした相対的な位置又は移動量として用い、当該距離が閾値以下の場合は、その後に送られてくる前記支援者の手指の位置又は動き情報を、該距離が閾値以下になったことを検出した時点の該仮想映像のワールド座標を基準とした相対的な位置又は移動量として用いるのが好ましい。 Preferably, the head-mounted display device is capable of detecting a distance to the work object, and if the distance is greater than a predetermined threshold, the head-mounted display device transmits position or movement information of the supporter's fingers to the worker. It is used as the relative position or amount of movement based on the position of a predetermined part (including the head-mounted display device worn by the worker) of the It is preferable to use the position or movement information of the supporter's hand or finger as the relative position or movement amount with respect to the world coordinates of the virtual image at the time when it is detected that the distance becomes equal to or less than the threshold value.

上記において、作業者の所定部位の座標とは、例えば、作業者の手指の座標であってもよいし、作業者の装着する装着型表示装置の例えば赤外線距離センサの位置の座標であってもよい。また、対応付けとは、各データを関連付けて保持してもよいし、作業支援装置側の座標から装着型表示装置側の座標への変換パラメータを求めるようにしてもよい。 In the above, the coordinates of a predetermined part of the worker may be, for example, the coordinates of the worker's fingers, or the coordinates of the position of, for example, an infrared distance sensor of a wearable display device worn by the worker. good. Further, the association may be associated with each data and held, or may be obtained by determining a conversion parameter from the coordinates on the work support device side to the coordinates on the wearable display device side.

また、本開示に係るプログラムは、
作業の支援者の手指の位置又は動き情報を受信して、透過表示される現実空間の像に前記支援者の手指の仮想映像を重畳して表示する透過型表示部を備える頭部装着型表示装置で動作するコンピュータ実行可能なプログラムであって、
作業者の手指を検出する自ハンド検出処理と、
前記自ハンド検出処理によって検出された前記作業者の手指と、前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定処理と、
前記ハンド重なり判定処理が重なり有りと判定したときの前記作業者の手指の位置を前記手指の仮想映像の基準位置として、その後受信する前記手指の位置又は動き情報に基づいて前記透過型表示部において前記仮想映像を移動させるバーチャルハンド表示処理と、
を実行することを特徴とする。
In addition, the program related to this disclosure is
A head-mounted display that includes a transparent display section that receives position or movement information of the hands and fingers of a work supporter and displays a virtual image of the supporter's hands and fingers superimposed on a transparently displayed image of the real space. A computer-executable program running on a device, the program comprising:
Own hand detection processing that detects the worker's fingers;
hand overlap determination processing that determines whether or not there is an overlap between the worker's hand detected by the own hand detection processing and a virtual image of the supporter's hand and fingers;
The position of the hand and finger of the worker when the hand overlap determination process determines that there is an overlap is set as the reference position of the virtual image of the hand, and the position or movement information of the hand and finger that is subsequently received is used in the transparent display section. virtual hand display processing for moving the virtual image;
It is characterized by carrying out.

本開示によれば、作業支援者はHMDを装着する必要がなく、種々の工具を用いた作業に対する作業支援を簡便な設備で行うことができる。 According to the present disclosure, a work support person does not need to wear an HMD, and can perform work support for work using various tools with simple equipment.

本発明の実施の形態による作業支援システムの機能ブロック図である。FIG. 1 is a functional block diagram of a work support system according to an embodiment of the present invention. 本発明の実施の形態におけるキャリブレーション処理の説明図である。It is an explanatory diagram of calibration processing in an embodiment of the present invention. 図1のハンド重なり判定部の動作の説明図である。FIG. 2 is an explanatory diagram of the operation of the hand overlap determining section in FIG. 1; 図1のバーチャル工具表示部の動作の説明図である。FIG. 2 is an explanatory diagram of the operation of the virtual tool display section of FIG. 1; 本発明の実施の形態によるキャリブレーション処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of calibration processing according to an embodiment of the present invention. 本発明の実施の形態によるキャリブレーション後の支援者の手指の仮想映像の移動処理の手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a procedure for moving a virtual image of a supporter's fingers after calibration according to an embodiment of the present invention.

以下に本発明の実施の形態に係る作業支援システムについて図面を参照しながら説明する。なお、頭部装着型表示装置の例として、透過型ヘッドマウントディスプレイ(以下、単に「HMD」という。)を用いる。 A work support system according to an embodiment of the present invention will be described below with reference to the drawings. Note that a transmissive head-mounted display (hereinafter simply referred to as "HMD") is used as an example of the head-mounted display device.

図1において、作業支援システム1は、作業支援者が現場の作業者に作業の指示を行うための作業支援装置50と、現場の作業者が装着するHMD10で構成される。作業支援装置50とHMD10は有線又は無線の通信回線2を介して接続される。 In FIG. 1, a work support system 1 includes a work support device 50 for use by a work supporter to instruct on-site workers to perform work, and an HMD 10 worn by on-site workers. The work support device 50 and the HMD 10 are connected via a wired or wireless communication line 2.

作業支援装置50は、作業支援者の手指の位置や動きを検知して、その位置や動きを作業者側のHMD10に送信したり、HMD10から送られてくる映像情報を受信して、映像表示部51に表示する。また作業支援装置50では、作業者の使用すべき工具を選択することができる。選択された工具の識別情報はHMD10に送られる。このような機能を有する作業支援装置50は汎用のコンピュータ装置を用いて実現することができる。手指の位置や動きを検知する技術としては、既存のモーションジェスチャトラッキング技術を利用することができる。一例としては、特表2009-525538号公報や、米国リープモーション社の「LEAP MOTION」(登録商標)が挙げられる。 The work support device 50 detects the position and movement of the work supporter's fingers, transmits the position and movement to the HMD 10 on the worker side, receives video information sent from the HMD 10, and displays the video. It is displayed in section 51. Further, the work support device 50 allows the worker to select a tool to be used. Identification information of the selected tool is sent to the HMD 10. The work support device 50 having such a function can be realized using a general-purpose computer device. Existing motion gesture tracking technology can be used to detect the position and movement of fingers. Examples include Japanese Patent Publication No. 2009-525538 and "LEAP MOTION" (registered trademark) by Leap Motion, Inc. of the United States.

HMD10は、作業支援装置50から送られてくる作業支援者の手指の動き情報を受信して、当該手指の仮想映像を現実映像と重ねて表示する。また、HMD10は工具の識別情報を受信すると、当該工具を把持した作業者の手指を仮想表示させる。この仮想映像と現実映像は合成されて作業支援装置50へ送信される。 The HMD 10 receives the movement information of the hand and fingers of the work supporter sent from the work support device 50, and displays a virtual image of the hand and fingers superimposed on the real image. Further, upon receiving the identification information of the tool, the HMD 10 virtually displays the hand and fingers of the worker holding the tool. The virtual image and the real image are combined and sent to the work support device 50.

(構成)
以下、各装置50,10の構成を詳述する。
作業支援装置50は、作業支援者の手指を撮影するためのハンド位置撮影部52、撮影された手指の位置又は動き情報を演算するジェスチャ判定部54、支援者の手指の位置情報をHMD10へ送信するハンド位置情報送信部55、作業に使用する工具情報の一覧を記憶する工具情報記憶部1(61)、工具情報記憶部1(61)から工具を選択する工具選択部56、HMD10から送られてくる映像情報を受信する映像受信部53、受信した映像情報を表示する映像表示部51、および映像情報を記録する映像記録部60を備える。
(composition)
The configuration of each device 50, 10 will be described in detail below.
The work support device 50 includes a hand position photographing unit 52 for photographing the hand and fingers of the work supporter, a gesture determination unit 54 for calculating position or movement information of the photographed hand, and transmitting position information of the supporter's hand and fingers to the HMD 10. A hand position information transmitting unit 55 that stores information on tools used for work, a tool information storage unit 1 (61) that stores a list of tool information used for work, a tool selection unit 56 that selects a tool from the tool information storage unit 1 (61), and a hand position information transmission unit 55 that stores information on tools used for work. It includes a video receiving section 53 that receives incoming video information, a video display section 51 that displays the received video information, and a video recording section 60 that records the video information.

なお、映像表示部51は汎用のディスプレイ装置を用いることができる。また、ハンド位置撮影部52とジェスチャ判定部54は上述したモーションジェスチャトラッキング装置の技術を用いることができる。 Note that a general-purpose display device can be used as the video display section 51. Further, the hand position photographing section 52 and the gesture determining section 54 can use the technique of the motion gesture tracking device described above.

HMD10は、透過表示された現実空間の現実映像に仮想映像を重畳して表示する透過型表示部11、透過型表示部11に表示される現実空間の像及び仮想映像を映像情報として作業支援装置50へ送信する映像送信部12、作業支援装置50から送信される作業支援者の手指の位置又は動き情報を受信するハンド位置情報受信部13、受信した作業支援者の手指の位置又は動き情報に基づいて透過型表示部11へ作業支援者の手指の仮想映像を表示するバーチャルハンド表示部14、透過型表示部11に映し出される作業者の手指を検知する自ハンド検出部16、自ハンド検出部16によって検知された作業者の手指とバーチャルハンド表示部14によって表示される作業支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定部17、この判定の結果を透過型表示部11に出力する重なり判定表示部18、工具の仮想映像を表示するための工具情報を記憶する工具情報記憶部2(20)、および、作業支援装置50から送られてくる工具情報を受信すると、バーチャルハンド表示部14によって表示される作業支援者の手指の仮想映像に重ねて、工具情報記憶部2(20)に保存されている工具情報に基づいて工具の仮想映像を透過型表示部11へ表示するバーチャル工具表示部15を備える。 The HMD 10 includes a transparent display unit 11 that superimposes and displays a virtual image on a transparently displayed real image of the real space, and a work support device that uses the image of the real space and the virtual image displayed on the transparent display unit 11 as video information. 50; a hand position information receiving unit 13 that receives the position or movement information of the work supporter's fingers transmitted from the work support device 50; a virtual hand display section 14 that displays a virtual image of the worker's hand and fingers on the transparent display section 11 based on the information, a self-hand detection section 16 that detects the worker's hand and fingers displayed on the transparent display section 11, and a self-hand detection section A hand overlap determination section 17 determines whether or not there is an overlap between the worker's hand and fingers detected by the virtual hand display section 16 and the virtual image of the worker's hand and fingers displayed on the virtual hand display section 14, and the result of this determination is displayed on a transparent display section. 11, the tool information storage section 2 (20) that stores tool information for displaying a virtual image of the tool, and the tool information sent from the work support device 50. A virtual image of the tool is displayed on the transparent display section 11 based on the tool information stored in the tool information storage section 2 (20), superimposed on the virtual image of the hand and fingers of the work supporter displayed by the virtual hand display section 14. A virtual tool display section 15 is provided to display the virtual tool.

HMD10は、上記各機能のほか、図示しない3次元位置姿勢センサおよび距離センサを備える。これらは従来の技術を用いることができ、現実空間における物体の位置を3次元座標系で取得することができる。距離センサとして例えば赤外線距離センサを用いることができる。HMD10の起動後、作業者は自分を中心に一回転することで、周囲の物体との距離や3次元座標を取得することができる。 In addition to the above functions, the HMD 10 includes a three-dimensional position and orientation sensor and a distance sensor (not shown). Conventional techniques can be used for these, and the position of an object in real space can be acquired in a three-dimensional coordinate system. For example, an infrared distance sensor can be used as the distance sensor. After activating the HMD 10, the operator can obtain distances and three-dimensional coordinates of surrounding objects by rotating around himself/herself.

上記において、HMD10における各部12~18、作業支援装置50における各部53~56は、コンピュータの機能としてプログラムによって実現することができる。 In the above, each section 12 to 18 in the HMD 10 and each section 53 to 56 in the work support device 50 can be realized by a program as a computer function.

(動作)
まず、HMD10と作業支援装置50とを通信接続した初期段階で実施されるキャリブレーション処理について説明する。この処理は、作業支援装置50側での作業支援者の手指の動きをHMD10側の座標系に置き換える処理である。この処理を行うことにより、HMD10の透過型表示部11に表示される現実映像の適切な位置に作業支援者の手指70を仮想表示させることができ、効果的な作業支援が可能となる。
(motion)
First, a description will be given of a calibration process performed at an initial stage when the HMD 10 and the work support device 50 are connected for communication. This process is a process of replacing the hand and finger movements of the work supporter on the work support device 50 side with the coordinate system on the HMD 10 side. By performing this processing, the hand and fingers 70 of the work supporter can be virtually displayed at appropriate positions in the real image displayed on the transparent display section 11 of the HMD 10, and effective work support can be achieved.

1.キャリブレーション処理
(キャリブレーション処理の概要)
図2に示すように、作業支援者がハンド位置撮影部52の上方に手をかざすと、上述したモーションジェスチャトラッキング技術によって動作するジェスチャ判定部54により、支援者の手指の位置情報が取り込まれる。この位置情報は、ハンド位置情報送信部55によってHMD10へ送信される。HMD10のハンド位置情報受信部13は、この位置情報を受信すると、バーチャルハンド表示部14により透過型表示部11の予め定めた位置に表示する。バーチャルハンド表示部14は、また仮想表示する支援者の手指の位置座標をハンド重なり判定部17に渡す。
1. Calibration processing (overview of calibration processing)
As shown in FIG. 2, when the work supporter holds his hand above the hand position imaging unit 52, the gesture determination unit 54, which operates using the above-described motion gesture tracking technology, captures the position information of the supporter's fingers. This position information is transmitted to the HMD 10 by the hand position information transmitter 55. When the hand position information receiving unit 13 of the HMD 10 receives this position information, the virtual hand display unit 14 displays it at a predetermined position on the transparent display unit 11. The virtual hand display section 14 also passes the positional coordinates of the supporter's fingers to be virtually displayed to the hand overlap determination section 17 .

作業者は、図3に示すように、自分の手を仮想表示されている支援者の手に重ね合わせる。キャリブレーション時は、支援者の視線と支援者の手の位置関係と、作業者の視線と作業者の手の位置関係は略同じになるように予め決めておくのが好ましい。 As shown in FIG. 3, the worker places his or her hand over the virtually displayed hand of the supporter. At the time of calibration, it is preferable to determine in advance so that the positional relationship between the supporter's line of sight and the supporter's hand is approximately the same as the positional relationship between the worker's line of sight and the worker's hand.

HMD10の自ハンド検出部16は、透過型表示部11に表示された自身の手指を検出すると、その座標をハンド重なり判定部17に渡す。ハンド重なり判定部17は、自身の手指の座標と仮想表示された支援者の手指の座標をもとに、両者が重なっているか否かを判定する。 When the own hand detection section 16 of the HMD 10 detects the own hand and fingers displayed on the transparent display section 11, it passes the coordinates to the hand overlap determination section 17. The hand overlap determination unit 17 determines whether or not the two overlap, based on the coordinates of the hand and fingers of the supporter's own hand and the coordinates of the virtually displayed hand and fingers of the supporter.

この判定の結果、重なっていると判定すると、ハンド重なり判定部17は、ハンド位置情報受信部13が受信した作業支援装置50側での支援者の手指の位置座標と、HMD10上で仮想表示されている支援者の手指30の位置座標すなわち作業者の手指40の位置座標とを関係付けて図示しない記憶部に保存する。また、このときのHMD10での支援者の手指30の位置座標(即ち作業者の手指40の位置座標)は、支援者の手指を移動させるときの基準座標とすることができる。 As a result of this determination, if it is determined that they overlap, the hand overlap determination unit 17 uses the positional coordinates of the supporter's fingers on the work support device 50 side received by the hand position information receiving unit 13 and the virtual display on the HMD 10. The positional coordinates of the supporter's fingers 30, that is, the positional coordinates of the worker's fingers 40 are stored in a storage unit (not shown) in association with each other. Further, the positional coordinates of the supporter's fingers 30 on the HMD 10 at this time (namely, the positional coordinates of the worker's fingers 40) can be used as reference coordinates when moving the supporter's fingers.

例えば、キャリブレーション処理後に作業支援者が手指を動かした場合、バーチャルハンド表示部14は、作業支援装置50から送られてくる手指の移動後の位置座標を受信して、前回受信した作業支援者の手指の位置座標との変化分を、前記基準座標から変化させる。この変化後の座標が現在のHMD10における支援者の手指の移動後の位置になる。作業支援装置50から手指の動き情報(変化方向および変化量)が送られてくる場合は、前記基準座標に対して変化方向および変化量分だけ移動させた座標が現在のHMD10における支援者の手指の位置になる。なお、基準座標は上記に限らず、例えばHMD10の赤外線距離センサからの相対的位置を基準にしてもよい。 For example, when the work supporter moves his or her fingers after the calibration process, the virtual hand display unit 14 receives the position coordinates of the hand and fingers after the movement sent from the work support device 50, and displays the previously received position coordinates of the work supporter. The amount of change from the position coordinates of the hand and fingers is changed from the reference coordinates. The coordinates after this change become the current position of the supporter's fingers on the HMD 10 after the movement. When hand and finger movement information (change direction and change amount) is sent from the work support device 50, the coordinates moved by the change direction and change amount with respect to the reference coordinates are the supporter's hand and finger on the current HMD 10. position. Note that the reference coordinates are not limited to the above, and may be based on, for example, the relative position from the infrared distance sensor of the HMD 10.

(キャリブレーション処理の詳細)
作業支援装置50側において、ハンド位置撮影部52は、支援者の手の稼動範囲のいずれの方向への動きも検出できるような位置に配置するのが好ましい。一例として、支援者は、自身の正面に映像表示部51を配置し、手を正面に向かって伸ばしたときの腕の中央付近の下方にハンド位置撮影部52を配置する(図2参照)。支援者は椅子にすわり、机の上にモーションジェスチャーを置いてもよいし、床等の上においてもよい。上記のごとくハンド位置撮影部52を配置して、手をその上方にかざして手の平を広げる。この手の平の位置がキャリブレーション時の位置(ニュートラルの位置)となる。
(Details of calibration process)
On the side of the work support device 50, the hand position imaging unit 52 is preferably placed at a position where movement of the supporter's hand in any direction within the working range can be detected. As an example, the supporter places the video display section 51 in front of himself and places the hand position photographing section 52 below the center of his arm when his hand is extended toward the front (see FIG. 2). The supporter may sit on a chair and place the motion gesture on a desk or on the floor. The hand position photographing section 52 is arranged as described above, and the hand is held above the hand and the palm is spread out. This position of the palm becomes the position at the time of calibration (neutral position).

以下、図5を参照しながら、本実施の形態によるキャリブレーション処理の手順について説明する。 Hereinafter, the procedure of the calibration process according to this embodiment will be described with reference to FIG. 5.

ジェスチャ判定部54は手指を検知すると、その位置座標をHMD10へ送信する(S101,S102)。なお、キャリブレーション時に作業支援装置50からHMD10へ送信する位置座標は、ジェスチャ判定部54の管理する任意の空間座標でよい。例えば、原点(0,0,0)であってもよいし、それ以外の座標であってもよい。 When the gesture determination unit 54 detects a finger, it transmits the position coordinates to the HMD 10 (S101, S102). Note that the positional coordinates transmitted from the work support device 50 to the HMD 10 during calibration may be any spatial coordinates managed by the gesture determination unit 54. For example, it may be the origin (0, 0, 0) or other coordinates.

HMD10は、作業支援装置50から送られてくる手指の位置座標を受信すると、透過型表示部11に表示するための予め定めた所定位置に表示するように現実空間上での座標を定める(S103)。 When the HMD 10 receives the position coordinates of the hand and fingers sent from the work support device 50, the HMD 10 determines the coordinates in real space so that the coordinates are displayed at a predetermined position determined in advance for display on the transparent display unit 11 (S103 ).

たとえば、作業者側(HMD10側)および支援者側(作業支援装置50側)の左右、上下、奥行きをそれぞれ3次元座標(X,Y,Z)および(x,y,z)で表すとすると、最初に手指の座標を受信したときの作業者の視野の中央の座標(X1,Y1)を演算し、この座標(X1,Y1)を、作業支援装置50から送られてきた座標(x1,y1)に対応させる。奥行き(Z軸)方向に関しては、作業者から見て予め定めた任意の奥行き方向の距離(Z1)を、作業支援装置50から送られてきた座標(z1)に対応させる。なお、予め定める奥行き方向の距離(Z1)については、支援者の視点から前記ニュートラルの位置までの奥行き方向の距離に合わせておくのがよい。 For example, suppose that the left and right, top and bottom, and depth of the worker side (HMD 10 side) and the supporter side (work support device 50 side) are represented by three-dimensional coordinates (X, Y, Z) and (x, y, z), respectively. , calculates the coordinates (X1, Y1) of the center of the worker's visual field when the coordinates of the hand and fingers are first received, and converts these coordinates (X1, Y1) into the coordinates (x1, Y1) sent from the work support device 50. y1). Regarding the depth (Z-axis) direction, a predetermined distance (Z1) in the depth direction as seen from the operator is made to correspond to the coordinates (z1) sent from the work support device 50. Note that the predetermined distance in the depth direction (Z1) is preferably set to match the distance in the depth direction from the supporter's viewpoint to the neutral position.

上記の例では、座標(x1,y1)は、支援者の両手の中間位置の座標にすれば、作業者の視野において左右等距離の位置に支援者の手指を仮想表示させることができる。仮想表示のさせ方はこれに限らず、作業者の視野内に支援者の両手がその両手間隔を維持して表示されるようになっておればよい。なお、HMD10側の座標系はワールド座標系とすることができるが、キャリブレーション時のHMD10側の3次元座標(X,Y,Z)は、作業者(例えば、HMD10に搭載した赤外線距離センサ)を基準(原点)とした座標系とするのが好ましい。 In the above example, if the coordinates (x1, y1) are the coordinates of the middle position of both hands of the supporter, the hands and fingers of the supporter can be virtually displayed at positions equidistant to the left and right in the visual field of the worker. The virtual display is not limited to this, and it is sufficient that the supporter's hands are displayed within the field of view of the worker while maintaining the distance between them. Note that the coordinate system on the HMD 10 side can be the world coordinate system, but the three-dimensional coordinates (X, Y, Z) on the HMD 10 side at the time of calibration are determined by the operator (for example, an infrared distance sensor mounted on the HMD 10). It is preferable to use a coordinate system with the reference (origin) as the reference point.

以上のように作業支援装置50側の支援者の手指の座標(x1,y1,z1)をHMD10側の座標(X1,Y1,Z1)に変換して当該座標の位置に支援者の手指を仮想表示させる。なお、上記は手指の座標のうち一点を例に挙げて説明したが、複数の特徴点によって手指の座標を表す場合は、任意の一点を上記のごとく変換し、それ以外の特徴点については、作業支援装置50側の座標系における当該一点からの相対座標によってHMD10側の座標系に変換することができる。 As described above, the coordinates (x1, y1, z1) of the supporter's fingers on the work support device 50 side are converted to the coordinates (X1, Y1, Z1) on the HMD 10 side, and the supporter's fingers are virtually placed at the position of the coordinates. Display. Note that the above explanation was given using one point among the coordinates of the hand and fingers as an example, but when the coordinates of the hand and fingers are expressed by multiple feature points, any one point is transformed as described above, and for the other feature points, The coordinate system on the work support device 50 side can be converted to the coordinate system on the HMD 10 side using relative coordinates from the one point.

以上、キャリブレーション時の座標変換のしかたについて説明したが、座標系は上記に限らず、例えば、それぞれの軸に対する回転量をさらに追加して次元を増やしてもよい。また、位置座標に代えて、あるいは位置座標と共に動き情報(移動方向と移動量)を送るようにしてもよい。 The method of coordinate transformation during calibration has been described above, but the coordinate system is not limited to the above, and for example, the dimension may be increased by further adding rotation amounts with respect to each axis. Further, movement information (direction and amount of movement) may be sent instead of or together with the position coordinates.

(作業者の手指との位置合わせ)
作業者は、図3に示すように透過型表示部11に仮想表示される支援者の手指に自身の手指を重ねる。
(Alignment with worker's fingers)
As shown in FIG. 3, the worker places his or her own hand on the supporter's hand that is virtually displayed on the transparent display section 11.

HMD10の自ハンド検出部16は、透過型表示部11に表示される作業者自身の手指を検知すると、その座標を取得する(S104)。ハンド重なり判定部17は、作業者の手指の座標と、仮想表示される支援者の手指の座標が一定の範囲内にある場合は、作業者と支援者の手指が重なったと判定する(S105)。 When the worker's own hand detection unit 16 of the HMD 10 detects the worker's own hand displayed on the transparent display unit 11, it acquires the coordinates thereof (S104). If the coordinates of the worker's hand and the virtually displayed coordinates of the supporter's hand are within a certain range, the hand overlap determination unit 17 determines that the worker's hand and the supporter's fingers overlap (S105). .

なおHMD10の自ハンド検出部16が検出する作業者の手指の特徴点と、作業支援装置50とのジェスチャ判定部54が検出する支援者の手指の特徴点は完全に一致している必要はなく、例えば作業者と支援者の手指の各特徴点の座標の平均値が一定の範囲内になったときに重なったと判定するようにしてもよい。重なり判定表示部18は、作業者と支援者の手指が重なったと判定したときに、重なりを検知したことがわかるように支援者の手指の仮想映像を識別表示する(S106)。 Note that the feature points of the worker's hand and fingers detected by the own hand detection unit 16 of the HMD 10 and the feature points of the supporter's hand and fingers detected by the gesture determination unit 54 of the work support device 50 do not need to completely match. For example, it may be determined that they overlap when the average value of the coordinates of each feature point on the fingers of the worker and the support person falls within a certain range. When determining that the hands and fingers of the worker and the supporter overlap, the overlap determination display unit 18 identifies and displays a virtual image of the supporter's fingers so that it can be seen that an overlap has been detected (S106).

ハンド重なり検出部16は、作業者の手と支援者の手の位置が重なったことを検知して、このときのHMD10での作業者の手指の位置座標(作業者の手指の位置座標)を、支援者の手指の基準座標として記憶部に登録する(S107)。これにより、以降の指示動作において、支援者は自身の手指をHMD10の空間内で動かすことができる。 The hand overlap detection unit 16 detects that the positions of the worker's hand and the supporter's hand overlap, and determines the position coordinates of the worker's fingers on the HMD 10 at this time (position coordinates of the worker's fingers). , are registered in the storage unit as the reference coordinates of the supporter's fingers (S107). This allows the supporter to move his/her own fingers within the space of the HMD 10 in subsequent instruction operations.

なお、HMD10の空間上での支援者の手指の移動のさせ方は次の3通りがある。
1)支援者の手指の位置を、作業者の位置を基準とした相対座標で表して、作業者の移動と共に支援者の手指も移動させる。さらに支援者が動かした移動量および移動方向へHMD10側の空間で手指を移動させる。
2)支援者の手指をHMD側の絶対座標(ワールド座標系)で表す。この場合、支援者の手指は、作業者の移動に伴って動かない。
3)作業者から見て奥行き(例えばZ軸方向)のみは、作業者のZ座標を基準とし、そこからのHMD側の移動量で表す。左右上下(X,Y方向)はキャリブレーション時の基準(絶対)座標を基準とする。
Note that there are three ways to move the supporter's fingers in the space of the HMD 10 as follows.
1) The position of the supporter's fingers is expressed in relative coordinates with respect to the worker's position, and the supporter's fingers are moved as the worker moves. Furthermore, the supporter moves his or her fingers in the space on the HMD 10 side in the amount of movement and in the direction of movement.
2) Represent the supporter's fingers in absolute coordinates (world coordinate system) on the HMD side. In this case, the supporter's fingers do not move as the worker moves.
3) Only the depth (for example, the Z-axis direction) as seen from the worker is expressed by the amount of movement on the HMD side from the Z coordinate of the worker as a reference. The left, right, top, and bottom (X, Y directions) are based on reference (absolute) coordinates at the time of calibration.

いずれの方法にするかは、予め初期設定しておいてもよいし、支援者からの選択によって変更可能にしてもよい。 Which method to use may be initialized in advance, or may be changed by the supporter's selection.

以下、キャリブレーション後の支援者の手指の仮想映像の移動のさせ方の一例について図6を参照しながら説明する。本処理の特徴は作業者と作業対象の距離によって上記1)又は3)の座標系と2)の座標系とを切り換えるものである。この座標系切換機能は、HMD10の機能として独立して設けることもできるが、バーチャルハンド表示部14の機能として実現してもよい。以下、バーチャルハンド表示部14の機能として説明する。 An example of how to move the virtual image of the supporter's fingers after calibration will be described below with reference to FIG. 6. A feature of this process is that the coordinate system 1) or 3) and the coordinate system 2) are switched depending on the distance between the worker and the work object. Although this coordinate system switching function can be provided independently as a function of the HMD 10, it may also be realized as a function of the virtual hand display section 14. The functions of the virtual hand display section 14 will be explained below.

バーチャルハンド表示部14は、ハンド位置情報受信部13から手指の位置または動き情報を受信すると次の処理を実行する。 When the virtual hand display unit 14 receives the position or movement information of the fingers from the hand position information receiving unit 13, it executes the following process.

まず、HMD10の搭載する赤外線距離センサ等によって計測される作業者と作業対象物との距離を取得する(S201)。作業対象物か否かは、たとえば作業者あるいは支援者が手指で指し示すなどジェスチャによって設定することができる。なお、作業者と作業対象物との距離は、たとえば作業者の手指と作業対象物、あるいは支援者の仮想映像位置と作業対象物との距離であってもよい。 First, the distance between the worker and the work object measured by an infrared distance sensor mounted on the HMD 10 is acquired (S201). Whether the object is a work target or not can be determined by a gesture such as a pointing finger by the worker or the support person. Note that the distance between the worker and the work object may be, for example, the distance between the worker's fingers and the work object, or the distance between the supporter's virtual image position and the work object.

次に、ステップS201で取得された距離が閾値以下か否かを判定し(S202)、否の場合、すなわち作業者が作業対象物からある程度離れている場合は、作業者(HMD10)の位置を基準座標(以下、基準座標A)に設定する(S203)。そして、基準座標Aの設定であることがわかるように支援者の手指の仮想画像を識別表示し(S204)、ハンド位置情報受信部13で受信した手指の位置又は動き情報は、HMD10の空間において基準座標Aからの動きとしてその仮想映像を表示する(S205)。 Next, it is determined whether the distance acquired in step S201 is less than or equal to a threshold value (S202), and if no, that is, if the worker is a certain distance from the work object, the position of the worker (HMD 10) is determined. The reference coordinates (hereinafter referred to as reference coordinates A) are set (S203). Then, a virtual image of the supporter's hand and fingers is identified and displayed so that it can be seen that the reference coordinate A is set (S204), and the position or movement information of the hand and finger received by the hand position information receiving unit 13 is displayed in the space of the HMD 10. The virtual image is displayed as a movement from the reference coordinate A (S205).

一方、ステップS202で、前記距離が閾値以下の場合、すなわち作業者が作業対象物に近づいた場合は、当該閾値以下になった時点の支援者の手指のワールド座標を基準座標(以下、基準座標B)に設定する(S206)。そして、基準座標Bの設定であることがわかるように支援者の手指の仮想画像を識別表示し(S207)、その後ハンド位置情報受信部13で受信した手指の位置又は動き情報は、HMD10の空間において基準座標Bからの動きとしてその仮想映像を表示する(S208)。 On the other hand, in step S202, if the distance is less than the threshold value, that is, if the worker approaches the work object, the world coordinates of the supporter's fingers at the time when the distance becomes less than the threshold value are set as reference coordinates (hereinafter referred to as reference coordinates). B) (S206). Then, a virtual image of the supporter's hand and fingers is identified and displayed so that it can be seen that the reference coordinate B is set (S207), and the position or movement information of the hand and finger received by the hand position information receiving unit 13 is then displayed in the space of the HMD 10. The virtual image is displayed as a movement from the reference coordinate B (S208).

以上の処理によって、支援者の手指の仮想映像を移動させることにより、作業者が作業対象物に近づくまでは作業者に追従して当該仮想映像も移動し、作業者が作業対象物に近づくと当該仮想映像は作業者の動きから切り離されて、作業対象物に対して安定した動きを実現させることができる。 Through the above processing, by moving the virtual image of the supporter's fingers, the virtual image will follow the worker until the worker approaches the work object, and when the worker approaches the work object, the virtual image will also move. The virtual image is separated from the movement of the worker, allowing stable movement of the work object.

HMD10の透過型表示部11は3次元(3D)表示であり、作業支援装置50の映像表示部51は2次元(2D)表示であるため、これを如何に3D表示と同様に奥行きを含めて作業支援者に認識させるかが問題となるが、上記の方法により、作業支援装置50側の支援者の手指の位置および動きを、HMD10側の空間上で適切に表すことができる。 The transparent display section 11 of the HMD 10 is a three-dimensional (3D) display, and the video display section 51 of the work support device 50 is a two-dimensional (2D) display. Although the problem is whether to make the work support person recognize it, the above method allows the position and movement of the hand and fingers of the support person on the work support device 50 side to be appropriately represented in the space on the HMD 10 side.

2.工具の選択及び表示処理
作業支援装置50において支援者は、工具を選択する。工具の選択は、パレットを表示させて一覧から選択させるようにしてもよい、工具選択部56が手指の動きあるいは形状を検知したときに、その動きに対応する工具の識別情報を工具情報記憶部1(61)から抽出してHMD10へ送信するようにしてもよい。
2. Tool Selection and Display Processing The supporter selects a tool in the work support device 50. To select a tool, a palette may be displayed and the tool selected from a list. When the tool selection section 56 detects a movement or shape of a finger, the tool information storage section stores the identification information of the tool corresponding to the movement. 1 (61) and transmit it to the HMD 10.

HMD10は、工具の識別情報を受信すると、バーチャル工具表示部15により、工具情報記憶部2(20)から当該工具の識別情報に対応する仮想映像情報を抽出して、その工具を把持した手指の仮想映像を透過型表示部11に表示する。 When the HMD 10 receives the identification information of the tool, the virtual tool display unit 15 extracts virtual image information corresponding to the identification information of the tool from the tool information storage unit 2 (20), and displays the image of the hand and fingers holding the tool. A virtual image is displayed on the transparent display section 11.

この仮想表示された映像および現実映像は合成されて作業支援装置50へ送信され、映像表示部51に表示される。 The virtually displayed video and the real video are combined, transmitted to the work support device 50, and displayed on the video display section 51.

図4に示すように、工具は、少なくとも2箇所の手指の特徴点と工具の所定の位置とが対応づけられている。そして手指の特徴点の位置関係により、工具の所定位置をその手指の特徴点の座標に合わせて工具全体を表示する。 As shown in FIG. 4, the tool has at least two finger feature points associated with a predetermined position of the tool. Then, based on the positional relationship of the feature points of the fingers, a predetermined position of the tool is aligned with the coordinates of the feature points of the fingers, and the entire tool is displayed.

図4を用いて詳述すると、工具と手指の特徴点A,Bは互いに対応付けられており、それぞれ工具を把持したときに手指に接触する位置である。そして、図4(a)の工具を動かす前の状態における点Aの座標が(X1,Y1,Z1)、点Bの座標が(X2,Y2,Z2)であり、図4(b)の工具を動かした後の状態における点Aの座標が(X1',Y1',Z1')、点Bの座標が(X2',Y2',Z2')であったとする。 To explain in detail using FIG. 4, feature points A and B on the tool and the fingers are associated with each other, and are the positions where the tool comes into contact with the fingers when the tool is gripped. Then, in the state before moving the tool in Fig. 4(a), the coordinates of point A are (X1, Y1, Z1), the coordinates of point B are (X2, Y2, Z2), and the tool in Fig. 4(b) is Suppose that the coordinates of point A in the state after moving are (X1', Y1', Z1') and the coordinates of point B are (X2', Y2', Z2').

このとき、バーチャルハンド表示部14は、ハンド位置情報受信部13が受信した作業支援者の手指の位置座標を用いて現実空間(HMD10側の空間)での座標を求め、作業者の手指を仮想表示する。バーチャル工具表示部15は、バーチャルハンド表示部14で仮想表示に用いた座標情報のうち、上記の特徴点A,Bの座標を取得する。図4(a)の状態においては、点Aの座標(X1,Y1,Z1)、点Bの座標(X2,Y2,Z2)を結んだ直線上、点A方向に工具を予め定めた所定長延在させて仮想表示する。図4(b)の状態に移行したときは、点Aの座標(X1',Y1',Z1')、点Bの座標(X2',Y2',Z2')を結んだ直線上、点A方向に工具を予め定めた所定長延在させて仮想表示する。なお、直線を軸とした回転方向の動きが重要になる場合には、さらに特徴点を追加するか、次元を増やすのが好ましい。 At this time, the virtual hand display unit 14 calculates the coordinates in real space (the space on the HMD 10 side) using the position coordinates of the worker's fingers received by the hand position information receiving unit 13, and displays the worker's fingers in a virtual manner. indicate. The virtual tool display unit 15 acquires the coordinates of the feature points A and B from among the coordinate information used for virtual display in the virtual hand display unit 14. In the state shown in Fig. 4(a), the tool is extended a predetermined length in the direction of point A on a straight line connecting the coordinates of point A (X1, Y1, Z1) and the coordinates of point B (X2, Y2, Z2). virtual display. When transitioning to the state shown in FIG. 4(b), point A is located on the straight line connecting the coordinates of point A (X1', Y1', Z1') and the coordinates of point B (X2', Y2', Z2') The tool is virtually displayed by extending it a predetermined length in the direction. Note that if movement in the rotational direction about a straight line is important, it is preferable to add more feature points or increase the dimension.

3.作業支援
作業者が作業対象物に近づくと、これに伴い支援者の手指も近づく。そして、支援者は手を伸ばすと、作業対象方向へ仮想表示された手指が移動する。なお、作業者の手指と仮想表示された支援者の手指とが一定距離以上離れるとアラーム出力するようにしてもよい。
3. Work Support When the worker approaches the work object, the supporter's hands and fingers also approach. Then, when the supporter extends his hand, the virtually displayed hand and fingers move in the direction of the work target. Note that an alarm may be output when the worker's hand and the virtually displayed supporter's hand are separated by a certain distance or more.

なお、仮想表示される手指および工具と現実の作業対象物との距離が一定値以下になり、あるいは接触を検知すると、仮想表示される手および工具を識別表示するようにしてもよい。これにより支援者は作業対象物との距離を知得することができる。 Note that when the distance between the virtually displayed hand and the tool and the real work object becomes less than a certain value, or when contact is detected, the virtually displayed hand and the tool may be identified and displayed. This allows the support person to know the distance to the work target.

作業者は、仮想表示された工具と同じ工具を把持し、仮想表示された手指に自身の手指重ねるようにする。これにより、作業者は、工具の持ち方や使用のしかたを仮想表示された映像により知得することができる。 The worker grasps the same tool as the virtually displayed tool and places his or her own finger over the virtually displayed finger. This allows the worker to learn how to hold and use the tool from the virtually displayed image.

以上、本実施の形態によれば、作業前の両装置10,50の起動直後に作業支援者の手指の動きの基準となる位置を作業者側の現実空間内に定めるので、その後の作業の支援・指示を容易かつ効率的に行うことができる。また、作業支援者はHMDなどの3D表示装置を装着する必要がなく、種々の工具を用いた作業に対する作業支援を簡便な設備で行うことができる。 As described above, according to the present embodiment, the reference position for the movement of the hand and fingers of the work supporter is determined in the real space of the worker side immediately after starting both the devices 10 and 50 before the work, so that the subsequent work can be performed. Able to provide support and instructions easily and efficiently. Further, the work support person does not need to wear a 3D display device such as an HMD, and can support work using various tools with simple equipment.

本発明は上述した実施の形態に限定されることなく、その要旨を逸脱しない範囲で種々変形して実現することができる。 The present invention is not limited to the embodiments described above, and can be implemented with various modifications without departing from the gist thereof.

たとえば、作業支援装置50は、ジェスチャ判定部54によって特定の手指の動きが検知されたときに、ハンド位置情報送信部55は、描画の開始指令または終了指令を前記頭部装着型表示装置へ送信し、HMD10は、描画の開始指令を受信すると、その後の手指の動きに従って透過型表示部11への仮想映像の描画を行い、描画の終了指令を受信すると、仮想映像の描画を終了するようにしてもよい。 For example, in the work support device 50, when the gesture determination unit 54 detects a specific finger movement, the hand position information transmission unit 55 transmits a drawing start command or end command to the head-mounted display device. When the HMD 10 receives the drawing start command, it draws the virtual image on the transparent display unit 11 according to the subsequent hand and finger movements, and when it receives the drawing end command, it finishes drawing the virtual image. It's okay.

また、ジェスチャ判定部54によって特定の手指の動きが検知されたときに、HMD10から受信した映像情報を前後一定時間に亘って記録するようにしてもよい。 Furthermore, when the gesture determination unit 54 detects a specific finger movement, the video information received from the HMD 10 may be recorded for a certain period of time before and after.

バーチャル工具表示部15のより簡単な処理として、予め工具を把持した手指の仮想映像情報を工具情報記憶部2(20)に保存しておき、ハンド位置情報受信部13によって受信される位置情報に基づいて、この仮想映像を回転、変形等させて表示するようにしてもよい。 As a simpler process for the virtual tool display unit 15, virtual image information of the hand holding the tool is stored in the tool information storage unit 2 (20) in advance, and the position information received by the hand position information receiving unit 13 is Based on this, this virtual image may be rotated, transformed, etc., and displayed.

1 作業支援システム
2 通信回線
10 頭部装着型表示装置(HMD)
11 透過型表示部
12 映像送信部
13 ハンド位置情報受信部
14 バーチャルハンド表示部
15 バーチャル工具表示部
16 自ハンド検出部
17 ハンド重なり判定部
20 工具情報記憶部2
30 仮想表示される支援者の手指
31 仮想表示される工具
40 現実空間における作業者の手指
50 作業支援装置
51 映像表示部
52 ハンド位置撮影部
53 映像受信部
54 ジェスチャ判定部
55 ハンド位置情報送信部
56 工具選択部
60 映像記録部
70 作業支援装置側での作業支援者の手指
1 Work support system 2 Communication line 10 Head-mounted display device (HMD)
11 Transparent display section 12 Video transmission section 13 Hand position information reception section 14 Virtual hand display section 15 Virtual tool display section 16 Own hand detection section 17 Hand overlap determination section 20 Tool information storage section 2
30 Virtually displayed supporter's fingers 31 Virtually displayed tools 40 Worker's fingers in real space 50 Work support device 51 Video display section 52 Hand position photographing section 53 Video receiving section 54 Gesture determining section 55 Hand position information transmitting section 56 Tool selection section 60 Video recording section 70 Hands and fingers of the work supporter on the work support device side

Claims (7)

作業の支援者が作業者に対して指示を行うための作業支援装置と、前記作業者が装着する頭部装着型表示装置と、を有する作業支援システムであって、
前記作業支援装置は、
支援者の手指を撮影するハンド位置撮影部と、
撮影された前記支援者の手指の位置又は動き情報を演算するジェスチャ判定部と、
前記手指の位置又は動き情報を前記頭部装着型表示装置へ送信するハンド位置情報送信部と、
前記頭部装着型表示装置から送られてくる映像情報を受信する映像受信部と、
受信した前記映像情報を表示する映像表示部と、
工具の仮想映像を表示するための工具情報を記憶する工具情報記憶部と、
前記工具情報を選択する工具情報選択部と、
を備え、
前記頭部装着型表示装置は、
透過表示された現実空間の像に仮想映像を重畳して表示する透過型表示部と、
前記作業支援装置から送信される前記支援者の手指の位置又は動き情報を受信するハンド位置情報受信部と、
前記支援者の手指の位置又は動き情報に基づいて前記透過型表示部へ前記支援者の手指の仮想映像を表示するバーチャルハンド表示部と、
前記透過型表示部に表示される現実空間の像及び仮想映像を映像情報として前記作業支援装置へ送信する映像送信部と、
を備え
前記ハンド位置情報送信部は、前記工具情報選択部によって選択された前記工具情報を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、前記工具情報を受信すると、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像に重ねて、該工具情報に基づいて工具の仮想映像を表示するバーチャル工具表示部を備えたことを特徴とする作業支援システム。
A work support system comprising a work support device for a work supporter to give instructions to a worker, and a head-mounted display device worn by the worker, the work support system comprising:
The work support device includes:
a hand position photographing unit that photographs the hands and fingers of the supporter;
a gesture determination unit that calculates position or movement information of the photographed fingers of the supporter;
a hand position information transmitting unit that transmits position or movement information of the hand and fingers to the head-mounted display device;
a video receiving unit that receives video information sent from the head-mounted display device;
a video display unit that displays the received video information;
a tool information storage unit that stores tool information for displaying a virtual image of the tool;
a tool information selection unit that selects the tool information;
Equipped with
The head-mounted display device includes:
a transparent display section that superimposes and displays a virtual image on the transparently displayed image of the real space;
a hand position information receiving unit that receives position or movement information of the supporter's fingers transmitted from the work support device;
a virtual hand display unit that displays a virtual image of the supporter's fingers on the transparent display unit based on position or movement information of the supporter's fingers;
a video transmitting unit that transmits the real space image and virtual video displayed on the transparent display unit as video information to the work support device;
Equipped with
The hand position information transmitting unit transmits the tool information selected by the tool information selecting unit to the head-mounted display device,
Upon receiving the tool information, the head-mounted display device displays a virtual image of the tool based on the tool information, superimposed on a virtual image of the supporter's fingers displayed by the virtual hand display section. A work support system characterized by being equipped with a virtual tool display section .
前記支援者の手指の仮想映像と前記工具の仮想映像とは、それぞれ対応する箇所が関連付けられており、前記バーチャル工具表示部は、前記工具の仮想映像を、前記支援者の手指の仮想映像と前記対応する箇所が重なるように前記工具の仮想映像を回転又は変形させて表示することを特徴とする請求項1に記載の作業支援システム。 The virtual image of the supporter's fingers and the virtual image of the tool are associated with corresponding locations, and the virtual tool display section displays the virtual image of the tool with the virtual image of the supporter's fingers. 2. The work support system according to claim 1, wherein the virtual image of the tool is displayed while being rotated or transformed so that the corresponding locations overlap. 前記頭部装着型表示装置は、
作業者の手指を検出する自ハンド検出部と、
前記自ハンド検出部によって検出された前記作業者の手指と、前記バーチャルハンド表示部によって表示される前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定部と、
当該ハンド重なり判定部の判定の結果を出力する重なり判定表示部と、
を備えたことを特徴とする請求項1又は2に記載の作業支援システム。
The head-mounted display device includes:
an own hand detection unit that detects the worker's fingers;
a hand overlap determination unit that determines whether there is an overlap between the worker's hand detected by the own hand detection unit and a virtual image of the supporter's hand and fingers displayed by the virtual hand display unit;
an overlap determination display unit that outputs the determination result of the hand overlap determination unit;
The work support system according to claim 1 or 2, further comprising:
前記バーチャルハンド表示部は、前記ハンド重なり判定部が重なり有りと判定したときの前記作業者の手指の位置に基づいて前記手指の仮想映像の基準位置を設定し、その後ハンド位置情報受信部によって受信する前記手指の位置又は動き情報と前記基準位置に基づいて前記透過型表示部において前記仮想映像を移動させることを特徴とする請求項に記載の作業支援システム。 The virtual hand display section sets a reference position of the virtual image of the hand and fingers based on the position of the worker's hand and fingers when the hand overlap determination section determines that there is an overlap, and the virtual hand image is then received by the hand position information reception section. 4. The work support system according to claim 3 , wherein the virtual image is moved on the transparent display section based on the position or movement information of the hand and fingers and the reference position. 前記作業支援装置は、受信した前記映像情報を記録する映像記録部を備えたことを特徴とする請求項1~のいずれか一項に記載の作業支援システム。 The work support system according to any one of claims 1 to 4 , wherein the work support device includes a video recording unit that records the received video information. 前記作業支援装置は、前記ジェスチャ判定部によって特定の手指の動きが検知されたときに、前記ハンド位置情報送信部は、描画の開始指令または終了指令を前記頭部装着型表示装置へ送信し、
前記頭部装着型表示装置は、描画の開始指令を受信すると、その後の手指の動きに従って前記透過型表示部への仮想映像の描画を行い、描画の終了指令を受信すると、前記仮想映像の描画を終了することを特徴とする請求項1~のいずれか一項に記載の作業支援システム。
In the work support device, when the gesture determination unit detects a specific finger movement, the hand position information transmission unit transmits a drawing start command or end command to the head-mounted display device,
When the head-mounted display device receives a drawing start command, it draws a virtual image on the transparent display section according to the subsequent hand and finger movements, and when it receives a drawing end command, it draws the virtual image. The work support system according to any one of claims 1 to 5 , characterized in that:
作業の支援者の手指の位置又は動き情報を受信して、透過表示される現実空間の像に前記支援者の手指の仮想映像を重畳して表示する透過型表示部を備える頭部装着型表示装置で動作するコンピュータ実行可能なプログラムであって、
作業者の手指を検出する自ハンド検出処理と、
前記自ハンド検出処理によって検出された前記作業者の手指と、前記支援者の手指の仮想映像との重なりの有無を判定するハンド重なり判定処理と、
前記ハンド重なり判定処理が重なり有りと判定したときの前記作業者の手指の位置を前記手指の仮想映像の基準位置として、その後受信する前記手指の位置又は動き情報に基づいて前記透過型表示部において前記仮想映像を移動させるバーチャルハンド表示処理と、
を実行することを特徴とするプログラム。
A head-mounted display that includes a transparent display section that receives position or movement information of the hands and fingers of a work supporter and displays a virtual image of the supporter's hands and fingers superimposed on a transparently displayed image of the real space. A computer-executable program running on a device, the program comprising:
Own hand detection processing that detects the worker's fingers;
hand overlap determination processing that determines whether or not there is an overlap between the worker's hand detected by the own hand detection processing and a virtual image of the supporter's hand and fingers;
The position of the hand and finger of the worker when the hand overlap determination process determines that there is an overlap is set as the reference position of the virtual image of the hand, and the position or movement information of the hand and finger that is subsequently received is used in the transparent display section. virtual hand display processing for moving the virtual image;
A program characterized by executing.
JP2019160777A 2019-09-03 2019-09-03 Work support systems and programs Active JP7398227B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019160777A JP7398227B2 (en) 2019-09-03 2019-09-03 Work support systems and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019160777A JP7398227B2 (en) 2019-09-03 2019-09-03 Work support systems and programs

Publications (2)

Publication Number Publication Date
JP2021039567A JP2021039567A (en) 2021-03-11
JP7398227B2 true JP7398227B2 (en) 2023-12-14

Family

ID=74847166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160777A Active JP7398227B2 (en) 2019-09-03 2019-09-03 Work support systems and programs

Country Status (1)

Country Link
JP (1) JP7398227B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023032037A (en) * 2021-08-26 2023-03-09 沖電気工業株式会社 Operator-side device, instructor-side device, method and program
JP7289566B1 (en) 2022-01-25 2023-06-12 アルム株式会社 Cutting control device, cutting control method, and cutting control program
WO2024196221A1 (en) * 2023-03-21 2024-09-26 삼성전자 주식회사 Electronic device for supporting xr content, and input mode support method therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132487A (en) 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2005063225A (en) 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Interface method, apparatus, and program using self-image display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132487A (en) 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2005063225A (en) 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Interface method, apparatus, and program using self-image display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
後藤 充裕,外4名,作業者視点の連続撮影映像を活用した作業記録自動生成システムの提案,情報処理学会 研究報告 マルチメディア通信と分散処理(DPS) ,日本,情報処理学会,2015年12月03日,Vol.2015-DPS-165, No.2,pp.1-6

Also Published As

Publication number Publication date
JP2021039567A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
JP5843340B2 (en) 3D environment sharing system and 3D environment sharing method
JP5499762B2 (en) Image processing apparatus, image processing method, program, and image processing system
JPWO2014141504A1 (en) 3D user interface device and 3D operation processing method
US7123214B2 (en) Information processing method and apparatus
JPWO2014147858A1 (en) 3D unlock device, 3D unlock method and program
JP5656514B2 (en) Information processing apparatus and method
JP4926826B2 (en) Information processing method and information processing apparatus
JP7398227B2 (en) Work support systems and programs
JP2017059062A (en) Information processing apparatus, information processing method, and program
JP7451084B2 (en) Information processing device and information processing method
JP2005174021A (en) Information presentation method and apparatus
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP2023507241A (en) A proxy controller suit with arbitrary dual-range kinematics
JP2009169622A (en) Image processing apparatus and image processing method
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
JP2004265222A (en) Interface method, apparatus, and program
JP6730577B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2016110177A (en) Three-dimensional input device and input system
JP2025188268A (en) Computer, method, and program
KR20190048810A (en) Apparatus and method for providing augmented reality contents
JP2019101476A (en) Operation guide system
JP6981340B2 (en) Display control programs, devices, and methods
JP5863984B2 (en) User interface device and user interface method
WO2020174586A1 (en) Information processing device, information processing method, and program
WO2020235539A1 (en) Method and device for specifying position and posture of object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7398227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150