JP6382772B2 - Gaze guidance device, gaze guidance method, and gaze guidance program - Google Patents
Gaze guidance device, gaze guidance method, and gaze guidance program Download PDFInfo
- Publication number
- JP6382772B2 JP6382772B2 JP2015111372A JP2015111372A JP6382772B2 JP 6382772 B2 JP6382772 B2 JP 6382772B2 JP 2015111372 A JP2015111372 A JP 2015111372A JP 2015111372 A JP2015111372 A JP 2015111372A JP 6382772 B2 JP6382772 B2 JP 6382772B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- guidance
- person
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 12
- 230000033001 locomotion Effects 0.000 claims description 55
- 238000004891 communication Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000001960 triggered effect Effects 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、人の視線を所望の対象に誘導する技術に関する。 The present invention relates to a technique for guiding a person's line of sight to a desired object.
近年、人とのコミュニケーションを目的としたテレプレゼンスロボット(以下、ロボット)が様々な分野において研究されている。人を誘導する技術としては、非特許文献1に誘導ロボットが記載されている。
In recent years, telepresence robots (hereinafter referred to as robots) for communication with people have been studied in various fields. Non-Patent
誘導ロボットは、病院やホテルなどの施設において、利用者が、目的地までの案内を必要とする場合に、誘導ロボットが利用者の前を移動し、利用者は誘導ロボットに追従して歩行することで、目的地まで辿り着くことができる。 When a user needs guidance to a destination in a facility such as a hospital or hotel, the guidance robot moves in front of the user and the user walks following the guidance robot. In this way, you can reach your destination.
非特許文献1では、病院やホテルなど、利用者(人)が目的地までの案内を必要とする施設において、利用者を案内(誘導)するためのロボットである。すなわち、利用者は、行くべき目的地が既に存在し、また、利用者は、ロボットを目的地まで案内してくれる存在であると認識している状態から、案内がはじまるものである。
Non-Patent
これに対し、人が意図していない対象へ人の視線を誘導したい場合、例えば、道を歩いている人に、デジタルサイネージ、お店の看板などを気付かせたい場合がある。この場合に、非特許文献1のロボットを適用すると、人は、当該ロボットが誘導を行うためのロボットであると認識していないため、人がロボットに注目する前に、ロボットの移動が開始されてしまい、誘導がうまくいかないという問題がある。
On the other hand, when it is desired to guide a person's line of sight to an object that is not intended by the person, for example, a person who is walking on the road may want to be aware of digital signage, a signboard of a store, and the like. In this case, when the robot of Non-Patent
本発明は、上記課題に鑑みてなされたものであり、本発明の目的は、人が意識していない対象であっても、当該対象に人の視線を誘導することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to guide a person's line of sight to an object that is not conscious of the person.
上記の課題を解決するために、本発明は、人の視線を所望の誘導先に誘導する視線誘導装置であって、前記視線の誘導の開始指示を契機に、前記誘導先が前記人の視線の範囲外に存在するか否かを判別し、前記誘導先が前記視線の範囲外に存在する場合に、前記人の視線の範囲内に移動する第1の移動と、前記視線の範囲内から前記誘導先に向かって移動する第2の移動とを行い、前記誘導先が前記視線の範囲内に存在する場合に、前記第1の移動および前記第2の移動を行わない移動制御部を備える。
本発明は、人の視線を所望の誘導先に誘導する視線誘導装置であって、前記視線の誘導の開始指示を契機に、前記人の視線の範囲内に移動し、前記視線の範囲内から前記誘導先に向かって移動する移動制御部と、誘導先を含む画像を撮像する撮像部と、前記撮像画像を操作端末に送信する通信部を、備え、前記通信部は、前記撮像画像の範囲外に存在する前記人の情報を実空間上の位置に対応付けて前記撮像画像に重畳した画像を表示する前記操作端末において、前記人の情報が選択されることにより送信された、前記開始指示を受信する。
In order to solve the above-described problem, the present invention provides a gaze guidance device that guides a human gaze to a desired guidance destination, and the guidance destination is the gaze of the person when triggered by a gaze guidance start instruction. A first movement that moves within the range of the line of sight of the person when the destination is outside the range of the line of sight, and from within the range of the line of sight A movement control unit that performs a second movement that moves toward the guidance destination and does not perform the first movement and the second movement when the guidance destination is within the range of the line of sight. .
The present invention is a line-of-sight guidance device that guides a person's line of sight to a desired guidance destination, and moves into the range of the line of sight of the person triggered by an instruction to start guidance of the line of sight, and from within the range of the line of sight A movement control unit that moves toward the guidance destination; an imaging unit that captures an image including the guidance destination; and a communication unit that transmits the captured image to an operation terminal; and the communication unit includes a range of the captured image The start instruction transmitted by selecting the person information in the operation terminal that displays an image in which the person information existing outside is associated with a position in real space and superimposed on the captured image Receive.
本発明は、人の視線を所望の誘導先に誘導する視線誘導装置が行う視線誘導方法であって、前記視線の誘導の開始指示を契機に、前記誘導先が前記人の視線の範囲外に存在するか否かを判別するステップと、前記誘導先が前記視線の範囲外に存在する場合に、前記人の視線の範囲内に移動する第1の移動ステップと、前記人の視線の範囲内から、前記誘導先に向かって移動する第2の移動ステップとを行い、前記誘導先が前記視線の範囲内に存在する場合に、前記第1の移動ステップおよび前記第2の移動ステップを行わない。
本発明は、人の視線を所望の誘導先に誘導する視線誘導装置が行う視線誘導方法であって、前記誘導先を含む画像を撮像する撮像ステップと、前記撮像画像を操作端末に送信する送信ステップと、前記撮像画像の範囲外に存在する前記人の情報を実空間上の位置に対応付けて前記撮像画像に重畳した画像を表示する前記操作端末において、前記人の情報が選択されることにより送信された、開始指示を受信する受信ステップと、前記開始指示を契機に、前記人の視線の範囲内に移動し、前記視線の範囲内から、前記誘導先に向かって移動する移動ステップと、を行う。
The present invention is a line-of-sight guidance method performed by a line-of-sight guidance apparatus for guiding a person's line of sight to a desired guidance destination, and the guidance destination is out of the range of the person's line of sight triggered by an instruction to start guidance of the line of sight Determining whether it exists, a first moving step of moving within the line of sight of the person when the guide destination is outside the line of sight, and within the range of the line of sight of the person To the second moving step that moves toward the guidance destination, and when the guidance destination is within the range of the line of sight, the first moving step and the second moving step are not performed. .
The present invention is a line-of-sight guidance method performed by a line-of-sight guidance device that guides a person's line of sight to a desired guidance destination, an imaging step of imaging an image including the guidance destination, and transmission for transmitting the captured image to an operation terminal The person information is selected in the operation terminal that displays an image in which the person information existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. A reception step for receiving a start instruction transmitted by the step, a movement step for moving into the range of the line of sight of the person triggered by the start instruction, and moving from the range of the line of sight toward the guidance destination; ,I do.
本発明は、上記視線誘導装置として、コンピュータを機能させることを特徴とする視線誘導プログラムである。 The present invention is a gaze guidance program that causes a computer to function as the gaze guidance device.
本発明によれば、人が意識していない対象であっても、当該対象に人の視線を誘導することができる。 According to the present invention, it is possible to guide a person's line of sight to an object that is not conscious of the person.
以下、本発明の実施形態を、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本実施形態における視線誘導システムの構成を示す構成図である。視線誘導システムは、視線誘導装置1と、端末(操作端末)2とを備える。視線誘導装置1は、少なくとも移動制御可能な移動装置(ロボット)であって、視線を誘導したい人(人物)の視線を、所望の対象に誘導させる装置である。
FIG. 1 is a configuration diagram showing the configuration of the line-of-sight guidance system in the present embodiment. The line-of-sight guidance system includes a line-of-
図示する視線誘導装置1は、通信部11と、移動制御部12と、動作部13と、撮像部14とを備える。
The line-of-
通信部11は、端末2と各種情報を送受信する。具体的には、通信部11は、端末2から、視線誘導の開始指示を受信する。また、通信部11は、撮像部14が撮像した撮像画像(カメラ映像)、および、移動制御部12が検知した情報を端末2に送信することとしてもよい。
The
移動制御部12は、視線誘導の開始指示を契機に、人の視線(視野)の範囲内に移動し、視線の範囲内から誘導先に向かって移動する。また、移動制御部12は、各種センサを備え、自身の位置を検知可能であるとともに、誘導したい人および誘導先の対象の位置および方向を検知可能であるものとする。また、移動制御部12は、人の視線方向、範囲を取得可能であるものとする。
The
動作部13は、移動制御部12が人の視線の範囲内に移動した後、視線の範囲内で、人の注意を引く動作を行う。なお、人の注意を引く動作は、例えば、音を出力する、光を発する、振動する、周期運動を行うことの少なくとも1つを含む。なお、動作部13は、音または光を出力する場合、スピーカ、ライト等の発光装置などの出力装置を備えるものとする。
The
撮像部14は、撮影の正面方向を持つ360度デジタルカメラを備え、誘導先の対象を含む画像(カメラ画像)などを撮像する。
The
視線誘導装置1には、例えば、テレプレゼンスロボット、小型飛行機やヘリコプター等の無人飛行体(ドローン)等を用いてもよい。また、上述した機能や機構を具備する移動装置であればよい。なお、視線誘導装置1と端末2との間の通信路は、無線でもよいし有線でもよい。
For example, a telepresence robot, an unmanned aerial vehicle (drone) such as a small airplane or a helicopter may be used as the line-of-
端末2は、視線誘導装置1と通信が可能な装置であって、例えば、スマートフォン、タブレット端末、パソコンなどの端末を用いることができる。
The
図示する端末2は、視線誘導装置1を遠隔操作するための端末であり、表示部21と、制御部22と、を備える。
The illustrated
表示部21は、タッチパネルを備え、視線誘導装置1の撮像部14が撮像した撮像画像をタッチパネルに表示する。また、撮像画像の範囲外に存在する人(誘導したい人)の位置方向と当該人までの距離を直感的に表したショートカットボタン(人の情報)を撮像画像に重畳表示する。
The
制御部22は、端末2を操作する操作者の指示を受け付けて、視線誘導装置1に視線誘導の開始指示を送信する。
The
上記説明した視線誘導装置1および端末2は、例えば、CPUと、メモリと、ハードディスク等の外部記憶装置と、入力装置と、出力装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各部の各機能が実現される。例えば、視線誘導装置1および端末2の各機能は、視線誘導装置1用のプログラムの場合は視線誘導装置1のCPUが、そして、端末2用のプログラムの場合は端末2のCPUが、それぞれ実行することにより実現される。
The above-described line-of-
また、視線誘導装置1用のプログラムおよび端末2用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
Further, the program for the line-of-
次に、本実施形態の視線誘導装置1の動作について説明する。
Next, operation | movement of the
図2は、本実施形態の視線誘導装置1の動作を示すフローチャートである。
FIG. 2 is a flowchart showing the operation of the line-of-
視線誘導装置1の通信部11は、操作者が操作する端末2から、視線誘導の開始指示を受信する(S11)。開始指示には、誘導したい人、および、誘導先の対象が指定されているものとする。
The
図3に示す例では、人3が誘導したい人であり、誘導先は対象4である。ここでは、人3の視線は、誘導先である対象4と逆の方向を向いており、人3の視線に対象4は入っていない。このような状態において、視線誘導装置1は、人3の視線(注意)を、誘導先の対象4に誘導する。
In the example shown in FIG. 3, the
視線誘導装置1の移動制御部12は、開始指示を受信すると、人3の位置、対象4の位置を取得するとともに、人の視線方向および範囲を取得する(S12)。位置については、GPS、位置センサ、距離センサなどの各種センサを用いて取得(計測)することが考えられる。
When the
人の視線方向および範囲については、例えば、以下の文献1に記載の技術を用いて取得することが考えられる。文献1では、人の移動方向が視線方向であると仮定し、人の視線方向・範囲を、移動方向を用いて推定する。
About a person's gaze direction and range, acquiring using the technique of the following
文献1:松元崇裕,瀬古俊一,青木良輔,宮田章裕,井原雅行,山田智広,“Shoot Tag Mapping:スマートフォンを用いた屋内位置情報サービスのためのタグ位置マップ生成手法“,信学技報, vol. 113, no. 470, MVE2013-64, pp. 13-18, 2014年3月
人の移動方向が視線方向であると仮定する場合、人の位置の取得方法は、一定時間における人の位置を計測することで、図4に示すように、ある時点tでの水平面の2次元位置をベクトルPt(Xt,Yt)、それより1つ前の位置をベクトルPt-1(Xt-1,Yt-1)とすると、人の移動方向は以下の単位ベクトルで表される。
Reference 1: Takahiro Matsumoto, Shunichi Seko, Ryosuke Aoki, Akihiro Miyata, Masayuki Ihara, Tomohiro Yamada, “Shoot Tag Mapping: Tag Location Map Generation Method for Indoor Location Information Services Using Smartphones,” IEICE Tech. 113, no. 470, MVE2013-64, pp. 13-18, March 2014 Assuming that the direction of movement of the person is the gaze direction, By measuring, as shown in FIG. 4, the two-dimensional position of the horizontal plane at a certain time point t is a vector P t (X t , Y t ), and the previous position is a vector P t-1 (X t −1 , Y t−1 ), the movement direction of the person is expressed by the following unit vector.
なお、人の視線方向および範囲については、アイトラッカー結果、または画像処理結果により顔の向きを利用することも考えられる。 Note that it is also possible to use the face direction based on the eye tracker result or the image processing result for the human gaze direction and range.
そして、移動制御部12は、誘導したい人3の位置、当該人3の視線方向および範囲、および、誘導先の対象4の位置および方向を用いて、誘導先の対象4が人3の視線外にいるか否かを判別する(S13)。誘導先の対象4が、既に人3の視線の範囲内にいる場合、移動制御部12は、誘導する必要がないため、以降の誘導を行うことなく処理を終了する。
Then, the
誘導先の対象4が、人3の視線外にいる場合、移動制御部12は、人3の視線の範囲内に移動する(S14)。
When the
図5は、図1に示した人3の視線外にいる視線誘導装置1が、人3の視線の範囲内に移動する動作を示す図である。なお、視線誘導装置1の移動制御部12は、当該視線誘導装置1の位置を取得し、取得した位置から、S12で取得した人3の視線の範囲内に移動する。
FIG. 5 is a diagram illustrating an operation in which the line-of-
そして、移動制御部12は、人3の視線の範囲内において、人3の注意を引く動作を行う(S15)。人3の注意を引く動作としては、例えば、移動制御部12は、所定の時間、音を出力する、光を出す、上下左右に振動して揺れる、周期運動(ばね運動、振り子運動、八の字運動など)の少なくとも1つを行うことが考えられる。これにより、人3は、無意識に視線誘導装置1に注目する。
And the
図6は、視線の範囲内で、人3の注意を引く動作(図示する例では、振り子運動)を行っている視線誘導装置1を示す図である。
FIG. 6 is a diagram showing the line-of-
そして、視線誘導装置1は、人3が視線誘導装置1を見続けることで、人3の視線の範囲内に対象4が入るように移動する(S16)。
Then, the line-of-
図7は、S16の視線誘導装置1の移動の一例を示す図である。図示する例では、人3を中心とし、人3と対象4の距離を半径R1とし、人3と対象4を結ぶ線を1つの辺とする所定の角度θoの扇形S1とする。そして、人3を中心とし、人3と視線誘導装置1間の距離を半径R2とする円S2と、扇形S1との交点Tを目標地点とする。
FIG. 7 is a diagram illustrating an example of movement of the line-of-
視線誘導装置1の移動制御部12は、目標地点Tに向けて、人3と視線誘導装置1との間の距離を半径R2とする円の円周上を移動して、目標地点Tに移動する。人3は、このように移動する視線誘導装置1を目で追うことで、無意識に(自然と)誘導先の対象4が視界に入ることになる。なお、人3と視線誘導装置1との間の距離R2は水平方向の距離だけを見るものとし、人と視線誘導装置1間の距離を半径R2とする円S2は、地面に水平であるものとする。
The
人3と視線誘導装置1との間の距離を半径R2とする円の円周上を移動することで、人3に衝突することなく、視線誘導装置1は目標地点Tに移動することができる。また、目標地点Tを、人3と対象4を結ぶ線上ではなく、当該線上から所定の角度θo離れた地点とすることで、目標地点Tにおける視線誘導装置1が、人3からみて対象4を隠さないようにすることができる。これにより、人は、誘導先の対象4に容易に気が付くことができる。なお、所定の角度θoは、例えば、視線角水平θVより小さい角度とすることが考えられる。
By moving on the circumference of a circle having a radius R2 between the
次に、端末2が、視線誘導の開始指示を視線誘導装置1に送信する処理の一例を説明する。図8は、端末2の動作を示すフローチャートである。
Next, an example of processing in which the
なお、視線誘導装置1の撮像部14は、誘導先である対象4が撮像可能な位置にいて、対象4を含む画像を撮像し、通信部11を介して端末2に当該撮像画像を送信するものとする。また、視線誘導装置1の移動制御部12は、自身の周囲に存在する人の位置方向、自身から人までの距離を検知し、検知した情報を通信部11を介して端末2に送信するものとする。
Note that the
まず、表示部21は、視線誘導装置1で検知された誘導したい人3の位置方向及び距離を取得する(S21)。例えば、視線誘導装置1に対して図9に示す位置に人3が存在する場合、撮像部14のカメラの正面方向(図の上方向)から右回りで人3までの回転角度θ3、視線誘導装置1から人3までの距離L3を取得する。
First, the
次に、表示部21は、取得したデータを用いて人3の位置方向と当該人3までの距離を直感的に示したショートカットボタンを生成し、タッチパネル上の撮像画像に重畳表示する(S22)。具体的には、顔を表現したボタン画像(アイコン)を生成し、人3までの距離に応じて表示サイズを変更し、人3の位置方向に対応する場所に表示する。すなわち、表示部21は、撮像画像の範囲外に存在するショートカットボタンを実空間上の位置に対応付けて撮像画像に重畳した画像を表示する。
Next, the
例えば、図9に示すように、タッチパネルの画面中央を視線誘導装置1の現在位置とみなし、上方向を基準に右回りでθ3°の軸方向の画面淵に人3のショートカットボタンSB3を表示する。なお、ボタン画像については、例えば、撮影された対象者の顔画像を縮小・拡大して用いてもよいし、規定の顔画像を用いてもよい。
For example, as shown in FIG. 9, the screen center of the touch panel is regarded as the current position of the line-of-
また、表示部21は、視線誘導装置1で検知された人が複数いる場合は、複数の人のショートカットボタンを、各人の位置方向および距離を用いて、タッチパネル上の撮像画像に重畳表示する。
Further, when there are a plurality of people detected by the line-of-
表示中のショートカットボタンに対してユーザによる押し下げタッチ操作が検知されると、表示部21は、押し下げられたショートカットボタンのIDを制御部22に送信する(S23)。
When the pressing touch operation by the user is detected for the shortcut button being displayed, the
制御部22は、押し下げられたショートカットボタンの人3の視線を誘導先の対象4に誘導させるための視線誘導の開始指示を視線誘導装置1に送信する(S24)。
The
なお、図8に示す視線誘導の開始指示の送信処理は一例であって、他の方法により、視線誘導装置1は、誘導したい人3および誘導先の対象4を含む視線誘導の開始指示を端末2から受信することとしてもよい。
Note that the gaze guidance start instruction transmission processing shown in FIG. 8 is an example, and the
以上説明した本実施形態では、人の視線を、視線誘導装置1の移動により誘導する。すなわち、本実施形態では、視線誘導装置1は、向いて欲しい方向に、人の視線を向けるために、まず人の視線に入り、その後、視線を誘導するように、誘導先の対象に向かって移動する。これにより、人は、移動する視線誘導装置1を目で追うことで、無意識に(自然と)誘導先の対象が視界に入ることになる。したがって、本実施形態では、人が意識していない対象に対して、人の視線をスムーズの誘導することができる。
In the present embodiment described above, the line of sight of the person is guided by the movement of the line-of-
例えば、道を歩いている人に、デジタルサイネージ、お店の看板、スタジアムのゲートなどを気付かせたい場合に、視線誘導装置1が人の視界に入って、誘導先に向かって移動するで、人の視線・注意を、自然と誘導先に向けることができる。
For example, when a person walking on the road wants to notice digital signage, a shop sign, a stadium gate, etc., the line-of-
また、本実施形態では、視線誘導装置1は、人の視線の範囲内に移動した後で、人の注意を引く動作を行う。これにより、人は、視線誘導装置1が誘導を行うための装置であると認識していない場合であっても、自然と視線誘導装置1に注目し、視線誘導装置1を目で追うことになる。これにより、本実施形態では、人の視線をより確実に誘導先の対象に誘導することができる。
Further, in the present embodiment, the line-of-
また、本実施形態の端末2では、誘導先を含む撮像画像に、誘導したい人のショートカットボタンが表示され、操作者は当該ショートカットボタンをタッチすることで、視線誘導の開始指示が視線誘導装置1に送信される。これにより、操作者は、容易に開始指示を入力することができ、ユーザの利便性を向上することができる。
In the
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形および応用が可能である。 In addition, this invention is not limited to the said embodiment, Many deformation | transformation and application are possible within the range of the summary.
1 :視線誘導装置
11:通信部
12:移動制御部
13:動作部
14:撮像部
2 :端末
21:表示部
22:制御部
3 :誘導したい人
4 :誘導先の対象
DESCRIPTION OF SYMBOLS 1: Gaze guidance apparatus 11: Communication part 12: Movement control part 13: Operation | movement part 14: Imaging part 2: Terminal 21: Display part 22: Control part 3: Person who wants to guide 4: Target of guidance destination
Claims (7)
前記視線の誘導の開始指示を契機に、前記誘導先が前記人の視線の範囲外に存在するか否かを判別し、前記誘導先が前記視線の範囲外に存在する場合に、前記人の視線の範囲内に移動する第1の移動と、前記視線の範囲内から前記誘導先に向かって移動する第2の移動とを行い、前記誘導先が前記視線の範囲内に存在する場合に、前記第1の移動および前記第2の移動を行わない移動制御部を備えること
を特徴とする視線誘導装置。 A gaze guidance device that guides a human gaze to a desired guidance destination,
In response to an instruction to start guiding the line of sight, it is determined whether or not the destination is outside the range of the line of sight of the person, and when the destination is outside the range of the line of sight, When the first movement that moves into the range of the line of sight and the second movement that moves from the range of the line of sight toward the guidance destination, and the guidance destination is within the range of the line of sight, A line-of-sight guidance device comprising a movement control unit that does not perform the first movement and the second movement .
前記人の視線の範囲内に移動した後、前記視線の範囲内で人の注意を引く動作を行う動作部を、さらに備えること
を特徴とする視線誘導装置。 The line-of-sight guidance device according to claim 1,
An eye gaze guidance device, further comprising an operation unit that performs an action of drawing a person's attention within the gaze range after moving within the gaze range of the person.
前記視線の誘導の開始指示を契機に、前記人の視線の範囲内に移動し、前記視線の範囲内から前記誘導先に向かって移動する移動制御部と、
誘導先を含む画像を撮像する撮像部と、
前記撮像画像を操作端末に送信する通信部を、備え、
前記通信部は、前記撮像画像の範囲外に存在する前記人の情報を実空間上の位置に対応付けて前記撮像画像に重畳した画像を表示する前記操作端末において、前記人の情報が選択されることにより送信された、前記開始指示を受信すること
を特徴とする視線誘導装置。 A gaze guidance device that guides a human gaze to a desired guidance destination,
In response to an instruction to start guiding the line of sight, the movement control unit moves into the range of the line of sight of the person and moves from the range of the line of sight toward the guidance destination;
An imaging unit that captures an image including a guidance destination;
A communication unit that transmits the captured image to the operation terminal ;
The communication unit displays the image superimposed on the captured image by associating the information on the person existing outside the range of the captured image with a position in real space, and the information on the person is selected. The line-of-sight guidance apparatus characterized by receiving the start instruction transmitted by
前記視線の誘導の開始指示を契機に、前記誘導先が前記人の視線の範囲外に存在するか否かを判別するステップと、
前記誘導先が前記視線の範囲外に存在する場合に、前記人の視線の範囲内に移動する第1の移動ステップと、前記人の視線の範囲内から、前記誘導先に向かって移動する第2の移動ステップとを行い、前記誘導先が前記視線の範囲内に存在する場合に、前記第1の移動ステップおよび前記第2の移動ステップを行わないこと
を特徴とする視線誘導方法。 A gaze guidance method performed by a gaze guidance device that guides a human gaze to a desired guidance destination,
Determining whether or not the guidance destination is outside the range of the line of sight of the person, triggered by an instruction to start guidance of the line of sight;
A first moving step of moving into the range of the person's line of sight when the guidance destination is outside the range of the line of sight; and a first movement step of moving from the range of the line of sight of the person toward the guide destination. And the second movement step is not performed when the guidance destination is within the range of the line of sight.
前記誘導先を含む画像を撮像する撮像ステップと、An imaging step of imaging an image including the guidance destination;
前記撮像画像を操作端末に送信する送信ステップと、A transmission step of transmitting the captured image to the operation terminal;
前記撮像画像の範囲外に存在する前記人の情報を実空間上の位置に対応付けて前記撮像画像に重畳した画像を表示する前記操作端末において、前記人の情報が選択されることにより送信された、開始指示を受信する受信ステップと、Sent when the person's information is selected in the operation terminal that displays an image superimposed on the captured image by associating the person's information existing outside the range of the captured image with a position in real space. A receiving step for receiving a start instruction;
前記開始指示を契機に、前記人の視線の範囲内に移動し、前記視線の範囲内から、前記誘導先に向かって移動する移動ステップと、を行うことTriggered by the start instruction, a movement step of moving into the range of the line of sight of the person and moving from the range of the line of sight toward the guidance destination is performed.
を特徴とする視線誘導方法。A gaze guidance method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015111372A JP6382772B2 (en) | 2015-06-01 | 2015-06-01 | Gaze guidance device, gaze guidance method, and gaze guidance program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015111372A JP6382772B2 (en) | 2015-06-01 | 2015-06-01 | Gaze guidance device, gaze guidance method, and gaze guidance program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016224302A JP2016224302A (en) | 2016-12-28 |
JP6382772B2 true JP6382772B2 (en) | 2018-08-29 |
Family
ID=57747773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015111372A Active JP6382772B2 (en) | 2015-06-01 | 2015-06-01 | Gaze guidance device, gaze guidance method, and gaze guidance program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6382772B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6572943B2 (en) * | 2017-06-23 | 2019-09-11 | カシオ計算機株式会社 | Robot, robot control method and program |
JP7444531B2 (en) | 2022-05-18 | 2024-03-06 | 三菱ロジスネクスト株式会社 | guidance system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5732632B2 (en) * | 2011-02-03 | 2015-06-10 | 株式会社国際電気通信基礎技術研究所 | Robot system and space formation recognition device used therefor |
-
2015
- 2015-06-01 JP JP2015111372A patent/JP6382772B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016224302A (en) | 2016-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7268692B2 (en) | Information processing device, control method and program | |
US9586682B2 (en) | Unmanned aerial vehicle control apparatus and method | |
US9401050B2 (en) | Recalibration of a flexible mixed reality device | |
US10896543B2 (en) | Methods and systems for augmented reality to display virtual representations of robotic device actions | |
KR101591579B1 (en) | Anchoring virtual images to real world surfaces in augmented reality systems | |
US10928914B2 (en) | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor | |
EP4105878A1 (en) | Image acquisition device and method of controlling the same | |
US20180068614A1 (en) | Wearable display device | |
US9529428B1 (en) | Using head movement to adjust focus on content of a display | |
CN103245345B (en) | A kind of indoor navigation system based on image sensing technology and navigation, searching method | |
KR101959366B1 (en) | Mutual recognition method between UAV and wireless device | |
JP2013206322A (en) | Information processor, information processing system and information processing method | |
JP6788845B2 (en) | Remote communication methods, remote communication systems and autonomous mobile devices | |
CN111052044B (en) | Information processing apparatus, information processing method, and program | |
JP6280011B2 (en) | Image transmission / reception system and method for performing data reduction processing based on region request | |
WO2015093130A1 (en) | Information processing device, information processing method, and program | |
JP2018111154A (en) | Robot device and program | |
US20180082119A1 (en) | System and method for remotely assisted user-orientation | |
CN105917329B (en) | Information display device and information display program | |
JP6382772B2 (en) | Gaze guidance device, gaze guidance method, and gaze guidance program | |
KR102132945B1 (en) | UAV landing induction method | |
JP2021013159A (en) | Information processing apparatus, telepresence robot, site control system, remote control system, information processing method, and program | |
JP7013786B2 (en) | Information processing equipment, programs and control methods | |
KR20170071278A (en) | Mobile terminal | |
US20160379416A1 (en) | Apparatus and method for controlling object movement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6382772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |