JP2018005005A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2018005005A JP2018005005A JP2016132696A JP2016132696A JP2018005005A JP 2018005005 A JP2018005005 A JP 2018005005A JP 2016132696 A JP2016132696 A JP 2016132696A JP 2016132696 A JP2016132696 A JP 2016132696A JP 2018005005 A JP2018005005 A JP 2018005005A
- Authority
- JP
- Japan
- Prior art keywords
- real object
- user
- display
- information processing
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to an information processing apparatus, an information processing method, and a program.
近年、実世界に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)に関する技術が各種開発されている(例えば下記特許文献1参照)。 In recent years, various technologies related to augmented reality (AR) in which additional information is superimposed on the real world and presented to the user have been developed (see, for example, Patent Document 1 below).
また、ARコンテンツの表示時における視認性の向上を図るための技術も提案されている。例えば、下記特許文献2には、透過ディスプレイの背後に位置する実物体を、透過ディスプレイを通してユーザが視認可能なように、透過ディスプレイにおける表示オブジェクトの表示を制御する技術が記載されている。 In addition, a technique for improving visibility when displaying AR content has also been proposed. For example, Patent Document 2 below describes a technique for controlling display of a display object on a transmissive display so that a user can visually recognize an actual object located behind the transmissive display through the transmissive display.
ところで、ユーザの視界内に含まれる実オブジェクトの認識度合いは、実オブジェクトの種類などによって異なることが望ましい。しかしながら、特許文献2には、透過ディスプレイにおける表示オブジェクトの表示方法を、実物体に応じて変化させることは開示されていない。 By the way, it is desirable that the recognition degree of the real object included in the user's field of view varies depending on the type of the real object. However, Patent Document 2 does not disclose changing the display method of the display object on the transmissive display according to the actual object.
そこで、本開示では、ユーザの視界内に含まれる実オブジェクトに適応的に、ユーザによる当該実オブジェクトの認識度合いを変化させることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。 Therefore, in the present disclosure, a new and improved information processing apparatus, information processing method, and information processing apparatus capable of changing the degree of recognition of the real object by the user adaptively to the real object included in the user's field of view, and Suggest a program.
本開示によれば、ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示を制御する出力制御部、を備える、情報処理装置が提供される。 According to the present disclosure, based on the determination result of whether or not the real object included in the user's field of view is the first real object, the real object by the user is in a range between the user and the real object. An information processing apparatus is provided that includes an output control unit that controls display by a display unit so that the degree of object recognition changes.
また、本開示によれば、ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示をプロセッサが制御すること、を含む、情報処理方法が提供される。 Further, according to the present disclosure, based on a determination result of whether or not the real object included in the user's field of view is the first real object, the user can determine the range between the user and the real object. There is provided an information processing method including a processor controlling display by a display unit so that a recognition degree of the real object is changed.
また、本開示によれば、コンピュータを、ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示を制御する出力制御部、として機能させるための、プログラムが提供される。 In addition, according to the present disclosure, the computer can be used in a range between the user and the real object based on a determination result of whether or not the real object included in the user's field of view is the first real object. A program is provided for functioning as an output control unit that controls display by a display unit such that the degree of recognition of the real object by the user changes.
以上説明したように本開示によれば、ユーザの視界内に含まれる実オブジェクトに適応的に、ユーザによる当該実オブジェクトの認識度合いを変化させることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 As described above, according to the present disclosure, the recognition degree of the real object by the user can be adaptively changed to the real object included in the user's field of view. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてARグラス10aおよびARグラス10bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、ARグラス10aおよびARグラス10bを特に区別する必要が無い場合には、単にARグラス10と称する。
In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral. For example, a plurality of configurations having substantially the same functional configuration are differentiated as needed, such as the AR glass 10a and the AR glass 10b. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given. For example, the AR glass 10a and the AR glass 10b are simply referred to as the
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
Further, the “DETAILED DESCRIPTION OF THE INVENTION” will be described according to the following item order.
1. 1. Configuration of information processing system 2. Detailed Description of Embodiments Hardware configuration Modified example
<<1.情報処理システムの構成>>
まず、本開示の実施形態による情報処理システムの構成について、図1を参照して説明する。図1に示すように、当該情報処理システムは、ARグラス10、サーバ20、および、通信網22を含む。
<< 1. Configuration of information processing system >>
First, a configuration of an information processing system according to an embodiment of the present disclosure will be described with reference to FIG. As shown in FIG. 1, the information processing system includes an
<1−1.ARグラス10>
ARグラス10は、本開示における情報処理装置の一例である。ARグラス10は、予め実世界上の位置に関連付けられている仮想オブジェクトの表示を制御する装置である。例えば、ARグラス10は、まず、ARグラス10の位置情報に基づいて、当該位置の周囲(例えば上下左右全方位の一定の範囲)に位置する仮想オブジェクトを、通信網22を介してサーバ20から取得する。そして、ARグラス10は、ARグラス10の姿勢(またはユーザの視線方向の検出結果)に基づいて、取得した仮想オブジェクトのうち、ユーザの視界内に含まれる仮想オブジェクトを、後述する表示部124に表示する。例えば、ARグラス10は、取得した仮想オブジェクトに基づいて右目用画像および左目用画像を生成し、そして、右目用画像を右目用表示部124aに表示し、かつ、左目用画像を左目用表示部124bに表示する。これにより、仮想的な立体視映像をユーザに視認させることができる。
<1-1. AR Glass 10>
The
ここで、仮想オブジェクトは、基本的に3Dのオブジェクトであるが、かかる例に限定されず、2Dのオブジェクトであってもよい。また、ARグラス10の表示部124は、透過型のディスプレイで構成される。
Here, the virtual object is basically a 3D object, but is not limited to such an example, and may be a 2D object. Further, the
図2および図3は、ユーザがARグラス10を装着して、実オブジェクト30および仮想オブジェクト32を視認する様子を示した概略図である。図2(および図3)に示したように、実世界に位置する複数の実オブジェクト30のうち、ユーザの視界40内に含まれる実オブジェクト30および仮想オブジェクト32を、ユーザは表示部124を通して同時に視認することができる。なお、以下では「実オブジェクト」という記載は、単体の実オブジェクトだけでなく、実世界上の所定の領域(例えば建物全体、交差点、廊下など)を含むものとする。
FIGS. 2 and 3 are schematic diagrams illustrating how the user wears the
なお、ユーザの視界40は種々の方法で定義されてよい。例えば、ARグラス10の外側、すなわちARグラス10の前側に設けられたカメラが撮像した領域の略中央がユーザの視界40であると推定されてもよい。あるいは、ARグラス10の内側、すなわちARグラス10の後ろ側に設けられたカメラが撮像した眼球の画像に基づいてユーザの注視方向が推定され、そして、当該注視方向に対応する所定の立体空間がユーザの視界40であると推定されてもよい。ユーザの視界40の立体的な形状は適宜決定されてよいが、立体的な形状は略円錐形状として定義されることが望ましい。
Note that the user's field of
また、ユーザの視界40と表示部124の表示領域との関係も多様に定められ得る。例えば、図2および図4に示したように、表示部124の表示領域に交差するユーザの視界40aの面積が当該表示領域全体以上になるように、両者の関係が定められてもよい。または、図3および図4に示したように、表示部124の表示領域に交差するユーザの視界40bの面積が当該表示領域全体よりも小さくなるように、両者の関係が定められてもよい。
Also, the relationship between the user's field of
図4は、図2および図3に示した状況において、表示部124を通して視認される実オブジェクト30および仮想オブジェクト32の例を示した図である。なお、図4では、仮想オブジェクト32が非透明なオブジェクトであることを前提としている。
FIG. 4 is a diagram illustrating an example of the real object 30 and the
図2および図3に示した例では、仮想オブジェクト32は、実オブジェクト30aおよび実オブジェクト30bと、ユーザとの間に位置する。このため、図4に示したように、実オブジェクト30aおよび実オブジェクト30bのそれぞれ一部は、仮想オブジェクト32に隠れてユーザに視認される。
In the example shown in FIGS. 2 and 3, the
また、ARグラス10は、通信網22を介してサーバ20と通信することが可能である。
The
<1−2.サーバ20>
サーバ20は、実世界の位置情報と対応付けて仮想オブジェクトを記憶する装置である。ここで、実世界の位置情報は、緯度および経度を含む情報であってもよいし、所定の建物内の間取り図の情報であってもよい。また、サーバ20は、仮想オブジェクトの取得要求を例えばARグラス10などの他の装置から受信した場合には、当該取得要求に対応する仮想オブジェクトを当該他の装置へ送信する。
<1-2.
The
<1−3.通信網22>
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<1-3.
The
<1−4.課題の整理>
以上、本実施形態による情報処理システムの構成について説明した。ところで、特に表示部124が高輝度なディスプレイである場合には、上述したように、ARグラス10を装着するユーザの視界内に位置する実オブジェクトが、当該実オブジェクトとユーザとの間に位置する仮想オブジェクトにより隠れ、見難くなる。従って、ユーザがARグラス10を装着しながら行動すると、様々な危険が生じ得る。例えば、ユーザに接近する実オブジェクトの存在に気付かないことにより、当該実オブジェクトがユーザにぶつかり得る。または、ユーザは、静止中の実オブジェクトの存在に気付かず、当該実オブジェクトに自ら衝突し得る。または、ユーザは、仮想の信号機を本物の信号機と見間違えてしまい、危険な運転をし得る。
<1-4. Organizing issues>
The configuration of the information processing system according to this embodiment has been described above. By the way, especially when the
そこで、上記事情を一着眼点にして、本実施形態によるARグラス10を創作するに至った。本実施形態によるARグラス10は、ユーザの視界内に含まれる実オブジェクトが特定の実オブジェクトであるか否かの判断結果に基づいて、ユーザと実オブジェクトとの間の範囲において該当の実オブジェクトの認識度合いが変化するように表示部124による表示を制御する。このため、例えば、特定の実オブジェクトとユーザとの間に仮想オブジェクトが存在する場合には、ARグラス10は、当該実オブジェクトをユーザが認識可能なように当該仮想オブジェクトの表示を制御することができる。その結果、仮想オブジェクトの表示時における安全性を向上させることができる。
In view of the above circumstances, the
<<2.実施形態の詳細な説明>>
<2−1.構成>
以上、本実施形態による情報処理システムの構成について説明した。次に、本実施形態によるARグラス10の構成について詳細に説明する。図5は、本実施形態によるARグラス10の構成例を示した機能ブロック図である。図5に示すように、ARグラス10は、制御部100、通信部120、センサ部122、表示部124、および、記憶部126を有する。
<< 2. Detailed Description of Embodiment >>
<2-1. Configuration>
The configuration of the information processing system according to this embodiment has been described above. Next, the configuration of the
{2−1−1.制御部100}
制御部100は、ARグラス10に内蔵される、後述するCPU(Central Processing Unit)150や、RAM(Random Access Memory)154などのハードウェアを用いて、ARグラス10の動作を統括的に制御する。また、図5に示すように、制御部100は、仮想オブジェクト取得部102、実オブジェクト判断部104、重なり判定部106、および、出力制御部108を有する。
{2-1-1. Control unit 100}
The
{2−1−2.仮想オブジェクト取得部102}
仮想オブジェクト取得部102は、後述するセンサ部122による、ARグラス10の位置情報の測定結果に基づいて、表示対象の仮想オブジェクトをサーバ20から取得する。例えば、仮想オブジェクト取得部102は、まず、センサ部122により測定された位置情報をサーバ20へ送信することにより、当該位置情報の周囲(例えば上下左右全方位の一定の範囲)に位置付けられている複数の仮想オブジェクトをサーバ20から取得する。そして、仮想オブジェクト取得部102は、センサ部122により測定された、ARグラス10の姿勢またはユーザの視線方向に基づいて、受信した複数の仮想オブジェクトの中から、ユーザの視界内に含まれる仮想オブジェクトを表示対象の仮想オブジェクトとして抽出する。
{2-1-2. Virtual object acquisition unit 102}
The virtual
{2−1−3.実オブジェクト判断部104}
実オブジェクト判断部104は、ユーザの視界内に含まれる個々の実オブジェクトが隠蔽回避設定されているか否かを判断する。ここで、隠蔽回避設定されている実オブジェクトは、本開示における第1の実オブジェクトの一例であり、また、隠蔽回避設定されていない実オブジェクトは、本開示における第2の実オブジェクトの一例である。
{2-1-3. Real object determination unit 104}
The real
(2−1−3−1.判断例)
詳細については後述するように、例えば、実オブジェクトの種類ごとに隠蔽回避の設定条件が予め登録され得る。この場合、実オブジェクト判断部104は、まず、例えばセンサ部122により撮像された、ユーザの前方の撮像画像に基づいて、ユーザの視界内に含まれる個々の実オブジェクトに関して物体認識を行う。そして、実オブジェクト判断部104は、ユーザの視界内の個々の実オブジェクトに関して、認識された当該オブジェクトの種類に対応する隠蔽回避の設定条件に基づいて、当該オブジェクトが隠蔽回避設定されているか否かを判断する。
(2-1-3-1. Determination example)
As will be described in detail later, for example, concealment avoidance setting conditions may be registered in advance for each type of real object. In this case, the real
なお、隠蔽回避の設定条件のリストは、記憶部126に格納されていてもよいし、または、サーバ20に保存されていてもよい。後者の場合、実オブジェクト判断部104は、認識された個々の実オブジェクトが隠蔽回避対象であるか否かの問い合わせをサーバ20へ送信し、そして、回答を取得することにより、ユーザの視界内の個々の実オブジェクトが隠蔽回避設定されているか否かを特定する。
Note that the concealment avoidance setting condition list may be stored in the
(2−1−3−2.隠蔽回避対象の設定例)
ここで、上述した、実オブジェクトの種類ごとの隠蔽回避の設定例について具体的に説明する。例えば、信号機、道路標識などの公的な標識、または、工事現場の看板などは、常に隠蔽回避設定され得る。また、横断歩道(の上空全体)、交差点(の上空全体)、または、レジャー施設などの建物における避難経路などの所定の領域に関しても、(領域単位で)常に隠蔽回避設定され得る。これにより、ユーザはより安全に通行したり、車を運転することができる。
(2-1-3-2. Setting example of concealment avoidance target)
Here, the above-described setting example of concealment avoidance for each type of real object will be specifically described. For example, a public sign such as a traffic light, a road sign, or a signboard of a construction site can be always set to avoid concealment. Further, concealment avoidance setting can be always set for a predetermined area such as a pedestrian crossing (the entire sky), an intersection (the entire sky), or an evacuation route in a building such as a leisure facility. Thereby, the user can pass more safely or drive the car.
また、その他の種類の実オブジェクトは、所定の基準に基づいて動的に隠蔽回避設定され得る。ここで、所定の基準は、実オブジェクトとユーザとの位置関係を含み得る。例えば、信号機や広告などの正面にユーザが位置する場合には、これらの実オブジェクトは隠蔽回避設定され、また、これらの実オブジェクトの側面や後方にユーザが位置する場合には、これらの実オブジェクトは隠蔽回避設定されない。 Also, other types of real objects can be set to avoid concealment dynamically based on predetermined criteria. Here, the predetermined reference may include a positional relationship between the real object and the user. For example, when the user is located in front of a traffic light or an advertisement, these real objects are set to avoid concealment, and when the user is located on the side or behind these real objects, these real objects are set. Is not set to avoid concealment.
また、所定の基準は、実オブジェクトとユーザとの間の距離を含む。この場合、実オブジェクトとユーザとの間の距離が所定の距離以下である場合には、当該実オブジェクトは隠蔽回避設定され得る。または、所定の基準は、実オブジェクトの移動方向、実オブジェクトの速度、および/または、実オブジェクトの加速度を含み得る。例えば、実オブジェクト(例えばボールや自動車など)がユーザに対して近づいており、かつ、当該実オブジェクトの速度が所定の閾値以上である場合には、当該実オブジェクトは動的に隠蔽回避設定され得る。または、所定の基準は、ユーザの移動方向、ユーザの速度、および/または、ユーザの加速度を含み得る。例えば、ユーザがある実オブジェクトの方へ移動しており、かつ、ユーザの速度が所定の閾値以上である場合には、当該実オブジェクトは動的に隠蔽回避設定され得る。 The predetermined standard includes a distance between the real object and the user. In this case, when the distance between the real object and the user is equal to or smaller than a predetermined distance, the real object can be set to avoid concealment. Alternatively, the predetermined criteria may include a moving direction of the real object, a speed of the real object, and / or an acceleration of the real object. For example, when a real object (for example, a ball or a car) is approaching the user and the speed of the real object is equal to or higher than a predetermined threshold, the real object can be set to avoid concealment dynamically. . Alternatively, the predetermined criteria may include a user moving direction, a user speed, and / or a user acceleration. For example, when the user is moving toward a certain real object and the speed of the user is equal to or higher than a predetermined threshold, the real object can be set to avoid concealment dynamically.
または、所定の基準は、他の人物の行動の認識結果を含み得る。例えば、他の人物がユーザの方を向き、かつ、発声していることが検出された場合には、当該他の人物は、隠蔽回避設定され得る。 Alternatively, the predetermined criterion may include a recognition result of another person's action. For example, when it is detected that another person is facing the user and speaking, the other person can be set to avoid concealment.
または、所定の基準は、実オブジェクトの状態を含み得る。例えば、所定の基準は、実オブジェクトの温度を含む。この場合、実オブジェクト(例えばやかんなど)の温度が所定の閾値以上になったことが所定の温度センサにより検出される場合には、当該実オブジェクトは隠蔽回避設定され得る。なお、所定の閾値は、実オブジェクトの種類ごとに定められてもよい。 Alternatively, the predetermined criteria may include a real object state. For example, the predetermined criterion includes the temperature of the real object. In this case, when it is detected by a predetermined temperature sensor that the temperature of the real object (for example, a kettle) is equal to or higher than a predetermined threshold, the real object can be set to avoid concealment. The predetermined threshold may be determined for each type of real object.
または、所定の基準は、実オブジェクト(例えば電子機器など)の機器状態を含む。例えば、テレビジョン受信機やPC(Personal Computer)の電源がONである場合にのみ、テレビジョン受信機やPCのモニターは、隠蔽回避設定され得る。また、稼働中の電子機器が故障したことが検出された場合には、当該電子機器は、隠蔽回避設定され得る。 Alternatively, the predetermined reference includes a device state of a real object (for example, an electronic device). For example, the concealment avoidance setting can be set for the television receiver and the PC monitor only when the power of the television receiver and the PC (Personal Computer) is ON. Further, when it is detected that an electronic device in operation has failed, the electronic device can be set to avoid concealment.
または、所定の基準は、実オブジェクトからの音、光、または、煙の発生状況を含み得る。例えば、実オブジェクトから煙が発生したことが所定のセンサにより検出される場合には、当該実オブジェクトは隠蔽回避設定され得る。または、例えば時計、玄関などのドアの開閉、ドアのノック、玄関のチャイム、電話、やかん、実オブジェクトの衝突(落下など)、各種電子機器のタイマー、または、火災警報機などの音の発生が検出された場合には、これらの実オブジェクトは隠蔽回避設定され得る。これにより、後述するように、出力制御部108により、音の発生源とユーザとの間に位置する仮想オブジェクトは非表示にされ得る。従って、ユーザが音の到来方向へ目を向けた際に、当該音の発生源に向かう動線上の仮想オブジェクトは表示されないので、当該音の発生源をユーザに明確に知覚させることができる。
Alternatively, the predetermined criterion may include a sound, light, or smoke generation situation from a real object. For example, when a predetermined sensor detects that smoke is generated from a real object, the real object can be set to avoid concealment. Or, for example, opening and closing of doors such as clocks and entrances, knocking of doors, entrance chimes, telephones, kettles, collisions of real objects (falling, etc.), generation of sounds such as timers of various electronic devices or fire alarms If detected, these real objects can be set to avoid concealment. Thereby, as will be described later, the
または、所定の基準は、契約の有無や課金状態を含み得る。例えば、当該ARサービスの運営者との間で、広告や商品の表示に関する契約が交わされていることがサーバ20に登録されている場合には、該当の広告や商品は、契約期間中(または課金中)のみ隠蔽回避設定され得る。
Alternatively, the predetermined standard may include the presence / absence of a contract and a billing status. For example, if the
{2−1−4.重なり判定部106}
重なり判定部106は、ユーザの視界内に含まれる実オブジェクトのうち、隠蔽回避設定されていると実オブジェクト判断部104により判断された実オブジェクトと、仮想オブジェクト取得部102により取得された表示対象の仮想オブジェクトとの重なりの有無を判定する。例えば、重なり判定部106は、まず、ARグラス10の位置および姿勢(またはユーザの視線方向の検出結果)に基づいて、全ての表示対象の仮想オブジェクトに関する距離情報(デプスマップ)を特定する。次に、重なり判定部106は、ARグラス10の位置および姿勢(またはユーザの視線方向の検出結果)に基づいて、隠蔽回避設定されている全ての実オブジェクトに関する距離情報(デプスマップ)を特定する。そして、重なり判定部106は、この二つの距離情報を比較することにより、隠蔽回避設定されている実オブジェクトごとに、表示対象の仮想オブジェクトとの重なりの有無を判定する。具体的には、重なり判定部106は、隠蔽回避設定されている個々の実オブジェクトに関して、当該実オブジェクトとARグラス10との間に仮想オブジェクトが存在するか否かを判定し、そして、存在する場合には該当の仮想オブジェクトを全て特定する。
{2-1-4. Overlap determination unit 106}
The
{2−1−5.出力制御部108}
(2−1−5−1.制御例1)
出力制御部108は、実オブジェクト判断部104による判断結果と、重なり判定部106による判定結果とに基づいて、実オブジェクトとユーザとの間に位置する所定の範囲における当該実オブジェクトの認識度合いが変化するように、表示部124による表示を制御する。例えば、出力制御部108は、ユーザの視界内に含まれる実オブジェクトのうち、隠蔽回避設定されていない実オブジェクトよりも隠蔽回避設定されている実オブジェクトの方が当該所定の範囲における当該実オブジェクトの認識度合いが大きくなるように、表示部124による表示を制御する。なお、所定の範囲は、実オブジェクトとユーザとの間に位置し、かつ、当該実オブジェクトを含まない範囲であり得る。
{2-1-5. Output control unit 108}
(2-1-5-1. Control example 1)
Based on the determination result by the real
‐仮想オブジェクトの表示属性の変更
一例として、ユーザの視界内に含まれる実オブジェクトのうち、隠蔽回避設定されている実オブジェクトに関してのみ、出力制御部108は、当該実オブジェクトと表示部124との間に位置する仮想オブジェクトの視認性が低下するように、当該仮想オブジェクトの表示態様を変化させる。この場合、出力制御部108は、当該仮想オブジェクトの全部または一部(例えば、隠蔽回避設定されている実オブジェクトと重なる部分およびその近傍)を非表示にしてもよい。または、出力制御部108は、当該仮想オブジェクトを半透明にしてもよいし、当該仮想オブジェクトの輪郭線のみを表示(ワイヤフレーム表示)させてもよいし、当該仮想オブジェクトを所定の時間間隔で点滅させて表示させてもよい。
-Change of display attribute of virtual object As an example, among real objects included in the user's field of view, only for real objects that are set to avoid concealment, the
ここで、図6〜図7Bを参照して、上記の機能についてより詳細に説明する。図6は、実オブジェクト30aが隠蔽回避設定されている例を示した説明図である。なお、図6に示したように、実オブジェクト30aの周囲の一定の範囲は隠蔽回避領域50として設定され得る。隠蔽回避領域50は、仮想オブジェクトによる隠蔽が回避される領域(空間)である。
Here, the above function will be described in more detail with reference to FIGS. FIG. 6 is an explanatory diagram showing an example in which the
図6に示した状況では、例えば、出力制御部108は、隠蔽回避領域50と表示部124との間に位置する仮想オブジェクト32を非表示にする。これにより、図7Aに示したように、表示部124において、実オブジェクト30aの全体が仮想オブジェクト32に隠されずに、ユーザに視認される。または、出力制御部108は、仮想オブジェクト32を半透明にする。これにより、図7Bに示したように、表示部124において、実オブジェクト30aの全体が仮想オブジェクト32に隠されずに、ユーザに視認される。
In the situation illustrated in FIG. 6, for example, the
‐‐変形例
なお、仮想オブジェクトの表示態様を変化させる際には、出力制御部108は、表示態様の変化を強調するように表示を制御してもよい。例えば、仮想オブジェクトの輪郭線のみを表示させるように変更する際には、出力制御部108は、当該輪郭線の近傍を一時的にぼんやりと光らせてもよい。または、隠蔽回避設定されている実オブジェクトが移動している場合には、出力制御部108は、当該実オブジェクトの移動軌跡上に位置する仮想オブジェクトが破裂したり、崩れるなどのアニメーションを表示させながら、当該仮想オブジェクトを非表示にしてもよい。または、出力制御部108は、ARグラス10や、ユーザが携帯する他の機器などに音を出力させたり、振動を発生させながら、当該仮想オブジェクトの表示態様を変化させてもよい。これらの制御例によれば、仮想オブジェクトの表示態様が変化したことをより強調してユーザに通知することができる。
--- Modification When the display mode of the virtual object is changed, the
‐仮想オブジェクトの表示位置の変更
または、出力制御部108は、隠蔽回避設定されている実オブジェクトと当該仮想オブジェクトとが重ならなくなるように、当該仮想オブジェクトを、デフォルトの表示位置からずらして表示させてもよい。例えば、出力制御部108は、隠蔽回避設定されている実オブジェクトと重ならず、かつ、位置の変更量ができるだけ小さくなるように、当該仮想オブジェクトをずらして表示させる。
-Changing the display position of the virtual object Alternatively, the
図6に示した例では、出力制御部108は、表示部124において隠蔽回避領域50が視認される領域と仮想オブジェクト32とが重ならなくなるように、仮想オブジェクト32の表示位置をずらして表示させる。これにより、図7Cに示したように、表示部124において、実オブジェクト30aの全体が仮想オブジェクト32に隠されずに、ユーザに視認される。
In the example illustrated in FIG. 6, the
なお、個々の仮想オブジェクトに関して、位置、姿勢、およびサイズの変更許容範囲(上限)は予め設定されていてもよい。例えば、ある仮想オブジェクトのデフォルト位置が(x,y,z)=(10m,2m,1m)である場合、位置に関する変更許容範囲は、各方向に関して−50cm以上50cm以下であり、変更許容回転範囲は、各軸に関して−30°以上30°以下であり、かつ、変更許容サイズ範囲は、0.4倍以上1.0倍以下のように設定され得る。このように、変更許容範囲が設定されることにより、仮想オブジェクトがデフォルトの表示位置から大きく異なって表示されないように制限することができる。 For each virtual object, the change allowable range (upper limit) of the position, posture, and size may be set in advance. For example, when the default position of a certain virtual object is (x, y, z) = (10 m, 2 m, 1 m), the change allowable range regarding the position is −50 cm to 50 cm in each direction, and the change allowable rotation range Is -30 ° or more and 30 ° or less with respect to each axis, and the change allowable size range can be set to 0.4 times or more and 1.0 times or less. Thus, by setting the change allowable range, it is possible to limit the virtual object from being displayed greatly different from the default display position.
ここで、上記の変更許容範囲は、ワールド座標系で定義されてもよいし、または、ユーザ座標系(例えば、ARグラス10基準の座標系)で定義されてもよい。 Here, the change allowable range may be defined in a world coordinate system, or may be defined in a user coordinate system (for example, a coordinate system based on the AR glass 10).
または、変更許容範囲は、ベクトル空間で定義されてもよい。図8は、仮想オブジェクトの変更許容範囲50がベクトル空間上で定義されている例を示した説明図である。例えば、変更許容範囲50内の各点において、許容される各軸の回転量および拡縮の値が設定され得る。
Alternatively, the change allowable range may be defined in a vector space. FIG. 8 is an explanatory diagram showing an example in which the change
‐‐変形例1
なお、変形例として、出力制御部108は、ユーザの将来の移動を予め予測しておき、そして、予測結果に基づいて、仮想オブジェクトの表示位置の時系列を予め決定しておいてもよい。これにより、仮想オブジェクトの表示更新時の負荷を軽減することができる。
--- Modification 1
As a modification, the
‐‐変形例2
一般的に、例えば人ごみの中などでは、個々の人(つまり実オブジェクト)の位置は逐次変化し得る。そこで、別の変形例として、出力制御部108は、隠蔽回避設定されている一以上の実オブジェクトの動きを予測することにより、仮想オブジェクトの表示位置の時系列を予め決定すること(path finding)も可能である。これにより、周囲の人が移動する度に、仮想オブジェクトをずらす位置を逐次計算する必要がなくなるので、仮想オブジェクトの表示更新時の負荷を軽減することができる。
--- Modification 2
In general, for example, in a crowd, the position of an individual person (that is, a real object) can change sequentially. Therefore, as another modified example, the
‐‐変形例3
また、別の変形例として、出力制御部108は、例えば上述した所定の基準に基づいて、仮想オブジェクトのずらし方を変化させてもよい。例えば、出力制御部108は、ユーザの方向に移動している実オブジェクトの速度が大きいほど、当該実オブジェクトと表示部124との間に位置する仮想オブジェクトをより高速にずらしたり、より遠くまでずらしてもよい。または、出力制御部108は、隠蔽回避設定されている実オブジェクトの温度が大きいほど、当該実オブジェクトと表示部124との間に位置する仮想オブジェクトをより高速にずらしたり、より遠くまでずらしてもよい。これらの制御例によれば、危険の大きさをユーザに通知することができる。
-Modification 3
As another modification, the
‐別の仮想オブジェクトの表示
または、出力制御部108は、該当の実オブジェクトに関連する別の仮想オブジェクトを、当該仮想オブジェクトと重ならない位置に新たに表示させてもよい。例えば、該当の実オブジェクトが信号機である場合には、出力制御部108は、当該信号機と重なって表示されている仮想オブジェクトからずれた位置に、仮想の信号機を新たに表示させてもよい。または、出力制御部108は、当該信号機の現在の点灯色を示す情報(テキストや画像)を新たに表示させてもよいし、または、表示部124全体を当該信号機の現在の点灯色で薄く表示させてもよい。
-Display of another virtual object Alternatively, the
(2−1−5−2.制御例2)
また、出力制御部108は、隠蔽回避設定されている実オブジェクトと表示部124との間に位置する仮想オブジェクトの表示態様を、例えば上述した所定の基準に基づいて動的に変化させてもよい。例えば、出力制御部108は、当該実オブジェクトと表示部124との間の距離の変化に基づいて、当該実オブジェクトと表示部124との間に位置する仮想オブジェクトの表示態様を動的に変化させる。より具体的には、出力制御部108は、当該実オブジェクトと表示部124との間の距離が小さくなるほど、当該仮想オブジェクトの透過度を上げたり、当該仮想オブジェクトのメッシュのサイズを徐々に粗くしたり、または、当該仮想オブジェクトを徐々にワイヤフレーム化してもよい。一例として、ユーザが車を運転している場面において、出力制御部108は、ユーザの前方に位置する信号機と表示部124との間の距離が小さくなるほど、信号機と表示部124との間に位置する仮想オブジェクトの透過度を上げてもよい。
(2-1-5-2. Control example 2)
Further, the
または、出力制御部108は、周囲の状況の変化に応じて、当該実オブジェクトと表示部124との間に位置する仮想オブジェクトの表示態様を動的に変化させてもよい。例えば、レジャー施設などの所定の施設において、避難経路が隠蔽回避設定されているとする。この場合、避難誘導時には、出力制御部108は、障害物となる仮想オブジェクトを非表示にさせる等、避難経路上に表示させないように制御したり、または、誘導用の仮想オブジェクトを新たに表示させてもよい。または、常時、出力制御部108は、避難経路上に位置する仮想オブジェクトを半透明で表示させてもよい。
Alternatively, the
図9Aは、避難経路である廊下における、通常時の仮想オブジェクト32の表示例を示した図である。図9Aに示したように、例えば、通常時には、出力制御部108は、避難経路上に位置する仮想オブジェクト32aを半透明で表示させる。また、図9Bは、同一の廊下における、避難誘導時の仮想オブジェクト32の表示例を示した図である。図9Bに示したように、避難誘導時には、出力制御部108は、図9Aに示した仮想オブジェクト32aを非表示にし、かつ、誘導用の仮想オブジェクト32bを新たに表示させる。なお、出力制御部108は、避難を誘導するように、ユーザの移動に応じて仮想オブジェクト32bの表示位置、傾き、または表示内容を逐次更新してもよい。
FIG. 9A is a diagram illustrating a display example of the
または、出力制御部108は、周囲の明るさに応じて、ユーザの視界内に位置する一以上の仮想オブジェクトの表示態様を変化させてもよい。例えば、周囲が暗い場合(夜や曇りの場合など)には、出力制御部108は、隠蔽回避設定されている実オブジェクトとユーザとの間に位置する仮想オブジェクトのうち非表示にする部分を、周囲が明るい場合よりも大きくしてもよい。または、この場合、出力制御部108は、さらに、当該仮想オブジェクトの周囲に位置する他の仮想オブジェクトを半透明にしてもよいし、ユーザの視界内に位置する他の仮想オブジェクト全部を半透明にしてもよい。
Or the
(2−1−5−3.制御例3)
また、隠蔽回避設定されている実オブジェクトが広告である場合には、出力制御部108は、ユーザと当該広告との位置関係に基づいて、当該広告と表示部124との間に位置する仮想オブジェクトの表示態様を動的に制御してもよい。例えば、ユーザが当該広告の正面に位置する場合には、出力制御部108は、当該仮想オブジェクトの透過度を大きくする。また、ユーザが当該広告の側面や後方に位置する場合には、出力制御部108は、当該仮想オブジェクトの透過度をより小さくする。これにより、広告の認識度合いを維持しながら、仮想オブジェクトの視認性の低下をできるだけ抑制することができる。
(2-1-5-3. Control example 3)
When the real object set to avoid concealment is an advertisement, the
(2−1−5−4.制御例4)
または、出力制御部108は、表示部124上での仮想オブジェクトの表示位置に基づいて、仮想オブジェクトの表示態様を変化させてもよい。例えば、表示部124における当該仮想オブジェクトの表示位置と表示部124の中心との間の距離が小さいほど、出力制御部108は、当該仮想オブジェクトの透過度を相対的により大きくしてもよい。または、当該仮想オブジェクトの表示位置と、表示部124におけるユーザの注視点との間の距離が小さいほど、出力制御部108は、当該仮想オブジェクトの透過度を相対的により大きくしてもよい。
(2-1-5-4. Control example 4)
Alternatively, the
(2−1−5−5.制御例5)
また、出力制御部108は、ARグラス10の位置および姿勢(またはユーザの視線方向の検出結果)が変化する度に、上述した表示制御を逐次実行することが可能である。
(2-1-5-5. Control example 5)
Further, the
(2−1−5−6.制御例6)
また、出力制御部108は、実オブジェクト判断部104による判断結果の変化に応じて、仮想オブジェクトの表示態様を動的に変化させることも可能である。例えば、ある実オブジェクトの隠蔽回避設定がOFFからONに切り替わった際には、(上述したように)出力制御部108は、表示部124と当該実オブジェクトとの間に位置する仮想オブジェクトの表示態様をデフォルトの表示態様から変化させる。また、ある実オブジェクトの隠蔽回避の設定がONからOFFに切り替わった際には、出力制御部108は、表示部124と当該実オブジェクトとの間に位置する仮想オブジェクトの表示態様をデフォルトの表示態様に戻す。
(2-1-5-6. Control example 6)
Further, the
なお、変形例として、仮想オブジェクトの表示態様がデフォルトの表示態様から変化された後に、当該仮想オブジェクトの表示態様を元に戻すための入力をユーザが行った場合には、出力制御部108は、当該仮想オブジェクトの表示態様をデフォルトの表示態様に戻すことも可能である。また、出力制御部108は、履歴情報に基づいて、デフォルトの表示態様に戻すことをユーザが過去に許可した仮想オブジェクトを特定し、そして、特定した仮想オブジェクトに関しては以後デフォルトの表示態様で表示させてもよい。
As a modification, when the user makes an input for returning the display mode of the virtual object after the display mode of the virtual object is changed from the default display mode, the
{2−1−6.通信部120}
通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、仮想オブジェクト取得部102の制御に従って、現在位置の周囲に位置する仮想オブジェクトの取得要求をサーバ20へ送信する。また、通信部120は、仮想オブジェクトをサーバ20から受信する。
{2-1-6. Communication unit 120}
The
{2−1−7.センサ部122}
センサ部122は、例えば、GPS(Global Positioning System)などの測位衛星から測位信号を受信して現在位置を測位する測位装置を含み得る。また、センサ部122は、測域センサを含み得る。
{2-1-7. Sensor unit 122}
The
さらに、センサ部122は、例えば、3軸加速度センサ、ジャイロスコープ、磁気センサ、カメラ、深度センサ、および/または、マイクロフォンなどを含む。例えば、センサ部122は、ARグラス10の速度、加速度、姿勢、または方位などを測定する。また、センサ部122は、ARグラス10を装着するユーザの目の画像を撮影したり、ARグラス10の前方の画像を撮影する。また、センサ部122は、ユーザの前方に位置する物体を検出したり、また、検出した物体までの距離を検出し得る。
Furthermore, the
{2−1−8.表示部124}
表示部124は、出力制御部108の制御に従って、映像を表示する。例えば、表示部124は、左目用レンズおよび右目用レンズそれぞれの少なくとも一部の領域(投影面)に対して映像を投影する。なお、左目用レンズおよび右目用レンズは、例えば樹脂やガラスなどの透明材料により形成され得る。
{2-1-8. Display unit 124}
The
なお、変形例として、表示部124は液晶パネルを有し、かつ、液晶パネルの透過率が制御可能であってもよい。これにより、表示部124は、透明または半透明の状態に制御され得る。
As a modification, the
{2−1−9.記憶部126}
記憶部126は、各種のデータや各種のソフトウェアを記憶する。例えば、記憶部126は、実オブジェクトの種類ごとの隠蔽回避設定条件のリストを記憶する。
{2-1-9. Storage unit 126}
The
<2−2.動作>
以上、本実施形態による構成について説明した。次に、本実施形態による動作の一例について、図10を参照して説明する。図10は、本実施形態による動作例を示したフローチャートである。
<2-2. Operation>
The configuration according to this embodiment has been described above. Next, an example of the operation according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing an operation example according to the present embodiment.
図10に示したように、まず、ARグラス10の仮想オブジェクト取得部102は、センサ部122による位置情報の測定結果に基づいて、現在位置の周囲(例えば上下左右全方位の一定の範囲)に位置する複数の仮想オブジェクトをサーバ20から取得する。そして、仮想オブジェクト取得部102は、センサ部122によるARグラス10の姿勢(またはユーザの視線方向)の測定結果に基づいて、取得した仮想オブジェクトの中から、ユーザの視界内に含まれる仮想オブジェクトを抽出する(S101)。
As shown in FIG. 10, first, the virtual
続いて、実オブジェクト判断部104は、例えば記憶部126に格納されている、実オブジェクトの種類ごとの隠蔽回避設定条件のリストに基づいて、ユーザの視界内に含まれる実オブジェクトのうち、隠蔽回避設定されている実オブジェクトが存在するか否かを判断する(S103)。隠蔽回避設定されている実オブジェクトがユーザの視界内に存在しない場合には(S103:No)、ARグラス10は、後述するS109の処理を行う。
Subsequently, the real
一方、隠蔽回避設定されている実オブジェクトがユーザの視界内に一以上存在する場合には(S103:Yes)、重なり判定部106は、該当の実オブジェクトの各々に関して、当該実オブジェクトとユーザとの間に、S101で取得された仮想オブジェクトのうちの少なくともいずれかが位置するか否かを判定する(S105)。
On the other hand, when one or more real objects that are set to avoid concealment exist in the user's field of view (S103: Yes), the
該当の実オブジェクトの全てとユーザとの間に仮想オブジェクトが全く存在しない場合には(S105:No)、ARグラス10は、後述するS109の処理を行う。
If no virtual object exists between all of the corresponding real objects and the user (S105: No), the
一方、該当の実オブジェクトのうちの少なくともいずれかとユーザとの間に仮想オブジェクトが一以上位置する場合には(S105:Yes)、出力制御部108は、該当の仮想オブジェクトの視認性が低下するように、当該仮想オブジェクトの表示態様を変化させる。例えば、出力制御部108は、該当の仮想オブジェクトを非表示にしたり、半透明にしたり、該当の実オブジェクトと重ならないように表示位置をずらす(S107)。
On the other hand, when one or more virtual objects are located between at least one of the corresponding real objects and the user (S105: Yes), the
その後、出力制御部108は、S101で取得された仮想オブジェクトを表示部124に表示させる(S109)。
Thereafter, the
<2−3.効果>
以上説明したように、本実施形態によれば、ARグラス10は、ユーザの視界内に含まれる実オブジェクトが、隠蔽回避設定されている実オブジェクトであるか否かの判断結果に基づいて、ユーザと当該実オブジェクトとの間の範囲において当該実オブジェクトの認識度合いが変化するように、表示部124による表示を制御する。このため、ユーザの視界内に含まれる実オブジェクトに適応的に当該実オブジェクトの認識度合いを変化させることができる。
<2-3. Effect>
As described above, according to the present embodiment, the
例えば、ユーザの視界内に含まれる個々の実オブジェクトに関して、隠蔽回避設定されている実オブジェクトの方が、隠蔽回避設定されていない実オブジェクトよりも認識度合いが大きくなるように、表示部124による表示を制御する。これにより、隠蔽回避設定されている実オブジェクトが仮想オブジェクトに隠蔽されないようにユーザに視認させたり、または、当該実オブジェクトの代わりとなる仮想オブジェクトをユーザに視認させることができる。従って、隠蔽回避設定されている実オブジェクトの存在をユーザに認識させることができるので、ユーザがARグラス10を装着しながら行動する際の安全性を向上させることができる。
For example, with respect to individual real objects included in the user's field of view, display by the
<<3.ハードウェア構成>>
次に、本実施形態によるARグラス10のハードウェア構成について、図11を参照して説明する。図11に示すように、ARグラス10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
<< 3. Hardware configuration >>
Next, the hardware configuration of the
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってARグラス10内の動作全般を制御する。また、CPU150は、ARグラス10において制御部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
The
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
The
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
The
バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、およびRAM154を相互に接続する。
The
インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を、バス156と接続する。
The
入力装置160は、例えばボタン、スイッチ、レバー、マイクロフォンなどユーザが情報を入力するための入力手段、および、ユーザによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などから構成される。
The
出力装置162は、例えば、プロジェクタなどの表示装置、および、スピーカーなどの音声出力装置を含む。なお、表示装置は、液晶ディスプレイ(LCD:Liquid Crystal Display)装置や、OLED(Organic Light Emitting Diode)装置などであってもよい。
The
ストレージ装置164は、記憶部126として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
The
通信装置166は、例えば通信網22などに接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部120として機能する。
The
<<4.変形例>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<< 4. Modification >>
The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present disclosure belongs can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present disclosure.
<4−1.変形例1>
例えば、上述した実施形態では、ARグラス10(出力制御部108)が、個々の仮想オブジェクトごとに表示態様を変化させる例について説明したが、かかる例に限定されず、ARグラス10は、複数の仮想オブジェクトの表示態様を纏めて変化させてもよい。一例として、出力制御部108は、隠蔽回避設定されている実オブジェクト全てとユーザとの間に位置する全ての仮想オブジェクトを纏めて非表示にしたり、半透明にしてもよい。
<4-1. Modification 1>
For example, in the above-described embodiment, an example in which the AR glass 10 (the output control unit 108) changes the display mode for each virtual object has been described. However, the present invention is not limited to this example, and the
<4−2.変形例2>
また、別の変形例として、出力制御部108は、仮想オブジェクトの種類によって、仮想オブジェクトの表示態様の変化の仕方を異ならせてもよい。例えば、ユーザに一度だけ確認を促す仮想オブジェクトに関しては、出力制御部108は、ユーザが当該仮想オブジェクトを見たことが認識されたか否かによって、当該仮想オブジェクトの表示態様を変化させてもよい。より具体的には、当該仮想オブジェクトをユーザがまだ見ていない場合には、出力制御部108は、当該仮想オブジェクトをデフォルトの表示態様で表示させる。また、当該仮想オブジェクトをユーザが見たことが認識された以後は、出力制御部108は、当該仮想オブジェクトを非表示にしたり、または、輪郭線のみを表示させるなど簡易な表示形式で表示させる。
<4-2. Modification 2>
As another modification, the
<4−3.変形例3>
また、別の変形例として、複数のユーザの視界内に同じ仮想オブジェクトが含まれる場合には、出力制御部108は、当該複数のユーザの各々に対して表示される当該仮想オブジェクトの表示態様が同一になるように、表示を制御してもよい。
<4-3. Modification 3>
As another modification, when the same virtual object is included in the field of view of a plurality of users, the
<4−4.変形例4>
また、別の変形例として、出力制御部108は、さらに、システムエラーの発生の検出に基づいて、ユーザの視界内に位置する仮想オブジェクトの視認性が低下するように表示を制御してもよい。例えば、ARグラス10が故障した際、ARグラス10によるSLAMのエラーが生じた際、および/または、サーバ20がダウンした際などには、出力制御部108は、全ての仮想オブジェクトを非表示にしたり、半透明にしてもよい。
<4-4. Modification 4>
As another modification, the
<4−5.変形例5>
また、別の変形例として、出力制御部108は、上述した仮想オブジェクトの表示制御の代わりに、または、追加して、ユーザに対して音声や振動(触覚刺激)で通知してもよい。例えば、ユーザの視界内に信号機が存在し、当該信号機が隠蔽回避設定されており、かつ、当該信号機とユーザとの間に仮想オブジェクトが位置しているとする。この場合、出力制御部108は、信号機の点灯色を示す音声(例えば「現在赤です」や「青に変わりました」など)を内蔵のスピーカ(図示省略)に出力させてもよい。または、点灯色の種類ごとに振動のパターンが登録されており、そして、出力制御部108は、信号機の現在の点灯色に対応する振動パターンで、ユーザが携帯する別の機器(スマートフォンやスマートウォッチなど)または3Dグラス10自体を振動させてもよい。
<4-5. Modification 5>
As another modified example, the
<4−6.変形例6>
また、上述した実施形態では、本開示における情報処理装置がARグラス10である例について説明したが、かかる例に限定されない。例えば、上述した制御部100に含まれる全ての構成要素をサーバ20が含む場合には、当該情報処理装置は、サーバ20であってもよい。この場合、サーバ20は、ARグラス10の位置情報および姿勢情報(およびユーザの視線方向の検出結果)をARグラス10から取得することにより、ARグラス10に対して、仮想オブジェクトの表示を制御することが可能である。また、当該情報処理装置は、サーバ20に限定されず、例えば、スマートフォン、タブレット端末、PC、または、ゲーム機など、通信網22に接続可能な他の種類の装置であってもよい。または、当該情報処理装置は、車であってもよい。
<4-6. Modification 6>
Moreover, although embodiment mentioned above demonstrated the example whose information processing apparatus in this indication is
また、上述した実施形態では、本開示における表示部がARグラス10の表示部124である例について説明したが、かかる例に限定されない。例えば、当該表示部は、ヘッドアップディスプレイ(例えば、車載フロントガラスなど)や、卓上型の透明ディスプレイなどのシースルー機器であってもよいし、または、ビデオ透過型のHMD(Head Mounted Display)やタブレット端末などのビデオシースルー機器であってもよい。後者の場合、ユーザの前方の撮像映像が該当のディスプレイに逐次表示され得る。
Moreover, although embodiment mentioned above demonstrated the example in which the display part in this indication is the
または、当該表示部は、3Dプロジェクタであってもよい。この場合、ユーザが装着するセンサまたは環境内に配置されたセンサがユーザの視界をセンシングしながら、当該3Dプロジェクタは、仮想オブジェクトを投影対象に対してプロジェクションマッピングすることにより、上述した実施形態と同様の機能を実現することが可能である。なお、投影対象は、平面であってもよいし、立体物であってもよい。 Alternatively, the display unit may be a 3D projector. In this case, the 3D projector performs projection mapping of the virtual object on the projection target while the sensor worn by the user or the sensor disposed in the environment senses the user's field of view. This function can be realized. The projection target may be a flat surface or a three-dimensional object.
<4−7.変形例7>
また、上述した実施形態では、隠蔽回避設定されるオブジェクトが実オブジェクトである例について説明したが、かかる例に限定されず、仮想オブジェクトが隠蔽回避設定されてもよい。例えば、特定の種類の仮想オブジェクトが隠蔽回避対象として予め設定され得る。一例として、システムからの重要な通知情報、チャットサービスなどにおけるメッセージの表示ウィンドウ、または、メッセージの受信通知画面などが隠蔽回避対象として設定され得る。この場合、ARグラス10は、隠蔽回避設定されている仮想オブジェクトの方が、隠蔽回避設定されていない仮想オブジェクトよりも認識度合いが高まるように表示を制御する。例えば、ARグラス10は、隠蔽回避設定されている仮想オブジェクトとユーザの間に位置する、隠蔽回避設定されていない仮想オブジェクトを非表示にしたり、半透明にしたり、または、表示位置をずらしてもよい。
<4-7. Modification 7>
In the above-described embodiment, the example in which the object to be concealed is set as a real object has been described. For example, a specific type of virtual object may be set in advance as a concealment avoidance target. As an example, important notification information from the system, a message display window in a chat service, or a message reception notification screen may be set as a concealment avoidance target. In this case, the
あるいは、仮想オブジェクトの種類ごとの優先度が予めテーブルに登録され得る。この場合、ARグラス10は、仮想オブジェクトとユーザの間に位置する、当該仮想オブジェクトよりも優先度が低い別の仮想オブジェクトを非表示にしたり、半透明にしたり、または、表示位置をずらしてもよい。これらの表示例によれば、重要度の高い仮想オブジェクトが他の仮想オブジェクトに隠蔽されずに、ユーザに視認させることができる。
Alternatively, the priority for each type of virtual object can be registered in the table in advance. In this case, the
<4−8.変形例8>
また、上述した実施形態の動作における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
<4-8. Modification 8>
In addition, each step in the operation of the above-described embodiment does not necessarily have to be processed in the order described. For example, the steps may be processed by changing the order as appropriate. Each step may be processed in parallel or individually instead of being processed in time series. Further, some of the described steps may be omitted, or another step may be further added.
また、上述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した実施形態によるARグラス10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
In addition, according to the above-described embodiment, it is possible to provide a computer program for causing hardware such as the
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示を制御する出力制御部、
を備える、情報処理装置。
(2)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合と、前記実オブジェクトが前記第1の実オブジェクトとは異なる第2の実オブジェクトであると判断される場合とで前記実オブジェクトの認識度合いが異なるように、前記出力制御部は、前記表示部による表示を制御する、前記(1)に記載の情報処理装置。
(3)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合には、前記実オブジェクトが前記第2の実オブジェクトであると判断される場合よりも前記実オブジェクトの認識度合いが大きくなるように、前記出力制御部は、前記表示部による表示を制御する、前記(2)に記載の情報処理装置。
(4)
前記ユーザと前記実オブジェクトとの間の範囲は、前記ユーザと前記実オブジェクトとの間に位置する所定の形状を有する範囲であり、
前記実オブジェクトが前記第1の実オブジェクトであると判断され、かつ、前記所定の形状を有する範囲に前記実オブジェクトの少なくとも一部が含まれる場合には、前記実オブジェクトの認識度合いが大きくなるように、前記出力制御部は、前記表示部による表示を制御する、前記(3)に記載の情報処理装置。
(5)
前記実オブジェクトと前記ユーザとの位置関係に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(3)または(4)に記載の情報処理装置。
(6)
前記実オブジェクトと前記ユーザとの間の距離に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(5)に記載の情報処理装置。
(7)
前記ユーザを基準とした前記実オブジェクトの向きに基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(5)または(6)に記載の情報処理装置。
(8)
前記実オブジェクトの速度または加速度に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(3)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記実オブジェクトの温度に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(3)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記実オブジェクトからの音または光の発生状況に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(3)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記実オブジェクトは電子機器であり、
前記実オブジェクトの機器状態に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(3)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記実オブジェクトが、所定の種類のオブジェクトであるか否かに基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、前記(3)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合には、前記出力制御部は、前記ユーザと前記実オブジェクトとの間の範囲に位置する第1の仮想オブジェクトの表示態様を変化させる、前記(3)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記実オブジェクトが前記第2の実オブジェクトであると判断される場合には、前記出力制御部は、前記第1の仮想オブジェクトの表示態様を変化させない、前記(13)に記載の情報処理装置。
(15)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合には、前記出力制御部は、前記第1の仮想オブジェクトの一部または全部が非表示になるように表示を制御する、前記(13)または(14)に記載の情報処理装置。
(16)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合には、前記出力制御部は、前記第1の仮想オブジェクトの透過度を大きくする、前記(13)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合には、前記出力制御部は、前記表示部において前記実オブジェクトが視認される領域と前記第1の仮想オブジェクトの表示位置とが重ならないように、前記第1の仮想オブジェクトの表示位置を変更する、前記(13)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記実オブジェクトが前記第1の実オブジェクトであると判断される場合には、前記出力制御部は、前記第1の仮想オブジェクトとは異なる表示位置に、前記実オブジェクトに関連する第2の仮想オブジェクトを新たに表示させる、前記(13)〜(17)のいずれか一項に記載の情報処理装置。
(19)
ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示をプロセッサが制御すること、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示を制御する出力制御部、
として機能させるための、プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
Based on the determination result of whether or not the real object included in the user's field of view is the first real object, the degree of recognition of the real object by the user changes in a range between the user and the real object An output control unit for controlling display by the display unit,
An information processing apparatus comprising:
(2)
When the real object is determined to be the first real object, and when the real object is determined to be a second real object different from the first real object, The information processing apparatus according to (1), wherein the output control unit controls display by the display unit so that the degree of recognition is different.
(3)
When it is determined that the real object is the first real object, the degree of recognition of the real object is greater than when the real object is determined to be the second real object. The information processing apparatus according to (2), wherein the output control unit controls display by the display unit.
(4)
The range between the user and the real object is a range having a predetermined shape located between the user and the real object,
When it is determined that the real object is the first real object and at least a part of the real object is included in the range having the predetermined shape, the recognition degree of the real object is increased. Moreover, the information processing apparatus according to (3), wherein the output control unit controls display by the display unit.
(5)
The information processing apparatus according to (3) or (4), wherein whether or not the real object is the first real object is determined based on a positional relationship between the real object and the user.
(6)
The information processing apparatus according to (5), wherein whether or not the real object is the first real object is determined based on a distance between the real object and the user.
(7)
The information processing apparatus according to (5) or (6), wherein whether or not the real object is the first real object is determined based on a direction of the real object with respect to the user.
(8)
The information processing apparatus according to any one of (3) to (7), wherein whether or not the real object is the first real object is determined based on a speed or acceleration of the real object. .
(9)
The information processing apparatus according to any one of (3) to (8), wherein whether or not the real object is the first real object is determined based on a temperature of the real object.
(10)
The determination according to any one of (3) to (9), wherein whether or not the real object is the first real object is determined based on a sound or light generation state from the real object. Information processing device.
(11)
The real object is an electronic device,
The information processing apparatus according to any one of (3) to (10), wherein whether or not the real object is the first real object is determined based on a device state of the real object.
(12)
Any of (3) to (11), wherein whether or not the real object is the first real object is determined based on whether or not the real object is a predetermined type of object. The information processing apparatus according to one item.
(13)
When it is determined that the real object is the first real object, the output control unit changes a display mode of the first virtual object located in a range between the user and the real object. The information processing apparatus according to any one of (3) to (12).
(14)
The information processing apparatus according to (13), wherein when the real object is determined to be the second real object, the output control unit does not change a display mode of the first virtual object.
(15)
When it is determined that the real object is the first real object, the output control unit controls display so that a part or all of the first virtual object is hidden. (13) The information processing apparatus according to (14).
(16)
When it is determined that the real object is the first real object, the output control unit increases the transparency of the first virtual object, and any one of (13) to (15) The information processing apparatus according to one item.
(17)
When it is determined that the real object is the first real object, the output control unit determines a region where the real object is visually recognized on the display unit and a display position of the first virtual object. The information processing apparatus according to any one of (13) to (16), wherein a display position of the first virtual object is changed so as not to overlap.
(18)
When it is determined that the real object is the first real object, the output control unit displays a second virtual object related to the real object at a display position different from that of the first virtual object. The information processing apparatus according to any one of (13) to (17), wherein the information is newly displayed.
(19)
Based on the determination result of whether or not the real object included in the user's field of view is the first real object, the degree of recognition of the real object by the user changes in a range between the user and the real object The processor controls the display by the display unit,
Including an information processing method.
(20)
Computer
Based on the determination result of whether or not the real object included in the user's field of view is the first real object, the degree of recognition of the real object by the user changes in a range between the user and the real object An output control unit for controlling display by the display unit,
Program to function as
10 ARグラス
20 サーバ
22 通信網
30 実オブジェクト
32 仮想オブジェクト
100 制御部
102 仮想オブジェクト取得部
104 実オブジェクト判断部
106 重なり判定部
108 出力制御部
120 通信部
122 センサ部
124 表示部
126 記憶部
10
Claims (20)
を備える、情報処理装置。 Based on the determination result of whether or not the real object included in the user's field of view is the first real object, the degree of recognition of the real object by the user changes in a range between the user and the real object An output control unit for controlling display by the display unit,
An information processing apparatus comprising:
前記実オブジェクトが前記第1の実オブジェクトであると判断され、かつ、前記所定の形状を有する範囲に前記実オブジェクトの少なくとも一部が含まれる場合には、前記実オブジェクトの認識度合いが大きくなるように、前記出力制御部は、前記表示部による表示を制御する、請求項3に記載の情報処理装置。 The range between the user and the real object is a range having a predetermined shape located between the user and the real object,
When it is determined that the real object is the first real object and at least a part of the real object is included in the range having the predetermined shape, the recognition degree of the real object is increased. The information processing apparatus according to claim 3, wherein the output control unit controls display by the display unit.
前記実オブジェクトの機器状態に基づいて、前記実オブジェクトが前記第1の実オブジェクトであるか否かが判断される、請求項3に記載の情報処理装置。 The real object is an electronic device,
The information processing apparatus according to claim 3, wherein whether or not the real object is the first real object is determined based on a device state of the real object.
を含む、情報処理方法。 Based on the determination result of whether or not the real object included in the user's field of view is the first real object, the degree of recognition of the real object by the user changes in a range between the user and the real object The processor controls the display by the display unit,
Including an information processing method.
ユーザの視界内に含まれる実オブジェクトが第1の実オブジェクトであるか否かの判断結果に基づいて、前記ユーザと前記実オブジェクトとの間の範囲において前記ユーザによる前記実オブジェクトの認識度合いが変化するように表示部による表示を制御する出力制御部、
として機能させるための、プログラム。 Computer
Based on the determination result of whether or not the real object included in the user's field of view is the first real object, the degree of recognition of the real object by the user changes in a range between the user and the real object An output control unit for controlling display by the display unit,
Program to function as
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132696A JP2018005005A (en) | 2016-07-04 | 2016-07-04 | Information processing device, information processing method, and program |
PCT/JP2017/013655 WO2018008210A1 (en) | 2016-07-04 | 2017-03-31 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132696A JP2018005005A (en) | 2016-07-04 | 2016-07-04 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018005005A true JP2018005005A (en) | 2018-01-11 |
Family
ID=60912445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016132696A Pending JP2018005005A (en) | 2016-07-04 | 2016-07-04 | Information processing device, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018005005A (en) |
WO (1) | WO2018008210A1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133489A (en) * | 2018-02-01 | 2019-08-08 | Kddi株式会社 | Terminal apparatus and program |
JP2020095712A (en) * | 2018-12-12 | 2020-06-18 | レノボ・シンガポール・プライベート・リミテッド | Information handling method, information handling device, and storage medium |
JP2020204984A (en) * | 2019-06-19 | 2020-12-24 | 日産自動車株式会社 | Information processing device and information processing method |
JP2021117915A (en) * | 2020-01-29 | 2021-08-10 | グリー株式会社 | Computer programs, server devices, terminal devices, and methods |
JP6968326B1 (en) * | 2021-04-16 | 2021-11-17 | ティフォン株式会社 | Display device, display method and its display program |
US11202118B2 (en) | 2018-05-08 | 2021-12-14 | Gree, Inc. | Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor |
JP7547504B2 (en) | 2020-12-10 | 2024-09-09 | マクセル株式会社 | Display device and display method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113411227A (en) * | 2021-05-07 | 2021-09-17 | 上海纽盾科技股份有限公司 | AR (augmented reality) -assisted network equipment testing method and device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330489A (en) * | 1996-06-07 | 1997-12-22 | Hitachi Ltd | Equipment monitoring method and device |
JP2005037181A (en) * | 2003-07-17 | 2005-02-10 | Pioneer Electronic Corp | Navigation device, server, navigation system, and navigation method |
JP5040061B2 (en) * | 2004-12-15 | 2012-10-03 | コニカミノルタホールディングス株式会社 | Video display device and information providing system |
JP2008083289A (en) * | 2006-09-27 | 2008-04-10 | Sony Corp | Imaging display apparatus, and imaging display method |
DE102013207528A1 (en) * | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | A method for interacting with an object displayed on a data goggle |
US20150296324A1 (en) * | 2014-04-11 | 2015-10-15 | Mitsubishi Electric Research Laboratories, Inc. | Method and Apparatus for Interacting Between Equipment and Mobile Devices |
JP2016045814A (en) * | 2014-08-25 | 2016-04-04 | 泰章 岩井 | Virtual reality service providing system and virtual reality service providing method |
-
2016
- 2016-07-04 JP JP2016132696A patent/JP2018005005A/en active Pending
-
2017
- 2017-03-31 WO PCT/JP2017/013655 patent/WO2018008210A1/en active Application Filing
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133489A (en) * | 2018-02-01 | 2019-08-08 | Kddi株式会社 | Terminal apparatus and program |
US11202118B2 (en) | 2018-05-08 | 2021-12-14 | Gree, Inc. | Video distribution system, video distribution method, and storage medium storing video distribution program for distributing video containing animation of character object generated based on motion of actor |
JP2020095712A (en) * | 2018-12-12 | 2020-06-18 | レノボ・シンガポール・プライベート・リミテッド | Information handling method, information handling device, and storage medium |
JP2020204984A (en) * | 2019-06-19 | 2020-12-24 | 日産自動車株式会社 | Information processing device and information processing method |
JP7321787B2 (en) | 2019-06-19 | 2023-08-07 | 日産自動車株式会社 | Information processing device and information processing method |
JP7001719B2 (en) | 2020-01-29 | 2022-02-04 | グリー株式会社 | Computer programs, server devices, terminal devices, and methods |
US11475609B2 (en) | 2020-01-29 | 2022-10-18 | Gree, Inc. | Computer program, server device, terminal device, and method for moving gift in virtual space |
US20220375168A1 (en) * | 2020-01-29 | 2022-11-24 | Gree, Inc. | Computer program, server device, terminal device, and method for moving gift in virtual space |
JP2021117915A (en) * | 2020-01-29 | 2021-08-10 | グリー株式会社 | Computer programs, server devices, terminal devices, and methods |
US12051132B2 (en) | 2020-01-29 | 2024-07-30 | Gree, Inc. | Computer program, server device, terminal device, and method for moving gift in virtual space |
JP7547504B2 (en) | 2020-12-10 | 2024-09-09 | マクセル株式会社 | Display device and display method |
JP6968326B1 (en) * | 2021-04-16 | 2021-11-17 | ティフォン株式会社 | Display device, display method and its display program |
JP2022164170A (en) * | 2021-04-16 | 2022-10-27 | ティフォン株式会社 | Display device, display method, and display program thereof |
Also Published As
Publication number | Publication date |
---|---|
WO2018008210A1 (en) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018008210A1 (en) | Information processing device, information processing method, and program | |
US20210056765A1 (en) | Information processing apparatus, information processing method, and program | |
CN103975268B (en) | Wearable computer with the response of neighbouring object | |
KR102562577B1 (en) | Indicating out-of-view augmented reality images | |
CN107015638B (en) | Method and apparatus for alerting a head mounted display user | |
TW202113428A (en) | Systems and methods for generating dynamic obstacle collision warnings for head-mounted displays | |
WO2022164586A9 (en) | Context-aware extended reality systems | |
JPWO2019176577A1 (en) | Information processing equipment, information processing methods, and recording media | |
WO2019244670A1 (en) | Information processing device, information processing method, and program | |
WO2017169273A1 (en) | Information processing device, information processing method, and program | |
US11004273B2 (en) | Information processing device and information processing method | |
US10636199B2 (en) | Displaying and interacting with scanned environment geometry in virtual reality | |
KR20160009879A (en) | Wearable display device and method for controlling the same | |
CN112105983A (en) | Enhanced visual ability | |
WO2018198503A1 (en) | Information processing device, information processing method, and program | |
EP3438938B1 (en) | Information processing device, information processing method, and program | |
JP2023549842A (en) | Locating controllable devices using wearable devices | |
JP2016110296A (en) | Wearable device, information processing method, and program | |
JP7625039B2 (en) | program | |
US20240303989A1 (en) | Hazard Notifications for a User | |
US20230035360A1 (en) | Mapping networked devices | |
WO2018008208A1 (en) | Information processing device, information processing method, and program | |
JP2022102681A (en) | Eyeglass-type devices, programs, and control methods |