[go: up one dir, main page]

JP7616216B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7616216B2
JP7616216B2 JP2022527606A JP2022527606A JP7616216B2 JP 7616216 B2 JP7616216 B2 JP 7616216B2 JP 2022527606 A JP2022527606 A JP 2022527606A JP 2022527606 A JP2022527606 A JP 2022527606A JP 7616216 B2 JP7616216 B2 JP 7616216B2
Authority
JP
Japan
Prior art keywords
virtual object
display
user
real space
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022527606A
Other languages
English (en)
Other versions
JPWO2021241110A1 (ja
Inventor
純二 大塚
マシュー ローレンソン
ハーム クローニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2021241110A1 publication Critical patent/JPWO2021241110A1/ja
Application granted granted Critical
Publication of JP7616216B2 publication Critical patent/JP7616216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、実世界に付加的な情報として、仮想的なオブジェクトを実空間上に重畳表示してユーザに提示する拡張現実(AR:Augmented Reality)や、実空間の情報を仮想空間に反映させる複合現実(MR:Mixed Reality)と呼ばれる技術が注目されてきている。このような背景から、AR技術やMR技術の利用を想定したユーザインタフェースについても各種の検討なされてきている。例えば、下記特許文献1では、ユーザが装着するHMD(Head Mounted Display)で表示される仮想空間上に、ユーザが保持する携帯端末の表示部の表示内容を仮想オブジェクトとして表示する技術が開示されている。そして、上記技術によれば、ユーザは、仮想オブジェクトを視認しながら、携帯端末に対してタッチ操作することにより、携帯端末をコントローラとして使用することができる。
特開2018-036974号公報
さらなるAR技術やMR技術の利用に伴い、上記特許文献1のように、ユーザによって同時に複数の表示装置が用いられることが想定される。しかしながら、従来技術においては、同一の仮想オブジェクトを同時に表示する複数の表示装置の利用において、ユーザ体験の向上や操作性の向上については、十分な検討がなされていなかった。
そこで、本開示では、同一の仮想オブジェクトを同時に表示する複数の表示装置の利用において、ユーザ体験や操作性をより向上させることができる情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部を備える情報処理装置が提供される。
また、本開示によれば、情報処理装置が、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させることを含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータを、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部として機能させる、プログラムが提供される。
本開示の概要を説明するための説明図である。 本開示の第1の実施形態に係る情報処理システム10の構成の一例を示すブロック図である。 同実施形態に係る情報処理方法の一例を説明するフローチャートである。 同実施形態に係る表示の一例を説明するための説明図(その1)である。 同実施形態に係る表示の一例を説明するための説明図(その2)である。 同実施形態に係る表示の一例を説明するための説明図(その3)である。 同実施形態に係る表示制御の一例を説明するための説明図である。 本開示の第2の実施形態の概要を説明するための説明図である。 同実施形態に係る情報処理方法の一例を説明するフローチャートである。 同実施形態に係る表示制御の一例を説明するための説明図である。 同実施形態に係る表示の一例を説明するための説明図である。 本開示の第3の実施形態の概要を説明するための説明図である。 同実施形態に係る情報処理方法の一例を説明するフローチャート(その1)である。 同実施形態に係る情報処理方法の一例を説明するフローチャート(その2)である。 同実施形態に係る選択デバイスの特定方法の一例を説明するための説明図である。 本開示の第3の実施形態の変形例の概要を説明するための説明図である。 制御ユニット500の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。
以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、以下の説明においては、仮想オブジェクトは、ユーザによって実空間に存在する現実物体のように知覚されることができる仮想物体のことを意味する。具体的には、仮想オブジェクトは、例えば、表示される、又は、投影されるゲームのキャラクタやアイテム等のアニメーションや、ユーザインタフェースとしてのアイコン、テキスト(ボタン等)等であることができる。
また、以下の説明においては、AR表示とは、実世界を拡張するように、ユーザが視認する実空間に重畳されるように上記仮想オブジェクトを表示することである。また、このようなAR表示により実世界に付加的な情報としてユーザに提示される仮想オブジェクトは、アノテーションとも呼ばれる。さらに、以下の説明においては、非AR表示とは、実空間に付加的な情報を重畳して実世界を拡張するように表示する以外の表示であり、本実施形態においては、例えば、仮想空間上に仮想オブジェクトを表示することや、単に仮想オブジェクトのみを表示することも含む。
なお、説明は以下の順序で行うものとする。
1. 概要
1.1 背景
1.2 本開示の実施形態の概要
2. 第1の実施形態
2.1 情報処理システム10の概略的な構成
2.2 制御ユニット500の詳細構成
2.3 情報処理方法
3. 第2の実施形態
3.1 制御ユニット500の詳細構成
3.2 情報処理方法
4. 第3の実施形態
4.1 制御ユニット500の詳細構成
4.2 情報処理方法
4.3 変形例
5. まとめ
6. ハードウェア構成
7. 補足
<<1. 概要>>
<1.1 背景>
まず、図1を参照して、本開示の背景について説明する。図1は、本開示の概要を説明するための説明図である。本開示においては、図1に示すように、ユーザ900が、2つのデバイスを使用して、仮想オブジェクト600の視認し、仮想オブジェクト600のコントロールを行うような状況において、使用され得る情報処理システム10を検討する。
詳細には、上記2つのデバイスのうちの一方は、例えば、図1中に示されるHMD(Head Mounted Display)のような、ユーザ900によって実空間に存在する現実物体(実オブジェクト)のように知覚することができるように、仮想オブジェクト600を実空間に重畳表示することができるARデバイス(第1の表示装置)100であるものとする。
すなわち、当該ARデバイス100は、画像の表現方法として上述したAR表示を用いる表示装置であるといえる。また、上記2つのデバイスのうちの一方は、例えば、図1中に示されるスマートフォンのような、ユーザ900によって実空間に存在する現実物体(実オブジェクト)のように知覚するように表示するものではないが、仮想オブジェクト600を表示することができる非ARデバイス(第2の表示装置)200であるものとする。すなわち、当該非ARデバイス200は、画像の表現方法として上述した非AR表示を用いる表示装置であるといえる。
そして、本開示においては、ユーザ900は、ARデバイス100及び非ARデバイス200を使用して、同一の仮想オブジェクト600を視認することができ、且つ、当該仮想オブジェクト600に対して操作を行うような状況を想定している。より具体的には、本開示においては、例えば、ユーザ900が、ARデバイス100を用いて、自身と同一空間上に存在しているように知覚される仮想オブジェクト600であるキャラクタと交流しつつ、非ARデバイス200を用いて、上記キャラクタの全体像やプロファイル情報、キャラクタの視点からの映像、マップ等を確認するといった状況を想定している。
そして、本発明者らは、本開示で想定される状況においては、異なる表現方法を用いる2つのデバイスでの仮想オブジェクト600の表示に対して、ユーザ900の知覚が異なることから、各デバイスに割り当てられた表現方法に応じた形態を持つように、仮想オブジェクト600を表示することが好ましいと考えた。
詳細には、本発明者らは、ARデバイス100においては、ユーザ900によって実空間に存在する現実物体のように知覚することができるように、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離や、ユーザ900の視点の位置に応じて、仮想オブジェクト600の表示が変化するように制御することを選択した。一方、本発明者らは、非ARデバイス200においては、実空間に存在する現実物体のように知覚することができるようにすることが求められていないことから、上記距離や上記視点の位置に応じて仮想オブジェクト600の表示が変化しなくてもよいと考えた。すなわち、本発明者らは、非ARデバイス200においては、仮想オブジェクト600の表示は、上記距離や上記視点の位置に依存することなく、独立して制御することを選択した。
すなわち、本発明者らは、上記状況では、自然な仮想オブジェクト600の表示を可能にし、ユーザ体験や操作性をより向上させるためには、異なる表現方法を用いる2つのデバイスでの仮想オブジェクト600の表示は、互いに、異なる形態、異なる変化、もしくは、ユーザ900からの操作に対して異なる反応をすることが好ましいと考えた。そして、本発明者らは、このような考えに基づき、本開示の実施形態を創作するに至ったのである。
<1.2 本開示の実施形態の概要>
本発明者らが創作した本開示の実施形態においては、上述したARデバイス100及び非ARデバイス200を含む複数の表示装置により、同一の仮想オブジェクト600を表示させる状況において、各表示装置に割り当てられた表現方法に応じて、仮想オブジェクト600の表示に関して異なる制御を行う。詳細には、本開示の実施形態においては、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離やユーザ900の視点の位置に応じて動的に変化するパラメータを用いて、ARデバイス100での仮想オブジェクト600の表示を制御する。一方、本開示の実施形態においては、上記距離や上記位置に応じて動的に変化しない、予め定義されたパラメータを用いて、非ARデバイス200での仮想オブジェクト600の表示を制御する。
本開示の実施形態においては、このようにすることで、ユーザ900の知覚が異なる表現方法を用いるARデバイス100及び非ARデバイス200での仮想オブジェクト600の表示は、互いに、異なる形態、異なる変化、もしくは、ユーザ900からの操作に対して異なる反応をすることとなる。従って、本開示の実施形態においては、より自然な仮想オブジェクト600の表示が可能になり、ユーザ体験や操作性をより向上させることができる。以下、このような本開示の各実施形態の詳細を順次説明する。
<<2. 第1の実施形態>>
<2.1 情報処理システム10の概略的な構成>
まずは、図2を参照して、本開示の第1の実施形態に係る情報処理システム10の概略的な構成について説明する。図1は、本実施形態に係る情報処理システム10の構成の一例を示すブロック図である。図1に示すように、本実施形態に係る情報処理システム10は、例えば、ARデバイス(第1の表示装置)100と、非ARデバイス(第2の表示装置)200と、深度測定ユニット(実空間情報取得装置)300と、視線センサユニット(視線検出装置)400と、制御ユニット(情報処理装置)500とを含むことができる。
なお、本実施形態においては、ARデバイス100は、深度測定ユニット300、視線センサユニット400及び制御ユニット500のうちの1つ、2つ又は全部と一体なった装置であってもよく、すなわち、それぞれ単一の装置によって実現されていなくてもよい。また、情報処理システム10に含まれるARデバイス100、非ARデバイス200、深度測定ユニット300及び視線センサユニット400は、図2に図示された数に限定されるものではなく、さらに多くてもよい。
また、ARデバイス100と、非ARデバイス200と、深度測定ユニット300と、視線センサユニット400と、制御ユニット500とは、互いに有線又は無線の各種の通信ネットワークを介して通信することができる。なお、上記通信ネットワークの種別は特に限定されない。具体的な例として、当該ネットワークは、移動体通信技術(GSM(登録商標)、UMTS、LTE、LTE-Advanced、5Gもしくはそれ以降の技術も含む)や、無線LAN(Local Area Network)、専用線等により構成されていてもよい。また、当該ネットワークは、複数のネットワークを含んでもよく、一部が無線で残りが有線のネットワークとして構成されていてもよい。以下に、本実施形態に係る情報処理システム10に含まれる各装置の概略について説明する。
(ARデバイス100)
ARデバイス100は、実空間上のユーザ900の視点として定義された第1の視点から視認される、仮想オブジェクト600が仮想的に配置された実空間の風景をAR表示する表示装置である。詳細には、ARデバイス100は、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離やユーザ900の視点の位置に応じて仮想オブジェクト600の形態等を変化させて表示することができる。具体的には、ARデバイス100は、HMDや、ユーザ900の前方等に設けられ、実空間に対して仮想オブジェクト600の画像を重畳させて表示するHUD(Head-Up Display)や、実空間に仮想オブジェクト600の像を投影して表示することができるプロジェクタ等であることができる。すなわち、ARデバイス100は、仮想的に設定された実空間上の位置に仮想オブジェクト600があたかも存在するように、実空間に位置する実オブジェクトの光学像に重畳して、仮想オブジェクト600を表示する表示装置である。
また、ARデバイス100は、図2に示すように、仮想オブジェクト600を表示する表示部102と、後述する制御ユニット500からの制御パラメータに従って表示部102を制御する制御部104とを有する。
以下、本実施形態に係るARデバイス100が、例えば、ユーザ900の頭部の少なくとも一部に装着して使用するHMDである場合における、表示部102の構成例について説明する。この場合、AR表示を適用し得る表示部102としては、例えば、シースルー型、ビデオシースルー型、及び網膜投射型を挙げることができる。
シースルー型の表示部102は、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系をユーザ900の眼前に保持し、当該虚像光学系の内側に画像を表示させる。そのため、シースルー型の表示部102を持つHMDを装着したユーザ900は、虚像光学系の内側に表示された画像を視聴している間も、外部の実空間の風景を視野に入れることが可能となる。このような構成により、シースルー型の表示部102は、例えば、AR表示に基づき、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクト600の画像を重畳させることができる。
ビデオシースルー型の表示部102は、ユーザ900の頭部又は顔部に装着された場合に、ユーザ900の眼を覆うように装着され、ユーザ900の眼前に保持されることとなる。また、ビデオシースルー型の表示部102を持つHMDは、周囲の風景を撮像するための外向カメラ(図示省略)を有し、当該外向カメラにより撮像されたユーザ900の前方の風景の画像を表示部102に表示させる。このような構成により、ビデオシースルー型の表示部102を持つHMDを装着したユーザ900は、外部の風景を直接視野に入れることは困難ではあるが、ディスプレイに表示された画像により、外部の風景(実空間)を確認することが可能となる。また、このとき当該HMDは、例えば、AR表示に基づき、外部の風景の画像に対して仮想オブジェクト600の画像を重畳させることができる。
網膜投射型の表示部102は、ユーザ900の眼前に保持された投影部(図示省略)を有し、当該投影部は、ユーザ900の眼に向けて、外部の風景に対して画像が重畳するように画像を投影する。より具体的には、網膜投射型の表示部102を有するHMDでは、ユーザ900の眼の網膜に対して、投影部から画像が直接投射され、当該画像が網膜上で結像する。このような構成により、近視や遠視のユーザ900の場合においても、より鮮明な映像を視聴することが可能となる。また、網膜投射型の表示部102を有するHMDを装着したユーザ900は、投影部から投影される画像を視聴している間も、外部の風景(実空間)を視野に入れることが可能となる。このような構成により、網膜投射型の表示部102を有するHMDは、例えば、AR表示に基づき、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクト600の画像を重畳させることができる。
さらに、本実施形態においては、ARデバイス100は、ユーザ900が保持し、搭載されたカメラ(図示省略)の位置から見た実空間の画像に仮想オブジェクト600を重畳して表示することができるスマートフォン及びタブレット等であることもできる。このような場合、上述の第1の視点は、実空間上のユーザ900の視点であることに限定されるものではなく、ユーザ900が保持するスマートフォンのカメラの位置であることとなる。
また、ARデバイス100の有する制御部104は、後述する制御ユニット500からのパラメータ等に従って、表示部102の動作全般を制御する。当該制御部104は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)といったマイクロプロセッサの電子回路等によって実現することができる。また、当該制御部104は、使用するプログラムや演算パラメータ等を格納するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時的に格納するRAM(Random Access Memory)等を含んでいてもよい。例えば、制御部104は、制御ユニット500からのパラメータに従って、表示部102での仮想オブジェクト600の表示を、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離に応じて、動的に変化させるように制御する。
また、ARデバイス100は、外部装置と無線通信等により接続することができる通信インタフェースである通信部(図示省略)を有していてもよい。当該通信部は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
さらに、本実施形態においては、ARデバイス100には、ユーザ900により入力操作を行うためのボタン(図示省略)やスイッチ(図示省略)等(操作入力部の一例)が設けられていてもよい。また、ARデバイス100に対するユーザ900の入力操作としては、上述のようなボタン等に対する操作だけでなく、音声による入力、手又は頭部によるジェスチャ入力、視線による入力等の様々な入力方式を選択することができる。なお、これら各種の入力方式による入力操作は、ARデバイス100に設けられた各種センサ(サウンドセンサ(図示省略)、カメラ(図示省略)、モーションセンサ(図示省略))等により取得することができる。加えて、ARデバイス100には、ユーザ900に向けて音声を出力するスピーカ(図示省略)が設けられていてもよい。
さらに、本実施形態においては、ARデバイス100には、後述するような深度測定ユニット300、視線センサユニット400及び制御ユニット500が設けられていてもよい。
加えて、本実施形態においては、ARデバイス100には、測位センサ(図示省略)が設けられていてもよい。当該測位センサは、当該ARデバイス100を装着したユーザ900の位置を検出するセンサであり、具体的には、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、測位センサは、GNSS衛星からの信号に基づいて、ユーザ900の現在地の緯度・経度を示すセンシングデータを生成することができる。また、本実施形態においては、例えば、RFID(Radio Frequency Identification)、Wi-Fiのアクセスポイント、無線基地局の情報等からユーザ900の相対的な位置関係を検出することが可能なため、このような通信のための通信装置を上記測位センサとして利用することも可能である。さらに、本実施形態においては、上述したモーションセンサ(図示省略)に含まれる加速度センサ、ジャイロセンサ、地磁気センサ等のセンシングデータを処理(累積計算等)することにより、ARデバイス100を装着したユーザ900の位置や姿勢を検出してもよい。
(非ARデバイス200)
非ARデバイス200は、ユーザ900に向けて仮想オブジェクト600の像を非AR表示することができる表示装置である。詳細には、実空間上の、ユーザ900の視点として定義された第1の視点とは異なる位置の第2の視点から視認される仮想オブジェクト600を表示することができる。本実施形態においては、第2の視点は、実空間上に仮想的に設定された位置であってもよく、実空間上における仮想オブジェクト600又はユーザ900の位置から、所定の距離だけ離れた位置であってもよく、もしくは、仮想オブジェクト600上に設定された位置であってもよい。非ARデバイス200は、例えば、ユーザ900の携帯するスマートフォンやタブレットPC(Personal Computer)、又は、ユーザ900の腕に装着されたスマートウォッチ等であることができる。さらに、非ARデバイス200は、図2に示すように、仮想オブジェクト600を表示する表示部202と、後述する制御ユニット500からの制御パラメータ等に従って表示部202を制御する制御部204とを有する。
表示部202は、非ARデバイス200の表面に設けられ、制御部204によって制御されることにより、仮想オブジェクト600をユーザ900に対して非AR表示することができる。表示部202は、例えば、液晶ディスプレイ(Liquid Crystal Display;LCD)装置、OLED(Organic Light Emitting Diode)装置等の表示装置から実現することができる。
また、制御部204は、後述する制御ユニット500からの制御パラメータ等に従って、表示部202の動作全般を制御する。制御部204は、例えばCPU、GPUといったマイクロプロセッサの電子回路によって実現される。また、制御部204は、使用するプログラムや演算パラメータ等を格納するROM、及び適宜変化するパラメータ等を一時的に格納するRAM等を含んでいてもよい。
また、非ARデバイス200は、外部装置と無線通信等により接続することができる通信インタフェースである通信部(図示省略)を有していてもよい。当該通信部は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
さらに、本実施形態においては、非ARデバイス200には、ユーザ900により入力操作を行うための入力部(図示省略)が設けられていてもよい。当該入力部は、例えば、タッチパネルやボタン等のような入力デバイスにより構成される。本実施形態においては、非ARデバイス200は、仮想オブジェクト600の動作や位置等を変更操作することができる、コントローラとして機能することができる。加えて、非ARデバイス200には、ユーザ900に向けて音声を出力するスピーカ(図示省略)や、実空間上の実オブジェクトやユーザ900の姿を撮像可能なカメラ(図示省略)等が設けられていてもよい。
さらに、本実施形態においては、非ARデバイス200には、後述するような深度測定ユニット300、視線センサユニット400及び制御ユニット500が設けられていてもよい。加えて、本実施形態においては、非ARデバイス200には、測位センサ(図示省略)が設けられていてもよい。さらに、本実施形態においては、非ARデバイス200には、加速度センサ、ジャイロセンサ、地磁気センサ等を含むモーションセンサ(図示省略)が設けられていてもよい。
(深度測定ユニット300)
深度測定ユニット300は、ユーザ900の周囲の実空間の3次元情報を取得することができる。詳細には、深度測定ユニット300は、図2に示すように、3次元情報を取得することができる深度センサ部302と、取得した3次元情報を格納する記憶部304とを有する。例えば、深度センサ部302は、ユーザ900の周囲の実空間の深度情報を取得するTOF(Time Of Flight)センサ(測距装置)、及び、ステレオカメラ、Structured Light センサ等の撮像装置であってもよい。本実施形態においては、深度センサ部302で得られたユーザ900の周囲の実空間の3次元情報は、ユーザ900の周囲の環境情報として利用されるだけでなく、実空間上での、仮想オブジェクト600とユーザ900との間の距離情報及び位置関係情報を含む位置情報を得るために利用することができる。
詳細には、TOFセンサは、ユーザ900の周囲の実空間に赤外光等の照射光を照射し、実空間上の実オブジェクト(壁等)の表面で反射された反射光を検知する。そして、TOFセンサは、照射光と反射光との位相差を算出することにより、TOFセンサから実オブジェクトまでの距離(深度情報)を取得することができ、従って、実空間の3次元形状データとして、実オブジェクトまでの距離情報(深度情報)を含めた距離画像を得ることができる。なお、上述のように位相差により距離情報を得る方法は、インダイレクトTOF方式と呼ばれる。また、本実施形態においては、照射光を出射した時点から、当該照射光が実オブジェクトで反射されて反射光として受光されるまでの光の往復時間を検出することにより、TOFセンサから実オブジェクトまでの距離(深度情報)を取得することが可能なダイレクトTOF方式を用いることも可能である。
ここで、距離画像とは、例えば、TOFセンサの画素ごとに取得された距離情報(奥行き情報)を、該当する画素の位置情報に紐づけて生成された情報である。また、ここで3次元情報とは、距離画像における画素の位置情報を、TOFセンサの実空間上の位置に基づき実空間上の座標に変換し、変換して得た座標に該当する距離情報を紐づけて生成された、実空間における3次元座標情報(詳細には、複数の3次元座標情報の集合体)のことである。本実施形態においては、このような距離画像や3次元情報を用いることにより、実空間上の遮蔽物(壁等)の位置や形状を把握することができる。
さらに、本実施形態においては、TOFセンサがARデバイス100に設けられていた場合には、TOFセンサによって得られた3次元情報と、予め取得しておいた同一実空間(室内等)の3次元情報モデル(壁の位置や形状等)とを比較することにより、実空間上のユーザ900の位置や姿勢を検出してもよい。また、本実施形態においては、TOFセンサが実空間(室内等)に設置されていた場合には、TOFセンサによって得られた3次元情報から人の形状を抽出することにより、実空間上のユーザ900の位置や姿勢を検出してもよい。本実施形態においては、このように検出したユーザ900の位置情報は、実空間上での、仮想オブジェクト600とユーザ900との間の距離情報及び位置関係情報を含む位置情報を得るために利用することができる。さらに、本実施形態においては、上記3次元情報に基づく実空間の仮想風景(実空間に模したイラスト)を生成し、上述した非ARデバイス200等に表示させてもよい。
また、Structured Light センサは、ユーザ900の周囲の実空間に対して赤外線等の光により所定のパターンを照射しそれを撮像することにより、撮像結果から得られる当該所定のパターンの変形に基づき、Structured Light センサから実オブジェクトまでの距離(深度情報)を含めた距離画像を得ることができる。さらに、ステレオカメラは、ユーザ900の周囲の実空間を2つの異なる方向から2つのカメラで同時に撮影し、これらのカメラの視差を利用して、ステレオカメラから実オブジェクトまでの距離(深度情報)を取得することができる。
さらに、記憶部304は、深度センサ部302がセンシングを実行するためのプログラム等や、センシングによって得られた3次元情報を格納することができる。当該記憶部304は、例えば、ハードディスク(Hard Disk:HD)などの磁気記録媒体や、フラッシュメモリ(flash memory)等の不揮発性メモリ等により実現される。
また、深度測定ユニット300は、外部装置と無線通信等により接続することができる通信インタフェースである通信部(図示省略)を有していてもよい。当該通信部は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
さらに、本実施形態においては、深度測定ユニット300は、先に説明したように、上述したARデバイス100や非ARデバイス200に設けられていてもよい。もしくは、本実施形態においては、深度測定ユニット300は、ユーザ900の周囲の実空間(例えば、室内等)に設置されていてもよく、この場合、深度測定ユニット300の実空間上の位置情報については、既知であるものとする。
(視線センサユニット400)
視線センサユニット400は、ユーザ900の眼球を撮像し、ユーザ900の視線を検出することができる。なお、視線センサユニット400は、主に後述する実施形態において使用されることとなる。視線センサユニット400は、例えば、ARデバイス100であるHMDに内向カメラ(図示省略)として構成することができる。そして、当該内向カメラにより取得されたユーザ900の眼の撮影映像を解析して、ユーザ900の視線方向を検出する。なお、本実施形態においては、視線検出のアルゴリズムは特に限定されないが、例えば、目頭と虹彩の位置関係、又は、角膜反射(プルキニエ像等)と瞳孔の位置関係に基づいて視線検出を実現することができる。また、本実施形態においては、視線センサユニット400は、上述のような内向カメラに限定されるものではなく、ユーザ900の眼球を撮像できるカメラや、ユーザ900の目の周囲に電極を装着して眼電位を測定する眼電位センサであってもよい。さらに、本実施形態においては、機械学習で得られたモデルを利用して、ユーザ900の視線方向を認識してもよい。なお、視線方向の認識の詳細については、後述する実施形態で説明する。
また、視線センサユニット400は、外部装置と無線通信等により接続することができる通信インタフェースである通信部(図示省略)を有していてもよい。当該通信部は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
さらに、本実施形態においては、視線センサユニット400は、先に説明したように、上述したARデバイス100や非ARデバイス200に設けられていてもよい。もしくは、本実施形態においては、視線センサユニット400は、ユーザ900の周囲の実空間(例えば、室内等)に設置されていてもよく、この場合、視線センサユニット400の実空間上の位置情報については、既知であるものとする。
(制御ユニット500)
制御ユニット500は、上述したARデバイス100及び非ARデバイス200での表示を制御するための装置である。詳細には、本実施形態においては、ARデバイス100による仮想オブジェクト600のAR表示は、制御ユニット500により、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離やユーザ900の視点の位置に応じて動的に変化するパラメータを用いて制御される。さらに、本実施形態においては、非ARデバイス200による仮想オブジェクト600の表示も、当該制御ユニット500により、予め定義されたパラメータを用いて制御される。また、制御ユニット500は、CPU、RAM、ROM等を中心に構成することができる。さらに、制御ユニット500は、外部装置と無線通信等により接続することができる通信インタフェースである通信部(図示省略)を有していてもよい。当該通信部は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
また、本実施形態においては、制御ユニット500は、先に説明したように、上述したARデバイス100や非ARデバイス200に設けられていてもよく(一体のものとして設けられる)、このようにすることで、表示制御の際の遅延を抑えることができる。もしくは、本実施形態においては、制御ユニット500は、ARデバイス100や非ARデバイス200とは別個の装置として設けられていてもよい(例えば、ネットワーク上に存在するサーバ等であってもよい)。なお、制御ユニット500の詳細構成については、後述する。
<2.2 制御ユニット500の詳細構成>
次に、本実施形態に係る制御ユニット500の詳細構成について、図2を参照して説明する。上述したように、制御ユニット500は、ARデバイス100及び非ARデバイス20で表示される仮想オブジェクト600の表示を制御することができる。詳細には、図2に示すように、制御ユニット500は、3次元情報取得部(位置情報取得部)502と、オブジェクト制御部(制御部)504と、ARデバイスレンダリング部506と、非ARデバイスレンダリング部508と、検出部(選択結果取得部)510と、視線評価部520とを主に有する。以下に、制御ユニット500の各機能部の詳細について順次説明する。
(3次元情報取得部502)
3次元情報取得部502は、上述した深度測定ユニット300から、ユーザ900の周囲の実空間の3次元情報を取得し、後述するオブジェクト制御部504に出力する。3次元情報取得部502は、上記3次元情報から実空間上の実オブジェクトの位置、姿勢、形状等の情報を抽出して、オブジェクト制御部504に出力してもよい。また、3次元情報取得部502は、仮想オブジェクト600の表示のために仮想的に割り当てられた実空間上の位置情報を参照して、上記3次元情報に基づき、実空間上での、仮想オブジェクト600とユーザ900との間の距離情報及び位置関係情報を含む位置情報を生成し、オブジェクト制御部504に出力してもよい。さらに、3次元情報取得部502は、深度測定ユニット300だけでなく、上述した測位センサ(図示省略)からの、実空間上におけるユーザ900の位置情報を取得してもよい。
(オブジェクト制御部504)
オブジェクト制御部504は、ARデバイス100及び非ARデバイス200のそれぞれに、仮想オブジェクト600の表示のために割り当てられた表現方法に応じて、ARデバイス100及び非ARデバイス200での仮想オブジェクト600の表示を制御する。詳細には、オブジェクト制御部504は、ARデバイス100及び非ARデバイス200のそれぞれに、仮想オブジェクト600の表示のために割り当てられた表現方法に応じて、仮想オブジェクト600の表示に関する各パラメータ(例えば、仮想オブジェクト600の、動画表示における表示変化量や、ユーザ900の入力操作によって変化する表示変化量等)を動的に変化させる。そして、オブジェクト制御部504は、このように変化させたパラメータを後述するARデバイスレンダリング部506及び非ARデバイスレンダリング部508に出力する。出力したパラメータは、ARデバイス100及び非ARデバイス200での仮想オブジェクト600の表示の制御に用いられることとなる。
より詳細には、オブジェクト制御部504は、例えば、深度測定ユニット300から取得した上記3次元情報に基づく、実空間上での仮想オブジェクト600とユーザ900との間の距離等を含む位置情報に応じて、ARデバイス100での仮想オブジェクト600の表示に関するパラメータを動的に変化させる。
より具体的には、仮想オブジェクト600とユーザ900との間の距離が長く(遠く)なるほど、ユーザ900によって実空間に存在する現実物体のように知覚されるように、ARデバイス100で表示される仮想オブジェクト600の大きさが小さくなる。そのため、ユーザ900の仮想オブジェクト600の視認性が低下し、例えば、仮想オブジェクト600がゲームのキャラクタであった場合等には、当該キャラクタの細かな動きが視認難くなる。そこで、本実施形態においては、オブジェクト制御部504は、上記距離が長くなるほど、ARデバイス100に表示させる仮想オブジェクト600の動画表示における表示変化量(仮想オブジェクト600の移動(ジャンプ等)の量子化の度合い)が大きくなるようにパラメータを変化させる。また、オブジェクト制御部504は、上記距離が長くなるほど、ARデバイス100に表示させる仮想オブジェクト600の動画表示における軌跡を平滑化するようにパラメータを変化させる。このようにすることで、本実施形態においては、ユーザ900によって実空間に存在する現実物体のように知覚されるようにARデバイス100で表示される仮想オブジェクト600の大きさが小さくなっても、当該仮想オブジェクト600の動きの視認性の低下を抑制することができる。
また、本実施形態においては、ユーザ900によって実空間に存在する現実物体のように知覚され難くなるものの、オブジェクト制御部504は、仮想オブジェクト600とユーザ900との間の距離が長くなるほど、ARデバイス100に表示させる仮想オブジェクト600の表示面積が大きくなるようにパラメータを変化させてもよい。さらに、本実施形態においては、オブジェクト制御部504は、仮想オブジェクト600が、ARデバイス100で表示されている他の仮想オブジェクトに対して、より近づきやすくなったり、遠ざかりやすくなったり、攻撃等のアクションをしやすくなったりするように、上記パラメータを変化させてもよい。
一方、本実施形態においては、オブジェクト制御部504は、非ARデバイス200での仮想オブジェクト600の表示に関するパラメータは、予め定義されたパラメータ(例えば、固定値)を用いる。なお、本実施形態においては、上記予め定義されたパラメータは、所定のルールによって処理された後に、非ARデバイス200での仮想オブジェクト600の表示のために用いられてもよい。
(ARデバイスレンダリング部506)
ARデバイスレンダリング部506は、上述したオブジェクト制御部504から出力されたパラメータ等を利用して、ARデバイス100に表示させる画像のレンダリング処理を行い、レンダリング後の画像データをARデバイス100に対して出力する。
(非ARデバイスレンダリング部508)
非ARデバイスレンダリング部508は、上述したオブジェクト制御部504から出力されたパラメータ等を利用して、非ARデバイス200に表示させる画像のレンダリング処理を行い、レンダリング後の画像データを非ARデバイス200に対して出力する。
(検出部510)
検出部510は、図2に示すように、視線検出部512と視線分析部514とを主に有する。視線検出部512は、ユーザ900の視線を検出して、ユーザ900の視線方向を取得し、視線分析部514は、ユーザ900の視線方向に基づいて、ユーザ900がコントローラ(入力装置)として選択したであろうデバイスを特定する。そして、特定された特定結果(選択結果)は、後述する視線評価部520で評価処理去られた後、オブジェクト制御部504に出力され、仮想オブジェクト600の表示に関するパラメータを変化させる際に用いられることとなる。なお、検出部510による処理の詳細については、後で説明する本開示の第3の実施形態において述べる。
(視線評価部520)
視線評価部520は、上述した検出部510で特定したユーザ900がコントローラとして選択したであろうデバイスに対して、機械学習で得られたモデル等を利用して、ユーザ900がコントローラとして各デバイスを選択する確率を算出することにより、特定した結果を評価することができる。本実施形態においては、視線評価部520により、ユーザ900がコントローラとして各デバイスを選択する確率を算出して、それに基づき、ユーザ900がコントローラとして選択したデバイスを最終的に特定することにより、ユーザ900の視線の先が絶えず定まらない場合であっても、ユーザ900の視線の方向に基づいて、コントローラとして選択されたデバイスを、精度よく特定することができる。なお、視線評価部520による処理の詳細については、後で説明する本開示の第3の実施形態において述べる。
<2.3 情報処理方法>
次に、図3から図7を参照して、本開示の第1の実施形態に係る情報処理方法について説明する。図3は、本実施形態に係る情報処理方法の一例を説明するフローチャートであり、図4から図6は、本実施形態に係る表示の一例を説明するための説明図であり、図7は、本実施形態に係る表示制御の一例を説明するための説明図である。
詳細には、図3に示すように、本実施形態に係る情報処理方法は、ステップS101からステップS105までのステップを含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。
まずは、制御ユニット500は、制御する対象の表示装置に、AR表示を行うARデバイス100が含まれているかどうかを判定する(ステップS101)。制御ユニット500は、ARデバイス100が含まれている場合(ステップS101:Yes)には、ステップS102の処理へ進み、ARデバイス100が含まれていない場合(ステップS101:No)には、ステップS105の処理へ進む。
次に、制御ユニット500は、実空間上でのユーザ900の位置や姿勢の情報を含む位置情報を取得する(ステップS102)。さらに、制御ユニット500は、取得した位置情報に基づき、実空間上での、仮想オブジェクト600とユーザ900との間の距離を算出する。
そして、制御ユニット500は、上述のステップS102で算出した上記距離に応じて、ARデバイス100で表示される仮想オブジェクト600の表示を制御する(距離依存制御)(ステップS103)。詳細には、制御ユニット500は、実空間上での、仮想オブジェクト600とユーザ900との間の距離や位置関係に応じて、ARデバイス100での仮想オブジェクト600の表示に関するパラメータを動的に変化させる。
より具体的には、図4に示すように、ARデバイス100の表示部102は、ARデバイス100を装着したユーザ900の視点(第1の視点)700から見た実空間の像(例えば、実オブジェクト800の像)に重畳して、仮想オブジェクト600を表示することとなる。この際、制御ユニット500は、仮想オブジェクト600が、ユーザ900によって実空間に存在する現実物体のように知覚されることができるように、ユーザ900の視点(第1の視点)700から見た形態を持って表示するように、上記パラメータを動的に変化させる。さらに、制御ユニット500は、仮想オブジェクト600が、上述のステップS102で算出した上記距離に応じた大きさを持つように表示するように、上記パラメータを動的に変化させる。そして、制御ユニット500は、このようにして得られたパラメータを用いて、ARデバイス100に表示させる画像のレンダリング処理を行い、レンダリング後の画像データをARデバイス100に対して出力することにより、ARデバイス100での仮想オブジェクト600のAR表示を距離依存制御することができる。なお、本実施形態においては、仮想オブジェクト600が移動したり、ユーザ900が移動したり姿勢を変化させたりした場合には、それに応じて、表示する仮想オブジェクト600に対して距離依存制御がなされることとなる。このようにすることで、AR表示された仮想オブジェクト600は、ユーザ900によって実空間に存在する現実物体のように知覚されることができる。
次に、制御ユニット500は、制御する対象の表示装置に、非AR表示を行う非ARデバイス200が含まれているかどうかを判定する(ステップS104)。制御ユニット500は、非ARデバイス200が含まれている場合(ステップS104:Yes)には、ステップS105の処理へ進み、非ARデバイス200が含まれていない場合(ステップS104:No)には、処理を終了する。
そして、制御ユニット500は、事前に定義(設定)されたパラメータによって、非ARデバイス200で表示される仮想オブジェクト600の表示を制御する(ステップS105)。そして、制御ユニット500は、当該情報処理方法での処理を終了する。
より具体的には、図4に示すように、非ARデバイス200の表示部202は、実空間上に仮想的に固定された視点(第2の視点)702から見た仮想オブジェクト600(詳細には、仮想オブジェクト600の背面の画像)が表示されることとなる。この際、制御ユニット500は、事前に定義(設定)されたパラメータを選択し、状況に応じて選択したパラメータを変化させる。さらに、制御ユニット500は、当該パラメータを用いて、非ARデバイス200に表示させる画像のレンダリング処理を行い、レンダリング後の画像データを非ARデバイス200に対して出力することにより、非ARデバイス200での仮想オブジェクト600の非AR表示を制御することができる。
また、本実施形態においては、図5に示すように、上記視点702が、実空間上で、仮想オブジェクト600の仮想的な位置に対して、ユーザ900側の反対側に位置する場合には、非ARデバイス200の表示部202は、図4とは異なる形態の仮想オブジェクト600(詳細には、仮想オブジェクト600の前面)を表示してもよい。
さらに、本実施形態においては、図6に示すように、上記視点702が仮想オブジェクト600上に仮想的に配置された場合には、非ARデバイス200の表示部202は、視点702から見たユーザ900をイメージさせるようなアバター650を表示してもよい。このような場合、仮想オブジェクト600が移動したり、ユーザ900が移動したり姿勢を変化させたりした場合には、それに応じて、表示するアバター650の形態を変化させてもよい。
本実施形態においては、図3に示す情報処理方法は、実空間上での、仮想オブジェクト600の仮想的な位置が変化したり、ユーザ900の位置や姿勢が変化したりするごとに、これらをトリガーにして、繰り返し実行されてもよい。このようにすることで、ARデバイス100によってAR表示された仮想オブジェクト600は、ユーザ900によって実空間に存在する現実物体のように知覚されることができる。
本実施形態においては、先に説明したように、実空間上での仮想オブジェクト600とユーザ900との間の距離に応じて、ARデバイス100での仮想オブジェクト600の表示に関するパラメータを動的に変化させる(距離依存制御)。そこで、本実施形態における、ARデバイス100によってAR表示された仮想オブジェクト600の制御の具体的な例について、図7を参照して説明する。
より具体的には、図7に示されるように、仮想オブジェクト600とユーザ900との間の距離が遠くなるほど、ユーザ900によって実空間に存在する現実物体のように知覚されるように、ARデバイス100で表示される仮想オブジェクト600の大きさが小さくなる。そのため、ユーザ900の仮想オブジェクト600の視認性が低下し、例えば、仮想オブジェクト600がゲームのキャラクタであった場合等には、当該キャラクタの細かな動きが視認難くなる。そこで、本実施形態においては、制御ユニット500は、上記距離が遠くなるほど、ARデバイス100に表示させる仮想オブジェクト600の動画表示における表示変化量(ジャンプ量、移動量、方向量子化量)が大きくなるようにパラメータを変化させる。また、制御ユニット500は、上記距離が長くなるほど、ARデバイス100に表示させる仮想オブジェクト600の動画表示における軌跡の平滑化を大きくするようにパラメータを変化させる。このようにすることで、本実施形態においては、ユーザ900によって実空間に存在する現実物体のように知覚されるようにARデバイス100で表示される仮想オブジェクト600の大きさが小さくなっても、当該仮想オブジェクト600の動きの視認性の低下を抑制することができる。
さらに、本実施形態においては、図7に示すように、制御ユニット500は、実空間上での仮想オブジェクト600とユーザ900との間の距離に応じて、仮想オブジェクト600が、ARデバイス100で表示されている他の仮想オブジェクト602に対して、例えばユーザ900からの操作をトリガーにして、より近づくように大きく移動したり、遠ざかるように大きく移動したりするように、パラメータを変化させてもよい。また、本実施形態においては、制御ユニット500は、上記距離に応じて、仮想オブジェクト600が他の仮想オブジェクト602に対して、例えばユーザ900からの操作をトリガーにして攻撃等のアクションをしやすくなったりするように、パラメータを変化させてもよい。このようにすることで、本実施形態においては、ユーザ900によって実空間に存在する現実物体のように知覚されるようにARデバイス100で表示される仮想オブジェクト600の大きさが小さくなっても、仮想オブジェクト600の操作性の低下を抑制することができる。
また、本実施形態においては、ユーザ900によって実空間に存在する現実物体のように知覚され難くなるものの、制御ユニット500は、仮想オブジェクト600とユーザ900との間の距離が遠くなるほど、ARデバイス100に表示させる仮想オブジェクト600の表示面積が大きくなるようにパラメータを変化させてもよい。
以上のように、本実施形態によれば、ユーザの知覚の仕方が異なるARデバイス100及び非ARデバイスにおいて、仮想オブジェクト600の表示が、異なる形態、異なる変化、もしくは、ユーザ900からの操作に対して異なる反応をすることから、ユーザ体験や操作性をより向上させることができる。
<<3. 第2の実施形態>>
まずは、図8を参照して、本開示の第2の実施形態で想定される状況について説明する。図8は、本実施形態の概要を説明するための説明図である。例えば、本実施形態に係る情報処理システム10を利用して、ユーザ900がゲームをしている際に、図8に示すように、実空間上において、ユーザ900と仮想オブジェクト600との間に、ユーザ900の視界を遮るような、壁等の遮蔽物802が存在する場合がある。このような状況の場合、ユーザ900は、遮蔽物802に遮られて、ARデバイス100の表示部102を用いて仮想オブジェクト600を視認することができないことから、仮想オブジェクト600の操作を行うことが難しくなる。
そこで、本実施形態においては、ARデバイス100での、仮想オブジェクト600の全体又は一部の表示が遮蔽物802により妨げられる状況(オクルージョンの発生)にあるか否かに応じて、仮想オブジェクト600の表示を動的に変化させる。詳細には、例えば、ARデバイス100の表示部102を用いて、遮蔽物802の存在により仮想オブジェクト600が視認できない状況の場合には、仮想オブジェクト600の表示位置を、遮蔽物802によって視認が妨げられない位置に変更する。このようにすることで、本実施形態においては、実空間上で、ユーザ900と仮想オブジェクト600との間にユーザ900の視界を遮るような遮蔽物802が存在する場合であっても、ユーザ900は、ARデバイス100の表示部102を用いて仮想オブジェクト600を視認することを容易にすることができる。その結果、本実施形態によれば、ユーザ900によって仮想オブジェクト600の操作を行うことが容易となる。
なお、本実施形態においては、遮蔽物802の存在により仮想オブジェクト600が視認できない場合だけでなく、深度測定ユニット300によって、実空間上での、仮想オブジェクト600の周囲の深度情報が取得できない場合(例えば、実空間上に、透明な実オブジェクトや黒色の実オブジェクトが存在する場合や、深度センサ部302のノイズ等が発生している場合等)にも、ARデバイス100での仮想オブジェクト600の表示を動的に変化させてもよい。もしくは、本実施形態においては、ARデバイス100は、深度情報が取得できない領域に別の仮想オブジェクト610(図11 参照)を、実空間に重畳表示(AR表示)させてもよい。以下、本実施形態の詳細を説明する。
<3.1 制御ユニット500の詳細構成>
本実施形態に係る情報処理システム10及び制御ユニット500の構成例は、先に説明した第1の実施形態と同様であるため、ここでは説明を省略する。しかしながら、本実施形態においては、制御ユニット500のオブジェクト制御部504は、以下のような機能も持つ。
詳細には、本実施形態においては、オブジェクト制御部504は、上記3次元情報に基づいて、実空間上で仮想オブジェクト600とユーザ900との間に位置する、実オブジェクトである遮蔽物(遮蔽オブジェクト)802が存在する場合には、遮蔽物802が存在する領域をオクルージョン領域として設定する。さらに、オブジェクト制御部504は、仮想オブジェクト600と当該オクルージョン領域とが重畳する領域を小さくするように、ARデバイス100における、仮想オブジェクト600の表示位置もしくは表示形態、又は、仮想オブジェクト600の動画表示における移動量を変化させるため、パラメータを変化させる。
また、本実施形態においては、オブジェクト制御部504は、3次元情報が取得できない領域が検出された場合(例えば、実空間上に、透明な実オブジェクトや黒色の実オブジェクトが存在する場合や、深度センサ部302のノイズ等が発生している場合等)には、当該領域を不定領域として設定する。さらに、オブジェクト制御部504は、仮想オブジェクト600と当該不定領域とが重畳する領域を小さくするように、ARデバイス100における、仮想オブジェクト600の表示位置もしくは表示形態、又は、仮想オブジェクト600の動画表示における移動量を変化させるため、パラメータを変化させる。さらに、本実施形態においては、オブジェクト制御部504は、上記不定領域に、他の仮想オブジェクト(別の仮想オブジェクト)610(図11 参照)を表示させるためのパラメータを生成してもよい。
<3.2 情報処理方法>
次に、図9から図11を参照して、本開示の第2の実施形態に係る情報処理方法について説明する。図9は、本実施形態に係る情報処理方法の一例を説明するフローチャートであり、図10は、本実施形態に係る表示制御の一例を説明するための説明図であり、図11は、本実施形態に係る表示の一例を説明するための説明図である。
詳細には、図9に示すように、本実施形態に係る情報処理方法は、ステップS201からステップS209までのステップを含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。なお、以下の説明においては、上述の第1の実施形態と異なる点のみを説明し、第1の実施形態と共通する点については、その説明を省略する。
ステップS201及びステップS202は、図3に示す、第1の実施形態のステップS101及びステップS102と同様であるため、ここではその説明を省略する。
まずは、制御ユニット500は、実空間上の、仮想オブジェクト600の設定位置の周囲の3次元情報が取得できたか否かを判定する(ステップS203)。制御ユニット500は、実空間上の、仮想オブジェクト600の周囲の3次元情報が取得できた場合(ステップS203:Yes)には、ステップS204の処理へ進み、実空間上の、仮想オブジェクト600の周囲の3次元情報が取得できない場合(ステップS203:No)には、ステップS205の処理へ進む。
ステップS204は、図3に示す、第1の実施形態のステップS103と同様であるため、ここではその説明を省略する。
次に、制御ユニット500は、遮蔽物802により、仮想オブジェクト600の周囲の3次元情報が取得できなかったか否かを判定する(ステップS205)。すなわち、遮蔽物802についての3次元情報(位置、姿勢、形状)が取得できるものの、実空間上の、仮想オブジェクト600の設定位置の周囲の3次元情報が取得できなかった場合(ステップS205:Yes)には、ステップS206の処理へ進み、遮蔽物802の存在ではなく、例えば、深度センサ部302のノイズ等により、仮想オブジェクト600の周囲の3次元情報が取得できなかった場合(ステップS205:No)には、ステップS207の処理へ進む。
次に、制御ユニット500は、遮蔽物802が存在する領域をオクルージョン領域として設定する。そして、制御ユニット500は、仮想オブジェクト600と当該オクルージョン領域とが重畳する領域を小さくするように、ARデバイス100における、仮想オブジェクト600の表示位置もしくは表示形態、又は、仮想オブジェクト600の動画表示における移動量を変化させる(オクルージョン領域の距離依存制御)(ステップS206)。
より具体的には、本実施形態においては、図10に示すように、仮想オブジェクト600の全体又は一部が、遮蔽物802に隠れるような位置にある場合には、平行方向への移動量を大きくすること(移動速度を早くする又はワープさせる)によって、仮想オブジェクト600を視認できるように、もしくは、視認できるような状況がすぐに来るように制御する。また、同様の場合、本実施形態においては、図10に示すように、仮想オブジェクト600を高くジャンプさせるように制御して、仮想オブジェクト600を視認できるように制御してもよい。さらに、本実施形態においては、仮想オブジェクト600を視認できるように、仮想オブジェクト600の移動可能な方向を制限してもよい(例えば、図10中の奥行き方向への移動を制限する)。
次に、制御ユニット500は、ノイズ等により、仮想オブジェクト600の周囲の3次元情報が取得できなかった領域を不定領域として設定する。そして、上述したステップS206と同様に、制御ユニット500は、仮想オブジェクト600と当該不定領域とが重畳する領域を小さくするように、ARデバイス100における、仮想オブジェクト600の表示位置もしくは表示形態、又は、仮想オブジェクト600の動画表示における移動量を変化させる(不定領域の距離依存制御)(ステップS207)。
より具体的には、当該ステップS207においては、上述のステップS206と同様に、仮想オブジェクト600の全体又は一部が、上記不定領域に隠れるような位置にある場合には、平行方向への移動量を大きくすること(移動速度を早くする又はワープさせる)によって、仮想オブジェクト600を視認できるように、もしくは、視認できるような状況がすぐに来るように制御する。また、同様の場合、当該ステップS207においては、上述のステップS206と同様に、仮想オブジェクト600を高くジャンプさせるように制御して、仮想オブジェクト600を視認できるように制御してもよい。さらに、本実施形態においては、仮想オブジェクト600を視認できるように、仮想オブジェクト600の移動可能な方向を制限してもよい。
さらに、当該ステップS207においては、図11に示すように、ARデバイス100は、不定領域に対応するように、他の仮想オブジェクト(別の仮想オブジェクト)610を表示してもよい。
ステップS208及びステップS209は、図3に示す、第1の実施形態のステップS104及びステップS105と同様であるため、ここではその説明を省略する。
本実施形態においても、第1の実施形態と同様に、図9に示す情報処理方法は、実空間上での、仮想オブジェクト600の仮想的な位置が変化したり、ユーザ900の位置や姿勢が変化したりするごとに、これらをトリガーにして、繰り返し実行されてもよい。このようにすることで、ARデバイス100によってAR表示された仮想オブジェクト600は、ユーザ900によって実空間に存在する現実物体のように知覚されることができる。
以上のように、本実施形態によれば、実空間上で、ユーザ900と仮想オブジェクト600との間にユーザ900の視界を遮るような遮蔽物802が存在する場合であっても、ユーザ900は、ARデバイス100の表示部102を用いて仮想オブジェクト600を視認することを容易にすることができる。その結果、本実施形態によれば、ユーザ900によって仮想オブジェクト600の操作を行うことが容易となる。
<<4. 第3の実施形態>>
まずは、図12を参照して、本開示の第3の実施形態で想定される状況について説明する。図13は、本実施形態の概要を説明するための説明図である。例えば、本実施形態に係る情報処理システム10を利用してユーザ900がゲームをしている際に、図12に示すように、ユーザ900は、ARデバイス100及び非ARデバイス200の両方を用いて、同一の仮想オブジェクト600を視認し、且つ、当該仮想オブジェクトに対して操作可能であるものとする。すなわち、ARデバイス100及び非ARデバイス200を用いた仮想オブジェクト600に対しての操作は、排他的でないものとする。
このような状況の場合、ユーザ900がARデバイス100及び非ARデバイス200のうちからコントローラ(操作デバイス)として選択したデバイスに応じて、仮想オブジェクト600の表示を制御することが求められる。すなわち、このような状況においては、ユーザ900にとっては仮想オブジェクト600に対する操作は同じであっても、それぞれに表示される仮想オブジェクト600の形態(例えば、変化量等)は、コントローラとして選択したデバイスに応じて変えることにより、ユーザ体験や操作性をより向上させることが求められる。
そこで、本実施形態においては、ユーザ900の視線に基づいて、ユーザ900がコントローラとして選択したデバイスを特定し、特定した結果に基づいて、仮想オブジェクト600の表示を動的に変化させる。本実施形態においては、例えば、ユーザ900がARデバイス100を選択した場合には、仮想オブジェクト600の表示において上述したような距離依存の制御を行い、ユーザ900が非ARデバイス200を選択した場合には、仮想オブジェクト600の表示において予め定義されたパラメータで制御する。本実施形態によれば、このように制御を行うことにより、ユーザ900にとっては仮想オブジェクト600に対する操作は同じであっても、表示される仮想オブジェクト600の形態はコントローラとして選択したデバイスに応じて変わることから、ユーザ体験や操作性をより向上させることができる。
さらに、本実施形態においては、ユーザ900の視線の方向に基づいて、ユーザ900がコントローラとして選択したデバイスを特定する。しかしながら、上述した状況においては、ユーザ900は、ARデバイス100及び非ARデバイス200の両方を用いることができることから、その視線の先は、1つに定まることはなく、絶えず移動していることが想定される。従って、視線の先が絶えず定まらない場合には、ユーザ900の視線の方向に基づいてデバイスを特定することが難しく、さらには、精度よくデバイスを特定することが難しい。また、単純に、ユーザの視線に方向に基づいて選択したデバイスを特定し、特定した結果に基づいて、仮想オブジェクト600の表示を動的に変化させた場合には、仮想オブジェクト600の動きが、特定されたデバイスが変わるごとに非連続となり、かえって操作性が悪化することも考えられる。
そこで、本実施形態においては、ユーザ900がコントローラとして各デバイスを選択する確率を算出して、それに基づき、ユーザ900がコントローラとして選択したデバイスを特定し、特定した結果に基づいて、仮想オブジェクト600の表示を動的に変化させる。本実施形態によれば、このようにすることで、ユーザ900の視線の先が絶えず定まらない場合であっても、ユーザ900の視線の方向に基づいて、コントローラとして選択されたデバイスを、精度よく特定することができる。さらに、本実施形態によれば、このようにすることで、仮想オブジェクト600の動きが非連続となることを抑えることができ、操作性の悪化を避けることができる。
<4.1 制御ユニット500の詳細構成>
本実施形態に係る情報処理システム10及び制御ユニット500の構成例は、第1の実施形態と同様であるため、ここでは説明を省略する。しかしながら、本実施形態においては、制御ユニット500は、以下のような機能も持つ。
詳細には、本実施形態においては、オブジェクト制御部504は、ユーザ900がコントローラとして選択したデバイスに応じて、例えばユーザ900の入力操作によって変化する表示変化量が変化するように、仮想オブジェクト600の表示に関するパラメータを動的に変化させることができる。
<4.2 情報処理方法>
次に、図13から図15を参照して、本開示の第3の実施形態に係る情報処理方法について説明する。図13及び図14は、本実施形態に係る情報処理方法の一例を説明するフローチャートであり、詳細には、図14は、図13に示されるステップS301のサブフローチャートである。また、図15は、本実施形態に係る選択デバイスの特定方法の一例を説明するための説明図である。
詳細には、図13に示すように、本実施形態に係る情報処理方法は、ステップS301からステップS305までのステップを含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。なお、以下の説明においては、上述の第1の実施形態と異なる点のみを説明し、第1の実施形態と共通する点については、その説明を省略する。
まずは、制御ユニット500は、ユーザ900の視線に基づいてユーザ900がコントローラとして選択したデバイスを特定する(ステップS301)。なお、当該ステップS301の詳細処理は、図14を参照して後述する。
次に、制御ユニット500は、上述のステップS301で特定されたデバイスが、ARデバイス100であるかどうかを判定する(ステップS302)。特定されたデバイスがARデバイス100である場合(ステップS302:Yes)には、ステップS303の処理へ進み、特定されたデバイスが非ARデバイス200である場合(ステップS302:No)には、ステップS305の処理へ進む。
ステップS303からステップS305は、図3に示す、第1の実施形態のステップS102、ステップS103及びステップS105と同様であるため、ここではその説明を省略する。
なお、本実施形態においても、第1の実施形態と同様に、図13に示す情報処理方法は、実空間上での、仮想オブジェクト600の仮想的な位置が変化したり、ユーザ900の位置や姿勢が変化したりするごとに、これらをトリガーにして、繰り返し実行されてもよい。このようにすることで、ARデバイス100によってAR表示された仮想オブジェクト600は、ユーザ900によって実空間に存在する現実物体のように知覚されることができる。さらに、本実施形態においては、ユーザ900の視線に基づいてユーザ900がコントローラとして選択したデバイスが変化したことをトリガーにして、繰り返し実行されてもよい。
次に、図14を参照して、図13のステップS301の詳細処理を説明する。詳細には、図14に示すように、本実施形態に係るステップS301は、ステップS401からステップS404までのサブステップを含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。
まずは、制御ユニット500は、ユーザ900の眼球の動き検出する視線センサユニット400からのセンシングデータに基づいて、ユーザ900の視線の方向を特定する(ステップS401)。詳細には、制御ユニット500は、例えば、視線センサユニット400で得られた、ユーザ900の眼球の撮像画像を用いて、目頭と虹彩の位置関係等に基づいて、ユーザ900の視線方向を特定することができる。なお、本実施形態においては、所定の時間内において特定されたユーザ900の視線方向は、ユーザの眼球の移動が常に起きていることから、複数の結果が得られる場合が生じ得る。また、当該ステップS401においては、機械学習で得られたモデルを利用して、ユーザ900の視線方向を特定してもよい。
次に、制御ユニット500は、上述したステップS401で特定された視線方向に基づいて、ユーザ900が注目する仮想オブジェクト600を特定する(ステップS402)。例えば、図15に示すように、ユーザ900の目950から延びる水平線に対する視線方向の角度a、角度bにより、ユーザ900が注目する仮想オブジェクト600が、図15中の上側に示される、ARデバイス100に表示された仮想オブジェクト600aなのか、図15中の下側に示される、非ARデバイス200に表示された仮想オブジェクト600bなのかを特定することができる。なお、本実施形態においては、複数の視線方向の結果が得られている場合には、各視線方向に対応する、ユーザ900が注目する仮想オブジェクト600が特定されることとなる。さらに、当該ステップS402においては、機械学習で得られたモデルを利用して、ユーザ900の注目する仮想オブジェクト600を特定してもよい。
次に、制御ユニット500は、上述したステップS402で特定された仮想オブジェクト600に対して、ユーザ900が注目している確率を算出することにより、各仮想オブジェクト600を表示するデバイスをユーザ900がコントローラとして選択する確率を算出することにより、特定した結果を評価する(ステップS403)。
詳細には、例えば、動く仮想オブジェクト600の場合には、ユーザ900から注目される確率は高く、また、例えば、鮮やかな色彩の仮想オブジェクト600の場合には、ユーザ900から注目される確率は高い。さらに、例えば、発話しているような音声出力(イフェクト)を伴って表示されている仮想オブジェクト600も、ユーザ900から注目される確率は高い。また、仮想オブジェクト600がゲームのキャラクタであれば、当該キャラクタに割り当てられたプロファイル(役割(主人公、仲間、敵)等)によって、ユーザ900から注目される確率は異なることとなる。そこで、このような特定された仮想オブジェクト600に関する情報(動作、大きさ、形状、色彩、プロファイル)等に基づき、各仮想オブジェクト600がユーザ900から注目される確率を算出する。なお、この際、制御ユニット500は、機械学習で得られたモデル等を利用して、上記確率を算出してもよく、加えて、ARデバイス100に設けられたモーションセンサ(図示省略)によって検出したユーザ900の動作等や、非ARデバイス200に設けられたモーションセンサ(図示省略)によって検出した非ARデバイス200の位置や姿勢等を利用して、上記確率を算出してもよい。さらには、ユーザ900が本実施形態に係る情報処理システム10を利用してゲームを行っている場合には、制御ユニット500は、ゲーム上の状況を利用して、上記確率を算出してもよい。なお、本実施形態においては、算出された確率は、仮想オブジェクト600の表示に関するパラメータを変化させる際に利用してもよい。
そして、制御ユニット500は、算出した確率に基づいて、選択したデバイスを特定する(ステップS404)。本実施形態においては、例えば、算出された確率が、所定の値以上であれば、その確率に対応する仮想オブジェクト600を表示するデバイスが、ユーザ900からコントローラとして選択された選択デバイスとして特定される。また、本実施形態においては、例えば、最も高い確率に対応する仮想オブジェクト600を表示するデバイスが、選択デバイスとして特定される。また、本実施形態においては、算出された確率を用いて外挿等の統計処理することにより、選択デバイスを特定してもよい。本実施形態によれば、このようにすることで、ユーザ900の視線の先が絶えず定まらない場合であっても、ユーザ900の視線の方向に基づいて、コントローラとして選択されたデバイスを、精度よく特定することができる。
以上のように、本実施形態においては、ユーザ900の視線に基づいて、ユーザ900がコントローラとして選択したデバイスを特定し、特定した結果に基づいて、仮想オブジェクト600の表示を動的に変化させることができる。本実施形態によれば、このように制御を行うことにより、ユーザ900にとっては仮想オブジェクト600に対する操作は同じであっても、表示される仮想オブジェクト600の形態はコントローラとして選択したデバイスに応じて変わることから、ユーザ体験や操作性をより向上させることができる。
さらに、本実施形態においては、ユーザ900がコントローラとして各デバイスを選択する確率(詳細には、ユーザ900が仮想オブジェクト600を注目する確率)を算出して、それに基づき、ユーザ900がコントローラとして選択したデバイスを特定し、特定した結果に基づいて、仮想オブジェクト600の表示を動的に変化させる。本実施形態によれば、このようにすることで、ユーザ900の視線の先が絶えず定まらない場合であっても、ユーザ900の視線の方向に基づいて、コントローラとして選択されたデバイスを、精度よく特定することができる。さらに、本実施形態によれば、このようにすることで、仮想オブジェクト600の動きが非連続となることを抑えることができ、操作性の悪化を避けることができる。
さらに、本実施形態においては、ユーザ900の視線の移動に起因して、仮想オブジェクト600の表示に関するパラメータ(制御パラメータ)が頻繁に変化することにより、仮想オブジェクト600の動きが非連続となることを抑えるために、各デバイスを選択する確率を用いて、直接的に仮想オブジェクト600の表示に関するパラメータを選択するのではなく、各デバイスを選択する確率を用いて、仮想オブジェクト600の表示に関するパラメータを調整(内挿)してもよい。例えば、ユーザ900の視線の方向に基づいて得られたコントローラとしてデバイスが選択された確率が、デバイスaでは0.3、デバイスbでは0.7であるものとする。そして、コントローラとしてデバイスaが選択された際の制御パラメータはCa、デバイスbが選択された際の制御パラメータがCbであるものとする。このような場合、コントローラとしてデバイスが選択された確率が高いデバイスbに基づいて、最終的な制御パラメータCをCbに設定するのではなく、各デバイスを選択する確率を用いて、最終的な制御パラメータCを、例えば、C=0.3×Ca+0.7×Cbのような形で内挿することにより得てもよい。このようにすることで、仮想オブジェクト600の動きが非連続となることを抑えることができる。
なお、本実施形態においては、ユーザ900の視線の移動に起因して、仮想オブジェクト600の表示に関するパラメータが頻繁に変化することにより、仮想オブジェクト600の動きが非連続となることを抑えるために、ユーザ900が予め設定することにより、パラメータが変化する頻度や変化量を制限してもよい。また、本実施形態においては、例えば、ユーザ900の操作が連続して行われている間には、仮想オブジェクト600の表示に関するパラメータを変化させないように制限してもよい。また、本実施形態においては、ユーザ900が所定の時間以上、特定の仮想オブジェクト600を注視していることが検出されたことをトリガーにして、仮想オブジェクト600の表示に関するパラメータを変化させてもよい。さらに、本実施形態においては、ユーザ900の視線の方向による選択デバイスの特定だけでなく、ユーザ900が所定の操作を行ったことも併せて検出したことをトリガーにして、仮想オブジェクト600の表示に関するパラメータを変化させてもよい。
さらに、本実施形態においては、ユーザ900に対してどちらのデバイスがコントローラとして特定されているかを認識させるために、例えば、ARデバイス100がコントローラとして特定されている際には、非ARデバイス200において、仮想オブジェクト600上に設けられた視点702からの画像を表示しないようにしてもよい。また、同様に、例えば、非ARデバイス200がコントローラとして特定されている際には、ARデバイス100に、非ARデバイス200が表示する画像と同じ画像を表示させてもよい。
<4.3 変形例>
さらに、本実施形態においては、ユーザ900の視線の方向を検出するだけでなく、ユーザ900のジャスチャを検出することにより、ユーザ900がコントローラとして選択した選択デバイスを特定してもよい。以下、図16を参照して、このような本実施形態の変形例を説明する。図16は、本開示の第3の実施形態の変形例の概要を説明するための説明図である。
詳細には、本変形例においては、制御ユニット500は、ユーザ900の手920の動きを撮像する撮像装置(ジェスチャ検出装置)(図示省略)の画像から、図16に示すような所定のジェスチャを検出した場合には、検出したジェスチャに基づいて、ユーザ900がコントローラとして選択した選択デバイスを特定する。
また、本変形例においては、ARデバイス100がHMDである場合には、当該HMDに設けられたモーションセンサ(図示省略)により、上記HMDを装着したユーザ900の頭部の動きを検出し、検出した頭部の動きに基づいて、ユーザ900がコントローラとして選択した選択デバイスを特定してもよい。さらに、本変形例においては、ARデバイス100や非ARデバイス200等にサウンドセンサ(図示省略)が設けられていた場合には、ユーザ900の音声又は当該音声から抽出される所定のフレーズに基づき、ユーザ900がコントローラとして選択した選択デバイスを特定してもよい。
<<5. まとめ>>
以上のように、本開示の各実施形態においては、同一の仮想オブジェクト600を同時に表示する複数の表示装置の利用の際に、ユーザの知覚の仕方が異なるARデバイス100及び非ARデバイスにおいて、仮想オブジェクト600の表示が、異なる形態、異なる変化、もしくは、ユーザ900からの操作に対して異なる反応をすることから、ユーザ体験や操作性をより向上させることができる。
なお、本開示の各実施形態においては、先に説明したように、仮想オブジェクト600は、ゲームのキャラクタやアイテム等であることに限定されるものではなく、例えば、他の用途(ビジネスツール)でのユーザインタフェースとしての、アイコン、テキスト(ボタン等)、3次元画像等であってもよく、特に限定されるものではない。
<<6. ハードウェア構成>>
上述してきた各実施形態に係る制御ユニット500等の情報処理装置は、例えば図17に示すような構成のコンピュータ1000によって実現される。以下、本開示の実施形態の制御ユニット500を例に挙げて説明する。図17は、制御ユニット500の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース1500、及び入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インタフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインタフェースである。例えば、CPU1100は、通信インタフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インタフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインタフェースである。例えば、CPU1100は、入出力インタフェース1600を介して、キーボードやマウス、マイクロフォン(マイク)等の入出力デバイス1650からデータを受信する。また、CPU1100は、入出力インタフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インタフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が本開示の実施形態に係る制御ユニット500として機能する場合、コンピュータ1000のCPU1100は、RAM1200に格納されたプログラムを実行することにより、制御部200等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理システムとして実現することも可能である。
以上、制御ユニット500のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
<<7. 補足>>
なお、先に説明した本開示の実施形態は、例えば、上記で説明したような情報処理装置又は情報処理システムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、当該プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
また、上述した本開示の実施形態の情報処理方法における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法により処理されていてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部を備える、
情報処理装置。
(2)
前記複数の表示装置は、
実空間上のユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含む、
上記(1)に記載の情報処理装置。
(3)
前記制御部は、実空間情報取得装置からの前記ユーザの周囲の前記実空間の3次元情報に応じて、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
上記(2)に記載の情報処理装置。
(4)
前記実空間情報取得装置は、前記ユーザの周囲の前記実空間を撮像する撮像装置、又は、前記ユーザの周囲の前記実空間の深度情報を取得する測距装置である、
上記(3)に記載の情報処理装置。
(5)
前記制御部は、
前記3次元情報に基づいて、前記実空間上で前記仮想オブジェクトと前記ユーザとの間に位置する遮蔽オブジェクトが存在する領域、又は、前記3次元情報が取得できない領域が検出された場合には、
前記領域をオクルージョン領域として設定し、
前記仮想オブジェクトと前記オクルージョン領域とが重畳する領域を小さくするように、前記第1の表示装置における、前記仮想オブジェクトの表示位置もしくは表示形態、又は、前記仮想オブジェクトの動画表示における移動量を変化させる、
上記(3)又は(4)に記載の情報処理装置。
(6)
前記制御部は、前記3次元情報が取得できない不定領域に別の仮想オブジェクトを表示するように、前記第1の表示装置を制御する、
上記(5)に記載の情報処理装置。
(7)
前記実空間上での、前記仮想オブジェクトと前記ユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部をさらに備え、
前記制御部は、前記位置情報に応じて、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
上記(2)~(6)のいずれか1つに記載の情報処理装置。
(8)
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように制御する、上記(7)に記載の情報処理装置。
(9)
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における表示変化量が大きくなるように制御する、上記(7)に記載の情報処理装置。
(10)
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における軌跡を平滑化するように制御する、上記(7)に記載の情報処理装置。
(11)
前記制御部は、前記位置情報に応じて、前記第1の表示装置に表示させる前記仮想オブジェクトの、前記ユーザの入力操作によって変化する表示変化量を動的に変化させる、
上記(7)に記載の情報処理装置。
(12)
前記制御部は、
前記第2の表示装置に対して、前記実空間上の、前記第1の視点とは異なる第2の視点から視認される、前記仮想オブジェクトの像を表示するように制御する、
上記(2)~(11)のいずれか1つに記載の情報処理装置。
(13)
前記第2の視点は、前記仮想オブジェクト上に仮想的に配置される、上記(12)に記載の情報処理装置。
(14)
前記制御部は、前記第1及び第2の表示装置のそれぞれに前記画像の表示のために割り当てられた前記画像の表現方法に応じて、前記第1及び第2の表示装置のそれぞれに表示させる前記仮想オブジェクトの動画表示における表示変化量を変化させる、
上記(2)に記載の情報処理装置。
(15)
前記ユーザが、前記第1の表示装置及び前記第2の表示装置のうちのいずれかを入力装置として選択したかの選択結果を取得する選択結果取得部をさらに備え、
前記制御部は、前記選択結果に応じて、前記仮想オブジェクトの、前記ユーザの入力操作によって変化する表示変化量を動的に変化させる、
上記(2)に記載の情報処理装置。
(16)
前記選択結果取得部は、視線検出装置からの前記ユーザの視線の検出結果に基づいて、前記選択結果を取得する、上記(15)に記載の情報処理装置。
(17)
前記選択結果取得部は、ジェスチャ検出装置からの前記ユーザのジェスチャの検出結果に基づいて前記選択結果を取得する、上記(15)に記載の情報処理装置。
(18)
前記第1の表示装置は、
前記実空間の画像に前記仮想オブジェクトの像を重畳して表示する、
前記実空間に前記仮想オブジェクトの像を投影して表示する、
又は、
前記ユーザの網膜に前記仮想オブジェクトの像を投影して表示する、
上記(2)~(17)のいずれか1つに記載の情報処理装置。
(19)
情報処理装置が、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる、
ことを含む、情報処理方法。
(20)
コンピュータを、
同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部として機能させる、
プログラム。
10 情報処理システム
100 ARデバイス
102、202 表示部
104、204 制御部
200 非ARデバイス
300 深度測定ユニット
302 深度センサ部
304 記憶部
400 視線センサユニット
500 制御ユニット
502 3次元情報取得部
504 オブジェクト制御部
506 ARデバイスレンダリング部
508 非ARデバイスレンダリング部
510 検出部
512 視線検出部
514 視線分析部
520 視線評価部
600、600a、600b、602、610 仮想オブジェクト
650 アバター
700、702 視点
800 実オブジェクト
802 遮蔽物
900 ユーザ
920 手
950 目
a、b 角度

Claims (12)

  1. 同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
    実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
    を備え、
    前記複数の表示装置は、
    前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
    前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
    を含み、
    前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
    情報処理装置。
  2. 前記制御部は、実空間情報取得装置からの前記ユーザの周囲の前記実空間の3次元情報に応じて、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
    請求項に記載の情報処理装置。
  3. 前記実空間情報取得装置は、前記ユーザの周囲の前記実空間を撮像する撮像装置、又は、前記ユーザの周囲の前記実空間の深度情報を取得する測距装置である、
    請求項に記載の情報処理装置。
  4. 前記制御部は、
    前記3次元情報に基づいて、前記実空間上で前記仮想オブジェクトと前記ユーザとの間に位置する遮蔽オブジェクトが存在する領域、又は、前記3次元情報が取得できない領域が検出された場合には、
    前記領域をオクルージョン領域として設定し、
    前記仮想オブジェクトと前記オクルージョン領域とが重畳する領域を小さくするように、前記第1の表示装置における、前記仮想オブジェクトの表示位置もしくは表示形態、又は、前記仮想オブジェクトの動画表示における移動量を変化させる、
    請求項2又は3に記載の情報処理装置。
  5. 前記制御部は、前記3次元情報が取得できない不定領域に別の仮想オブジェクトを表示するように、前記第1の表示装置を制御する、
    請求項に記載の情報処理装置。
  6. 同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
    実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
    を備え、
    前記複数の表示装置は、
    前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
    前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
    を含み、
    前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における表示変化量が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
    報処理装置。
  7. 同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
    実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
    を備え、
    前記複数の表示装置は、
    前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
    前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
    を含み、
    前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における軌跡を平滑化するように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
    報処理装置。
  8. 前記制御部は、
    前記第2の表示装置に対して、前記実空間上の、前記第1の視点とは異なる第2の視点から視認される、前記仮想オブジェクトの像を表示するように制御する、
    請求項1~7のいずれか1項に記載の情報処理装置。
  9. 前記第2の視点は、前記仮想オブジェクト上に仮想的に配置される、請求項に記載の情報処理装置。
  10. 前記第1の表示装置は、
    前記実空間の画像に前記仮想オブジェクトの像を重畳して表示する、
    前記実空間に前記仮想オブジェクトの像を投影して表示する、
    又は、
    前記ユーザの網膜に前記仮想オブジェクトの像を投影して表示する、
    請求項1~9のいずれか1項に記載の情報処理装置。
  11. 情報処理装置が、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる、
    ことを含む、情報処理方法であって、
    前記複数の表示装置は、
    実空間上のユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
    前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
    を含み、
    前記情報処理装置が、
    前記実空間上での、前記仮想オブジェクトと前記ユーザとの間の距離情報及び位置関係情報を含む位置情報を取得することと、
    前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させることと、
    さらに含む、
    情報処理方法。
  12. コンピュータを、
    同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
    実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
    として機能させる、
    プログラムであって、
    前記複数の表示装置は、
    前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
    前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
    を含み、
    前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
    プログラム。
JP2022527606A 2020-05-25 2021-04-27 情報処理装置、情報処理方法及びプログラム Active JP7616216B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020090235 2020-05-25
JP2020090235 2020-05-25
PCT/JP2021/016720 WO2021241110A1 (ja) 2020-05-25 2021-04-27 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021241110A1 JPWO2021241110A1 (ja) 2021-12-02
JP7616216B2 true JP7616216B2 (ja) 2025-01-17

Family

ID=78745310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022527606A Active JP7616216B2 (ja) 2020-05-25 2021-04-27 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20230222738A1 (ja)
JP (1) JP7616216B2 (ja)
CN (1) CN115698923A (ja)
WO (1) WO2021241110A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220063467A (ko) * 2020-11-10 2022-05-17 삼성전자주식회사 디스플레이를 포함하는 웨어러블 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234253A (ja) 2003-01-29 2004-08-19 Canon Inc 複合現実感呈示方法
WO2017203774A1 (ja) 2016-05-26 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法及び記憶媒体
WO2019031005A1 (ja) 2017-08-08 2019-02-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20190065026A1 (en) 2017-08-24 2019-02-28 Microsoft Technology Licensing, Llc Virtual reality input
JP2019211835A (ja) 2018-05-31 2019-12-12 凸版印刷株式会社 Vrにおける多人数同時操作システム、方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128181A1 (ja) * 2008-04-18 2009-10-22 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示装置の制御方法及び情報記憶媒体
US20150302651A1 (en) * 2014-04-18 2015-10-22 Sam Shpigelman System and method for augmented or virtual reality entertainment experience
US9881422B2 (en) * 2014-12-04 2018-01-30 Htc Corporation Virtual reality system and method for controlling operation modes of virtual reality system
US9905052B2 (en) * 2015-01-05 2018-02-27 Worcester Polytechnic Institute System and method for controlling immersiveness of head-worn displays
US9972134B2 (en) * 2016-06-30 2018-05-15 Microsoft Technology Licensing, Llc Adaptive smoothing based on user focus on a target object
JP2022513013A (ja) * 2018-11-15 2022-02-07 コーニンクレッカ フィリップス エヌ ヴェ 複合現実のための仮想オブジェクトの体系的配置
WO2021101844A1 (en) * 2019-11-18 2021-05-27 Magic Leap, Inc. Mapping and localization of a passable world

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234253A (ja) 2003-01-29 2004-08-19 Canon Inc 複合現実感呈示方法
WO2017203774A1 (ja) 2016-05-26 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法及び記憶媒体
WO2019031005A1 (ja) 2017-08-08 2019-02-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20190065026A1 (en) 2017-08-24 2019-02-28 Microsoft Technology Licensing, Llc Virtual reality input
JP2019211835A (ja) 2018-05-31 2019-12-12 凸版印刷株式会社 Vrにおける多人数同時操作システム、方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2021241110A1 (ja) 2021-12-02
CN115698923A (zh) 2023-02-03
WO2021241110A1 (ja) 2021-12-02
US20230222738A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
US12182322B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11017257B2 (en) Information processing device, information processing method, and program
US9778815B2 (en) Three dimensional user interface effects on a display
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
JPWO2017134886A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
KR20150116871A (ko) Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
JP6096391B2 (ja) 注意にもとづくレンダリングと忠実性
US20220291744A1 (en) Display processing device, display processing method, and recording medium
US11151804B2 (en) Information processing device, information processing method, and program
CN110968190B (zh) 用于触摸检测的imu
US20250110333A1 (en) Augmented reality gaming using virtual eyewear beams
WO2018198499A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20230343052A1 (en) Information processing apparatus, information processing method, and program
JP7616216B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN112578983B (zh) 手指取向触摸检测
US10409464B2 (en) Providing a context related view with a wearable apparatus
WO2022064881A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20210125465A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241216

R150 Certificate of patent or registration of utility model

Ref document number: 7616216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150