JP7616216B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7616216B2 JP7616216B2 JP2022527606A JP2022527606A JP7616216B2 JP 7616216 B2 JP7616216 B2 JP 7616216B2 JP 2022527606 A JP2022527606 A JP 2022527606A JP 2022527606 A JP2022527606 A JP 2022527606A JP 7616216 B2 JP7616216 B2 JP 7616216B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- display
- user
- real space
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 93
- 238000003672 processing method Methods 0.000 title claims description 32
- 230000008859 change Effects 0.000 claims description 38
- 230000033001 locomotion Effects 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 5
- 210000001525 retina Anatomy 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 19
- 238000005259 measurement Methods 0.000 description 18
- 238000009877 rendering Methods 0.000 description 14
- 210000001508 eye Anatomy 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004270 retinal projection Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000002570 electrooculography Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
1. 概要
1.1 背景
1.2 本開示の実施形態の概要
2. 第1の実施形態
2.1 情報処理システム10の概略的な構成
2.2 制御ユニット500の詳細構成
2.3 情報処理方法
3. 第2の実施形態
3.1 制御ユニット500の詳細構成
3.2 情報処理方法
4. 第3の実施形態
4.1 制御ユニット500の詳細構成
4.2 情報処理方法
4.3 変形例
5. まとめ
6. ハードウェア構成
7. 補足
<1.1 背景>
まず、図1を参照して、本開示の背景について説明する。図1は、本開示の概要を説明するための説明図である。本開示においては、図1に示すように、ユーザ900が、2つのデバイスを使用して、仮想オブジェクト600の視認し、仮想オブジェクト600のコントロールを行うような状況において、使用され得る情報処理システム10を検討する。
本発明者らが創作した本開示の実施形態においては、上述したARデバイス100及び非ARデバイス200を含む複数の表示装置により、同一の仮想オブジェクト600を表示させる状況において、各表示装置に割り当てられた表現方法に応じて、仮想オブジェクト600の表示に関して異なる制御を行う。詳細には、本開示の実施形態においては、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離やユーザ900の視点の位置に応じて動的に変化するパラメータを用いて、ARデバイス100での仮想オブジェクト600の表示を制御する。一方、本開示の実施形態においては、上記距離や上記位置に応じて動的に変化しない、予め定義されたパラメータを用いて、非ARデバイス200での仮想オブジェクト600の表示を制御する。
<2.1 情報処理システム10の概略的な構成>
まずは、図2を参照して、本開示の第1の実施形態に係る情報処理システム10の概略的な構成について説明する。図1は、本実施形態に係る情報処理システム10の構成の一例を示すブロック図である。図1に示すように、本実施形態に係る情報処理システム10は、例えば、ARデバイス(第1の表示装置)100と、非ARデバイス(第2の表示装置)200と、深度測定ユニット(実空間情報取得装置)300と、視線センサユニット(視線検出装置)400と、制御ユニット(情報処理装置)500とを含むことができる。
ARデバイス100は、実空間上のユーザ900の視点として定義された第1の視点から視認される、仮想オブジェクト600が仮想的に配置された実空間の風景をAR表示する表示装置である。詳細には、ARデバイス100は、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離やユーザ900の視点の位置に応じて仮想オブジェクト600の形態等を変化させて表示することができる。具体的には、ARデバイス100は、HMDや、ユーザ900の前方等に設けられ、実空間に対して仮想オブジェクト600の画像を重畳させて表示するHUD(Head-Up Display)や、実空間に仮想オブジェクト600の像を投影して表示することができるプロジェクタ等であることができる。すなわち、ARデバイス100は、仮想的に設定された実空間上の位置に仮想オブジェクト600があたかも存在するように、実空間に位置する実オブジェクトの光学像に重畳して、仮想オブジェクト600を表示する表示装置である。
非ARデバイス200は、ユーザ900に向けて仮想オブジェクト600の像を非AR表示することができる表示装置である。詳細には、実空間上の、ユーザ900の視点として定義された第1の視点とは異なる位置の第2の視点から視認される仮想オブジェクト600を表示することができる。本実施形態においては、第2の視点は、実空間上に仮想的に設定された位置であってもよく、実空間上における仮想オブジェクト600又はユーザ900の位置から、所定の距離だけ離れた位置であってもよく、もしくは、仮想オブジェクト600上に設定された位置であってもよい。非ARデバイス200は、例えば、ユーザ900の携帯するスマートフォンやタブレットPC(Personal Computer)、又は、ユーザ900の腕に装着されたスマートウォッチ等であることができる。さらに、非ARデバイス200は、図2に示すように、仮想オブジェクト600を表示する表示部202と、後述する制御ユニット500からの制御パラメータ等に従って表示部202を制御する制御部204とを有する。
深度測定ユニット300は、ユーザ900の周囲の実空間の3次元情報を取得することができる。詳細には、深度測定ユニット300は、図2に示すように、3次元情報を取得することができる深度センサ部302と、取得した3次元情報を格納する記憶部304とを有する。例えば、深度センサ部302は、ユーザ900の周囲の実空間の深度情報を取得するTOF(Time Of Flight)センサ(測距装置)、及び、ステレオカメラ、Structured Light センサ等の撮像装置であってもよい。本実施形態においては、深度センサ部302で得られたユーザ900の周囲の実空間の3次元情報は、ユーザ900の周囲の環境情報として利用されるだけでなく、実空間上での、仮想オブジェクト600とユーザ900との間の距離情報及び位置関係情報を含む位置情報を得るために利用することができる。
視線センサユニット400は、ユーザ900の眼球を撮像し、ユーザ900の視線を検出することができる。なお、視線センサユニット400は、主に後述する実施形態において使用されることとなる。視線センサユニット400は、例えば、ARデバイス100であるHMDに内向カメラ(図示省略)として構成することができる。そして、当該内向カメラにより取得されたユーザ900の眼の撮影映像を解析して、ユーザ900の視線方向を検出する。なお、本実施形態においては、視線検出のアルゴリズムは特に限定されないが、例えば、目頭と虹彩の位置関係、又は、角膜反射(プルキニエ像等)と瞳孔の位置関係に基づいて視線検出を実現することができる。また、本実施形態においては、視線センサユニット400は、上述のような内向カメラに限定されるものではなく、ユーザ900の眼球を撮像できるカメラや、ユーザ900の目の周囲に電極を装着して眼電位を測定する眼電位センサであってもよい。さらに、本実施形態においては、機械学習で得られたモデルを利用して、ユーザ900の視線方向を認識してもよい。なお、視線方向の認識の詳細については、後述する実施形態で説明する。
制御ユニット500は、上述したARデバイス100及び非ARデバイス200での表示を制御するための装置である。詳細には、本実施形態においては、ARデバイス100による仮想オブジェクト600のAR表示は、制御ユニット500により、実空間上での、ユーザ900と仮想オブジェクト600の仮想的な位置との間の距離やユーザ900の視点の位置に応じて動的に変化するパラメータを用いて制御される。さらに、本実施形態においては、非ARデバイス200による仮想オブジェクト600の表示も、当該制御ユニット500により、予め定義されたパラメータを用いて制御される。また、制御ユニット500は、CPU、RAM、ROM等を中心に構成することができる。さらに、制御ユニット500は、外部装置と無線通信等により接続することができる通信インタフェースである通信部(図示省略)を有していてもよい。当該通信部は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
次に、本実施形態に係る制御ユニット500の詳細構成について、図2を参照して説明する。上述したように、制御ユニット500は、ARデバイス100及び非ARデバイス20で表示される仮想オブジェクト600の表示を制御することができる。詳細には、図2に示すように、制御ユニット500は、3次元情報取得部(位置情報取得部)502と、オブジェクト制御部(制御部)504と、ARデバイスレンダリング部506と、非ARデバイスレンダリング部508と、検出部(選択結果取得部)510と、視線評価部520とを主に有する。以下に、制御ユニット500の各機能部の詳細について順次説明する。
3次元情報取得部502は、上述した深度測定ユニット300から、ユーザ900の周囲の実空間の3次元情報を取得し、後述するオブジェクト制御部504に出力する。3次元情報取得部502は、上記3次元情報から実空間上の実オブジェクトの位置、姿勢、形状等の情報を抽出して、オブジェクト制御部504に出力してもよい。また、3次元情報取得部502は、仮想オブジェクト600の表示のために仮想的に割り当てられた実空間上の位置情報を参照して、上記3次元情報に基づき、実空間上での、仮想オブジェクト600とユーザ900との間の距離情報及び位置関係情報を含む位置情報を生成し、オブジェクト制御部504に出力してもよい。さらに、3次元情報取得部502は、深度測定ユニット300だけでなく、上述した測位センサ(図示省略)からの、実空間上におけるユーザ900の位置情報を取得してもよい。
オブジェクト制御部504は、ARデバイス100及び非ARデバイス200のそれぞれに、仮想オブジェクト600の表示のために割り当てられた表現方法に応じて、ARデバイス100及び非ARデバイス200での仮想オブジェクト600の表示を制御する。詳細には、オブジェクト制御部504は、ARデバイス100及び非ARデバイス200のそれぞれに、仮想オブジェクト600の表示のために割り当てられた表現方法に応じて、仮想オブジェクト600の表示に関する各パラメータ(例えば、仮想オブジェクト600の、動画表示における表示変化量や、ユーザ900の入力操作によって変化する表示変化量等)を動的に変化させる。そして、オブジェクト制御部504は、このように変化させたパラメータを後述するARデバイスレンダリング部506及び非ARデバイスレンダリング部508に出力する。出力したパラメータは、ARデバイス100及び非ARデバイス200での仮想オブジェクト600の表示の制御に用いられることとなる。
ARデバイスレンダリング部506は、上述したオブジェクト制御部504から出力されたパラメータ等を利用して、ARデバイス100に表示させる画像のレンダリング処理を行い、レンダリング後の画像データをARデバイス100に対して出力する。
非ARデバイスレンダリング部508は、上述したオブジェクト制御部504から出力されたパラメータ等を利用して、非ARデバイス200に表示させる画像のレンダリング処理を行い、レンダリング後の画像データを非ARデバイス200に対して出力する。
検出部510は、図2に示すように、視線検出部512と視線分析部514とを主に有する。視線検出部512は、ユーザ900の視線を検出して、ユーザ900の視線方向を取得し、視線分析部514は、ユーザ900の視線方向に基づいて、ユーザ900がコントローラ(入力装置)として選択したであろうデバイスを特定する。そして、特定された特定結果(選択結果)は、後述する視線評価部520で評価処理去られた後、オブジェクト制御部504に出力され、仮想オブジェクト600の表示に関するパラメータを変化させる際に用いられることとなる。なお、検出部510による処理の詳細については、後で説明する本開示の第3の実施形態において述べる。
視線評価部520は、上述した検出部510で特定したユーザ900がコントローラとして選択したであろうデバイスに対して、機械学習で得られたモデル等を利用して、ユーザ900がコントローラとして各デバイスを選択する確率を算出することにより、特定した結果を評価することができる。本実施形態においては、視線評価部520により、ユーザ900がコントローラとして各デバイスを選択する確率を算出して、それに基づき、ユーザ900がコントローラとして選択したデバイスを最終的に特定することにより、ユーザ900の視線の先が絶えず定まらない場合であっても、ユーザ900の視線の方向に基づいて、コントローラとして選択されたデバイスを、精度よく特定することができる。なお、視線評価部520による処理の詳細については、後で説明する本開示の第3の実施形態において述べる。
次に、図3から図7を参照して、本開示の第1の実施形態に係る情報処理方法について説明する。図3は、本実施形態に係る情報処理方法の一例を説明するフローチャートであり、図4から図6は、本実施形態に係る表示の一例を説明するための説明図であり、図7は、本実施形態に係る表示制御の一例を説明するための説明図である。
まずは、図8を参照して、本開示の第2の実施形態で想定される状況について説明する。図8は、本実施形態の概要を説明するための説明図である。例えば、本実施形態に係る情報処理システム10を利用して、ユーザ900がゲームをしている際に、図8に示すように、実空間上において、ユーザ900と仮想オブジェクト600との間に、ユーザ900の視界を遮るような、壁等の遮蔽物802が存在する場合がある。このような状況の場合、ユーザ900は、遮蔽物802に遮られて、ARデバイス100の表示部102を用いて仮想オブジェクト600を視認することができないことから、仮想オブジェクト600の操作を行うことが難しくなる。
本実施形態に係る情報処理システム10及び制御ユニット500の構成例は、先に説明した第1の実施形態と同様であるため、ここでは説明を省略する。しかしながら、本実施形態においては、制御ユニット500のオブジェクト制御部504は、以下のような機能も持つ。
次に、図9から図11を参照して、本開示の第2の実施形態に係る情報処理方法について説明する。図9は、本実施形態に係る情報処理方法の一例を説明するフローチャートであり、図10は、本実施形態に係る表示制御の一例を説明するための説明図であり、図11は、本実施形態に係る表示の一例を説明するための説明図である。
まずは、図12を参照して、本開示の第3の実施形態で想定される状況について説明する。図13は、本実施形態の概要を説明するための説明図である。例えば、本実施形態に係る情報処理システム10を利用してユーザ900がゲームをしている際に、図12に示すように、ユーザ900は、ARデバイス100及び非ARデバイス200の両方を用いて、同一の仮想オブジェクト600を視認し、且つ、当該仮想オブジェクトに対して操作可能であるものとする。すなわち、ARデバイス100及び非ARデバイス200を用いた仮想オブジェクト600に対しての操作は、排他的でないものとする。
本実施形態に係る情報処理システム10及び制御ユニット500の構成例は、第1の実施形態と同様であるため、ここでは説明を省略する。しかしながら、本実施形態においては、制御ユニット500は、以下のような機能も持つ。
次に、図13から図15を参照して、本開示の第3の実施形態に係る情報処理方法について説明する。図13及び図14は、本実施形態に係る情報処理方法の一例を説明するフローチャートであり、詳細には、図14は、図13に示されるステップS301のサブフローチャートである。また、図15は、本実施形態に係る選択デバイスの特定方法の一例を説明するための説明図である。
さらに、本実施形態においては、ユーザ900の視線の方向を検出するだけでなく、ユーザ900のジャスチャを検出することにより、ユーザ900がコントローラとして選択した選択デバイスを特定してもよい。以下、図16を参照して、このような本実施形態の変形例を説明する。図16は、本開示の第3の実施形態の変形例の概要を説明するための説明図である。
以上のように、本開示の各実施形態においては、同一の仮想オブジェクト600を同時に表示する複数の表示装置の利用の際に、ユーザの知覚の仕方が異なるARデバイス100及び非ARデバイスにおいて、仮想オブジェクト600の表示が、異なる形態、異なる変化、もしくは、ユーザ900からの操作に対して異なる反応をすることから、ユーザ体験や操作性をより向上させることができる。
上述してきた各実施形態に係る制御ユニット500等の情報処理装置は、例えば図17に示すような構成のコンピュータ1000によって実現される。以下、本開示の実施形態の制御ユニット500を例に挙げて説明する。図17は、制御ユニット500の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース1500、及び入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
なお、先に説明した本開示の実施形態は、例えば、上記で説明したような情報処理装置又は情報処理システムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、当該プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
(1)
同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部を備える、
情報処理装置。
(2)
前記複数の表示装置は、
実空間上のユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含む、
上記(1)に記載の情報処理装置。
(3)
前記制御部は、実空間情報取得装置からの前記ユーザの周囲の前記実空間の3次元情報に応じて、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
上記(2)に記載の情報処理装置。
(4)
前記実空間情報取得装置は、前記ユーザの周囲の前記実空間を撮像する撮像装置、又は、前記ユーザの周囲の前記実空間の深度情報を取得する測距装置である、
上記(3)に記載の情報処理装置。
(5)
前記制御部は、
前記3次元情報に基づいて、前記実空間上で前記仮想オブジェクトと前記ユーザとの間に位置する遮蔽オブジェクトが存在する領域、又は、前記3次元情報が取得できない領域が検出された場合には、
前記領域をオクルージョン領域として設定し、
前記仮想オブジェクトと前記オクルージョン領域とが重畳する領域を小さくするように、前記第1の表示装置における、前記仮想オブジェクトの表示位置もしくは表示形態、又は、前記仮想オブジェクトの動画表示における移動量を変化させる、
上記(3)又は(4)に記載の情報処理装置。
(6)
前記制御部は、前記3次元情報が取得できない不定領域に別の仮想オブジェクトを表示するように、前記第1の表示装置を制御する、
上記(5)に記載の情報処理装置。
(7)
前記実空間上での、前記仮想オブジェクトと前記ユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部をさらに備え、
前記制御部は、前記位置情報に応じて、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
上記(2)~(6)のいずれか1つに記載の情報処理装置。
(8)
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように制御する、上記(7)に記載の情報処理装置。
(9)
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における表示変化量が大きくなるように制御する、上記(7)に記載の情報処理装置。
(10)
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における軌跡を平滑化するように制御する、上記(7)に記載の情報処理装置。
(11)
前記制御部は、前記位置情報に応じて、前記第1の表示装置に表示させる前記仮想オブジェクトの、前記ユーザの入力操作によって変化する表示変化量を動的に変化させる、
上記(7)に記載の情報処理装置。
(12)
前記制御部は、
前記第2の表示装置に対して、前記実空間上の、前記第1の視点とは異なる第2の視点から視認される、前記仮想オブジェクトの像を表示するように制御する、
上記(2)~(11)のいずれか1つに記載の情報処理装置。
(13)
前記第2の視点は、前記仮想オブジェクト上に仮想的に配置される、上記(12)に記載の情報処理装置。
(14)
前記制御部は、前記第1及び第2の表示装置のそれぞれに前記画像の表示のために割り当てられた前記画像の表現方法に応じて、前記第1及び第2の表示装置のそれぞれに表示させる前記仮想オブジェクトの動画表示における表示変化量を変化させる、
上記(2)に記載の情報処理装置。
(15)
前記ユーザが、前記第1の表示装置及び前記第2の表示装置のうちのいずれかを入力装置として選択したかの選択結果を取得する選択結果取得部をさらに備え、
前記制御部は、前記選択結果に応じて、前記仮想オブジェクトの、前記ユーザの入力操作によって変化する表示変化量を動的に変化させる、
上記(2)に記載の情報処理装置。
(16)
前記選択結果取得部は、視線検出装置からの前記ユーザの視線の検出結果に基づいて、前記選択結果を取得する、上記(15)に記載の情報処理装置。
(17)
前記選択結果取得部は、ジェスチャ検出装置からの前記ユーザのジェスチャの検出結果に基づいて前記選択結果を取得する、上記(15)に記載の情報処理装置。
(18)
前記第1の表示装置は、
前記実空間の画像に前記仮想オブジェクトの像を重畳して表示する、
前記実空間に前記仮想オブジェクトの像を投影して表示する、
又は、
前記ユーザの網膜に前記仮想オブジェクトの像を投影して表示する、
上記(2)~(17)のいずれか1つに記載の情報処理装置。
(19)
情報処理装置が、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる、
ことを含む、情報処理方法。
(20)
コンピュータを、
同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部として機能させる、
プログラム。
100 ARデバイス
102、202 表示部
104、204 制御部
200 非ARデバイス
300 深度測定ユニット
302 深度センサ部
304 記憶部
400 視線センサユニット
500 制御ユニット
502 3次元情報取得部
504 オブジェクト制御部
506 ARデバイスレンダリング部
508 非ARデバイスレンダリング部
510 検出部
512 視線検出部
514 視線分析部
520 視線評価部
600、600a、600b、602、610 仮想オブジェクト
650 アバター
700、702 視点
800 実オブジェクト
802 遮蔽物
900 ユーザ
920 手
950 目
a、b 角度
Claims (12)
- 同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
を備え、
前記複数の表示装置は、
前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含み、
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
情報処理装置。 - 前記制御部は、実空間情報取得装置からの前記ユーザの周囲の前記実空間の3次元情報に応じて、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
請求項1に記載の情報処理装置。 - 前記実空間情報取得装置は、前記ユーザの周囲の前記実空間を撮像する撮像装置、又は、前記ユーザの周囲の前記実空間の深度情報を取得する測距装置である、
請求項2に記載の情報処理装置。 - 前記制御部は、
前記3次元情報に基づいて、前記実空間上で前記仮想オブジェクトと前記ユーザとの間に位置する遮蔽オブジェクトが存在する領域、又は、前記3次元情報が取得できない領域が検出された場合には、
前記領域をオクルージョン領域として設定し、
前記仮想オブジェクトと前記オクルージョン領域とが重畳する領域を小さくするように、前記第1の表示装置における、前記仮想オブジェクトの表示位置もしくは表示形態、又は、前記仮想オブジェクトの動画表示における移動量を変化させる、
請求項2又は3に記載の情報処理装置。 - 前記制御部は、前記3次元情報が取得できない不定領域に別の仮想オブジェクトを表示するように、前記第1の表示装置を制御する、
請求項4に記載の情報処理装置。 - 同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
を備え、
前記複数の表示装置は、
前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含み、
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における表示変化量が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
情報処理装置。 - 同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
を備え、
前記複数の表示装置は、
前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含み、
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの動画表示における軌跡を平滑化するように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
情報処理装置。 - 前記制御部は、
前記第2の表示装置に対して、前記実空間上の、前記第1の視点とは異なる第2の視点から視認される、前記仮想オブジェクトの像を表示するように制御する、
請求項1~7のいずれか1項に記載の情報処理装置。 - 前記第2の視点は、前記仮想オブジェクト上に仮想的に配置される、請求項8に記載の情報処理装置。
- 前記第1の表示装置は、
前記実空間の画像に前記仮想オブジェクトの像を重畳して表示する、
前記実空間に前記仮想オブジェクトの像を投影して表示する、
又は、
前記ユーザの網膜に前記仮想オブジェクトの像を投影して表示する、
請求項1~9のいずれか1項に記載の情報処理装置。 - 情報処理装置が、同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる、
ことを含む、情報処理方法であって、
前記複数の表示装置は、
実空間上のユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含み、
前記情報処理装置が、
前記実空間上での、前記仮想オブジェクトと前記ユーザとの間の距離情報及び位置関係情報を含む位置情報を取得することと、
前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させることと、
さらに含む、
情報処理方法。 - コンピュータを、
同一の仮想オブジェクトに関する画像を表示する複数の表示装置のそれぞれに前記画像の表示のために割り当てられた、前記画像の表現方法に応じて、前記各表示装置での前記仮想オブジェクトの表示を制御する、前記仮想オブジェクトの表示に関する各パラメータを動的に変化させる制御部と、
実空間上での、前記仮想オブジェクトとユーザとの間の距離情報及び位置関係情報を含む位置情報を取得する位置情報取得部と、
として機能させる、
プログラムであって、
前記複数の表示装置は、
前記実空間上の前記ユーザの視点として定義された第1の視点から視認される、前記仮想オブジェクトが仮想的に配置された前記実空間の風景を表示するように制御される、第1の表示装置と、
前記仮想オブジェクトの像を表示するように制御される、第2の表示装置と、
を含み、
前記制御部は、前記仮想オブジェクトと前記ユーザとの間の距離が長くなるほど、前記第1の表示装置に表示させる前記仮想オブジェクトの表示面積が大きくなるように、前記第1の表示装置を制御するための前記パラメータを動的に変化させる、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090235 | 2020-05-25 | ||
JP2020090235 | 2020-05-25 | ||
PCT/JP2021/016720 WO2021241110A1 (ja) | 2020-05-25 | 2021-04-27 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021241110A1 JPWO2021241110A1 (ja) | 2021-12-02 |
JP7616216B2 true JP7616216B2 (ja) | 2025-01-17 |
Family
ID=78745310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022527606A Active JP7616216B2 (ja) | 2020-05-25 | 2021-04-27 | 情報処理装置、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230222738A1 (ja) |
JP (1) | JP7616216B2 (ja) |
CN (1) | CN115698923A (ja) |
WO (1) | WO2021241110A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220063467A (ko) * | 2020-11-10 | 2022-05-17 | 삼성전자주식회사 | 디스플레이를 포함하는 웨어러블 전자 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004234253A (ja) | 2003-01-29 | 2004-08-19 | Canon Inc | 複合現実感呈示方法 |
WO2017203774A1 (ja) | 2016-05-26 | 2017-11-30 | ソニー株式会社 | 情報処理装置、情報処理方法及び記憶媒体 |
WO2019031005A1 (ja) | 2017-08-08 | 2019-02-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20190065026A1 (en) | 2017-08-24 | 2019-02-28 | Microsoft Technology Licensing, Llc | Virtual reality input |
JP2019211835A (ja) | 2018-05-31 | 2019-12-12 | 凸版印刷株式会社 | Vrにおける多人数同時操作システム、方法、およびプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009128181A1 (ja) * | 2008-04-18 | 2009-10-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像表示装置、画像表示装置の制御方法及び情報記憶媒体 |
US20150302651A1 (en) * | 2014-04-18 | 2015-10-22 | Sam Shpigelman | System and method for augmented or virtual reality entertainment experience |
US9881422B2 (en) * | 2014-12-04 | 2018-01-30 | Htc Corporation | Virtual reality system and method for controlling operation modes of virtual reality system |
US9905052B2 (en) * | 2015-01-05 | 2018-02-27 | Worcester Polytechnic Institute | System and method for controlling immersiveness of head-worn displays |
US9972134B2 (en) * | 2016-06-30 | 2018-05-15 | Microsoft Technology Licensing, Llc | Adaptive smoothing based on user focus on a target object |
JP2022513013A (ja) * | 2018-11-15 | 2022-02-07 | コーニンクレッカ フィリップス エヌ ヴェ | 複合現実のための仮想オブジェクトの体系的配置 |
WO2021101844A1 (en) * | 2019-11-18 | 2021-05-27 | Magic Leap, Inc. | Mapping and localization of a passable world |
-
2021
- 2021-04-27 WO PCT/JP2021/016720 patent/WO2021241110A1/ja active Application Filing
- 2021-04-27 JP JP2022527606A patent/JP7616216B2/ja active Active
- 2021-04-27 US US17/922,919 patent/US20230222738A1/en active Pending
- 2021-04-27 CN CN202180036249.6A patent/CN115698923A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004234253A (ja) | 2003-01-29 | 2004-08-19 | Canon Inc | 複合現実感呈示方法 |
WO2017203774A1 (ja) | 2016-05-26 | 2017-11-30 | ソニー株式会社 | 情報処理装置、情報処理方法及び記憶媒体 |
WO2019031005A1 (ja) | 2017-08-08 | 2019-02-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20190065026A1 (en) | 2017-08-24 | 2019-02-28 | Microsoft Technology Licensing, Llc | Virtual reality input |
JP2019211835A (ja) | 2018-05-31 | 2019-12-12 | 凸版印刷株式会社 | Vrにおける多人数同時操作システム、方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021241110A1 (ja) | 2021-12-02 |
CN115698923A (zh) | 2023-02-03 |
WO2021241110A1 (ja) | 2021-12-02 |
US20230222738A1 (en) | 2023-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12182322B2 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11017257B2 (en) | Information processing device, information processing method, and program | |
US9778815B2 (en) | Three dimensional user interface effects on a display | |
US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JPWO2017134886A1 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
KR20150116871A (ko) | Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택 | |
JP6096391B2 (ja) | 注意にもとづくレンダリングと忠実性 | |
US20220291744A1 (en) | Display processing device, display processing method, and recording medium | |
US11151804B2 (en) | Information processing device, information processing method, and program | |
CN110968190B (zh) | 用于触摸检测的imu | |
US20250110333A1 (en) | Augmented reality gaming using virtual eyewear beams | |
WO2018198499A1 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
US20230343052A1 (en) | Information processing apparatus, information processing method, and program | |
JP7616216B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112578983B (zh) | 手指取向触摸检测 | |
US10409464B2 (en) | Providing a context related view with a wearable apparatus | |
WO2022064881A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20210125465A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7616216 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |