[go: up one dir, main page]

JP6739847B2 - 画像表示制御装置および画像表示制御用プログラム - Google Patents

画像表示制御装置および画像表示制御用プログラム Download PDF

Info

Publication number
JP6739847B2
JP6739847B2 JP2018170290A JP2018170290A JP6739847B2 JP 6739847 B2 JP6739847 B2 JP 6739847B2 JP 2018170290 A JP2018170290 A JP 2018170290A JP 2018170290 A JP2018170290 A JP 2018170290A JP 6739847 B2 JP6739847 B2 JP 6739847B2
Authority
JP
Japan
Prior art keywords
image
virtual space
unit
hand
human hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018170290A
Other languages
English (en)
Other versions
JP2020042206A5 (ja
JP2020042206A (ja
Inventor
拓宏 水野
拓宏 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpha Code Inc
Original Assignee
Alpha Code Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpha Code Inc filed Critical Alpha Code Inc
Priority to JP2018170290A priority Critical patent/JP6739847B2/ja
Priority to CN201980017092.5A priority patent/CN111801725A/zh
Priority to PCT/JP2019/035679 priority patent/WO2020054760A1/ja
Priority to US16/966,497 priority patent/US11030821B2/en
Publication of JP2020042206A publication Critical patent/JP2020042206A/ja
Publication of JP2020042206A5 publication Critical patent/JP2020042206A5/ja
Application granted granted Critical
Publication of JP6739847B2 publication Critical patent/JP6739847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像表示制御装置および画像表示制御用プログラムに関し、特に、ヘッドマウントディスプレイに対して描き出される仮想空間における画像の表示を制御する装置に用いて好適なものである。
近年、コンピュータの中に作られた仮想的な世界をあたかも現実のように体験させる仮想現実(VR:バーチャルリアリティ)技術が広く活用されている。VRの応用例は様々であるが、ユーザがゴーグル型のHMD(ヘッドマウントディスプレイ)を装着して、コンピュータによりHMDに対して描き出された3次元仮想空間の中で、ユーザが仮想的に様々な体験をすることができるようにしたものが一般的である。VRは、時間や空間という現実の制約を超えた世界をユーザに提示することも可能である。
ゴーグル型のHMDを用いたVRが持つ魅力の1つは、HMDの外の現実世界が完全にシャットアウトされるため、ユーザが仮想現実の世界に没頭できるという点である。しかしながら、現実世界が完全にシャットアウトされることがVRの魅力となることがある反面、デメリットとなることもある。例えば、HMDを装着すると外界を見ることが全くできないため、HMDに描き出された仮想空間の中を歩くようにしてユーザが実際に歩いていると、周囲にある障害物に衝突することがある。
従来、このような問題を解決することを目的とした技術が提案されている(例えば、特許文献1,2参照)。特許文献1に記載のシステムでは、HMDに搭載されたカメラにより撮影される外界の画像から、HMDを装着したユーザにとっての障害物を検出し、検出された障害物からユーザまでの距離を計算する。そして、検出された障害物から置換した仮想オブジェクトを、HMDに表示される仮想空間内で障害物までの距離に応じた位置に合成する。
特許文献2においても、HMDに表示される画像において、ユーザの近傍に机などの障害物が存在することをユーザに報知するために、机に対応する仮想オブジェクトを仮想空間の画像に重畳させて表示することが開示されている。
特開2013−257716号公報 特開2017−102298号公報
上記特許文献1,2に記載の技術によれば、ユーザは、HMDに表示されている仮想空間画像の外界にある障害物の存在位置を、仮想空間画像に重畳して表示される障害物の仮想オブジェクトにより把握することができるので、ユーザはHMDを装着したままの状態で障害物を避けて行動することが可能となる。これにより、現実世界が完全にシャットアウトされることに伴うVRのデメリットの1つが回避される。
しかしながら、上記特許文献1,2に記載の技術を用いても、ユーザがHMDを装着したままの状態で、現実世界における作業を行うことができないという問題があった。例えば、HMDに表示された仮想空間画像を見ながら、興味のあるものを備忘録として書き取るために手元でメモをとるとか、スマートフォンを操作するといったことはできない。そのため、従来は、仮想空間画像の再生をいったん停止してHMDを外し、所要の作業を行った後、再びHMDを装着して仮想空間画像の再生を再開するといった面倒な作業を行う必要があった。
本発明は、このような問題を解決するために成されたものであり、ユーザがHMDを装着したままの状態で、現実世界における作業を簡単に行うことができるようにすることを目的とする。
上記した課題を解決するために、本発明では、仮想空間画像が表示されているヘッドマウントディスプレイに搭載されたカメラにより撮影された現実世界の動画像から、ヘッドマウントディスプレイから所定距離以内に存在する対象物が検出された場合に、所定距離以内の位置に対象物が検出されている間、当該対象物が含まれる所定範囲の撮影画像を仮想空間画像に重畳して表示させるようにしている。
上記のように構成した本発明によれば、ヘッドマウントディスプレイに搭載されたカメラに写る範囲の手元でユーザが所要の作業を行うと、その手が含まれる所定範囲の撮影画像が仮想空間画像に重畳して表示されるので、ユーザは、ヘッドマウントディスプレイを装着したままの状態でも、仮想空間画像に重畳して表示された撮影画像を見ながら所要の作業を適切に行うことができる。このように、本発明によれば、ユーザがヘッドマウントディスプレイを装着したままの状態でも、現実世界における作業を簡単に行うことができる。
第1の実施形態による画像表示制御装置の機能構成例を示すブロック図である。 本実施形態による対象物検出部の処理内容を説明するための図である。 第1の実施形態による画像重畳部の処理内容を説明するための図である。 第1の実施形態による画像表示制御装置の動作例を示すフローチャートである。 第2の実施形態による画像表示制御装置の機能構成例を示すブロック図である。 第2の実施形態による画像重畳部の処理内容を説明するための図である。 第2の実施形態による画像表示制御装置の動作例を示すフローチャートである。 第2の実施形態において重畳領域を可変設定する変形例を説明するための図である。
(第1の実施形態)
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による画像表示制御装置100の機能構成例を示すブロック図である。第1の実施形態による画像表示制御装置100は、VR画像記憶部300に記憶されている仮想空間画像を再生してHMD200に表示させるものである。HMD200には、姿勢検出センサ201およびカメラ202が搭載されている。第1の実施形態による画像表示制御装置100は、これら姿勢検出センサ201およびカメラ202の出力に基づいて、HMD200に表示させる画像を制御する。
図1に示すように、第1の実施形態の画像表示制御装置100は、その機能構成として、画像再生部11、撮影画像取得部12、対象物検出部13、位置検出部14および画像重畳部15を備えている。これら各機能ブロック11〜15は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11〜15は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶された画像表示制御用プログラムが動作することによって実現される。
画像再生部11は、VR画像記憶部300に記憶されている仮想空間画像を再生してHMD200に表示させる。仮想空間画像が表示されるHMD200には、ジャイロセンサや加速度センサから成る姿勢検出センサ201が搭載されており、HMD200を装着したユーザの頭の動きを検出することが可能となっている。画像再生部11は、姿勢検出センサ201により検出されたユーザの頭の動きに応じて、HMD200の表示上に実現される仮想空間画像の視界が動的に変わるように、仮想空間画像の表示を制御する。
撮影画像取得部12は、HMD200に搭載されたカメラ202により撮影された現実世界の画像を取得する。カメラ202は、HMD200の前面または上面に搭載され、HMD200の前方を一定の周期で常時撮影する。撮影画像取得部12は、カメラ202により撮影された現実世界の画像を動画像(時系列に連続する複数のフレーム画像の集合)として取得する。
対象物検出部13は、撮影画像取得部12により取得された動画像から、HMD200から所定距離以内に存在する対象物を検出する。例えば、対象物検出部13は、公知の画像認識技術を用いて、撮影画像取得部12により取得された動画像のフレーム画像毎に、フレーム画像内に含まれている物体を検出する。そして、公知の測距技術を用いて、検出した物体についてHMD200からの距離を測定し、所定距離以内に存在する物体のみを上記対象物として検出する。
ここで、対象物検出部13は、フレーム画像内に含まれている全ての物体を検出の対象としてもよいが、一定の条件を満たす物体のみを検出するようにしてもよい。例えば、所定の大きさ以上で写っている物体のみ検出するようにしてもよいし、フレーム画像の周縁部の所定範囲を除く中央領域に写っている物体のみ検出するようにしてもよい。また、検出した物体までの距離の測定は、ステレオカメラまたは単眼カメラによる撮影画像を用いて物体までの距離を測定する公知の手法により行うことが可能である。
なお、ここでは撮影画像を解析して物体までの距離を測定する例について説明したが、この手法に限定されるものではない。例えば、レーザや赤外線、超音波等を用いた距離センサをHMD200に搭載し、これらによって物体までの距離を測定するようにしてもよい。その他、物体までの距離を測定する種々の公知技術を適用することが可能である。
図2は、対象物検出部13の処理内容を説明するための図である。図2において、ARで示す網掛け領域は、HMD200が搭載するカメラ202の撮影範囲を示している。この撮影範囲AR内に存在する物体OBT1,OBT2が、カメラ202による撮影画像の中に含まれることになる。そして、この撮影画像が撮影画像取得部12により取得される。対象物検出部13は、撮影画像取得部12により取得された撮影画像内に含まれる物体OBT1,OBT2とHMD200(カメラ202)との距離d1,d2をそれぞれ検出し、それが所定距離以下である物体OBT1のみを対象物として検出する。なお、d1≦所定距離、d2>所定距離であるものとする。
位置検出部14は、対象物検出部13により検出された対象物のHMD200に対する相対位置を検出する。相対位置とは、HMD200から対象物までの方向および距離を含む情報である。検出した対象物までの距離は、上述した公知の方法により検出することが可能である。また、検出した対象物への方向は、撮影範囲ARと撮影画像内に写っている対象物の位置との関係から公知の画像認識技術により検出することが可能である。
なお、ここでは撮影画像を解析して対象物の相対位置を検出する例について説明したが、この手法に限定されるものではない。例えば、レーダやLiDARなどを用いた位置検出センサをHMD200に搭載し、当該位置検出センサによって対象物の相対位置を検出するようにしてもよい。その他、対象物の相対位置を検出する種々の公知技術を適用することが可能である。
画像重畳部15は、対象物検出部13により所定距離以内の位置に対象物が検出されている間、対象物が含まれる所定範囲の画像を仮想空間画像に重畳して表示させる。ここで、画像重畳部15は、位置検出部14により検出された対象物の相対位置に基づいて、対象物が含まれる所定範囲の画像を、仮想空間画像において相対位置に応じた位置(以下、「実世界対応位置」という)に重畳して表示させる。画像重畳部15は、この処理をフレーム画像毎に行う。すなわち、画像重畳部15は、対象物が含まれる所定範囲の撮影画像を動画として仮想空間画像の実世界対応位置に重畳して表示させる。
ここで、対象物が含まれる所定範囲とは、例えば、撮影画像(各フレーム画像)に対する画像認識により把握される対象物の輪郭線が内接する矩形領域を基準領域とし、当該基準領域から左右方向および上下方向にそれぞれ所定幅の拡張領域を付加した領域の範囲とする。なお、対象物が撮影画像の周縁部に位置しているために、何れかの方向に所定幅の拡張領域を付加できない場合は、その方向に関しては、付加できる範囲で最大の幅の拡張領域を付加するようにしてよい。以下、撮影画像に設定される対象物が含まれる所定範囲を「抽出範囲」という。
HMD200から所定距離以内の対象物が対象物検出部13により1つのみ検出されている場合は、画像重畳部15は、その1つの対象物に対して抽出範囲を設定すればよい。一方、対象物検出部13により複数の対象物が検出され、かつ、当該複数の対象物が撮影画像上で重なっている場合または接している場合は、画像重畳部15は、複数の対象物ごとに抽出範囲を設定するようにしてもよいし、当該複数の対象物を1つの対象物とみなして、みなした1つの対象物に対して抽出範囲を設定するようにしてもよい。なお、複数の対象物を1つの対象物とみなした場合、当該みなした1つの対象物のHMD200に対する相対位置は、元の複数の対象物について検出された相対位置のうち何れか1つを採用する。例えば、HMD200から最も近い相対位置を採用する。
対象物検出部13により複数の対象物が検出された場合でも、当該複数の対象物が撮影画像上で離間しているときは、画像重畳部15は、複数の対象物ごとに抽出範囲を設定する。なお、複数の対象物ごとに抽出範囲を設定した場合に、当該複数の抽出範囲どうしに重なりが生じる場合には、当該複数の対象物を1つの対象物とみなして、みなした1つの対象物に対して抽出範囲を設定するようにしてもよい。あるいは、重なりが生じた複数の抽出範囲が内接する1つの大きな抽出範囲を設定するようにしてもよい。以上、抽出範囲の設定方法についていくつかのパターンを説明したが、これらは一例であり、これ以外の方法で抽出範囲を設定してもよい。
また、実世界対応位置とは、撮影画像から抽出して仮想空間画像に重畳して表示させる対象物の仮想空間における位置であって、仮想空間画像を表示している仮想空間におけるユーザの仮想視点から重畳表示させる対象物までの方向および距離を、現実世界におけるHMD200から対象物までの方向および距離(位置検出部14により検出されるもの)と一致させるようにして仮想空間上に設定した位置のことをいう。
図3は、画像重畳部15の処理内容を説明するための図である。このうち、図3(a)は、撮影画像取得部12により取得された1フレームの撮影画像を示している。また、図3(b)は、撮影画像に設定された抽出範囲の画像を仮想空間画像に重畳して表示させた状態を示している。なお、ここでは説明を分かりやすくするために、カメラ202により撮影される撮影画像の画角(視界)と、HMD200の表示画面に表示される仮想空間画像の画角(視界)とが同じものとして図示しているが、必ずしも両者の画角は同じでなくてもよい。ただし、(撮影画像の画角)≦(仮想空間画像の画角)となるようにすることを要する。仮想空間画像の画角が撮影画像の画角より小さいと、撮影画像の周縁部に写っている対象物を仮想空間画像の実世界対応位置に重畳して表示させることができないことが生じるからである。
図3(a)に示す撮影画像には、人(HMD200を装着しているユーザ)の手OBT11および当該ユーザが手に把持しているスマートフォンOBT12が写っている。人の手OBT11およびスマートフォンOBT12は、HMD200から所定距離以内の位置に存在する対象物である。なお、撮影画像内には人の手OBT11およびスマートフォンOBT12以外の物体(HMD200から所定距離以内にはない非対象物)も写っているが、図示を省略している。また、HMD200から所定距離以内の位置には、人の手OBT11およびスマートフォンOBT12以外の物体は存在しないものとする。
人の手OBT11およびスマートフォンOBT12は、対象物検出部13により、HMD200から所定距離以内に存在する対象物として検出される。ここで、人の手OBT11およびスマートフォンOBT12は、撮影画像上で重なっている。よって、画像重畳部15は、人の手OBT11およびスマートフォンOBT12を1つの対象物とみなす。そして、みなした1つの対象物の輪郭線が内接する矩形領域を基準領域31とし、当該基準領域31から左右方向および上下方向に拡張領域を付加した領域を抽出範囲32として設定する。なお、図3(a)の例では、下方向に拡張領域を付加していない。これは、HMD200を装着しているユーザの手が撮影画像の下端まで写っているため、基準領域31の下端が撮影画像の下端に接していて、それより下方に拡張する領域が存在しないためである。
さらに、画像重畳部15は、図3(b)に示すように、上記のように設定した抽出範囲32内の画像PTを抽出し、当該抽出した画像PTを、仮想空間画像VRPの実世界対応位置(すなわち、位置検出部14により現実世界において検出された対象物の相対位置に対応する仮想空間上の位置)に重畳して表示させる。重畳させた画像PTには矩形枠が表示されており、仮想空間画像VRPに別の画像が重畳されていることが一目で分かるようにしている。
画像重畳部15は、図3に示す処理をフレーム画像毎に行う。これにより、HMD200には、仮想空間画像VRPが動画として表示されるとともに、HMD200から所定距離以内の位置に対象物(人の手OBT11およびスマートフォンOBT12)が検出されている間、撮影画像から抽出された当該対象物を含む画像PTが仮想空間画像VRP上の実世界対応位置に動画として表示される。これにより、ユーザは、HMD200を外すことなく、実世界対応位置に動画として表示される現実世界の撮影画像PTを見て、スマートフォンの操作を適切に行うことができる。
なお、図3では、ユーザがスマートフォンを把持して操作している状態を例に挙げて説明したが、スマートフォンの操作に限定されるものでないことは言うまでもない。例えば、HMD200を外すことなく家電のリモコンを操作したり、腕時計の時間を確認したり、手帳にメモ書きをしたりすることが可能である。また、図3では、基準領域31から左右方向および上下方向に拡張領域を付加した領域を抽出範囲32として設定しているが、基準領域31をそのまま抽出範囲として設定するようにしてもよい。
また、ここでは、対象物が含まれる矩形の範囲を抽出範囲とする例について説明したが、本発明はこれに限定されない。例えば、対象物(複数の対象物が重なっている場合または接している場合は、当該複数の対象物を1つとみなしたものでもよい)の輪郭線に沿って切り出される範囲を抽出範囲とするようにしてもよい。
図4は、以上のように構成した第1の実施形態による画像表示制御装置100の動作例を示すフローチャートである。図4に示すフローチャートは、ユーザが仮想空間画像の再生を指示したときに開始する。なお、この図4に示すフローチャートは、対象物検出部13、位置検出部14および画像重畳部15によって実行される処理の一例を示している。これと並行して、画像再生部11によって仮想空間画像の再生および表示が継続して実行されている。
画像再生部11によって仮想空間画像の再生および表示が開始されると、撮影画像取得部12は、カメラ202により撮影された1フレームの画像を取得する(ステップS1)。そして、対象物検出部13は、撮影画像取得部12により取得された画像から、HMD200から所定距離以内に存在する対象物を検出する(ステップS2)。
次いで、位置検出部14は、HMD200から所定距離以内に存在する対象物が対象物検出部13により検出されたか否かを判定する(ステップS3)。ここで、HMD200から所定距離以内の対象物が検出されなかった場合、処理はステップS1に戻り、次のフレームの撮影画像の処理に移る。一方、HMD200から所定距離以内の対象物が検出された場合、位置検出部14は、その検出された対象物のHMD200に対する相対位置を検出する(ステップS4)。
次いで、画像重畳部15は、位置検出部14により検出された対象物の相対位置に基づいて、対象物が含まれる所定範囲(抽出範囲)の画像を、仮想空間画像上の実世界対応位置(相対位置に応じた位置)に重畳して表示させる(ステップS5)。その後、画像再生部11による仮想空間画像の再生が終了したか否かが判定され(ステップS6)、再生が終了していない場合はステップS1に戻り、再生が終了した場合は、図4に示すフローチャートの処理を終了する。
以上詳しく説明したように、第1の実施形態では、仮想空間画像が表示されているHMD200に搭載されたカメラ202により撮影された現実世界の動画像から、HMD200から所定距離以内に存在する対象物が検出された場合に、所定距離以内の位置に対象物が検出されている間、当該対象物が含まれる所定範囲の画像を仮想空間画像の実世界対応位置に重畳して表示させるようにしている。
このように構成した第1の実施形態によれば、HMD200に搭載されたカメラ202に写る範囲の手元でユーザが所要の作業を行うと、ユーザの手と作業対象物(スマートフォンやリモコン、腕時計、メモ帳など)とが含まれる所定範囲の撮影画像が仮想空間画像の実世界対応位置に重畳して表示されるので、ユーザは、HMD200を装着したままの状態でも、その実世界対応位置に表示された画像を見ながら所要の作業を適切に行うことができる。これにより、第1の実施形態によれば、ユーザがHMD200を装着したままの状態でも、現実世界における作業を簡単に行うことができるようになる。
なお、上記第1の実施形態では、HMD200から所定距離以内の位置に対象物が検出されたか否かを1フレーム画像毎に判定し、検出された場合には抽出範囲の画像を仮想空間画像に重畳して表示させるようにしている。このため、HMD200から所定距離以内の場所で単にユーザが手を動かしただけの場合や、何かの物体がほんのわずかな時間だけHMD200から所定距離以内の位置に存在しただけの場合にも、ユーザの手や物体が含まれる抽出範囲の画像が仮想空間画像に重畳して表示される。しかし、このようにわずかな時間だけ所定距離以内の位置に存在する物体を仮想空間画像にその都度重畳して表示させると、その表示がユーザにとっては煩わしく感じることがある。
そこで、わずかな時間だけ所定距離以内の位置に存在する物体については、その物体を含む所定範囲の画像を仮想空間画像に重畳して表示させないようにしてもよい。この場合、対象物検出部13は、所定距離以内の位置に所定時間以上継続して存在する対象物を検出する。そして、画像重畳部15は、所定距離以内の位置に所定時間以上継続して存在する対象物が対象物検出部13により検出された場合に、それ以降で所定距離以内の位置に対象物が検出されている間、対象物が含まれる所定範囲(抽出範囲)の画像を仮想空間画像に重畳して表示させる。
(第2の実施形態)
次に、本発明の第2の実施形態を図面に基づいて説明する。図5は、第2の実施形態による画像表示制御装置100’の機能構成例を示すブロック図である。なお、この図5において、図1に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。図5に示すように、第2の実施形態による画像表示制御装置100’は、図1に示した位置検出部14および画像重畳部15に代えて、対象物判定部16および画像重畳部17を備えている。
対象物判定部16は、対象物検出部13により検出された対象物に人の手が含まれるか否かを判定する。例えば、対象物判定部16は、公知のパターン認識技術を用いて、対象物検出部13により検出された対象物に人の手が含まれるか否かを判定することが可能である。あるいは、人の手について機械学習により作成した学習モデルを用いて、対象物検出部13により検出された対象物に人の手が含まれるか否かを判定するようにしてもよい。対象物判定部16は、この判定をフレーム画像毎に行う。
画像重畳部17は、対象物判定部16により対象物に人の手が含まれると判定された場合、その対象物がHMD200から所定距離以内の位置に検出されている間、人の手が含まれる所定範囲の画像を仮想空間画像の所定領域に重畳して表示させる。画像重畳部17は、この処理をフレーム画像毎に行う。すなわち、画像重畳部17は、人の手が含まれる所定範囲の画像を動画として仮想空間画像の所定領域に重畳して表示させる。
ここで、仮想空間画像の所定領域とは、仮想空間画像が表示されるHMD200の表示画面の全領域の中で、あらかじめ決められた位置のあらかじめ決められた大きさの矩形領域をいう。例えば、表示画面の左下コーナーにおける所定の大きさの矩形領域とすることが可能である。以下、これを「重畳領域」という。
また、人の手が含まれる所定範囲とは、例えば、撮影画像(各フレーム画像)に対する画像認識により把握される人の手の輪郭線が内接する矩形領域を基準領域とし、当該基準領域から左右方向および上方向に所定幅の拡張領域を付加した領域の範囲とする。下方向に拡張領域を付加しないのは、HMD200を装着しているユーザの手が撮影画像に写っている場合は、撮影画像の下端までユーザの手が写っているため、基準領域の下端が撮影画像の下端に接していて、それより下方に拡張する領域が存在しないためである。なお、第1の実施形態と同様、対象物が撮影画像の周縁部に位置しているために、左また右の何れかの方向に所定幅の拡張領域を付加できない場合は、その方向に関しては、付加できる範囲で最大の幅の拡張領域を付加するようにしてよい。
人の手の輪郭線が内接する基準領域に対して拡張領域を付加するのは、ユーザが何かを手に把持している場合に、その把持物も所定範囲の中に含まれるようにするためである。すなわち、ユーザの手および把持物が含まれる範囲の画像を撮影画像から抽出して仮想空間画像の所定領域に重畳して表示させるようにするためである。これが第2の実施形態における「抽出範囲」に相当する。
抽出範囲における矩形の縦横比は、仮想空間画像上に設定される重畳領域の矩形の縦横比と同じとなるようにするのが好ましい。この場合、抽出範囲の縦横比が重畳領域の縦横比と同じとなるように、撮影画像の基準領域に対して拡張領域を付加する。ただし、このようにすることが必須ではない。例えば、基準領域から左右方向および上方向に所定長さの拡張領域を付加して抽出範囲を設定し、抽出範囲内の画像を適宜拡大または縮小することにより、拡縮された画像の縦横比が重畳領域の縦横比と同じとなるようにしてもよい。
図6は、画像重畳部17の処理内容を説明するための図である。このうち、図6(a)は、撮影画像取得部12により取得された1フレームの撮影画像を示している。また、図6(b)は、撮影画像に設定された抽出範囲の画像を仮想空間画像の重畳領域に重畳して表示させた状態を示している。
図6(a)に示す撮影画像には、人(HMD200を装着しているユーザ)の手OBT11および当該ユーザが手に把持しているスマートフォンOBT12が写っている。人の手OBT11およびスマートフォンOBT12は、HMD200から所定距離以内の位置に存在する対象物である。なお、撮影画像内には人の手OBT11およびスマートフォンOBT12以外の物体(HMD200から所定距離以内にはない非対象物)も写っているが、図示を省略している。また、HMD200から所定距離以内の位置には、人の手OBT11およびスマートフォンOBT12以外の物体は存在しないものとする。
人の手OBT11は、対象物検出部13により、HMD200から所定距離以内に存在する対象物として検出され、対象物判定部16により、その対象物が人の手であると判定される。画像重畳部17は、人の手OBT11の輪郭線が内接する矩形領域を基準領域61とし、当該基準領域61から左右方向および上方向に拡張領域を付加した領域を抽出範囲62として設定する。図6(a)のように、抽出範囲62の中には、人の手OBT11によって把持されているスマートフォンOBT12も含まれている。
さらに、画像重畳部17は、図6(b)に示すように、上記のように設定した抽出範囲62内の画像PTを抽出し、当該抽出した画像PTを、仮想空間画像VRPの左下コーナーの位置に所定の大きさで設定した重畳領域63に重畳して表示させる。このとき、重畳領域63の大きさに合うように画像PTを適宜拡大または縮小する。重畳領域63には矩形枠が表示されており、仮想空間画像VRPに別の画像が重畳されていることが一目で分かるようにしている。
画像重畳部17は、図6に示す処理をフレーム画像毎に行う。これにより、HMD200には、仮想空間画像VRPが動画として表示されるとともに、HMD200から所定距離以内の位置に対象物が検出されている間、撮影画像から抽出された人の手を含む(把持物がある場合はそれも含む)画像PTが重畳領域63に動画として表示される。これにより、ユーザは、HMD200を外すことなく、重畳領域63に動画として表示される現実世界の撮影画像PTを見て、スマートフォンの操作を適切に行うことができる。
なお、撮影画像取得部12により取得された撮影画像の中から、HMD200から所定距離以内に存在する人の手が対象物として検出されない場合は、画像重畳部17の処理は実行しない。よって、この場合にHMD200には仮想空間画像VRPのみが表示画面の全域に表示され、重畳領域63は設定されない(重畳領域63の矩形枠も画像PTも表示されない)。これにより、ユーザが手元で所要の作業をしていないときは、余計な画像は表示させず、仮想空間画像VRPだけを表示画面の全域に見やすく表示させることができる。また、ユーザが手元で何かの作業対象物を操作しているのではなく、何かの物体が偶然にHMD200から所定距離以内の場所に存在して対象物検出部13により対象物として検出されることがあっても、画像重畳部17の処理は実行されない。よって、この場合もHMD200には仮想空間画像VRPのみが表示画面の全域に表示され、余計な画像が重畳して表示されることを防ぐことができる。
なお、図6においても、ユーザがスマートフォンを把持して操作している状態を例に挙げて説明したが、スマートフォンの操作に限定されるものでないことは言うまでもない。例えば、HMD200を外すことなく家電のリモコンを操作したり、腕時計の時間を確認したり、手帳にメモ書きをしたりすることが可能である。
また、第2の実施形態においても、対象物(複数の対象物が重なっている場合または接している場合は、当該複数の対象物を1つとみなしたものでもよい)の輪郭線に沿って切り出される範囲を抽出範囲とするようにしてもよい。この場合においても、仮想空間画像の中に矩形の重畳領域63を設定し、輪郭線に沿って切り出される範囲の画像を重畳領域63に表示させるようにしてよい。あるいは、仮想空間画像の中に矩形の重畳領域63を設定せずに、輪郭線に沿って切り出される範囲の画像を仮想空間画像に重畳して表示させるようにしてもよい。
図7は、以上のように構成した第2の実施形態による画像表示制御装置100’の動作例を示すフローチャートである。図7に示すフローチャートは、ユーザが仮想空間画像の再生を指示したときに開始する。なお、この図7に示すフローチャートは、対象物検出部13、対象物判定部16および画像重畳部17によって実行される処理の一例を示している。これと並行して、画像再生部11によって仮想空間画像の再生および表示が継続して実行されている。
画像再生部11によって仮想空間画像の再生および表示が開始されると、撮影画像取得部12は、カメラ202により撮影された1フレームの画像を取得する(ステップS11)。そして、対象物検出部13は、撮影画像取得部12により取得された画像から、HMD200から所定距離以内に存在する対象物を検出する(ステップS12)。
次いで、対象物判定部16は、HMD200から所定距離以内に存在する対象物が対象物検出部13により検出されたか否かを判定する(ステップS13)。ここで、HMD200から所定距離以内の対象物が検出されなかった場合、処理はステップS11に戻り、次のフレームの撮影画像の処理に移る。一方、HMD200から所定距離以内の対象物が検出された場合、対象物判定部16は、その検出された対象物に人の手が含まれるか否かを判定する(ステップS14)。
ここで、対象物に人の手が含まれていない場合、処理はステップS11に戻り、次のフレームの撮影画像の処理に移る。一方、対象物に人の手が含まれると判定された場合、画像重畳部17は、人の手が含まれる所定範囲(抽出範囲)の画像を仮想空間画像の所定領域(重畳領域)に重畳して表示させる(ステップS15)。その後、画像再生部11による仮想空間画像の再生が終了したか否かが判定され(ステップS16)、再生が終了していない場合はステップS11に戻り、再生が終了した場合は、図7に示すフローチャートの処理を終了する。
以上詳しく説明したように、第2の実施形態では、仮想空間画像が表示されているHMD200に搭載されたカメラ202により撮影された現実世界の動画像から、HMD200から所定距離以内に存在する人の手を含む対象物が検出された場合に、所定距離以内の位置に対象物が検出されている間、当該人の手が含まれる所定範囲の画像を仮想空間画像の所定領域に重畳して表示させるようにしている。
このように構成した第2の実施形態によれば、HMD200に搭載されたカメラ202に写る範囲の手元でユーザが所要の作業を行うと、その手が含まれる所定範囲の撮影画像が仮想空間画像の所定領域に重畳して表示されるので、ユーザは、HMD200を装着したままの状態でも、その所定領域に表示された画像を見ながら所要の作業を適切に行うことができる。これにより、第2の実施形態によれば、ユーザがHMD200を装着したままの状態でも、現実世界における作業を簡単に行うことができるようになる。
また、第2の実施形態では、人の手以外の何かの物体が偶然にHMD200から所定距離以内の場所に存在しているだけであれば、その物体を含む所定範囲の撮影画像が仮想空間画像の所定領域に重畳して表示されることはない。これにより、ユーザが手元で作業をしていないときに余計な画像が仮想空間画像に重畳して表示されることを防ぎ、仮想空間画像だけを表示画面の全域に見やすく表示させることができる。
なお、第2の実施形態においても第1の実施形態と同様に、処理時間より短い間だけ所定距離以内の位置に存在する物体については、その物体を含む所定範囲の画像を仮想空間画像に重畳して表示させないようにしてもよい。このようにすれば、HMD200に搭載されたカメラ202に写る範囲の手元でユーザが所要の作業を行った場合にほぼ限定して、その手が含まれる所定範囲の撮影画像を仮想空間画像の所定領域に重畳して表示させることができる。
上記第2の実施形態では、人の手が含まれる抽出範囲の撮影画像を仮想空間画像の所定領域に重畳して表示させる例について説明したが、第1の実施形態と同様に、人の手が含まれる抽出範囲の撮影画像を仮想空間画像の実世界対応位置に重畳して表示させるようにしてもよい。また、第1の実施形態のように設定した抽出範囲の撮影画像を、第2の実施形態のように仮想空間画像の所定領域に重畳して表示させるようにしてもよい。さらに、第1の実施形態のように人の手を含むか否かを問わず対象物検出部13により検出された対象物を含む範囲に設定した抽出範囲の撮影画像を、第2の実施形態のように仮想空間画像の所定領域に重畳して表示させるようにしてもよい。
また、上記第2実施形態では、人の手が含まれる所定範囲を抽出範囲として、当該抽出範囲の撮影画像を仮想空間画像の所定領域に重畳して表示させる例について説明したが、本発明はこれに限定されない。例えば、対象物判定部16が、対象物検出部13により検出された対象物に人の手および当該に手による把持物が含まれるか否かを判定し、人の手および把持物が含まれると判定された場合に、画像重畳部17が、人の手および把持物が含まれる所定範囲を抽出範囲として、当該抽出範囲の撮影画像を仮想空間画像の所定領域に重畳して表示させるようにしてもよい。
この場合、第1の実施形態と同様に、ユーザの手および把持物を1つの対象物とみなし、みなした1つの対象物に対して抽出範囲を設定するようにしてよい。例えば、抽出範囲は、撮影画像に対する画像認識により把握される人の手および把持物の輪郭線が内接する矩形領域の範囲とすることが可能である。あるいは、人の手および把持物の輪郭線が内接する矩形領域を基準領域とし、当該基準領域から左右方向に所定幅および上方向に所定高さの拡張領域を付加した領域を抽出範囲としてもよい。このように、撮影画像内から人の手に加えて把持物まで認識して、その把持物まで含まれる範囲を抽出範囲とすることにより、把持物が比較的大きなものであっても、抽出範囲内に把持物から確実に含まれるようにすることができる。
なお、対象物判定部16により対象物に人の手および把持物が含まれるか否かを判定する例において、画像重畳部17は、対象物に人の手および把持物が含まれると判定された場合に、人の手および把持物が含まれる所定範囲の画像であって、人の手および把持物以外の物体が含まれない画像を仮想空間画像に重畳して表示させるようにしてもよい。
例えば、上記のように矩形領域の範囲を抽出範囲として設定した場合に、その抽出範囲の中に、HMD200から所定距離以内にある人の手および把持物以外の物体(すなわち、HMD200からの距離が所定距離より長い位置にある物体)が遠景として写っているときは、その遠景の物体を抽出範囲の画像PTから消去した上で仮想空間画像に重畳して表示させるようにする。ここでいう遠景の物体の消去とは、例えば、画像認識により検出した当該物体の領域を、その周囲の遠景の画像から生成される推定の遠景画像(その物体がないとした仮定した場合における遠景の推定画像)に置き換えることをいう。
あるいは、ユーザの手および把持物を1つの対象物とみなし、みなした1つの対象物の輪郭線に沿って切り出される範囲を抽出範囲とするようにしてもよい。この場合において、画像重畳部17は、図6(b)のように仮想空間画像に矩形の重畳領域63を設定し、その重畳領域63の中に上記のように輪郭線に沿って切り出した抽出範囲の画像を表示させる。なお、矩形の重畳領域63は設定せずに、輪郭線に沿って切り出した抽出範囲の画像を仮想空間画像に重畳して表示させるようにしてもよい。
また、人の手および把持物が含まれる所定範囲を抽出範囲とする例において、対象物検出部13により検出された対象物に人の手が含まれていて、把持物が含まれていない場合には、撮影画像の一部を抽出して仮想空間画像に重畳させる処理は実行しないようにしてよい。ユーザが把持物に対して所要の操作をしているという状況ではなく、ユーザの手が偶然に撮影された可能性があるからである。逆に、対象物検出部13により検出された対象物に人の手が含まれていて、把持物が含まれていない場合においても、上記第2の実施形態と同様に人の手が含まれる所定範囲の画像を抽出して仮想空間画像に重畳させるようにしてもよい。把持物ではなく、例えば腕時計型のウェアラブル端末を操作している可能性もあり得るからである。
また、上記第2の実施形態では、重畳領域が仮想空間画像の固定位置(図6の例では左下コーナーの位置)に設定されている例について説明したが、重畳領域の位置をユーザの意思により変更可能に構成してもよい。例えば、HMD200に視線検出センサを搭載する。そして、画像重畳部17が、視線検出センサにより検出されるユーザの視線に応じて、所定範囲(抽出範囲)の撮影画像を仮想空間画像に重畳させる際の所定領域(重畳領域)の位置を変更する。
例えば、図8のように、仮想空間画像の全領域を縦横の4象限に4分割し、ユーザの視線が位置する象限のコーナーに重畳領域を設定することが一例として考えられる。すなわち、ユーザが右上の象限に視線を向けたことが視線検出センサにより検出されたときは、画像重畳部17は、仮想空間画像の右上コーナーの位置に重畳領域63RUを設定する。ユーザが右下の象限に視線を向けたことが視線検出センサにより検出されたときは、画像重畳部17は、仮想空間画像の右下コーナーの位置に重畳領域63RDを設定する。ユーザが左上の象限に視線を向けたことが視線検出センサにより検出されたときは、画像重畳部17は、仮想空間画像の左上コーナーの位置に重畳領域63LUを設定する。ユーザが左下の象限に視線を向けたことが視線検出センサにより検出されたときは、画像重畳部17は、仮想空間画像の左下コーナーの位置に重畳領域63LDを設定する。
また、上記第1および第2の実施形態では、画像表示制御装置100,100’とHMD200とを別体として構成する例について説明したが、HMD200が画像表示制御装置100,100’を備える構成としてもよい。この場合、VR画像記憶部300もHMD200が備えるようにしてもよいし、
その他、上記第1および第2の実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
11 画像再生部
12 撮影画像取得部
13 対象物検出部
14 位置検出部 15,17 画像重畳部
16 対象物判定部
100,100’ 画像表示制御装置
200 HMD
201 姿勢検出センサ
202 カメラ

Claims (5)

  1. 仮想空間画像を再生してヘッドマウントディスプレイに表示させる画像再生部と、
    上記ヘッドマウントディスプレイに搭載されたカメラにより撮影された現実世界の動画像から、上記ヘッドマウントディスプレイから所定距離以内に存在する対象物を検出する対象物検出部と、
    上記対象物検出部により上記所定距離以内の位置に上記対象物が検出されている間、上記対象物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる画像重畳部と、
    上記対象物検出部により検出された上記対象物に人の手および当該に手による把持物が含まれるか否かを判定する対象物判定部とを備え、
    上記画像重畳部は、上記対象物判定部により上記対象物に人の手が含まれないと判定された場合、および、上記対象物に人の手が含まれていて把持物が含まれていないと上記対象物判定部により判定された場合は上記仮想空間画像に対する画像の重畳は行わず、上記対象物判定部により上記対象物に人の手および把持物が含まれると判定された場合は、上記人の手および把持物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる
    ことを特徴とする記載の画像表示制御装置。
  2. 仮想空間画像を再生してヘッドマウントディスプレイに表示させる画像再生部と、
    上記ヘッドマウントディスプレイに搭載されたカメラにより撮影された現実世界の動画像から、上記ヘッドマウントディスプレイから所定距離以内に存在する対象物を検出する対象物検出部と、
    上記対象物検出部により上記所定距離以内の位置に上記対象物が検出されている間、上記対象物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる画像重畳部と、
    上記対象物検出部により検出された上記対象物に人の手および当該に手による把持物が含まれるか否かを判定する対象物判定部とを備え、
    上記画像重畳部は、上記対象物判定部により上記対象物に人の手が含まれないと判定された場合は上記仮想空間画像に対する画像の重畳は行わず、上記対象物判定部により上記対象物に人の手および把持物が含まれると判定された場合は、上記人の手および把持物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させ、上記対象物に人の手が含まれていて把持物が含まれていないと上記対象物判定部により判定された場合は、上記人の手が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる
    ことを特徴とする記載の画像表示制御装置。
  3. 上記画像重畳部は、上記所定範囲の画像を動画として上記仮想空間画像に重畳して表示させることを特徴とする請求項1または2に記載の画像表示制御装置。
  4. 仮想空間画像を再生してヘッドマウントディスプレイに表示させる画像再生手段、
    上記ヘッドマウントディスプレイに搭載されたカメラにより撮影された現実世界の動画像から、上記ヘッドマウントディスプレイから所定距離以内に存在する対象物を検出する対象物検出手段、
    上記対象物検出手段により上記所定距離以内の位置に上記対象物が検出されている間、上記対象物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる画像重畳手段、および
    上記対象物検出手段により検出された上記対象物に人の手および当該に手による把持物が含まれるか否かを判定する対象物判定手段
    としてコンピュータを機能させ、
    上記画像重畳手段は、上記対象物判定手段により上記対象物に人の手が含まれないと判定された場合、および、上記対象物に人の手が含まれていて把持物が含まれていないと上記対象物判定手段により判定された場合は上記仮想空間画像に対する画像の重畳は行わず、上記対象物判定手段により上記対象物に人の手および把持物が含まれると判定された場合は、上記人の手および把持物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる
    ことを特徴とする画像表示制御用プログラム。
  5. 仮想空間画像を再生してヘッドマウントディスプレイに表示させる画像再生手段、
    上記ヘッドマウントディスプレイに搭載されたカメラにより撮影された現実世界の動画像から、上記ヘッドマウントディスプレイから所定距離以内に存在する対象物を検出する対象物検出手段、
    上記対象物検出手段により上記所定距離以内の位置に上記対象物が検出されている間、上記対象物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる画像重畳手段、および
    上記対象物検出手段により検出された上記対象物に人の手および当該に手による把持物が含まれるか否かを判定する対象物判定手段
    としてコンピュータを機能させ、
    上記画像重畳手段は、上記対象物判定手段により上記対象物に人の手が含まれないと判定された場合は上記仮想空間画像に対する画像の重畳は行わず、上記対象物判定手段により上記対象物に人の手および把持物が含まれると判定された場合は、上記人の手および把持物が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させ、上記対象物に人の手が含まれていて把持物が含まれていないと上記対象物判定手段により判定された場合は、上記人の手が含まれる所定範囲の画像を上記仮想空間画像に重畳して表示させる
    ことを特徴とする画像表示制御用プログラム。
JP2018170290A 2018-09-12 2018-09-12 画像表示制御装置および画像表示制御用プログラム Active JP6739847B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018170290A JP6739847B2 (ja) 2018-09-12 2018-09-12 画像表示制御装置および画像表示制御用プログラム
CN201980017092.5A CN111801725A (zh) 2018-09-12 2019-09-11 图像显示控制装置及图像显示控制用程序
PCT/JP2019/035679 WO2020054760A1 (ja) 2018-09-12 2019-09-11 画像表示制御装置および画像表示制御用プログラム
US16/966,497 US11030821B2 (en) 2018-09-12 2019-09-11 Image display control apparatus and image display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170290A JP6739847B2 (ja) 2018-09-12 2018-09-12 画像表示制御装置および画像表示制御用プログラム

Publications (3)

Publication Number Publication Date
JP2020042206A JP2020042206A (ja) 2020-03-19
JP2020042206A5 JP2020042206A5 (ja) 2020-05-21
JP6739847B2 true JP6739847B2 (ja) 2020-08-12

Family

ID=69776828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170290A Active JP6739847B2 (ja) 2018-09-12 2018-09-12 画像表示制御装置および画像表示制御用プログラム

Country Status (4)

Country Link
US (1) US11030821B2 (ja)
JP (1) JP6739847B2 (ja)
CN (1) CN111801725A (ja)
WO (1) WO2020054760A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11600086B2 (en) * 2018-05-23 2023-03-07 Nec Corporation Dictionary learning device, dictionary learning method, and program storage medium
KR102687145B1 (ko) * 2020-12-29 2024-07-22 한국전자기술연구원 현실 공간을 스캔하여 가상 공간에 반영하는 가상 현실 시스템
JPWO2022244052A1 (ja) * 2021-05-17 2022-11-24
CN113343031B (zh) * 2021-06-10 2023-03-24 浙江大华技术股份有限公司 数据添加方法及装置、存储介质、电子装置
CN117893839B (zh) * 2024-03-15 2024-06-07 华东交通大学 一种基于图注意力机制的多标记分类方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4344568B2 (ja) * 2003-09-05 2009-10-14 富士フイルム株式会社 ヘッドマウントディスプレイ及びそのコンテンツ再生方法
JP2009134693A (ja) * 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
CN102402277B (zh) * 2010-09-16 2014-11-05 联想(北京)有限公司 电子终端及信息输入处理方法
JP5580855B2 (ja) 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
CN103019507B (zh) * 2012-11-16 2015-03-25 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法
CN103105930A (zh) * 2013-01-16 2013-05-15 中国科学院自动化研究所 一种基于视频图像的非接触式智能输入方法及装置
EP3001406A4 (en) * 2013-05-21 2017-01-25 Sony Corporation Display control device, display control method, and recording medium
KR102332326B1 (ko) * 2014-01-23 2021-11-30 소니그룹주식회사 화상 표시 장치 및 화상 표시 방법
US11263794B2 (en) * 2015-01-21 2022-03-01 Chengdu Idealsee Technology Co., Ltd. Binocular see-through AR head-mounted display device and information displaying method thereof
CN110275619B (zh) 2015-08-31 2024-08-23 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
WO2017039308A1 (en) * 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
JP2017102298A (ja) 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2018063567A (ja) * 2016-10-13 2018-04-19 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10675766B1 (en) * 2017-08-28 2020-06-09 Disney Enterprises, Inc. System for introducing physical experiences into virtual reality (VR) worlds
CN108401452B (zh) * 2018-02-23 2021-05-07 香港应用科技研究院有限公司 使用虚拟现实头戴式显示器系统来执行真实目标检测和控制的装置和方法
US10921879B2 (en) * 2019-06-07 2021-02-16 Facebook Technologies, Llc Artificial reality systems with personal assistant element for gating user interface elements

Also Published As

Publication number Publication date
US11030821B2 (en) 2021-06-08
US20210005024A1 (en) 2021-01-07
WO2020054760A1 (ja) 2020-03-19
JP2020042206A (ja) 2020-03-19
CN111801725A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
JP6739847B2 (ja) 画像表示制御装置および画像表示制御用プログラム
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
TWI534654B (zh) 用於在一頭部安裝裝置上選擇一擴充實境物件之方法及電腦可讀媒體與用於選擇一擴充實境物件之頭部安裝裝置
JP6597235B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101171660B1 (ko) 증강현실의 포인팅 장치
US8388146B2 (en) Anamorphic projection device
CN103838365B (zh) 穿透型头部穿戴式显示系统与互动操作方法
EP3382510A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP2019125215A (ja) 情報処理装置、情報処理方法、及び記録媒体
JP5765133B2 (ja) 入力装置、入力制御方法及び入力制御プログラム
TW201322178A (zh) 擴增實境的方法及系統
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
JP2017129904A (ja) 情報処理装置、情報処理方法、及び記録媒体
US12010288B2 (en) Information processing device, information processing method, and program
KR20160031183A (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
US9600938B1 (en) 3D augmented reality with comfortable 3D viewing
US11474595B2 (en) Display device and display device control method
JP6950390B2 (ja) 表示制御プログラム、装置、及び方法
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
US20180160093A1 (en) Portable device and operation method thereof
JP7616216B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10783853B2 (en) Image provision device, method and program that adjusts eye settings based on user orientation
US20240221240A1 (en) Display device, method of controlling display device, and computer-readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200406

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200717

R150 Certificate of patent or registration of utility model

Ref document number: 6739847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350