[go: up one dir, main page]

JP2019105678A - 表示装置、及び画像表示方法 - Google Patents

表示装置、及び画像表示方法 Download PDF

Info

Publication number
JP2019105678A
JP2019105678A JP2017236771A JP2017236771A JP2019105678A JP 2019105678 A JP2019105678 A JP 2019105678A JP 2017236771 A JP2017236771 A JP 2017236771A JP 2017236771 A JP2017236771 A JP 2017236771A JP 2019105678 A JP2019105678 A JP 2019105678A
Authority
JP
Japan
Prior art keywords
display
image
area
screen
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017236771A
Other languages
English (en)
Inventor
悦子 萬田
Etsuko Manda
悦子 萬田
洋一 平沼
Yoichi Hiranuma
洋一 平沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017236771A priority Critical patent/JP2019105678A/ja
Priority to US16/214,019 priority patent/US10642348B2/en
Priority to CN201811501881.XA priority patent/CN110058759B/zh
Publication of JP2019105678A publication Critical patent/JP2019105678A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】端末表示装置の画面に表示される画像を拡張現実で表示する際の利便性を向上させることができる表示装置を提供する。【解決手段】表示装置20は、外部の端末表示装置40の画面41Aに表示される画像Gをユーザーに視認されるように拡張現実で表示する。表示装置20は制御部とディスプレー21と表示制御部とを備える。制御部は、画像Gと画面41Aの画面領域R1の大きさとに基づいて、画像Gに対応する拡張現実画像AGを生成する。ディスプレー21は拡張現実画像AGを表示する。表示制御部はディスプレー21による表示を制御する。制御部は、画像Gの全体領域G1の大きさが画面領域R1の大きさを超える場合に、超過領域G3を含む拡張現実画像AGを生成する。超過領域G3は、全体領域G1のうち画面領域R1の大きさを超える部分を示す。表示制御部は、画面領域R1の外側に超過領域G3を表示するようにディスプレー21を制御する。【選択図】図1

Description

本発明は、表示装置、及び画像表示方法に関する。
モバイル装置の画面で画像を閲覧する際に、仮想画像を表示する画像表示システムが知られている。このような画像表示システムとして、特許文献1に記載の画像表示システムは、ユーザーの目とモバイル装置の画面との間の距離に応じて、画面から画面の背後に向けての見かけの距離の位置に仮想画像を表示する。特許文献1に記載の画像表示システムは、目に対してモバイル装置を近接させると、仮想画像をより広範囲に表示する。
特表2014−529094号公報
しかしながら、特許文献1に記載の画像形成装置では、表示される仮想画像の範囲を変更する制御は、モバイル装置の移動操作に依存するため煩雑である。従って、モバイル装置の画面に表示される画像を拡張現実で表示する際の利便性が低かった。
本発明は上記課題に鑑みてなされたものであり、端末表示装置の画面に表示される画像を拡張現実で表示する際の利便性を向上させることができる表示装置及び画像表示方法を提供することを目的とする。
本発明に係る表示装置は、外部の端末表示装置の画面に表示される画像をユーザーに視認されるように拡張現実で表示する。前記表示装置は、制御部と、ディスプレーと、表示制御部とを備える。前記制御部は、前記画像と、前記画面の画面領域の大きさとに基づいて、前記画像に対応する拡張現実画像を生成する。前記ディスプレーは、前記拡張現実画像を表示する。前記表示制御部は、前記ディスプレーによる表示を制御する。前記制御部は、前記画像の全体領域の大きさが前記画面領域の大きさを超える場合に、超過領域を含む前記拡張現実画像を生成する。前記超過領域は、前記全体領域のうち前記画面領域の大きさを超える部分を示す。前記表示制御部は、前記画面領域の外側に前記超過領域を表示するように前記ディスプレーを制御する。
本発明に係る画像表示方法は、外部の端末表示装置の画面に表示される画像をユーザーに視認されるように拡張現実で表示する。前記画像表示方法は、制御工程と、表示工程と、表示制御工程とを包含する。前記制御工程は、前記画像と、前記画面の画面領域の大きさとに基づいて、前記画像に対応する拡張現実画像を生成する。前記表示工程は、前記拡張現実画像を表示する。前記表示制御工程は、前記表示工程における表示を制御する。前記制御工程において、前記画像の全体領域の大きさが前記画面領域の大きさを超える場合に、超過領域を含む前記拡張現実画像を生成する。前記超過領域は、前記全体領域のうち前記画面領域の大きさを超える部分を示す。前記表示制御工程において、前記画面領域の外側に前記超過領域を表示するように前記表示工程における表示を制御する。
本発明によれば、端末表示装置の画面に表示される画像を拡張現実で表示する際の利便性を向上させることができる。
(a)は、本発明の実施形態に係る表示システムを示す図であり、(b)は、本発明の実施形態に係る表示装置において表示される画像を示す図である。 本発明の実施形態に係る表示装置において表示される画像を示す図である。 本発明の実施形態に係る表示装置を示す図である。 本発明の実施形態に係る表示装置を示す構成図である。 本発明の実施形態に係る端末表示装置を示す構成図である。 (a)〜(c)は、本発明の実施形態に係る表示装置において表示される画像を示す図である。 (a)及び(b)は、本発明の実施形態に係る表示装置において表示される画像を示す図である。 (a)及び(b)は、本発明の実施形態に係る表示装置において表示される画像を示す図である。 本発明の実施形態に係る表示装置において表示される画像を示す図である。 (a)及び(b)は、本発明の実施形態に係る表示装置において表示される画像を示す図である。 本発明の実施形態に係る表示装置が実行する、表示処理を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。
図1(a)及び(b)と、図2とを参照して、本実施形態に係る表示システム10の全体構成を説明する。図1(a)は、表示システム10を示す図である。図1(b)及び図2は、表示装置20において表示される画像を示す図である。
図1(a)及び(b)に示すように、表示システム10は、表示装置20と、端末表示装置40とを備える。表示装置20は、例えば、光学透過式のヘッドマウントディスプレー又はスマートフォンである。なお、本明細書では、表示装置20がヘッドマウントディスプレーである実施形態について説明する。端末表示装置40は、例えば、スマートフォン又はタブレット端末装置である。また、端末表示装置40は、画像形成装置(例えば、複合機)が備える表示装置(例えば、操作画面を含むタッチパネル装置)であってもよい。なお、本明細書では、端末表示装置40がスマートフォンである実施形態について説明する。端末表示装置40は、「外部の端末表示装置」に相当する。表示装置20は、端末表示装置40との間で無線通信を行うことができる。表示システム10において、表示装置20は、端末表示装置40の画面41Aに表示される画像Gをユーザーが視認できるように拡張現実(AR:Augmented Reality)で表示する。画像Gの全体領域G1のうち少なくとも一部の領域は、図1(a)に示す端末表示装置40の現実の画面41Aの範囲内に表示されている。全体領域G1は、複数の部分領域で構成される。複数の部分領域は、現実の画面41Aの画面サイズで制約されることによって一目で視認できない部分領域を含み得る。画面41Aは、例えば、矩形状である。
表示装置20は、制御部と、表示制御部と、ディスプレー21とを備える。制御部は、画像Gと、画面41Aの画面領域R1の大きさとに基づいて、画像Gに対応する拡張現実画像AGを生成する。拡張現実画像AGは、画像Gの全体領域G1を示す画像を含む。拡張現実画像AGは、端末表示装置40を示す端末画像40Gを更に含んでいてもよい。制御部は、画像Gの全体領域G1の大きさが画面領域R1の大きさを超える場合に、超過領域G3を含む拡張現実画像AGを生成する。超過領域G3は、全体領域G1のうち画面領域R1の大きさを超える部分領域を示す。なお、全体領域G1のうち画面領域R1の大きさを超えない部分領域を、以下、「未超過領域G2」と記載することがある。
例えば、図1(b)は、画像Gがプルダウンメニュー画像である実施形態を示す。このような実施形態において、ディスプレー21は、画面領域R1に対して、例えば、第1方向D1の下流側に超過領域G3を表示できる。第1方向D1は、表示装置20を装着するユーザーの視野において、画面41Aの長辺に沿って画面41Aの上端から下端に向かう方向を示す。
さらに、図2は、例えば、画像Gが料理メニュー名と料理写真とを組み合わせた画像である実施形態を示す。このような実施形態において、ディスプレー21は、画面領域R1に対して、例えば、第2方向D2の下流側に超過領域G3を表示できる。第2方向D2は、表示装置20を装着するユーザーの視野において、画面41Aの短辺に沿って画面41Aの左端から右端に向かう方向を示す。以下、本明細書で記載する「上下左右」は、ユーザーの視野における上下左右を示す。
図1(b)と図2とに示すように、表示制御部は、ディスプレー21による表示を制御する。表示制御部は、超過領域G3を含む拡張現実画像AGが制御部によって生成されると、画面領域R1の外側に超過領域G3を表示するようにディスプレー21を制御する。ディスプレー21は、拡張現実画像AGを表示する。このようにして、表示制御部は、超過領域G3に応じて拡張現実画像AGを表示する領域を拡張する。表示装置20を装着するユーザーは、ディスプレー21に表示される拡張現実画像AGを目視する。従って、超過領域G3を含む全体領域G1を、端末表示装置40の現実の画面41Aの範囲内で一目で視認できない場合であっても、ユーザーは、特段の操作を要さずにディスプレー21で全体領域G1を視認できる。その結果、端末表示装置40の画面41Aに表示される画像Gを拡張現実で表示する際の利便性を向上させることができる。
引き続き図1と図2とを参照しつつ、更に図3と図4とを参照して、表示装置20の構成の詳細について説明する。図3は、表示装置20を示す図である。詳細には、図3は、ユーザーの顔面側(眼球側)から見た表示装置20を示している。換言すると、図3は、表示装置20の内側を示している。
図3に示すように、本実施形態における表示装置20は双眼型である。従って表示装置20は、ユーザーの左右の目(眼球)の前方にそれぞれ配置される2つのディスプレー21(表示部)を備える。2つのディスプレー21は、同じ画像を表示する。ディスプレー21は、例えば、液晶ディスプレーや有機エレクトロルミネッセンス(有機EL)ディスプレーのような表示素子からなる。ディスプレー21は、ユーザーの視野を示す視野領域を有する。視野領域は、予めディスプレー21に設定されている。なお、視野領域の詳細については、図8〜図10を参照して後述する。
図4は、表示装置20を示す構成図である。図4に示すように、表示装置20は、ディスプレー21と、表示制御部22と、制御部26とに加えて、無線通信インターフェイス(I/F)23と、位置検出部24と、向き検出部25と、記憶部27とを更に備える。
無線通信インターフェイス23は、端末表示装置40との間の無線通信に使用される。無線通信方式は特に限定されず、例えば、Bluetooth(登録商標)のような近距離無線通信方式が採用され得る。無線通信インターフェイス23は、無線通信で端末表示装置40と接続されると、端末表示装置40へ情報要求信号を送信する。情報要求信号は、端末情報と画像情報とを要求する信号を含む。画像情報は、画像Gを示す情報である。端末情報は、端末表示装置40の属性(例えば、機器の種別、画面41Aのサイズ)を示す情報である。無線通信インターフェイス23は、端末表示装置40から端末情報と画像情報とを受信する。また、無線通信インターフェイス23は、端末表示装置40から送信される接触位置情報を受信する。接触位置情報は、画面41Aで検出される接触位置を示す情報である。接触位置の詳細については、図5〜図7を参照して後述する。
表示制御部22は、制御部26によって制御されて、ディスプレー21に所定の画像を表示させる。具体的には、表示制御部22は、例えば、ディスプレー21を駆動する駆動回路である。表示制御部22は、端末表示装置40から送信される画像情報と端末情報とに基づいて、拡張現実画像AGを視野領域で表示するようにディスプレー21を制御する。詳細には、表示制御部22は、画像Gの全体領域G1と端末画像40Gとを重畳して表示するようにディスプレー21を制御する。例えば、図1(b)と図2とに示すように、表示制御部22は、画面41Aの形状に未超過領域G2の配置を合わせるように、端末画像40Gの前面に全体領域G1を重畳してディスプレー21に表示させる。
位置検出部24は、表示装置20の現在位置を検出する。換言すると、位置検出部24は、表示装置20を装着したユーザーの現在位置を検出する。位置検出部24は、例えば、GPS機能を有する。
向き検出部25は、表示装置20の向きを検出する。換言すると、向き検出部25は、表示装置20を装着したユーザーの顔の向きを検出する。向き検出部25は、例えば、電子コンパスを含む。
制御部26は、記憶部27に記憶されたプログラムを実行することによって、数値計算や情報処理、機器制御のような様々な処理を行う。制御部26は、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)のようなプロセッサーを含み得る。
記憶部27は、プログラムや各種データを記憶する。また、記憶部27は、端末表示装置40から送信される画像情報や、端末表示装置40の座標(位置)の情報などを記憶する。記憶部27は、例えば、HDD(Hard Disk Drive)が備える磁気ディスク、RAM(Random Access Memory)及びROM(Read Only Memory)によって構成され得る。
制御部26は、画像Gと、画面領域R1の大きさとに基づいて、画像Gに対応する拡張現実画像AGを生成する。詳細には、無線通信インターフェイス23と端末表示装置40とが無線通信で接続されると、制御部26は、情報要求信号を端末表示装置40へ送信するように無線通信インターフェイス23を制御する。制御部26は、端末表示装置40から受信する画像情報と端末情報とに基づいて、画像Gの全体領域G1の大きさが画面領域R1の大きさを超えるか否かを判定する。画像Gの全体領域G1の大きさが画面領域R1の大きさを超える場合に、制御部26は、超過領域G3を含む拡張現実画像AGを生成する。画像Gの全体領域G1の大きさが画面領域R1の大きさを超えない場合に、制御部26は、未超過領域G2を含む拡張現実画像AGを生成する。制御部26は、ディスプレー21が拡張現実画像AGを表示するように表示制御部22を制御する。
以上、図1〜図4を参照して説明したように、本実施形態によれば、拡張現実画像AGは、全体領域G1と端末画像40Gとを含み得る。表示制御部22は、全体領域G1と端末画像40Gとを重畳して拡張現実画像AGとして表示する。従って、ユーザーは、ディスプレー21の向きを端末表示装置40の画面41Aの位置に合わせることなく、現実の画面41A上で全体領域G1を目視するかの如く拡張現実で体感できる。その結果、画面41Aに表示される画像Gを目視する際の煩雑さを低減できる。
続いて、図5〜図7を参照して、端末表示装置40の構成の詳細と、接触位置の詳細とについて説明する。図5は、端末表示装置40を示す構成図である。図6(a)〜(c)及び図7は、表示装置20において表示される画像(ディスプレー21に表示される画像)を示す図である。図5に示すように、端末表示装置40は、タッチパネル41、端末位置検出部42、動き検知センサー43、端末無線通信インターフェイス(I/F)44、端末制御部45、及び端末記憶部46を備える。
タッチパネル41は、画面41A、及びタッチセンサー41Bを含む。ユーザーがタッチパネル41を操作することにより、その操作に対応する処理を端末表示装置40が実行する。
画面41Aは、例えば、液晶ディスプレーである。なお、画面41Aは、有機ELディスプレー(Organic ElectroLuminescence display)であってもよい。画面41Aは、表示面を有する。画面41Aは、端末表示装置40を操作するための操作アイコン等を表示する。また、画面41Aは、画像Gを表示する。画像Gは、例えば、インターネットサイトを示す画像、又は、文書及び/又は写真を示す画像である。
タッチセンサー41Bは、タッチ面を有する。タッチ面は、表示面の上に配置される。タッチセンサー41Bは、タッチ面に対する接触を検出すると、接触された位置を示す接触位置信号を生成する。接触位置信号は、端末制御部45へ出力される。タッチセンサー41Bは、例えば、抵抗膜方式のタッチセンサーである。なお、タッチセンサー41Bは、静電容量方式であってもよい。
端末位置検出部42は、例えば、GPS受信機である。端末位置検出部42は、GPS衛星からの電波を受信し、端末表示装置40の現在位置を示す情報を取得する。端末位置検出部42は、取得した位置(座標)を示す端末位置情報を端末制御部45へ定期的に出力する。端末位置情報は、端末表示装置40が位置する経度及び緯度を示す。
動き検知センサー43は、端末表示装置40の動きを検知して、端末表示装置40の動きを示す情報(動き情報)を端末制御部45へ送信する。動き検知センサー43は、加速度センサー及びジャイロスコープを含む。
端末無線通信インターフェイス44は、表示装置20との間の無線通信に使用される。つまり、端末無線通信インターフェイス44の無線通信方式は、表示装置20の無線通信インターフェイス23と同じである。
端末記憶部46は、プログラム、端末情報、及び画像情報を記憶する。例えば、端末記憶部46は、各種の画像Gを示す情報を記憶する。端末記憶部46は、例えば、HDDが備える磁気ディスク、RAM及びROMによって構成され得る。
端末制御部45は、端末記憶部46に記憶されたプログラムを実行することによって、数値計算や情報処理、機器制御のような様々な処理を行う。端末制御部45は、例えばCPU又はMPUのようなプロセッサーを含み得る。
端末制御部45は、端末無線通信インターフェイス44が表示装置20から情報要求信号を受信すると、端末記憶部46に記憶されている端末情報及び/又は画像情報を、端末無線通信インターフェイス44を介して表示装置20へ送信する。なお、端末制御部45は、端末無線通信インターフェイス44を介して、画像情報を定期的に表示装置20に送信してもよい。また、端末制御部45は、端末位置検出部42から出力される端末位置情報を、端末無線通信インターフェイス44を介して表示装置20に送信し得る。また、端末制御部45は、タッチセンサー41Bから出力される接触位置信号に応じて、接触位置を示す接触位置情報を、端末無線通信インターフェイス44を介して表示装置20に送信する。
表示装置20の表示制御部22は、画面41Aで検出された接触位置に基づいて、拡張現実画像AGの表示を変化させるようにディスプレー21を制御する。例えば、表示装置20は、端末表示装置40から送信される接触位置情報に従い、全体領域G1をスライドしたり、全体領域G1の縮尺を変更して表示する。
例えば、図6(a)〜(c)に示すように、表示装置20は、全体領域G1を拡大して表示する。詳細には、表示装置20は、例えば、2つの接触位置を示す接触位置情報に従い、図6(a)に示すように2つの接触位置画像CGを表示する。表示装置20は、接触位置画像CGと共に、指を示す指画像FGを表示してもよい。タッチセンサー41Bは、2つの接触位置画像CGに対応する接触位置が操作方向H1と操作方向H2とに移動したこと(ピンチアウト操作)を検出すると、対応する接触位置信号を端末制御部45に出力する。端末制御部45は、ピンチアウト操作を示す接触位置情報を、端末無線通信インターフェイス44を介して表示装置20に送信する。
表示制御部22は、拡張現実画像AGの縮尺を変更した縮尺変更画像SGを接触位置情報に基づいて表示するようにディスプレー21を制御する。例えば、表示制御部22は、受信した接触位置情報に従い、図6(b)に示すように、操作方向H1と操作方向H2とに向けて全体領域G1を拡大し、超過領域G3を含む拡張現実画像AGを表示する。ユーザーは、超過領域G3に対して所定の指示(例えば、クリック)を入力する場合、例えば、指画像FGを超過領域G3の位置に移動させるようにタッチセンサー41Bに指示(例えば、フリック、又はスクロール)を入力すればよい。
さらに、図6(c)に示すように、表示制御部22は、縮尺変更画像SGのサイズに応じて、縮尺変更枠画像41SGを表示するようにディスプレー21を制御してもよい。縮尺変更枠画像41SGは、枠画像41Gの縮尺を変更した画像である。端末画像40Gは、枠画像41Gを含み得る。枠画像41Gは、画面41Aの枠を示す。
また、例えば、図7(a)及び(b)に示すように、表示装置20は、端末表示装置40から送信される接触位置情報に従い、全体領域G1を縮小して表示する。タッチセンサー41Bは、2つの接触位置画像CGに対応する接触位置が操作方向H3と操作方向H4とに移動したこと(ピンチイン操作)を検出すると、対応する接触位置信号を端末制御部45に出力する。端末制御部45は、ピンチイン操作を示す接触位置情報を、端末無線通信インターフェイス44を介して表示装置20に送信する。表示制御部22は、受信した接触位置情報に従い、操作方向H3と操作方向H4とに向けて全体領域G1を縮小して表示する。
以上、図5〜図7を参照して説明したように、本実施形態によれば、表示制御部22は、画面41Aで検出された接触位置に基づいて、拡張現実画像AGの表示を変化させるようにディスプレー21を制御する。これにより、ユーザーは、タッチセンサー41Bを操作することによって、画像Gの全体領域G1を操作できる。従って、未超過領域G2と超過領域G3とのいずれの領域についても、簡易な構成で画像を変化させることができる。
さらに、本実施形態によれば、表示制御部22は、縮尺変更画像SGのサイズに応じて、縮尺変更枠画像41SGを表示するようにディスプレー21を制御することが好ましい。ユーザーは、縮尺変更枠画像41SGと縮尺変更画像SGとを視覚的に対比することによって、縮尺変更画像SGの現実の縮尺度合を直感的に認識できる。
続いて、図8〜図10を参照して、視野領域Vの詳細について説明する。図8〜図10は、表示装置20において表示される画像を示す図である。表示制御部22は、視野領域Vで拡張現実画像AGを表示するようにディスプレー21を制御する。詳細には、図8(a)に示すように、視野領域Vは、ユーザーによる視認可能な視野の領域を示す。視野領域Vは、予めディスプレー21の画面サイズに応じてディスプレー21に設定されている。画像Gは、第1領域G1Aと第2領域G1Bとを含む。第2領域G1Bは、画像Gのうち第1領域G1Aに連続して(隣接して)配置される領域である。第1領域G1Aと第2領域G1Bとは、全体領域G1を構成する。
表示制御部22は、第2領域G1Bが視野領域Vを超える場合、視野領域V内に第2領域G1Bを配置するように、第2領域G1Bの配置を変更する。詳細には、表示制御部22は、画面領域R1の端部と視野領域Vの端部との間隔Wに応じて、第1領域G1Aと第2領域G1Bとの境界を決定する。すなわち、表示制御部22は、閾値としての間隔Wを超えないように第1領域G1Aの範囲を決定する。表示制御部22は、例えば、図8(b)に示すように、第2領域G1Bを第1領域G1Aから離間させ、視野領域Vにおける第1領域G1Aの近傍に配置する。表示制御部22は、第2領域G1Bを最少化するために、端末画像40Gを視野領域Vのいずれかの端部に近接させて配置してもよい。このようにして、表示制御部22は、第2領域G1Bが視野領域Vを超える場合、当初の画像Gの配置状態で第2領域G1Bを表示せず、第2領域G1Bの配置を変更して視野領域Vに表示するようにディスプレー21を制御する。従って、ディスプレー21は、視野領域Vに応じて、拡張現実画像AGを一目で視認できるように表示できる。その結果、端末表示装置40の画面41Aに表示される画像Gの視認性を更に向上させることができる。
さらに、図9に示すように、表示制御部22は、第2領域G1Bが視野領域Vを超える場合、コピー領域G1B1を第2領域G1Bと共に視野領域V内に配置するように、第2領域G1Bの配置を変更することが好ましい。具体的には、第1領域G1Aは、第2領域G1Bに隣接する端部領域G1A1を有する。コピー領域G1B1は、端部領域G1A1の画像と同一の画像を示す領域である。ユーザーは、視野領域Vの周縁近傍に位置する端部領域G1A1を、コピー領域G1B1を目視することによっても容易に視認できる。従って、端末表示装置40の画面41Aに表示される画像Gを視認する際に、画像Gの細部を見落とすことを抑制できる。
さらに、図10(a)及び(b)に示すように、表示制御部22は、縮尺変更画像SGの表示後に所定の接触位置が画面41Aで検出されると、所定の接触位置に基づいて参照画像TGを縮尺変更画像SGに重畳して表示するようにディスプレー21を制御することが好ましい。詳細には、参照画像TGは、縮尺が変更される前の画像Gを示す。縮尺変更画像SGは、画像Gが縮小された画像であってもよいし、図10(a)に示すように、画像Gが拡大された画像であってもよい。
縮尺変更画像SGが表示された後に、所定の接触位置がタッチセンサー41Bで検出される。所定の接触位置は、例えば、図7(a)を参照して説明したピンチイン操作による2つの接触位置である。表示装置20は、所定の接触位置を示す接触位置情報を端末表示装置40から受信する。
表示制御部22は、図10(b)に示すように、接触位置情報に対応する2つの接触位置画像CGを表示する際に、縮尺変更画像SGに重畳して参照画像TGを表示するようにディスプレー21を制御する。ディスプレー21は、端末画像40Gを表示し、参照画像TGを画面領域R1内に表示してもよい。このように、ユーザーは、例えば、視野領域Vを超えるほど過度に画像Gを拡大した後、縮尺変更画像SGを縮小することを所望する際に、拡大前の画像Gのサイズを視覚的に参照できる。従って、縮尺変更画像SGの縮尺を再度変更する際に、変更すべき縮尺の度合いを直感的に予測できる。
続いて、図1〜図11を参照して、表示システム10の動作を説明する。図11は、表示装置20が実行する、表示処理の一例を示すフローチャートである。ステップS101〜ステップS121が実行されることによって、表示装置20は、拡張現実画像AGの表示処理を実行する。具体的には、以下の通りである。
ステップS101において、表示装置20は、無線通信で端末表示装置40と接続する。表示装置20は、端末表示装置40へ情報要求信号を送信する。処理は、ステップS103に進む。
次に、ステップS103において、表示装置20は、端末表示装置40から端末情報と画像情報とを受信する。処理は、ステップS105に進む。
次に、ステップS105において、制御部26は、画像Gの全体領域G1が画面41Aの画面領域R1を超えるか否かを判定する。全体領域G1が画面領域R1を超える場合(ステップS105でYes)に、処理はステップS107に進む。一方、全体領域G1が画面領域R1を超えない場合(ステップS105でNo)に、処理はステップS115に進む。
ステップS105でNoの場合に、ステップS115において、制御部26は、未超過領域G2を含む拡張現実画像AGを生成する。処理は、ステップS117に進む。
次に、ステップS117において、表示制御部22は、拡張現実画像AGを表示するようにディスプレー21を制御する。処理は、ステップS119に進む。
ステップS105でYesの場合に、ステップS107において、制御部26は、超過領域G3を含む拡張現実画像AGを生成する。処理は、ステップS109に進む。
次に、ステップS109において、表示制御部22は、拡張現実画像AGを表示するようにディスプレー21を制御する。処理は、ステップS111に進む。
次に、ステップS111において、制御部26は、第2領域G1Bが視野領域Vを超えるか否かを判定する。第2領域G1Bが視野領域Vを超える場合(ステップS111でYes)に、処理はステップS113に進む。一方、第2領域G1Bが視野領域Vを超えない場合(ステップS111でNo)に、処理はステップS119に進む。
ステップS111でYesの場合に、ステップS113において、表示制御部22は、視野領域V内に第2領域G1Bを配置するように、第2領域G1Bの配置を変更する。処理は、ステップS119に進む。
次に、ステップS119において、制御部26は、端末表示装置40から接触位置情報を受信したか否かを判定する。接触位置情報を受信した場合(ステップS119でYes)に、処理はステップS121に進む。一方、接触位置情報を受信していない場合(ステップS119でNo)に、処理は終了する。
ステップS119でYesの場合に、ステップS121において、表示制御部22は、接触位置情報に従い、拡張現実画像AGの表示を変化させるようにディスプレー21を制御する。そして、処理は終了する。
以上、図面(図1〜図11)を参照しながら本発明の実施形態を説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の各実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚み、長さ、個数、間隔等は、図面作成の都合上から実際とは異なる。また、上記の実施形態で示す各構成要素の形状、方向等は一例であって、特に限定されるものではなく、本発明の構成から実質的に逸脱しない範囲で種々の変更が可能である。
(1)図1(a)と図3とを参照して説明した表示装置20は、双眼型のヘッドマウントディスプレーであったが、本発明はこれに限られない。表示装置20は、拡張現実画像AGを表示する拡張現実表示処理を実行可能な携帯端末装置(例えば、スマートフォン)であってもよい。表示装置20が携帯端末装置である実施形態において、ユーザーは、表示装置20としての携帯端末装置をグーグルカードボード(登録商標)のような装着補助具を用いて頭部に装着してもよいし、手で直接支持して眼前にかざしてもよい。
(2)図8〜図10を参照して説明した視野領域Vは、予めディスプレー21の画面サイズに応じてディスプレー21に設定されていたが、本発明はこれに限られない。視野領域Vは、ユーザーの視線方向に基づいて設定されてもよい。このような実施形態において、表示装置20は、眼球画像取得部と視線方向検出部とを更に備える。眼球画像取得部は、例えば、近赤外線LED(Light Emitting Diode)、及び赤外線カメラを有する。眼球画像取得部は、ユーザーの左右の目(眼球)の画像(眼球画像)を取得できるように配置される。視線方向検出部は、取得された眼球画像に基づいて、例えば、角膜反射法によってユーザーの視線方向を検出する。表示制御部22は、検出された視線方向に基づき、ユーザーの視野領域Vの範囲の閾値を決定し、ディスプレー21に視野領域Vを設定する。従って、ユーザーの個人差による視線方向の違いに応じて、視野領域Vの範囲を調整できる。その結果、表示装置20の汎用性を向上させることができる。
(3)図1〜図11を参照して説明した表示装置20は、光学透過式のヘッドマウントディスプレーであったが、本発明はこれに限られない。表示装置20は、例えば、ビデオ透過式のヘッドマウントディスプレーであってもよい。ビデオ透過式の表示装置20は、上述した眼球画像取得部と視線方向検出部とに加えて、環境画像取得部と対象特定部とを更に備え得る。環境画像取得部は、ユーザーの周辺環境の画像(周辺環境画像)を取得する。制御部26は、周辺環境画像を画像解析して、周辺環境画像に含まれる端末表示装置40の有無やユーザーの腕の有無をマッチング処理で判定する。対象特定部は、端末表示装置40から送信される端末表示装置40の座標と、位置検出部24により検出された表示装置20の現在位置と、向き検出部25により検出された表示装置20の向きとに基づいて、ユーザーの視野内(周辺環境画像内)に存在する端末表示装置40を特定する。さらに、対象特定部は、周辺環境画像に含まれる端末画像40Gとユーザーの腕画像との配置関係を特定する。表示制御部22は、例えば、端末画像40Gの中心点よりも左側寄りに腕画像が配置されている場合(つまり、左手で端末表示装置40が所持されている可能性が高い場合)、端末画像40Gの右側に超過領域G3を表示することが好ましい。これにより、端末表示装置40を所持しない方の手で超過領域G3を操作する際の利便性を向上させることができる。
本発明は、表示装置の分野に利用可能である。
10 表示システム
20 表示装置
21 ディスプレー
22 表示制御部
26 制御部
40 端末表示装置
41A 画面
AG 拡張現実画像
G 画像
G1 全体領域
G3 超過領域
R1 画面領域

Claims (8)

  1. 外部の端末表示装置の画面に表示される画像をユーザーに視認されるように拡張現実で表示する表示装置であって、
    前記画像と、前記画面の画面領域の大きさとに基づいて、前記画像に対応する拡張現実画像を生成する制御部と、
    前記拡張現実画像を表示するディスプレーと、
    前記ディスプレーによる表示を制御する表示制御部と
    を備え、
    前記制御部は、前記画像の全体領域の大きさが前記画面領域の大きさを超える場合に、超過領域を含む前記拡張現実画像を生成し、
    前記超過領域は、前記全体領域のうち前記画面領域の大きさを超える部分を示し、
    前記表示制御部は、前記画面領域の外側に前記超過領域を表示するように前記ディスプレーを制御する、表示装置。
  2. 前記拡張現実画像は、前記全体領域と、前記端末表示装置を示す端末画像とを含み、
    前記表示制御部は、前記全体領域と前記端末画像とを重畳して表示するように前記ディスプレーを制御する、請求項1に記載の表示装置。
  3. 前記ディスプレーは、ユーザーの視野を示す視野領域を有し、
    前記表示制御部は、前記視野領域で前記拡張現実画像を表示するように前記ディスプレーを制御し、
    前記画像は、第1領域と、前記第1領域に連続して配置される第2領域とを含み、
    前記表示制御部は、前記第2領域が前記視野領域を超える場合、前記視野領域内に前記第2領域を配置するように、前記第2領域の配置を変更する、請求項1又は請求項2に記載の表示装置。
  4. 前記第1領域は、前記第2領域に隣接する端部領域を含み、
    前記表示制御部は、前記第2領域が前記視野領域を超える場合、コピー領域を前記第2領域と共に前記視野領域内に配置するように、前記第2領域の配置を変更し、
    前記コピー領域は、前記端部領域の画像と同一の画像を示す領域である、請求項3に記載の表示装置。
  5. 前記表示制御部は、前記画面で検出された接触位置に基づいて、前記拡張現実画像の表示を変化させるように前記ディスプレーを制御する、請求項1から請求項4のいずれか1項に記載の表示装置。
  6. 前記表示制御部は、前記画像の縮尺を変更した縮尺変更画像を前記接触位置に基づいて表示するように前記ディスプレーを制御し、
    前記表示制御部は、前記縮尺変更画像の表示後に所定の接触位置が前記画面で検出されると、前記所定の接触位置に基づいて参照画像を前記縮尺変更画像に重畳して表示するように前記ディスプレーを制御し、
    前記参照画像は、前記縮尺が変更される前の前記画像を示す、請求項5に記載の表示装置。
  7. 前記拡張現実画像は、前記端末表示装置を示す端末画像を含み、
    前記端末画像は、前記画面の枠を示す枠画像を含み、
    前記表示制御部は、前記縮尺変更画像のサイズに応じて、前記枠画像の縮尺を変更した縮尺変更枠画像を表示するように前記ディスプレーを制御する、請求項6に記載の表示装置。
  8. 外部の端末表示装置の画面に表示される画像をユーザーに視認されるように拡張現実で表示する画像表示方法であって、
    前記画像と、前記画面の画面領域の大きさとに基づいて、前記画像に対応する拡張現実画像を生成する制御工程と、
    前記拡張現実画像を表示する表示工程と、
    前記表示工程における表示を制御する表示制御工程と
    を包含し、
    前記制御工程において、前記画像の全体領域の大きさが前記画面領域の大きさを超える場合に、超過領域を含む前記拡張現実画像を生成し、
    前記超過領域は、前記全体領域のうち前記画面領域の大きさを超える部分を示し、
    前記表示制御工程において、前記画面領域の外側に前記超過領域を表示するように前記表示工程における表示を制御する、画像表示方法。
JP2017236771A 2017-12-11 2017-12-11 表示装置、及び画像表示方法 Pending JP2019105678A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017236771A JP2019105678A (ja) 2017-12-11 2017-12-11 表示装置、及び画像表示方法
US16/214,019 US10642348B2 (en) 2017-12-11 2018-12-07 Display device and image display method
CN201811501881.XA CN110058759B (zh) 2017-12-11 2018-12-10 显示装置及图像显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236771A JP2019105678A (ja) 2017-12-11 2017-12-11 表示装置、及び画像表示方法

Publications (1)

Publication Number Publication Date
JP2019105678A true JP2019105678A (ja) 2019-06-27

Family

ID=66696802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236771A Pending JP2019105678A (ja) 2017-12-11 2017-12-11 表示装置、及び画像表示方法

Country Status (3)

Country Link
US (1) US10642348B2 (ja)
JP (1) JP2019105678A (ja)
CN (1) CN110058759B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021225333A1 (ko) * 2020-05-08 2021-11-11 삼성전자 주식회사 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2022091700A1 (ja) * 2020-10-27 2022-05-05 富士フイルム株式会社 表示制御装置、表示制御方法、および表示制御プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3690627A1 (en) * 2019-01-30 2020-08-05 Schneider Electric Industries SAS Graphical user interface for indicating off-screen points of interest
CN111240466B (zh) * 2019-09-02 2023-12-26 北京佳珥医学科技有限公司 辅助听力文字近眼显示适应性调节方法、控制设备和系统
CN113408331A (zh) * 2020-03-17 2021-09-17 株式会社斯巴鲁 注视对象检测装置
CN112601067B (zh) * 2020-12-11 2023-08-15 京东方科技集团股份有限公司 增强现实显示装置及其显示方法
JP7635024B2 (ja) * 2021-03-09 2025-02-25 キヤノン株式会社 ウェアラブル端末、システム、その制御方法、プログラム及び記憶媒体
US12093704B2 (en) 2021-04-12 2024-09-17 Huawei Technologies Co., Ltd. Devices, methods, systems, and media for an extended screen distributed user interface in augmented reality
GB2620175B (en) * 2022-06-30 2025-01-01 Sony Interactive Entertainment Europe Ltd Representing virtual objects outside of a display screen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120127284A1 (en) * 2010-11-18 2012-05-24 Avi Bar-Zeev Head-mounted display device which provides surround video
JP2013134532A (ja) * 2011-12-26 2013-07-08 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
JP2015049883A (ja) * 2013-09-05 2015-03-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム
JP2015135563A (ja) * 2014-01-16 2015-07-27 カシオ計算機株式会社 表示システム、表示端末、表示方法及びプログラム
US20160119464A1 (en) * 2014-10-24 2016-04-28 Lg Electronics Inc. Mobile terminal and controlling method thereof
WO2016194844A1 (ja) * 2015-05-29 2016-12-08 京セラ株式会社 ウェアラブル装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
US8754831B2 (en) 2011-08-02 2014-06-17 Microsoft Corporation Changing between display device viewing modes
US9110502B2 (en) * 2011-12-16 2015-08-18 Ryan Fink Motion sensing display apparatuses
US20150199106A1 (en) * 2014-01-14 2015-07-16 Caterpillar Inc. Augmented Reality Display System
KR102212030B1 (ko) * 2014-05-26 2021-02-04 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
KR20170112797A (ko) * 2016-04-01 2017-10-12 삼성전자주식회사 디스플레이 장치, 시스템 및 그 제어 방법
US20180075657A1 (en) * 2016-09-15 2018-03-15 Microsoft Technology Licensing, Llc Attribute modification tools for mixed reality

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120127284A1 (en) * 2010-11-18 2012-05-24 Avi Bar-Zeev Head-mounted display device which provides surround video
JP2013134532A (ja) * 2011-12-26 2013-07-08 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
JP2015049883A (ja) * 2013-09-05 2015-03-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム
JP2015135563A (ja) * 2014-01-16 2015-07-27 カシオ計算機株式会社 表示システム、表示端末、表示方法及びプログラム
US20160119464A1 (en) * 2014-10-24 2016-04-28 Lg Electronics Inc. Mobile terminal and controlling method thereof
WO2016194844A1 (ja) * 2015-05-29 2016-12-08 京セラ株式会社 ウェアラブル装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021225333A1 (ko) * 2020-05-08 2021-11-11 삼성전자 주식회사 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2022091700A1 (ja) * 2020-10-27 2022-05-05 富士フイルム株式会社 表示制御装置、表示制御方法、および表示制御プログラム
US12007563B2 (en) 2020-10-27 2024-06-11 Fujifilm Corporation Display control device, display control method, and display control program

Also Published As

Publication number Publication date
US20190179406A1 (en) 2019-06-13
CN110058759A (zh) 2019-07-26
CN110058759B (zh) 2022-05-10
US10642348B2 (en) 2020-05-05

Similar Documents

Publication Publication Date Title
CN110058759B (zh) 显示装置及图像显示方法
US10983593B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US10495878B2 (en) Mobile terminal and controlling method thereof
EP3244295B1 (en) Head mounted display device and method for controlling the same
KR102471977B1 (ko) 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치
EP3717992B1 (en) Device for providing augmented reality service, and method of operating the same
US11200869B1 (en) Wearable display system for portable computing devices
CN105339870B (zh) 用于提供虚拟输入界面的方法和可穿戴装置
US10187520B2 (en) Terminal device and content displaying method thereof, server and controlling method thereof
US10416835B2 (en) Three-dimensional user interface for head-mountable display
JP4927631B2 (ja) 表示装置、その制御方法、プログラム、記録媒体および集積回路
JP2024010181A (ja) 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置
KR102360176B1 (ko) 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스
WO2015200406A1 (en) Digital action in response to object interaction
JP6239755B2 (ja) ウェアラブルなマップ及び画像ディスプレイ
JP2015176186A (ja) 情報処理装置、情報処理方法、及び情報処理システム
US20240272782A1 (en) Methods for interacting with user interfaces based on attention
US11429200B2 (en) Glasses-type terminal
US12249033B2 (en) User interfaces that include representations of the environment
JP7080448B1 (ja) 端末装置
JP7031112B1 (ja) 眼鏡型端末
JP2017126021A (ja) 情報表示システムおよび情報表示方法
CN117289789A (zh) 使用头部姿势来控制设备设置
CN118897620A (zh) 使用可穿戴设备来控制设备
JP2022150657A (ja) 制御装置、表示システム、および、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920