[go: up one dir, main page]

JP2021067899A - 頭部装着型表示装置および表示コンテンツ制御方法 - Google Patents

頭部装着型表示装置および表示コンテンツ制御方法 Download PDF

Info

Publication number
JP2021067899A
JP2021067899A JP2019194911A JP2019194911A JP2021067899A JP 2021067899 A JP2021067899 A JP 2021067899A JP 2019194911 A JP2019194911 A JP 2019194911A JP 2019194911 A JP2019194911 A JP 2019194911A JP 2021067899 A JP2021067899 A JP 2021067899A
Authority
JP
Japan
Prior art keywords
head
display device
content
mounted display
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019194911A
Other languages
English (en)
Other versions
JP2021067899A5 (ja
Inventor
拓也 中道
Takuya NAKAMICHI
拓也 中道
将史 山本
Masashi Yamamoto
将史 山本
航史 山崎
Koji Yamazaki
航史 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019194911A priority Critical patent/JP2021067899A/ja
Priority to US17/767,487 priority patent/US20230221794A1/en
Priority to CN202080070691.6A priority patent/CN114556187B/zh
Priority to PCT/JP2020/032836 priority patent/WO2021084884A1/ja
Publication of JP2021067899A publication Critical patent/JP2021067899A/ja
Publication of JP2021067899A5 publication Critical patent/JP2021067899A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】装着状態やユーザの性質に応じてコンテンツを最適に配置し、所望のコンテンツを快適に見ることができる頭部装着型表示装置を提供する。【解決手段】頭部装着型表示装置1は、装着状態に応じてセンサ値が変化する装着状態センサ(例えば、センサ12)と、装着状態センサの出力に応じて装着状態を判断する装着状態判断部101と、表示するコンテンツを保存する記憶部106と、記憶部106に保存されているコンテンツを変更するコンテンツ制御部108と、記憶部106に保存されているコンテンツを表示する表示部11とを備え、コンテンツ制御部108は装着状態判定部が出力する装着状態に応じてコンテンツを変更する。【選択図】図3

Description

本発明は、頭部装着型表示装置および表示コンテンツ制御方法に関する。
近年、ユーザの頭部に装着して、現実空間に仮想空間の画像を重畳して表示するシースルー型頭部装着型表示装置(ヘッドマウントディスプレイとも呼ばれる)が注目されている。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイなどの情報表示装置を配置することが難しい場合がある。そのようなとき、シースルー型頭部装着型表示装置を使用すれば、作業者は情報表示装置を手に持ったり、遠くの情報表示装置を見に行ったりする必要がなく、作業効率を改善することができる。
頭部装着型表示装置における表示制御については、頭部装着型表示装置やユーザの状態に応じて表示画像を切り替える構成とすることで使いやすいものとなる。例えば、特許文献1に記載のヘッドマウントディスプレイでは、ヘッドマウントディスプレイの装着位置に応じて、顔を中心とした外側に視覚刺激映像を表示することにより、両目視野闘争を抑制し表示画像を見やすくしている。
また、特許文献2に記載のヘッドマウントディスプレイでは、ユーザの眼の情報(形状、サイズ、位置、傾き、虹彩パターン)をカメラで検出し、画像表示機構の少なくとも一部を移動する。
特開2019−132900号公報 特開2019−74582号公報
作業者が、作業工程などのコンテンツを見ながら作業を行う場合、コンテンツを違和感や疲れがないように表示することが重要である。例えば、ユーザが片方の眼前に固定する片眼型の頭部装着型表示装置を装着する場合、顔中心として頭部装着型表示装置を付けた眼の反対側にコンテンツを配置すると、顔を右に振ってコンテンツを探す場合に見にくくなる。また、ユーザが両方の眼前に固定する両眼型の頭部装着型表示装置を装着する場合でも、コンテンツの配置と利目に関係によって、コンテンツが見にくくなり、いずれにしても作業の妨げになる場合がある。
特許文献1に記載の方法では、顔を中心とした外側に視覚刺激映像を表示しているが、表示画像の位置は変更していない。また、特許文献2に記載の方法では、ユーザの眼の動きによって表示機構を制御するが、コンテンツを見やすくするものではない。さらに、表示機構を備えるため、頭部装着型表示装置の大きさや重量が増加し、作業の妨げになる場合がある。
本発明は、前記した課題を解決するためになされたものであり、頭部装着型表示装置の装着状態やユーザの性質(利用度、コンテンツ閲覧回数など)、もしくはその両方に応じてコンテンツを最適に配置することで、コンテンツを見やすくする頭部装着型表示装置および表示コンテンツ制御方法を提供することを目的とする。
前記目的を達成するため、本発明の頭部装着型表示装置は、装着状態に応じてセンサ値が変化する装着状態センサ(例えば、センサ12)と、装着状態センサの出力に応じて装着状態を判断する装着状態判断部と、表示するコンテンツを保存する記憶部と、記憶部に保存されているコンテンツを変更するコンテンツ制御部と、記憶部に保存されているコンテンツを表示する表示部と、を備え、コンテンツ制御部は、装着状態判断部が出力する装着状態に応じてコンテンツを変更することを特徴とする。本発明のその他の態様については、後記する実施形態において説明する。
本発明によれば、頭部装着型表示装置の装着状態やユーザの性質に応じてコンテンツを最適に配置し、ユーザは所望のコンテンツを快適に見ることができる。
実施形態1に係る頭部装着型表示装置の外観を示す図である。 実施形態1に係る頭部装着型表示装置のハードウェア構成を示す図である。 実施形態1に係る頭部装着型表示装置とその周辺機器の機能構成を示す図である。 実施形態1に係る装着状態判断部の処理を示すフローチャートである。 表示制御部が記憶部内に保存されている表示情報を切り出す方法を示す図である。 実施形態1に係る作業者の視野とコンテンツ配置可能領域を示す図である。 実施形態1に係る作業者の視野とコンテンツ配置可能領域の他の例を示す図である。 実施形態1に係る作業者の視野とコンテンツ配置可能領域のさらに他の例を示す図である。 実施形態1に係る右目に頭部装着型表示装置を装着した場合のコンテンツ配置例を示す図である。 実施形態1に係る左目に頭部装着型表示装置を装着した場合のコンテンツ配置例を示す図である。 実施形態2に係る頭部装着型表示装置の外観を示す図である。 実施形態2に係る頭部装着型表示装置とその周辺機器の機能構成を示す図である。 実施形態2に係る装着状態判断部の処理を示すフローチャートである。 実施形態3に係る頭部装着型表示装置の外観を示す図である。 実施形態4に係る頭部装着型表示装置とその周辺機器の機能構成を示す図である。 実施形態5に係る頭部装着型表示装置とその周辺機器の機能構成を示す図である。
本発明を実施するための実施形態について、適宜図面を参照しながら詳細に説明する。
<<実施形態1>>
実施形態1では、ユーザの頭部装着型表示装置の装着状態を装着状態検出センサにより検出し、これに応じて仮想空間内のコンテンツを変更する配置する構成とした。コンテンツの変更とは、コンテンツの内容や配置を変更することを含む。コンテンツの内容の変更とは、例えばコンテンツの横書きを縦書きに変更することなどである。日本語の場合、横書きのコンテンツを左側に配置する場合、文末から視認することになり、読みにくくなってしまう。日本語のコンテンツを左側に配置する場合は縦書きにすることで読みやすくなる。コンテンツの配置の変更とは、後述する仮想空間内のコンテンツの位置を変更することである。以降では、コンテンツの配置を変更する構成を説明する。
図1は、実施形態1に係る片眼型の頭部装着型表示装置1の外観図である。頭部装着型表示装置1は透過型ヘッドマウントディスプレイ(Head Mounted Display、以下HMD)として構成されている。HMDを用いた作業支援においては、作業者400はヘルメット300を被ることが多いので、ヘルメット300にHMDを接続した例を用いて説明する。
図1では、頭部装着型表示装置1の表示部11を左目で視認できるように装着しているが、頭部装着型表示装置1の表示部11を右眼で視認できるようにも装着することができる。この場合、頭部装着型表示装置1の上下を反転して装着する。上下を反転した場合、センサ12(装着状態センサ)も上下が反転することになる。
頭部装着型表示装置1は、表示部11、センサ12、コントローラ13を備える。表示部11は作業者400の目40の正面に配置され、これにより作業者400の視線方向に映像が見えるようにする。センサ12は、作業者400の頭部装着型表示装置1の装着状態および作業者400の頭部の動きを検出する。
コントローラ13は、ヘルメット300に組み付けられている。ヘルメット300に固定された固定治具310からアーム320を延伸して頭部装着型表示装置1とアーム320を接続することにより、頭部装着型表示装置1をヘルメット300に固定する。表示部11が目40の最適な位置に配置されるように、アーム320は自由に曲げ伸ばしが可能である。図1のように2箇所で頭部装着型表示装置1を固定してもよい。1か所のみ固定すると、その箇所を支点として頭部装着型表示装置1が回転しやすくなるので、目40と表示部11の位置がずれやすくなる。位置がずれると映像の欠けやぼやけが発生するので、視認性の低下につながってしまう。2箇所で固定すれば回転しにくくなるので、視認性低下を抑制できる。固定位置は、頭部装着型表示装置1の表示部11の反対側端部、および頭部装着型表示装置1がL字に折れ曲がる箇所とするのが有効である。
図2は、頭部装着型表示装置1のハードウェア構成を示す図である。コントローラ13のハードウェアは、CPU(Central Processing Unit)141、ROM(Read Only Memory)142、RAM(Random Access Memory)143、センサ入力部144および映像出力部145等を備えている。
センサ12(装着状態センサ)は、装着状態および作業者400の頭部の動きに応じた検出値を出力する。ここでは、表示部11に固定されたセンサを示している。センサ12の種類としては、加速度センサ、角速度センサ、地磁気センサだけでなく、カメラ、マイク(マイクロフォン)なども使用可能である。なお、以下の説明では、3軸加速度および3軸角速度を取得可能なセンサとする。
また、センサ12のうち、頭部動作センサとしては、加速度センサ、角速度センサ、地磁気センサなどを使用することができる。
CPU141は、ROM142またはRAM143に格納されているプログラムを実行する。具体的には、CPU141がプログラムを実行することにより、頭部装着型表示装置1の各部の機能が実現される。ROM142は、CPU141が実行するプログラムおよび実行に必要な各種パラメータを格納するための記憶媒体である。RAM143は、表示部11で表示するための画像および各種情報を格納するための記憶媒体である。また、RAM143は、CPU141が使用するデータの一時保管領域としても機能する。頭部装着型表示装置1は、CPU141とROM142とRAM143をそれぞれ複数有する構成でもよい。
センサ入力部144は、センサ12からセンサ値を取得する。センサ入力部144とセンサ12との間は、I2C(Inter-Integrated Circuit)、SPI(Serial Peripheral Interface)、UART(Universal Asynchronous Receiver Transmitter)などのプロトコルでデータを送受信してもよいし、センサ12が出力する電圧値等の信号をセンサ入力部144が定期的に観測してもよい。
映像出力部145は、ROM14またはRAM15に保存された画像に同期信号等を付与し、表示部11に送信する。
なお、頭部装着型表示装置1のハードウェア構成は、図2に示す構成に限定されない。例えばCPU141、ROM142、RAM143を頭部装着型表示装置1とは別体として設けるようにしてもよい。その場合、頭部装着型表示装置1は汎用のコンピュータ(例えばサーバコンピュータやパーソナルコンピュータ、スマートフォン等)を用いて実現するようにしてもよい。
また、複数のコンピュータをネットワークで接続して、頭部装着型表示装置1の各部の機能を各コンピュータが分担することもできる。一方で、頭部装着型表示装置1の機能の1つ以上を、専用のハードウェアを用いて実現することもできる。
図3は、実施形態1に係る頭部装着型表示装置1とその周辺の機能構成を示すブロック図である。頭部装着型表示装置1は、周辺機器2やクラウドサーバ3に接続されている。
頭部装着型表示装置1は、表示部11、センサ12、装着状態判断部101、頭部動作判断部102、表示制御部103、外部インターフェース104、無線通信部105、記憶部106、タイマー107、コンテンツ制御部108を備える。
周辺機器2は、カメラ20、マイク21、リモコン22、スピーカ23を含む。カメラ20は、作業者400の周囲を撮影することができる。マイク21は、作業者400の声を頭部装着型表示装置1に対して入力する。リモコン22は、映像切替や表示モード設定などを指示するデバイスである。スピーカ23は、音声によって作業者400の作業を支援する。なお、リモコンはリモートコントローラの略称である。
頭部装着型表示装置1が外部と通信する場合(例えば中央監視室と作業者400が作業状況を共有する場合)、無線通信部31とクラウドサーバ3を設けてもよい。無線通信部105は無線通信部31と無線通信する。通信手段は例えばWiFiやBluetooth(登録商標)を用いる。無線通信部31は無線通信部105から受信したデータをクラウドサーバ3に送信する。ここで言うクラウドサーバ3は遠隔管理者側であり、遠隔管理者側から作業者400のHMDに対して映像や音声の共有、設定値の変更、データ取得などを実施することを想定する。無線通信部31が受信するデータは、カメラ20の映像データでもよいし、マイク21から入力された音声データでもよい。無線通信部31はクラウドサーバ3から受信したデータを無線通信部105に送信する。
装着状態判断部101は、センサ12によって得られた加速度から、作業者400の装着状態を判断する。実施形態1の頭部装着型表示装置1は、顔の側方で表示部11が固定されている。頭部装着型表示装置1を左右付け替える場合は、頭部装着型表示装置1の天地が反対になる。
図4は、実施形態1に係る装着状態判断部101の処理を示すフローチャートである。
ステップS401:装着状態判断部101はセンサ12から加速度センサ値を取得する。
ステップS402:取得した加速度センサ値からHMD座標系の垂直方向成分Ztを求める。具体的には、頭部装着型表示装置1のHMD座標系三次元直交座標上の重力加速度ベクトルGを求め、HMD座標系の垂直方向成分Ztの大きさを求める。HMD座標系とは、表示部11に固定された座標系であり、HMD座標系の垂直方向とは作業者400が直立しているときにグローバル座標の鉛直方向と等しくなる方向である。重力加速度ベクトルGはセンサ12の座標系とHMD座標系が等しい場合には、3軸加速度センサが出力する3つの値(Xa,Ya,Za)を重力加速度ベクトルGの要素に各々代入し、ノルムが1になるように正規化することで求めることができる。
ステップS403:垂直方向成分Ztの大きさが閾値Dzより大きいか判断する。閾値Dzより大きい場合は(ステップS403,Yes)、S404に遷移し、閾値Dz以下の場合は(ステップS403,No)、S401に戻る。
ステップS404:タイマー107をリセットし、スタートする。
ステップS405:ステップS401と同様にしてセンサ12から加速度センサ値を取得する。
ステップS406:ステップS402と同様にして加速度センサ値からHMD座標系の垂直方向成分Zを求める。
ステップS407:垂直方向成分Zの絶対値が閾値Dzより大きく、かつ垂直方向成分Zと垂直方向成分Ztの符号が等しいか判断する。真の場合は(ステップS407,Yes)、ステップS408に遷移し、偽の場合は(ステップS407,No)、ステップS401に戻る。垂直方向成分Zと垂直方向成分Ztの符号が等しいか判断することにより、装着状態判断部101による加速度センサ値のサンプリングレート以下の時間で符号が逆転し、垂直方向成分Zの絶対値が閾値Dzが大きい場合に、装着状態判断部101が左右の判断をしないようになる。
ステップS408:タイマー107の値が閾値Dt秒以上であるかを判断する。閾値Dt以上の場合は(ステップS408,Yes)、ステップS409に遷移し、小さい場合は(ステップS408,No)、ステップS405に戻る。これにより、閾値Dt秒以上同じ方向に装着している場合のみ、頭部装着型表示装置1の装着方向を判断することができる。タイマー107を使用しない場合は、作業者400のしゃがみ動作や前傾動作などにより閾値Dt秒より短い時間だけ垂直方向成分Zが逆になる場合にも装着状態の判断をしてしまう。
ステップS409:垂直方向成分Zが0より大きいか判断する。0より大きい場合は(ステップS409,Yes)、ステップS410に遷移し、0以下の場合は(ステップS409,No)、ステップS411に遷移する。
ステップS410:頭部装着型表示装置1を右眼に装着していると判断する。
ステップS411:頭部装着型表示装置1を左眼に装着していると判断する。
ただし、ステップS410とステップS411は、HMD座標系の垂直方向の軸の向きにより入れ替えることができる。
また、ステップS402およびステップS406において、装着状態判断部101がHMD座標系の垂直方向成分ZtおよびHMD座標系の垂直方向成分Zを求める別の方法として、1軸の加速度センサを用いる例を説明する。1軸の加速度センサの軸を、作業者400が静止しているときにグローバル座標の鉛直方向と等しくなるように設置する。このときHMD座標系の垂直方向成分Zは、センサ値Zaと等しくなる。
図3に戻り、頭部動作判断部102は、頭部がグローバル座標系のどこを向いているかを算出する。少なくとも頭部装着型表示装置1のグローバル座標系のヨー角Ryおよびピッチ角Rpを算出する。ヨー角Ryおよびピッチ角Rpは、センサ12に含まれる3軸角速度センサのセンサ値によって回転演算を繰り返すことで求めることができる。また、センサ12に含まれる3軸角速度センサとセンサ12に含まれる3軸加速度センサを組み合わせてヨー角Ryおよびピッチ角Rpの精度を向上することもできる。このとき、ヨー角Ryおよびピッチ角Rpの計算には、一般に知られているカルマンフィルタやMadgwickフィルタを用いることができる。
表示制御部103は、頭部動作判断部102が出力するヨー角Ryおよびピッチ角Rpに応じて、記憶部106内に保存されている表示情報を抜き出して表示部11に映像信号として出力する。
図5は、表示制御部103が記憶部106内に保存されている表示情報を切り出す方法を示す図である。記憶部106には、仮想空間VSが保存されている。仮想空間VSは、コンテンツ画像を含む2次元の画像であり、横方向(X軸方向)にFwピクセル、縦方向(Y軸方向)にFhピクセルである。仮想空間VSの原点画素(X,Y)=(0,0)は原点アドレスADDRに保存され、記憶部106内のメモリには仮想空間VSの横方向が連続になるように保存されている。また、画素(Fw、0)と画素(0,1)はメモリ上で連続な領域に格納されている。
表示領域Sは、実際に表示部11に表示される仮想空間VS内の領域である。表示制御部103は、仮想空間VSの中から、適切に表示領域Sを切り出す。表示領域Sは、2次元の画像であり、作業者400の頭部が視線Lを向いているとき、仮想空間VS内の画素(Xs,Ys)を原点として、横方向(X軸方向)にSwピクセル、縦方向(Y軸方向)にShピクセルである。
表示制御部103は、XsおよびYsを求めて、それに応じた表示領域Sを出力する。ここで、XsおよびYsは、以下の式で求められる。なお、表示部11の横方向のFOV(Field of View)をFOVw[°]、縦方向のFOVをFOVh[°]とする。
Xs=(Fw−Sw)/2−(Ry*Sw)/FOVw
Ys=(Fh−Sh)/2−(Rp*Sh)/FOVh
この方法は、ヨー角Ryおよびピッチ角Rpがともに0[°]の場合に、仮想空間VSの中心画素(Fw/2、Fh/2)と表示領域Sの中心画素(Xs+Sw/2、Ys+Sh/2)が同じ画素となる。
この方法によって、作業者400は仮想空間VSが現実空間に固定されているように知覚することができ、その時々に必要なコンテンツを選択的に表示することができる。
図6Aから図6Cは、作業者400の視野とコンテンツ配置可能領域CLを表す図である。作業者400は右目で表示部11を視認できるように頭部装着型表示装置1を装着している。作業者400は、右目で右目視野FRに含まれる像を知覚し、左目で左目視野FLに含まれる像を知覚する。また、両目視野FSは右目視野FRと左目視野FLの重なる視野である。頭部装着型表示装置1は片眼型のため、右目または左目のどちらかでしか知覚することができない。例えば、右目に頭部装着型表示装置1を装着した場合、左目視野FLから両目視野FSを引いた視野にコンテンツを表示した場合、作業者400はそれを知覚することができない。
また、右目に装着した頭部装着型表示装置1の表示部11を右目視野のみで知覚できる場合でも、仮想空間VS内の左目視野FL付近に配置されたコンテンツは、右目で見にくいことが分かっている。これらのことから、コンテンツの配置を頭部装着型表示装置1の装着状態によって適切に変更することで、コンテンツを見やすい頭部装着型表示装置を提供することができる。
図6Aは、顔正面Fを基準として装着の反対側20°よりも装着側をコンテンツ配置可能領域CLとした図である。人間は、顔正面を基準として約20°よりも外側に視覚刺激がある場合は、視角刺激がある側の目で視認しようとすることが分かっている。装着の反対側20°よりも装着側をコンテンツ配置可能領域とすることにより、装着していない側の目でコンテンツを視認しようとすることを防ぐことができる。なお、前記20°は個人差もあるので、適宜変更してもよい。
図6Bは、顔正面Fよりも装着側をコンテンツ配置可能領域CLとした図である。図6Aの場合よりも、より装着側の目でコンテンツを視認することができる。
図6Cは、顔正面Fを基準として装着側20°よりも装着側をコンテンツ配置可能領域CLとした図である。このとき、ほぼ右目のみでコンテンツを視認しようとするようになる。
図3に戻り、コンテンツ制御部108は、記憶部106内の仮想画面VSに含まれるコンテンツを制御する。コンテンツ制御とは、コンテンツの位置、文字色、背景色、大きさ、内容のいずれかを変更することを含む。
図7Aは、作業者400が右目に頭部装着型表示装置1を装着している場合の、コンテンツ配置の例である。仮想画面VSにはコンテンツC1とコンテンツC2が配置されている。コンテンツC1の原点は、仮想空間VSの画素(Xc1、Yc1)である。初期状態の両目視野FSの中心が、仮想画面VSの中心画素(Fw/2、Fh/2)を通るように設定する。このとき、コンテンツ制御部108は、コンテンツC1とコンテンツC2がコンテンツ配置可能領域CLに含まれるように、コンテンツC1とコンテンツC2の位置を変更する。また、初期状態の右目視野FRの中心が、仮想画面VSの中心画素(Fw/2、Fh/2)を通るように設定してもよい。
図7Bは、作業者400が左目に頭部装着型表示装置1を装着している場合の、コンテンツ配置の例である。右目の場合と同様に、コンテンツ制御部108は、コンテンツC1とコンテンツC2がコンテンツ配置可能領域CLに含まれるように、コンテンツC1とコンテンツC2の位置を変更する。
コンテンツC1およびコンテンツC2の位置は、コンテンツそれぞれの重要度によって変更することができる。コンテンツそれぞれの重要度は記憶部106に保存されている。コンテンツ制御部108は、コンテンツそれぞれの重要度を比較し、重要度が高いコンテンツの位置を、装着状態判断部101が判断した目の視野中心付近に変更する。このとき、それぞれのコンテンツは重ならないように位置が変更される。
また、コンテンツC1およびコンテンツC2の位置は、コンテンツそれぞれのコンテンツタイプによって変更することができる。コンテンツタイプは、例えば、画像タイプ、横書き日本語文字列タイプ、縦書き日本語文字列タイプなどである。コンテンツそれぞれのコンテンツタイプは記憶部106に保存されている。コンテンツ制御部108は、コンテンツタイプに応じてコンテンツの位置を変更する。例えば、コンテンツタイプが横書き日本語文字列タイプの場合は、コンテンツを右側に配置する。これは、日本語の横書きが左から右へ文字が続くためであり、右側に配置することで、作業者400は文字列の左側から知覚することができる。
仮想画面VSの中心画素(Fw/2、Fh/2)が現実空間のどこを通るかは、周辺機器2によって設定することができる。例えば、作業者400が仮想画面VSの中心画素(Fw/2、Fh/2)を設定したい方向を向いて、リモコン22を操作することで、頭部動作判断部102のヨー角Ryおよびピッチ角Rpをリセットすることができる。このリセットは、ヨー角Ryおよびピッチ角Rpを0にしてもよいし、ヨー角Ryのみを0にしてもよい。ピッチ角Rpを0にしないことによって、仮想空間VSの上下位置をリセット後も保つことができる。
コンテンツ制御部108は、周辺機器2や無線通信部105から出力される信号によって、コンテンツの内容を変更することができる。
実施形態1によれば、装着状態を判断し、それに応じて仮想空間内のコンテンツの配置を変更することにより、どちらの目に装着した場合でもコンテンツを見やすい頭部装着型表示装置を実現できる。
<<実施形態2>>
実施形態2では、センサ12として、マイク(マイクロフォン)を含む例を説明する。なお、実施形態1と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
図8は、センサ12としてマイクを用いた頭部装着型表示装置1の外観図である。頭部装着型表示装置はマイク12aおよびマイク12bを備える。このマイクは、頭部装着型表示装置1を挟むように設置されており、それぞれのマイクを結ぶ直線は頭部装着型表示装置1を作業者400が装着したときに鉛直になる。頭部装着型表示装置1を反対側に装着した場合は、マイク12bが上になり、マイク12aが下になる。
図9は、実施形態2に係る頭部装着型表示装置1とその周辺の機能構成を示すブロック図である。実施形態1における装着状態判断部101に換えて、装着状態判断部101Aを備える。装着状態判断部101Aは、マイク12aおよびマイク12bから出力される音量Vaおよび音量Vbに応じて、頭部装着型表示装置1が左右のどちらの目に装着されているかを判断する。
図10は、実施形態2に係る装着状態判断部101Aの処理を示すフローチャートである。この処理により、作業者400が声を発したとき発生する、マイク12aとマイク12bの音量差によって頭部装着型表示装置1が左右のどちらに装着されているかを判断することができる。
ステップS501:装着状態判断部101Aはマイク12aおよびマイク12bから出力される音量Vaおよび音量Vbを取得する。
ステップS502:音量VaおよびVbの音量差Vztを求める。
ステップS503:音量差Vztの大きさが閾値Dvzより大きいか判断する。閾値Dvzより大きい場合は(ステップS503,Yes)、S504に遷移し、閾値Dvz以下の場合は(ステップS503,No)、S501に戻る。
ステップS504:タイマー107をリセットし、スタートする。
ステップS505:ステップS501と同様にしてマイク12aおよびマイク12bから出力される音量Vaおよび音量Vbを取得する。
ステップS506:ステップS502と同様にして音量VaおよびVbの音量差Vzを求める。
ステップS507:音量差Vzの絶対値が閾値Dvzより大きく、かつ音量差Vzと音量差Vztの符号が等しいか判断する。真の場合は(ステップS507,Yes)、ステップS508に遷移し、偽の場合は(ステップS507,No)、ステップS501に戻る。
ステップS508:タイマー107の値が閾値Dt秒以上であるかを判断する。閾値Dt以上の場合は(ステップS508,Yes)、ステップS509に遷移し、小さい場合は(ステップS508,No)、ステップS505に戻る。
ステップS509:音量差Vzが0より大きいか判断する。0より大きい場合は(ステップS509,Yes)ステップS510に遷移し、0以下の場合は(ステップS509,No)、ステップS511に遷移する。
ステップS510:頭部装着型表示装置1を右眼に装着していると判断する。
ステップS511:頭部装着型表示装置1を左眼に装着していると判断する。
ただし、ステップS510とステップS511は、HMD座標系の垂直方向の軸の向きにより入れ替えることができる。
マイク12aおよびマイク12bが出力する音量VaおよびVbは、人の音声のみの音量でもよい。その場合、人の声以外をカットするバンドパスフィルタによって実現できる。
なお、マイク12aおよびマイク12bは、周辺機器2に設置することもできる。このとき、音量Vaおよび音量Vbは、外部インターフェース104を介して装着状態判断部101Aに入力される。
実施形態2によれば、2つのマイク(マイクロフォン)によって口の方向を判断することによって、頭部装着型表示装置1が左右のどちらの目に装着されているかを判断することができる。これにより、前傾動作やしゃがみ動作を行っても、正しく頭部装着型表示装置1の装着状態を判断することができる。
<<実施形態3>>
実施形態3では、センサ12として、照度センサを含む例を説明する。なお、実施形態1乃至実施形態2と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
一般に、光は作業者400の頭上から入射することが多い。例えば、屋内の場合は天井に照明があり、屋外の場合は空に太陽があり、光は頭上から入射する。つまり、光が強い方向を検出することで、頭部装着型表示装置1が左右のどちらの目に装着されているかを判断することができる。
図11は、センサ12として照度センサを用いた頭部装着型表示装置1の外観図である。実施形態3における頭部装着型表示装置1は、実施形態2におけるマイク12aを照度センサ12cに、マイク12bを照度センサ12dに置き換えたものである。実施形態2と同じように、頭部装着型表示装置1を反対側に装着した場合は、照度センサ12dが上になり、照度センサ12cが下になる。
照度センサ12cおよび照度センサ12dは、それぞれ照度を出力する。実施形態3における頭部装着型表示装置1の装着状態判断方法は、実施形態2の音量Vaおよび音量Vbをそれぞれ照度に置き換えることで実現することができる。
なお、照度センサ12cおよび照度センサ12cは、周辺機器2に設置することもできる。このとき、照度は、外部インターフェース104を介して装着状態判断部101Aに入力される。
実施形態3によれば、2つの照度センサによって光の方向を判断することによって、頭部装着型表示装置1が左右のどちらの目に装着されているかを判断することができる。これにより、高騒音環境などで実施形態2が適用できない場合でも、頭部装着型表示装置1の装着状態を判断することができる。
<<実施形態4>>
実施形態4では、作業者400が入力した装着状態もしくは利目(ききめ)情報をもとにコンテンツの位置を変更する例を説明する。なお、実施形態1乃至実施形態3と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
実施形態4における頭部装着型表示装置1は、片眼型でも両眼型でもよい。両眼型とは、左右の目の両方が表示部11の表示を視認することができる頭部装着型表示装置である。
図12は、実施形態4に係る頭部装着型表示装置1とその周辺の機能構成を示すブロック図である。頭部装着型表示装置1は、装着状態保存部111を備える。装着状態保存部111は、頭部装着型表示装置1の装着状態もしくは作業者400の利目情報を保存する。装着状態および利目情報は、外部インターフェース104を介して、周辺機器2から入力することができる。
例えば、マイク21から得られた音声データを音声認識した結果によって装着状態や利目情報を得ることができる。また、リモコンに右目装着ボタンや左目装着ボタンを配置し、その押下によって装着状態や利目情報を得ることができる。さらに、カメラで設定値が盛り込まれたQR(Quick Response)コード(商標登録)を読み取り、装着状態や利目情報を得ることができる。
コンテンツ制御部108は、装着状態保存部111が保存している装着状態もしくは利目情報に応じて、仮想空間VS内のコンテンツの位置を変更する。装着状態保存部111が保存している利目情報が左目の場合は、装着状態が左であるときと同様にコンテンツの位置を変更し、装着状態保存部111が保存している利目情報が右目の場合は、装着状態が右であるときと同様にコンテンツの位置を変更する。
実施形態4によれば、ユーザの入力によりコンテンツの位置を見やすく変更することができる。
<<実施形態5>>
実施形態5は、作業者400の視線に応じてコンテンツの重要度を判断し、そのコンテンツ重要度からコンテンツの位置を変更する例である。なお、実施形態1乃至実施形態4と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
図13は、実施形態5に係る頭部装着型表示装置1とその周辺の機能構成を示すブロック図である。頭部装着型表示装置1は、コンテンツ重要度判断部112を備える。
コンテンツ重要度判断部112は、作業者400の視線に応じて、記憶部106に保存されている、各コンテンツの重要度を変更する。作業者400の視線とは、表示領域Sの中心画素(Xs+Sw/2、Ys+Sh/2)および目40の中心を結ぶ直線である。コンテンツ重要度判断部112は、表示領域Sの中心画素にコンテンツが含まれる場合、該コンテンツの重要度をインクリメントする。これによって、よく見るコンテンツの重要度を上げることができる。また、コンテンツ重要度判断部112は、一定時間コンテンツを見続けた場合のみ、コンテンツの重要度を上げることもできる。これにより、例えば、コンテンツC1を越えてコンテンツC2を見る場合に、コンテンツC1の重要度は増えずに、コンテンツC2の重要度を上げることができる。
コンテンツ制御部108は、実施形態1で説明したように、コンテンツそれぞれの重要度を比較し、重要度が高いコンテンツの位置を、装着状態判断部101が判断した目の視野中心付近に変更する。このとき、それぞれのコンテンツは重ならないように位置が変更される。
<変形例>
本発明は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
1 頭部装着型表示装置
2 周辺機器
3 クラウドサーバ
11 表示部
12 センサ(装着状態センサ、頭部動作センサ)
12a,12b マイク(マイクロフォン)
12c,12d 照度センサ
13 コントローラ
40 目
101,101A 装着状態判断部
102 頭部動作判断部
103 表示制御部
104 外部インターフェース
105 無線通信部
106 記憶部
107 タイマー
108 コンテンツ制御部
111 装着状態保存部
300 ヘルメット
310 固定治具
320 アーム
400 作業者
CL コンテンツ配置可能領域
F 顔正面
FL 左目視野
FR 右目視野
FS 両目視野
L 視線
S 表示領域
VS 仮想空間

Claims (14)

  1. 装着状態に応じてセンサ値が変化する装着状態センサと、
    前記装着状態センサの出力に応じて装着状態を判断する装着状態判断部と、
    表示するコンテンツを保存する記憶部と、
    前記記憶部に保存されているコンテンツを変更するコンテンツ制御部と、
    前記記憶部に保存されているコンテンツを表示する表示部と、を備え、
    前記コンテンツ制御部は、前記装着状態判断部が出力する装着状態に応じてコンテンツを変更することを特徴とする頭部装着型表示装置。
  2. 請求項1に記載の頭部装着型表示装置であって、
    前記装着状態センサは、頭部の動きを検出する頭部動作センサであり、
    前記頭部動作センサのセンサ値に応じて頭部の動作を判断する頭部動作判断部と、
    前記記憶部に保存された映像を前記頭部動作判断部の判断に応じて切り出して出力する表示制御部と、を備える頭部装着型表示装置。
  3. 請求項1又は請求項2に記載の頭部装着型表示装置であって、
    外部と通信を行う外部インターフェースを備え、
    前記コンテンツ制御部は、前記外部インターフェースにつながる入力装置の入力に応じて前記記憶部に保存されているコンテンツを変更する
    ことを特徴とする頭部装着型表示装置。
  4. 請求項1又は請求項2に記載の頭部装着型表示装置であって、
    前記コンテンツ制御部は、前記装着状態判断部の判断に応じて前記記憶部に保存されているコンテンツの位置を装着側に変更する
    ことを特徴とする頭部装着型表示装置。
  5. 請求項3に記載の頭部装着型表示装置であって、
    前記外部インターフェースは、入力装置の入力に応じて装着状態を出力し、
    前記コンテンツ制御部は、前記外部インターフェースの出力に応じて前記記憶部に保存されているコンテンツの位置を装着側に変更する
    ことを特徴とする頭部装着型表示装置。
  6. 請求項4又は請求項5に記載の頭部装着型表示装置であって、
    前記装着側とは、顔正面を基準として装着の反対側20°よりも装着側である
    ことを特徴とする頭部装着型表示装置。
  7. 請求項4又は請求項5に記載の頭部装着型表示装置であって、
    前記装着側とは、顔正面よりも装着側である
    ことを特徴とする頭部装着型表示装置。
  8. 請求項4又は請求項5に記載の頭部装着型表示装置であって、
    前記装着側とは、顔正面を基準として装着側20°よりも装着側である
    ことを特徴とする頭部装着型表示装置。
  9. 請求項1乃至7のいずれか1項に記載の頭部装着型表示装置であって、
    前記装着状態センサは、加速度センサであり、
    前記装着状態判断部は、前記加速度センサのセンサ値の絶対値が一定時間以上閾値を超えた場合に該センサ値の正負に応じて装着状態を判断する
    ことを特徴とする頭部装着型表示装置。
  10. 請求項1乃至7のいずれか1項に記載の頭部装着型表示装置であって、
    前記装着状態センサは、2つ以上の照度センサであり、
    前記装着状態判断部は、前記2つ以上の照度センサのセンサ値の差が一定時間以上閾値を超えた場合に該差の正負に応じて装着状態を判断する
    ことを特徴とする頭部装着型表示装置。
  11. 請求項1乃至7のいずれか1項に記載の頭部装着型表示装置であって、
    前記装着状態センサは、2つ以上のマイクロフォンであり、
    前記装着状態判断部は、前記2つ以上のマイクロフォンの音量の差が一定時間以上閾値を超えた場合に該差の正負に応じて装着状態を判断する
    ことを特徴とする頭部装着型表示装置。
  12. 請求項1乃至9のいずれか1項に記載の頭部装着型表示装置であって、さらに、
    前記記憶部に保存されているコンテンツの重要度を変更するコンテンツ重要度判断部を備え、
    前記コンテンツ重要度判断部は、外部インターフェースにつながる入力装置の入力に応じて前記記憶部に保存されているコンテンツの重要度を変更し、
    前記コンテンツ制御部は前記記憶部に保存されたコンテンツの重要度によって該コンテンツの位置を変更する
    ことを特徴とする頭部装着型表示装置。
  13. 請求項12に記載の頭部装着型表示装置であって、
    前記コンテンツ重要度判断部は、表示制御部が出力する画像の中心に映っているコンテンツに応じて前記記憶部に保存されているコンテンツの重要度を変更する
    ことを特徴とする頭部装着型表示装置。
  14. 装着状態に応じてセンサ値が変化する装着状態センサと、前記装着状態センサの出力に応じて装着状態を判断する装着状態判断部と、表示するコンテンツを保存する記憶部と、前記記憶部に保存されているコンテンツを変更するコンテンツ制御部と、前記記憶部に保存されているコンテンツを表示する表示部と、を備える頭部装着型表示装置の表示コンテンス制御方法であって、
    前記コンテンツ制御部は、前記装着状態判断部が出力する装着状態に応じてコンテンツを変更することを特徴とする表示コンテンツ制御方法。
JP2019194911A 2019-10-28 2019-10-28 頭部装着型表示装置および表示コンテンツ制御方法 Pending JP2021067899A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019194911A JP2021067899A (ja) 2019-10-28 2019-10-28 頭部装着型表示装置および表示コンテンツ制御方法
US17/767,487 US20230221794A1 (en) 2019-10-28 2020-08-31 Head mounted display device and display content control method
CN202080070691.6A CN114556187B (zh) 2019-10-28 2020-08-31 头部佩戴型显示装置和显示内容控制方法
PCT/JP2020/032836 WO2021084884A1 (ja) 2019-10-28 2020-08-31 頭部装着型表示装置および表示コンテンツ制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194911A JP2021067899A (ja) 2019-10-28 2019-10-28 頭部装着型表示装置および表示コンテンツ制御方法

Publications (2)

Publication Number Publication Date
JP2021067899A true JP2021067899A (ja) 2021-04-30
JP2021067899A5 JP2021067899A5 (ja) 2022-05-02

Family

ID=75637129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194911A Pending JP2021067899A (ja) 2019-10-28 2019-10-28 頭部装着型表示装置および表示コンテンツ制御方法

Country Status (4)

Country Link
US (1) US20230221794A1 (ja)
JP (1) JP2021067899A (ja)
CN (1) CN114556187B (ja)
WO (1) WO2021084884A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20250166482A1 (en) * 2023-11-21 2025-05-22 Schon Mobility Inc. System and device for threat monitoring

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042530A1 (ja) * 2011-09-22 2013-03-28 Necカシオモバイルコミュニケーションズ株式会社 表示装置、表示制御方法およびプログラム
JP2014071277A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
US20150338652A1 (en) * 2014-05-26 2015-11-26 Lg Electronics Inc. Eyewear type terminal and control method thereof
JP5869177B1 (ja) * 2015-09-16 2016-02-24 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
JP2019113849A (ja) * 2015-09-25 2019-07-11 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000111828A (ja) * 1998-10-06 2000-04-21 Sharp Corp 装着型画像表示装置
IL200627A (en) * 2009-08-27 2014-05-28 Erez Berkovich A method for dynamically changing visual indication on a display device
JP4913913B2 (ja) * 2010-04-28 2012-04-11 新日鉄ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
JP2014021272A (ja) * 2012-07-18 2014-02-03 Nikon Corp 情報入出力装置、及び情報入出力方法
US20140129207A1 (en) * 2013-07-19 2014-05-08 Apex Technology Ventures, LLC Augmented Reality Language Translation
JP6079614B2 (ja) * 2013-12-19 2017-02-15 ソニー株式会社 画像表示装置及び画像表示方法
US20160027218A1 (en) * 2014-07-25 2016-01-28 Tom Salter Multi-user gaze projection using head mounted display devices
JP6536340B2 (ja) * 2014-12-01 2019-07-03 株式会社デンソー 画像処理装置
KR20160108983A (ko) * 2015-03-09 2016-09-21 삼성전자주식회사 웨어러블 전자 장치의 분실 방지 방법 및 장치
JP6693060B2 (ja) * 2015-07-06 2020-05-13 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム
CN107728986B (zh) * 2017-11-07 2020-10-09 北京小鸟看看科技有限公司 一种双显示屏的显示方法以及显示装置
CN109960039B (zh) * 2017-12-22 2021-08-06 精工爱普生株式会社 显示系统、电子设备以及显示方法
CN109727316B (zh) * 2019-01-04 2024-02-02 京东方科技集团股份有限公司 虚拟现实图像的处理方法及其系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042530A1 (ja) * 2011-09-22 2013-03-28 Necカシオモバイルコミュニケーションズ株式会社 表示装置、表示制御方法およびプログラム
JP2014071277A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
US20150338652A1 (en) * 2014-05-26 2015-11-26 Lg Electronics Inc. Eyewear type terminal and control method thereof
JP5869177B1 (ja) * 2015-09-16 2016-02-24 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
JP2019113849A (ja) * 2015-09-25 2019-07-11 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置

Also Published As

Publication number Publication date
CN114556187B (zh) 2024-02-09
CN114556187A (zh) 2022-05-27
WO2021084884A1 (ja) 2021-05-06
US20230221794A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
US11030771B2 (en) Information processing apparatus and image generating method
EP2475178B1 (en) Information processing program, information processing method and information processing apparatus
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
EP3349107B1 (en) Information processing device and image generation method
CN108027700B (zh) 信息处理装置
JP2013258614A (ja) 画像生成装置および画像生成方法
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2021114343A (ja) 表示システム、及び表示システムの表示制御方法
US20200202161A1 (en) Information processing apparatus, information processing method, and program
WO2020241189A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
US11474595B2 (en) Display device and display device control method
WO2021084884A1 (ja) 頭部装着型表示装置および表示コンテンツ制御方法
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180055637A (ko) 전자 장치 및 그의 제어 방법
JP6779715B2 (ja) 情報処理システム
JP6738308B2 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
WO2020105269A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019040303A (ja) ヘッドマウントデバイスを介して仮想空間をユーザに提供するための方法、プログラム及びコンピュータ
JP6518028B1 (ja) 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP7057197B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018094086A (ja) 情報処理装置および画像生成方法
JP7203157B2 (ja) 映像処理装置およびプログラム
WO2024057783A1 (ja) 360度画像視点位置同定部を備える情報処理装置
JP7492497B2 (ja) プログラム、情報処理方法、及び情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207