JP2019164431A - 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 - Google Patents
頭部装着型表示装置、及び頭部装着型表示装置の制御方法 Download PDFInfo
- Publication number
- JP2019164431A JP2019164431A JP2018050713A JP2018050713A JP2019164431A JP 2019164431 A JP2019164431 A JP 2019164431A JP 2018050713 A JP2018050713 A JP 2018050713A JP 2018050713 A JP2018050713 A JP 2018050713A JP 2019164431 A JP2019164431 A JP 2019164431A
- Authority
- JP
- Japan
- Prior art keywords
- display
- indicator
- image
- object image
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/08—Cursor circuits
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/006—Details of the interface to the display terminal
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】指示体を用いて行うオブジェクト画像に対する操作の操作性を向上する。【解決手段】HMD100は、使用者Uの頭部に装着され、外景を透過して視認可能に構成される画像表示部20と、画像表示部20を透過して視認される外景を含む範囲を撮像するカメラ61と、カメラ61の撮像画像データから指示体を検出し、オブジェクト画像を外景に重ねて画像表示部20により表示させ、画像表示部20に表示されたオブジェクト画像のうち、検出された指示体に重なるオブジェクト画像の表示態様を変更させる制御部10と、を備える。【選択図】図1
Description
本発明は、頭部装着型表示装置、及び頭部装着型表示装置の制御方法に関する。
従来、使用者の頭部に装着される表示装置として頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display、以下、HMDとも表記する)が知られている。このHMDでは、操作性を向上させるための技術が種々提案されている(例えば、特許文献1参照)。
特許文献1は、頭部装着型表示装置を用いて視聴者の視界を超える大きさの映像を表示する際に、視聴者の顔の向きに関する情報に基づいて、映像の再生速度を決定する画像処理装置を開示する。
ところで、外景と共に画像を視認可能に表示する頭部装着型表示装置では、入力手段の1つとして、頭部装着型表示装置が表示する画像に対する指示体の操作を撮像部により検出して、検出した操作に対応した処理を行う操作方法が知られている。この操作方法では、操作性を改善させる余地があった。例えば、頭部装着型表示装置が検出した操作が、使用者の意図した操作であるか否かを使用者に認識させる必要があった。
本発明は、指示体を用いて行うオブジェクト画像に対する操作の操作性を向上させることを目的とする。
本発明は、指示体を用いて行うオブジェクト画像に対する操作の操作性を向上させることを目的とする。
上記課題を解決するため、本発明は、使用者の頭部に装着され、外景を透過して視認可能に構成される表示部と、前記表示部を透過して視認される前記外景を含む範囲を撮像する撮像部と、前記撮像部の撮像画像から指示体を検出する検出部と、オブジェクト画像を前記外景に重ねて前記表示部により表示させ、前記表示部に表示された前記オブジェクト画像のうち、前記検出部により検出された前記指示体に重なる前記オブジェクト画像の表示態様を変更させる表示制御部と、を備える。
この構成によれば、検出部が検出したオブジェクト画像を使用者に認識させることができ、オブジェクト画像に対する操作の操作性を向上させることができる。
この構成によれば、検出部が検出したオブジェクト画像を使用者に認識させることができ、オブジェクト画像に対する操作の操作性を向上させることができる。
また、本発明は、前記表示制御部は、前記指示体と前記オブジェクト画像との重なりが検出された場合に、前記オブジェクト画像の表示態様を変更させる。
この構成によれば、指示体との重なりが検出されたオブジェクト画像を使用者に認識させることができる。
この構成によれば、指示体との重なりが検出されたオブジェクト画像を使用者に認識させることができる。
また、本発明は、前記表示制御部は、前記指示体と前記オブジェクト画像との重なりが検出された場合と、前記オブジェクト画像上で前記指示体の動きが検出された場合とで、前記オブジェクト画像の表示態様を変更させる。
この構成によれば、指示体との重なりが検出されたオブジェクト画像を使用者に認識させ、オブジェクト画像に対する操作が検出されていることを使用者に認識させることができる。
この構成によれば、指示体との重なりが検出されたオブジェクト画像を使用者に認識させ、オブジェクト画像に対する操作が検出されていることを使用者に認識させることができる。
また、本発明は、前記表示制御部は、前記オブジェクト画像上での前記指示体の動きに対応して、前記オブジェクト画像の表示態様を変更させる。
この構成によれば、オブジェクト画像上での指示体の操作を使用者に認識させることができる。
この構成によれば、オブジェクト画像上での指示体の操作を使用者に認識させることができる。
また、本発明は、前記表示制御部は、前記オブジェクト画像上での前記指示体の動きに対応して、前記オブジェクト画像の表示態様が変更された場合に、前記オブジェクト画像に対応付けられた処理を実行させる。
この構成によれば、オブジェクト画像上での指示体の動きによりオブジェクト画像の表示態様を変更させることができ、オブジェクト画像の表示態様が変更された場合に、オブジェクト画像に対応付けられた処理を実行させることができる。
この構成によれば、オブジェクト画像上での指示体の動きによりオブジェクト画像の表示態様を変更させることができ、オブジェクト画像の表示態様が変更された場合に、オブジェクト画像に対応付けられた処理を実行させることができる。
また、本発明は、前記オブジェクト画像の各々には、処理コマンドが対応付けられ、前記表示制御部は、前記オブジェクト画像のうち、受け付け可能な処理コマンドが対応付けられた前記オブジェクト画像の輪郭を示す輪郭線を前記表示部に表示させる。
この構成によれば、オブジェクト画像の輪郭を示す輪郭線が表示される。
この構成によれば、オブジェクト画像の輪郭を示す輪郭線が表示される。
また、本発明は、前記表示制御部は、前記指示体と、前記オブジェクト画像との重なりが検出された場合に、重なりが検出された前記オブジェクト画像の輪郭線の線種を変更して前記オブジェクト画像の表示態様を変更させる。
この構成によれば、指示体との重なりが検出されたオブジェクト画像を、オブジェクト画像の輪郭線の線種を変更することで使用者に認識させることができる。
この構成によれば、指示体との重なりが検出されたオブジェクト画像を、オブジェクト画像の輪郭線の線種を変更することで使用者に認識させることができる。
また、本発明は、前記表示制御部は、前記オブジェクト画像上での前記指示体の動きに対応して、前記オブジェクト画像の色相、明度、彩度及び透明度の少なくともいずれか1つを変更する。
この構成によれば、オブジェクト画像が表示された領域での指示体の動きを使用者に認識させることができる。
この構成によれば、オブジェクト画像が表示された領域での指示体の動きを使用者に認識させることができる。
また、本発明は、前記検出部は、前記指示体の色、形状、又は色及び形状に基づいて、前記撮像画像に撮像された前記指示体を検出する。
この構成によれば、指示体の検出精度を高めることができる。
この構成によれば、指示体の検出精度を高めることができる。
上記課題を解決するため、本発明は、使用者の頭部に装着され、外景を透過して視認可能に構成される頭部装着型表示装置の制御方法であって、オブジェクト画像を前記外景に重ねて表示させるステップと、撮像部により撮像された撮像画像から指示体を検出するステップと、表示された前記オブジェクト画像のうち、検出された前記指示体に重なる前記オブジェクト画像の表示態様を変更させるステップと、を有する。
以下、添付図面を参照しながら本発明の実施形態について説明する。
図1は、HMD100の外観構成を示す図である。
HMD100は、使用者Uが頭部に装着する画像表示部20と、画像表示部20を制御するコントローラー10とを備える。画像表示部20は、本発明の「表示部」に対応した動作を行う機能部であり、使用者Uの頭部に装着された状態で使用者Uに虚像を視認させる。コントローラー10は、使用者UがHMD100を操作する制御装置としても機能する。
HMD100は、使用者Uが頭部に装着する画像表示部20と、画像表示部20を制御するコントローラー10とを備える。画像表示部20は、本発明の「表示部」に対応した動作を行う機能部であり、使用者Uの頭部に装着された状態で使用者Uに虚像を視認させる。コントローラー10は、使用者UがHMD100を操作する制御装置としても機能する。
コントローラー10は、箱形の本体11に、使用者Uの操作を受け付ける各種のスイッチや操作パッド14等を備える。画像表示部20は、本実施形態では眼鏡形状を有し、右保持部21と、左保持部23と、前部フレーム27と、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。
右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者Uの頭部に画像表示部20を保持する。前部フレーム27の両端部のうち画像表示部20の装着時に使用者Uの右側に位置する端部を端部ERとし、左側に位置する端部を端部ELとする。
右導光板26及び左導光板28は、前部フレーム27に設けられる。画像表示部20の装着状態において、右導光板26は使用者Uの右眼の眼前に位置し、左導光板28は使用者Uの左眼の眼前に位置する。
右表示ユニット22及び左表示ユニット24は、光学ユニット及び周辺回路をユニット化したモジュールであり、画像光を出射する。右表示ユニット22は、右保持部21に取り付けられ、左表示ユニット24は、左保持部23に取り付けられる。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部品である。例えば、右導光板26及び左導光板28はプリズムである。右導光板26は、右表示ユニット22が出力する画像光を使用者Uの右眼に向けて導き、左導光板28は、左表示ユニット24が出力する画像光を使用者Uの左眼に導く。これにより、使用者Uの両眼に画像光が入射し、使用者Uが画像を視認できる。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部品である。例えば、右導光板26及び左導光板28はプリズムである。右導光板26は、右表示ユニット22が出力する画像光を使用者Uの右眼に向けて導き、左導光板28は、左表示ユニット24が出力する画像光を使用者Uの左眼に導く。これにより、使用者Uの両眼に画像光が入射し、使用者Uが画像を視認できる。
HMD100はシースルー型の表示装置であり、使用者Uの右眼REには、右導光板26により導かれた画像光と、右導光板26を透過した外光とが入射する。同様に、左眼LEには、左導光板28により導かれた画像光と、左導光板28を透過した外光とが入射する。このように、HMD100は、内部で処理した画像に対応する画像光と外光とを重ねて使用者Uの眼に入射させ、使用者Uにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光による画像が視認される。
画像表示部20の前部フレーム27には、照度センサー65が配置される。照度センサー65は、画像表示部20を装着する使用者Uの前方からの外光を受光する。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の撮像範囲及び撮像方向については後述する。カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1には、カメラ61が前部フレーム27の端部ER側に配置された場合を示すが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。カメラ61は、本発明の「撮像部」に相当する。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の撮像範囲及び撮像方向については後述する。カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1には、カメラ61が前部フレーム27の端部ER側に配置された場合を示すが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。カメラ61は、本発明の「撮像部」に相当する。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100を装着した状態における使用者Uの視界方向の少なくとも一部の外景(実空間)を撮像し、カメラ61の画角は、使用者Uの正面方向を向き、使用者Uが画像表示部20を透過して視認する外景と重複する。カメラ61の画角は、使用者Uが画像表示部20を透過して視認する視界の全体を含むことがより好ましい。カメラ61は、制御部150の制御に従って撮像を実行し、撮像画像データを制御部150に出力する。
前部フレーム27には、LEDインジケーター67が配置される。LEDインジケーター67は、端部ERにおいてカメラ61の近傍に配置され、カメラ61の動作中に点灯して、撮像中であることを報知する。
前部フレーム27には、距離センサー64が設けられる。距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。本実施形態では、距離センサー64は、使用者Uの前方に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する光反射式距離センサーであってもよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える超音波式の距離センサーであってもよい。また、距離センサー64は、レーザーレンジスキャナー(測域センサー)を用いてもよく、この場合、画像表示部20の前方を含む広範囲の領域に対し測域を行える。
コントローラー10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、本体11のコネクター42に着脱可能に接続される。
接続ケーブル40は、オーディオコネクター46を備え、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、オーディオコネクター46に接続される。右イヤホン32は、使用者Uの右耳に装着され、左イヤホン34は、使用者Uの左耳に装着される。マイク63は、音声を集音して、音声信号を音声処理部180(図2)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
接続ケーブル40は、オーディオコネクター46を備え、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、オーディオコネクター46に接続される。右イヤホン32は、使用者Uの右耳に装着され、左イヤホン34は、使用者Uの左耳に装着される。マイク63は、音声を集音して、音声信号を音声処理部180(図2)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
コントローラー10は、使用者Uにより操作される被操作部として、ホイール操作部12、中央キー13、操作パッド14、上下キー15、LED表示部17、及び電源スイッチ18を備える。これらの被操作部は本体11の表面に配置される。これらの被操作部は、例えば、使用者Uの手指により操作される。
操作パッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。操作パッド14への接触(タッチ操作)は、例えば、タッチセンサー(不図示)により検出される。操作パッド14は、接触が検出された操作面の位置を示す信号を制御部150に出力する。
本体11にはLED(Light Emitting Diode)表示部17が設置される。LED表示部17は、光を透過可能な透過部(不図示)を有し、透過部の直下に設置されるLEDが点灯することで、透過部に形成された文字、記号、模様等を視認可能な状態とする。LED表示部17に対する使用者Uの手指の接触操作は、タッチセンサー172(図2)により検出される。このため、LED表示部17とタッチセンサー172との組合せはソフトウェアキーとして機能する。
電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチである。また、本体11は、コントローラー10を、外部の装置に接続するインターフェイスとして、USB(Universal Serial Bus)コネクター19を備える。
電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチである。また、本体11は、コントローラー10を、外部の装置に接続するインターフェイスとして、USB(Universal Serial Bus)コネクター19を備える。
図2は、HMD100を構成する各部の構成を示すブロック図である。
コントローラー10は、プログラムを実行してHMD100を制御するメインプロセッサー125を備える。メインプロセッサー125には、メモリー118及び不揮発性記憶部121が接続される。メインプロセッサー125には、入力装置として操作部170が接続される。また、メインプロセッサー125には、センサー類として、6軸センサー111、磁気センサー113及びGPS115が接続される。
コントローラー10は、プログラムを実行してHMD100を制御するメインプロセッサー125を備える。メインプロセッサー125には、メモリー118及び不揮発性記憶部121が接続される。メインプロセッサー125には、入力装置として操作部170が接続される。また、メインプロセッサー125には、センサー類として、6軸センサー111、磁気センサー113及びGPS115が接続される。
メインプロセッサー125には、通信部117、音声処理部180、外部メモリーインターフェイス191、USBコントローラー199、センサーハブ193及びFPGA195が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー125は、コントローラー10が内蔵するコントローラー基板120に実装される。本実施形態では、コントローラー基板120に、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声処理部180等が実装される。また、外部メモリーインターフェイス191、USBコントローラー199、センサーハブ193、FPGA195及びインターフェイス197をコントローラー基板120に実装してもよい。また、コネクター42、及びUSBコントローラー199を、コントローラー基板120に実装してもよい。
メモリー118は、メインプロセッサー125により実行されるプログラム、及びメインプロセッサー125が処理するデータ等を一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー125が実行するプログラムや、メインプロセッサー125が処理するデータを記憶する。
操作部170は、LED表示部17、タッチセンサー172、及びスイッチ174を含む。タッチセンサー172は、使用者Uによるタッチ操作を検出し、操作位置を特定し、メインプロセッサー125に対して操作信号を出力する。スイッチ174は、上下キー15及び電源スイッチ18の操作に応じて、メインプロセッサー125に操作信号を出力する。LED表示部17は、メインプロセッサー125の制御に従って、LEDを点灯、点滅、消灯させる。操作部170は、例えば、LED表示部17、タッチセンサー172、スイッチ174、及び、これらを制御する回路が実装されたスイッチ基板であり、本体11に収容される。
6軸センサー111は、コントローラー10の動きを検出するモーションセンサー(慣性センサー)の一例である。6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備える。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信する受信機である。GPS115は、GPS信号に基づき、コントローラー10の現在位置の座標を検出又は算出する。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信する受信機である。GPS115は、GPS信号に基づき、コントローラー10の現在位置の座標を検出又は算出する。
6軸センサー111、磁気センサー113及びGPS115は、予め指定されたサンプリング周期に従ってメインプロセッサー125に出力値を出力する。また、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー125の要求に応じて、メインプロセッサー125により指定されたタイミングで、検出値をメインプロセッサー125に出力する構成であってもよい。
通信部117は、外部の機器との間で無線通信を実行する通信装置である。通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備える。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等が統合されたデバイスであってもよいし、各種回路が実装された通信モジュール基板であってもよい。
通信部117の通信方式には、例えば、Wi−Fi(登録商標)、WiMAX(Worldwide Interoperability for Microwave Access、登録商標)、Bluetooth(登録商標)、BLE(Bluetooth Low Energy)、DECT(Digital Enhanced Cordless Telecommunications)、ZigBee(登録商標)、UWB(Ultra Wide Band)等が用いられる。
音声処理部180は、オーディオコネクター46(図1)に接続され、音声信号の入出力及び音声信号のエンコード/デコードを行う。また、音声処理部180は、アナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及びその逆の変換を行うD/Aコンバーターを備える。
外部メモリーインターフェイス191は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。
コントローラー10は、バイブレーター176を搭載する。バイブレーター176は、モーター(不図示)、偏心した回転子(不図示)等を備え、メインプロセッサー125の制御に従って振動を発生する。例えば、操作部170に対する操作や、HMD100の電源のオン/オフに応じて、所定の振動パターンでバイブレーター176が振動を発生する。
インターフェイス(I/F)197は、センサーハブ193及びFPGA(Field Programmable Gate Array)195を、画像表示部20に接続する。
センサーハブ193は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー125に出力する。FPGA195は、メインプロセッサー125と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス197を介した伝送を実行する。
センサーハブ193は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー125に出力する。FPGA195は、メインプロセッサー125と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス197を介した伝送を実行する。
接続ケーブル40、及び図示しない画像表示部20内部の配線により、コントローラー10に、右表示ユニット22と、左表示ユニット24とが個別に接続される。
右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。OLEDユニット221が発する画像光は、レンズ群等を含む光学系により、右導光板26に導かれる。左表示ユニット24は、画像光を発するOLEDユニット241を備える。OLEDユニット241が発する画像光は、レンズ群等を含む光学系により、左導光板28に導かれる。
右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。OLEDユニット221が発する画像光は、レンズ群等を含む光学系により、右導光板26に導かれる。左表示ユニット24は、画像光を発するOLEDユニット241を備える。OLEDユニット241が発する画像光は、レンズ群等を含む光学系により、左導光板28に導かれる。
OLEDユニット221、241は、OLEDパネルやOLEDパネルを駆動する駆動回路を有する。OLEDパネルは、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネルは、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。駆動回路は、制御部150の制御に従って、OLEDパネルの発光素子の選択及び発光素子への通電を実行して、OLEDパネルの発光素子を発光させる。これにより、OLEDユニット221、241に形成された画像の画像光が、右導光板26及び左導光板28に導かれ、右眼RE及び左眼LEに入射する。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス197に接続されるインターフェイス(I/F)211、インターフェイス211を介してコントローラー10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215が実装される。インターフェイス211は、受信部213、EEPROM215、温度センサー69、カメラ61、照度センサー65、及び、LEDインジケーター67を、コントローラー10に接続する。
EEPROM(Electrically Erasable Programmable Read Only Memory)215は、メインプロセッサー125が読み取り可能にデータを記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー69、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー125がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号をインターフェイス211に出力する。
照度センサー65は、受光量(受光強度)に対応する検出値を、インターフェイス211に出力する。LEDインジケーター67は、インターフェイス211を介して入力される信号に従って点灯及び消灯する。
温度センサー69は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値としてインターフェイス211に出力する。温度センサー69は、OLEDユニット221が有するOLEDパネルの裏面側、或いは、OLEDパネルを駆動する駆動回路と同一の基板に実装され、OLEDパネルの温度を検出する。また、OLEDパネルがSi−OLEDとして、駆動回路等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー69を実装してもよい。
受信部213は、インターフェイス211を介してメインプロセッサー125が送信するデータを受信する。受信部213は、インターフェイス211から画像データを受信した場合に、受信した画像データを、OLEDユニット221に出力する。
左表示ユニット24は、表示ユニット基板230を有する。表示ユニット基板230には、インターフェイス197に接続されるインターフェイス(I/F)231、インターフェイス231を介してコントローラー10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板230には、6軸センサー235及び磁気センサー237が実装される。インターフェイス231は、受信部233、6軸センサー235、磁気センサー237及び温度センサー239を、コントローラー10に接続する。
6軸センサー235は、画像表示部20の動きを検出するモーションセンサーの一例である。6軸センサー235は、3軸加速度センサー、及び3軸ジャイロセンサーを備える。6軸センサー235は、上記のセンサーがモジュール化されたIMU(inertial measurement unit)であってもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。
6軸センサー235は、使用者Uの頭部の回転量を検出する。具体的には、6軸センサー235は、図1に示すX軸方向の加速度、Y軸方向の加速度、及びZ軸方向の加速度を測定する。また、6軸センサー235は、内蔵する測定機構(図示略)の測定基準点において、図1に示すX軸まわりの回転の角速度、Y軸まわりの回転の角速度、Z軸まわりの回転の角速度を測定する。X軸、Y軸及びZ軸は、図1に示すように相互に直交する3軸の方向であり、Z軸方向が鉛直方向に対応し、X軸方向が使用者Uの頭部の左右方向に対応し、Y軸方向が使用者Uの頭部の前後方向に対応する。鉛直方向に対応するZ軸方向は、使用者Uの体軸の方向に相当する。6軸センサー235から出力されたアナログの電圧値は、A/D変換器(図示略)によりデジタルの電圧値に変換されて制御部150に入力される。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値としてインターフェイス231に出力する。温度センサー239は、OLEDユニット241が有するOLEDパネルの裏面側、或いは、OLEDパネルを駆動する駆動回路と同一の基板に実装され、OLEDパネルの温度を検出する。また、OLEDパネルがSi−OLEDとして、駆動回路等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
カメラ61、照度センサー65、温度センサー69、6軸センサー235、磁気センサー237及び温度センサー239は、コントローラー10のセンサーハブ193に接続される。
センサーハブ193は、メインプロセッサー125の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ193は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ193は、予め設定されたタイミングで、各センサーの検出値をメインプロセッサー125に出力する。センサーハブ193は、メインプロセッサー125に対する出力のタイミングに合わせて、各センサーの検出値を一時的に保持する機能を備えてもよい。また、センサーハブ193は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー125に出力する機能を備えてもよい。
また、センサーハブ193は、メインプロセッサー125の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
また、センサーハブ193は、メインプロセッサー125の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
コントローラー10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132の残容量の検出、及びバッテリー132への充電の制御を行う電源制御回路134を備える。
USBコントローラー199は、USBデバイスコントローラーとして機能し、USBコネクター19に接続されるUSBホスト装置との間で通信を確立し、データ通信を行う。また、USBコントローラー199は、USBデバイスコントローラーとしての機能に加え、USBホストコントローラーとしての機能を有してもよい。
図3は、HMD100のコントローラー10の制御系を構成する記憶部140、及び制御部150の機能ブロック図である。図3に示す記憶部140は、不揮発性記憶部121(図2)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。制御部150、及び制御部150が有する各種の機能部は、メインプロセッサー125がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー125、メモリー118及び不揮発性記憶部121により構成される。
記憶部140は、メインプロセッサー125が実行する各種のプログラム、及びこれらのプログラムにより処理されるデータを記憶する。記憶部140は、オペレーティングシステム(OS)141、アプリケーションプログラム142、設定データ143、コンテンツデータ144及びキャリブレーションデータ145を記憶する。
制御部150は、記憶部140が記憶するプログラムを実行することにより、記憶部140が記憶するデータを処理して、HMD100を制御する。
オペレーティングシステム141は、メインプロセッサー125が実行するHMD100の基本制御プログラムである。メインプロセッサー125は、電源スイッチ18の操作によってHMD100の電源がオンに切り替わると、オペレーティングシステム141をロードして実行する。メインプロセッサー125がオペレーティングシステム141を実行することで、制御部150の各種機能が実現される。制御部150の機能には、基本制御部151、通信制御部152、画像処理部153、撮像制御部154、アプリケーション実行部155及び表示制御部156を含む。制御部150は、本発明の「表示制御部」及び「検出部」として動作する。
アプリケーションプログラム142は、メインプロセッサー125がオペレーティングシステム141を実行した状態で、メインプロセッサー125が実行するプログラムである。アプリケーションプログラム142は、制御部150の各種機能を利用する。記憶部140が記憶するアプリケーションプログラム142は1つではなく複数であってもよい。例えば、アプリケーションプログラム142は、画像コンテンツ再生、音声コンテンツ再生、ゲーム、カメラ撮影、文書作成、ウェブブラウジング、スケジュール管理、電話(音声通信を含む)、画像通信、経路ナビゲーション等の機能を実現する。
設定データ143は、HMD100の動作に関する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ143に含めてもよい。
また、設定データ143には、アプリケーションプログラム142を実行する場合に使用されるデータが含まれる。詳細には、アプリケーションプログラム142に含まれる各種プログラムを実行する場合の実行条件等のデータを含む。例えば、アプリケーションプログラム142の実行時の画像表示サイズ、画面の向き、アプリケーションプログラム142が使用する制御部150の機能部、或いはHMD100のセンサー類等を示すデータを含む。
HMD100では、アプリケーションプログラム142を導入する際に、制御部150の機能によりインストール処理を実行する。インストール処理は、アプリケーションプログラム142を記憶部140に記憶するだけでなく、アプリケーションプログラム142の実行条件の設定等を含む処理である。インストール処理により、記憶部140に、アプリケーションプログラム142に対応した設定データ143が生成又は記憶されると、アプリケーション実行部155がアプリケーションプログラム142を起動できる。
コンテンツデータ144は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータである。コンテンツデータ144は、静止画像データ、映像(動画像)データ、音声データ等を含む。コンテンツデータ144は複数のコンテンツのデータを含んでもよい。また、コンテンツデータ144は、双方向型のコンテンツのデータであってもよい。
キャリブレーションデータ145は、カメラ61の撮像画像データ上の座標を、表示領域VR上の座標に変換するデータである。表示領域VRは、画像表示部20が画像(虚像)を表示可能な領域である。例えば、カメラ61によりマーカー等を撮像し、撮像した実物体に重なる位置に、画像表示部20により画像を表示させる場合、撮像画像データ上の座標を、表示領域VR上の座標に変換するデータであるキャリブレーションデータ145が必要となる。このため、HMD100に事前にキャリブレーションを実行させて、撮像画像データ上の座標を、表示領域VR上の座標に変換するためのキャリブレーションデータ145を生成しておく。生成したキャリブレーションデータ145は、予め記憶部140に記憶させておく。
基本制御部151は、HMD100の各部を制御する基本機能を実行する。基本制御部151は、HMD100の電源がオンされたときに起動処理を実行し、HMD100の各部を初期化し、アプリケーション実行部155がアプリケーションプログラム142を実行可能な状態にする。基本制御部151は、コントローラー10の電源をオフにする際のシャットダウン処理を実行し、アプリケーション実行部155を終了し、記憶部140が記憶する各種データを更新し、HMD100を停止させる。シャットダウン処理では画像表示部20に対する電源供給も停止し、HMD100全体がシャットダウンされる。
基本制御部151は、電源部130による電源供給を制御する機能を有する。基本制御部151は、シャットダウン処理で、電源部130からHMD100の各部への電源供給を個別にオフに切り替える。
通信制御部152は、通信部117を制御して、他の装置との間でデータ通信を行う。
例えば、通信制御部152は、パーソナルコンピューター等の画像供給装置(不図示)から供給されるコンテンツデータを通信部117により受信し、受信したコンテンツデータをコンテンツデータ144として記憶部140に記憶させる。
例えば、通信制御部152は、パーソナルコンピューター等の画像供給装置(不図示)から供給されるコンテンツデータを通信部117により受信し、受信したコンテンツデータをコンテンツデータ144として記憶部140に記憶させる。
画像処理部153は、画像表示部20により表示する画像又は映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部153が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部153は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部153は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部153は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、画像表示部20に送信する。
画像処理部153は、メインプロセッサー125がオペレーティングシステム141を実行して実現される構成のほか、メインプロセッサー125とは別のハードウェアで構成してもよい。このハードウェアとしては、例えば、DSP(Digital Signal Processor)が挙げられる。
撮像制御部154は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部140に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部154は撮像画像データをカメラ61から取得して、記憶部140に一時的に記憶させる。
アプリケーション実行部155は、メインプロセッサー125が、オペレーティングシステム141を実行する状態で、アプリケーションプログラム142を実行する機能に相当する。アプリケーション実行部155は、アプリケーションプログラム142を実行して、アプリケーションプログラム142の各種機能を実現する。例えば、記憶部140に記憶されたコンテンツデータ144のいずれかが操作部170の操作により選択されると、コンテンツデータ144を再生するアプリケーションプログラム142が実行される。これにより制御部150は、コンテンツデータ144を再生するアプリケーション実行部155として動作する。
表示制御部156は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。例えば、表示制御部156は、OLEDパネルによる画像の表示を実行させ、OLEDパネルの描画タイミングの制御、輝度の制御等を行う。表示制御部156は、画像表示部20を制御して表示領域VRに画像を表示させる。
図4は、画像としての操作画面300が表示領域VRに表示された状態を示す図である。操作画面300は、オペレーティングシステム141や、アプリケーションプログラム142を実行するメインプロセッサー125により表示される画面である。また、操作画面300は、使用者Uが行う操作を受け付け可能な画面であって、HMD100に搭載された機能を表示する画面である。HMD100は、使用者Uが行う操作を検出して、検出した操作により選択された機能を実行させる。また、本実施形態では、使用者Uの手のひらや指先等の指示体5の動きや位置をカメラ61の撮像画像データから検出して操作を検出する場合を例に説明するが、ホイール操作部12や、中央キー13、操作パッド14、上下キー15等の被操作部を操作して操作を行うことも可能である。また、本実施形態では、指示体5が使用者Uの手(手のひらや、指、指先等を含む)である場合を例に挙げて説明するが、指示体5は手に限らず、例えば、ペンや指示棒等であってもよい。指示体5としてペンや指示棒等を用いる場合、撮像画像データからペンや指示棒の画像を検出するため、ペンや指示棒の画像を記憶部140に予め記憶させておく必要がある。
操作画面300には、複数のタグ311、312が表示される。図4には、タグ311とタグ312の2つのタグを示すが、タグの数は、2つに限定されるものではない。タグ311には、カメラ61やGPS等、HMD100に搭載された機能を起動させるメニューが対応付けられている。また、タグ312には、HMD100の動作環境を設定する設定項目が対応付けられる。また、タグ311、312は、タグ311、312の領域を示す輪郭線が破線により示されている。タグ311、312は、本発明の「オブジェクト画像」に相当する。
図5は、HMD100の動作を示すフローチャートである。図5に示すフローチャートを参照しながら本実施形態のHMD100の動作を説明する。
制御部150は、カメラ61の撮像画像データから指示体5の画像の検出を開始する(ステップS1)。制御部150は、まず、メモリー118から撮像画像データを取得する。カメラ61は、予め設定された撮像間隔で撮像を行い、撮像画像データを生成する。カメラ61の撮像画像データは、メモリー118に一時的に記憶される。制御部150は、メモリー118から撮像画像データを取得して、取得した撮像画像データに対して地肌抽出処理や、エッジ検出処理等を行い、指示体5である使用者Uの指の画像を検出する。撮像画像データに対して地肌抽出処理を行うことで、肌色が撮像された領域が検出される。また、エッジ検出処理を行うことで、撮像画像データに撮像された使用者Uの指の輪郭や形状が検出される。
制御部150は、カメラ61の撮像画像データから指示体5の画像の検出を開始する(ステップS1)。制御部150は、まず、メモリー118から撮像画像データを取得する。カメラ61は、予め設定された撮像間隔で撮像を行い、撮像画像データを生成する。カメラ61の撮像画像データは、メモリー118に一時的に記憶される。制御部150は、メモリー118から撮像画像データを取得して、取得した撮像画像データに対して地肌抽出処理や、エッジ検出処理等を行い、指示体5である使用者Uの指の画像を検出する。撮像画像データに対して地肌抽出処理を行うことで、肌色が撮像された領域が検出される。また、エッジ検出処理を行うことで、撮像画像データに撮像された使用者Uの指の輪郭や形状が検出される。
制御部150は、撮像画像データから指示体5の画像を検出することができなかった場合(ステップS1/NO)、次の撮像画像データをメモリー118から取得して、指示体5の画像の検出を継続する。なお、次の撮像画像データは、指示体5の画像の検出対象とした撮像画像データの次に撮像された撮像画像データである。また、カメラ61の撮像間隔が短い場合、制御部150は、メモリー118に記憶されたすべての撮像画像データを対象としなくてもよい。例えば、制御部150は、メモリー118に記憶された撮像画像データから、所定枚数ごとに撮像データを取得して指示体5の画像を検出してもよい。この場合、1枚とは、カメラ61が1回の撮像により生成する所定サイズの撮像画像データを指す。
制御部150は、撮像画像データから指示体5の画像を検出した場合(ステップS1/YES)、検出した指示体5に重なるタグ311、312があるか否かを判定する(ステップS2)。詳細には、制御部150は、撮像画像データから指示体5の画像を検出すると、検出した指示体5の画像の撮像画像データにおける位置を示す座標データを、表示領域VRにおける位置を示す座標データに変換する。制御部150は、記憶部140に記憶されたキャリブレーションデータ145を参照して、指示体5の画像の撮像画像データにおける位置を示す座標データを表示領域VRにおける位置を示す座標データに変換する。制御部150は、変換した座標データと、タグ311、312の表示領域VRでの表示位置とに基づいて、指示体5に重なるタグ311、312があるか否かを判定する。
制御部150は、指示体5に重なるタグ311、312が存在しない場合(ステップS2/NO)、ステップS1に戻り、メモリー118から次の撮像画像データを取得する。また、制御部150は、指示体5に重なるタグ311、312がある場合(ステップS2/YES)、指示体5に重なるタグ311、312の表示サイズを拡大する(ステップS3)。
図6は、表示領域VRに表示される操作画面300を示す図であり、特に、タグ311の表示サイズを拡大した状態を示す図である。制御部150は、指示体5に重なるタグ311が検出されると、検出されたタグ311の形状や領域を示す輪郭線の線種を破線から実線に変更する。さらに、制御部150は、指示体5の動きに対応してタグ311の表示色を、選択されていないタグ312の表示色とは異なる色に変更する(ステップS4)。使用者Uは、タグ311上で指示体5を動かすことで、タグ311の表示色を、タグ312とは異なる表示色に変更する。
図7は、拡大表示させたタグ311を示す図である。
ここで、指示体5の動きに対応してタグ311の表示色を変更する動作について図7を参照しながら説明する。まず、制御部150は、カメラ61により連続して撮像される撮像画像データから指示体5が動く方向を特定する。例えば、図7において、タグ311の左下に原点、タグ311の縦方向にY軸、横方向にX軸が設定されていると仮定する。制御部150は、Y軸正方向への移動を上方向、Y軸負方向への移動を下方向、X軸正方向への移動を右方向、X軸負方向への移動を左方向と判定する。図7に示す例の場合、指示体5は、時間の経過とともにY軸正方向に移動しているので、制御部150は、上方向への移動であると判定する。
ここで、指示体5の動きに対応してタグ311の表示色を変更する動作について図7を参照しながら説明する。まず、制御部150は、カメラ61により連続して撮像される撮像画像データから指示体5が動く方向を特定する。例えば、図7において、タグ311の左下に原点、タグ311の縦方向にY軸、横方向にX軸が設定されていると仮定する。制御部150は、Y軸正方向への移動を上方向、Y軸負方向への移動を下方向、X軸正方向への移動を右方向、X軸負方向への移動を左方向と判定する。図7に示す例の場合、指示体5は、時間の経過とともにY軸正方向に移動しているので、制御部150は、上方向への移動であると判定する。
次に、制御部150は、指示体5の画像が重なるタグ311の領域のうち、特定した指示体5が動く方向における先頭位置を求める。図7には、指示体5が上方向に動く場合を例示しているので、制御部150は、Y軸で最も座標値が大きい位置を先頭位置として特定する。図7に示す例では、制御部150は、Y軸の座標値Y1を先頭位置と判定する。制御部150は、Y座標の座標値がY1以下の領域の表示色を変更する。図7において、網かけ線で示した領域が、表示色が変更されたタグ311の領域を示す。
制御部150は、選択されたタグ311全体の表示色が変更されたか否かを判定する(ステップS5)。制御部150は、タグ311全体の表示色が変更されていないと判定すると(ステップS5/NO)、他のタグが選択されたか否かを判定する(ステップS6)。制御部150は、撮像画像データにより指示体5の画像を検出して、指示体5の画像が重なるタグに変更があるか否を判定する。制御部150は、他のタグが選択されていないと判定した場合(ステップS6/NO)、ステップS5の判定に戻る。また、制御部150は、他のタグが選択されたと判定した場合(ステップS6/YES)、ステップS3の処理に移行し、選択された他のタグの表示サイズを拡大させる(ステップS3)。
また、制御部150は、タグ311全体の表示色が変更されたと判定した場合(ステップS5/YES)、操作が確定したと判定し、選択されたタグ311に対応したメニューのリストを表示したプルアップメニュー321を表示させる(ステップS7)。
図8は、表示領域VRに表示される操作画面300を示す図であり、特に、プルアップメニュー321が表示された状態を示す図である。プルアップメニュー321は、本発明の「オブジェクト画像」に相当する。
使用者Uは、操作画面300にプルアップメニュー321が表示されると、表示されたメニューのうち、選択したいメニューが表示された領域(以下、メニュー表示領域という)323に指示体5を重ねる。制御部150は、カメラ61の撮像画像データから指示体5の画像を検出して、指示体5の画像が重なるメニュー表示領域323を検出する(ステップS8)。制御部150は、指示体5の画像が重なるメニュー表示領域323が検出できない場合(ステップS8/NO)、ステップS6の判定に移行して他のタグが選択されたか否かを判定する。
使用者Uは、操作画面300にプルアップメニュー321が表示されると、表示されたメニューのうち、選択したいメニューが表示された領域(以下、メニュー表示領域という)323に指示体5を重ねる。制御部150は、カメラ61の撮像画像データから指示体5の画像を検出して、指示体5の画像が重なるメニュー表示領域323を検出する(ステップS8)。制御部150は、指示体5の画像が重なるメニュー表示領域323が検出できない場合(ステップS8/NO)、ステップS6の判定に移行して他のタグが選択されたか否かを判定する。
図8は、カメラ61をオンさせるメニューである「カメラON」のメニュー表示領域323に指示体5が重なる場合を示す。制御部150は、指示体5が重なるメニュー表示領域323を検出すると(ステップS8/YES)、メニュー表示領域323の形状を示す輪郭線の形状を実線から破線に変更する。さらに、制御部150は、検出したメニュー表示領域323の表示色を、他のメニュー表示領域323の表示色とは異なる色に変更する(ステップS9)。本実施形態では、オブジェクト画像の表示態様の変更の一例として、表示色を変更する場合を説明するが、表示色の変更は、あくまで表示態様の変更の一例である。
次に、制御部150は、選択されたメニュー表示領域323に並べて、確認操作を受け付ける表示領域である確認領域325を表示させる(ステップS10)。制御部150は、確認領域325に対する指示体5の操作を検出した場合に、選択されたメニュー表示領域323のメニューが選択されたと判定する。確認領域325と、選択されたメニュー表示領域323とは、表示領域VRの水平方向に並んで表示される。また、確認領域325は、選択されたメニュー表示領域323の端部に接するように表示される。図8に示す例では、確認領域325は、メニュー表示領域323の右側に並んで表示され、確認領域325の左端部325aが「カメラON」のメニュー表示領域323の右端部323aに接している。また、確認領域325には「OK?」の文字が表示される。確認領域325は、本発明の「オブジェクト画像」に相当する。
使用者Uは、操作画面300に確認領域325が表示されると、メニューとして「カメラON」を選択したい場合には、メニュー表示領域323に位置していた指示体5を、確認領域325の方向、すなわち使用者Uから見て左から右に指示体5をスライドさせる。図9は、表示領域VRに表示される操作画面300を示す図であり、特に、選択されたメニュー表示領域323から確認領域325に指示体5をスライドさせる様子を示す図である。
制御部150は、連続して撮像されるカメラ61の撮像画像データから指示体5の動きを検出し、検出した指示体5の動きに応じて確認領域325の表示色を変更する(ステップS11)。指示体5の動きに対応させて確認領域325の表示色を変更する方法は、図7を参照して説明したタグ311に対する操作の場合と同様である。
また、使用者Uは、操作画面300に確認領域325が表示され、メニューとして「カメラON」を選択したくない場合、すなわち、メニューの選択操作を誤った場合、指示体5を「カメラON」のメニュー表示領域323から、「拡大・縮小」等の他のメニュー表示領域323に移動させる。このとき、「カメラON」のメニューに対応した確認領域325の表示は消去されると共に「拡大・縮小」に対応したメニューが新たに表示さる。
制御部150は、確認領域325全体の表示色を変更したか否かを判定する(ステップS12)。確認領域325の全体の表示色を変更していない場合(ステップS12/NO)、制御部150は、撮像画像データから指示体5の画像を検出して、プルアップメニュー321に表示された他のメニューが選択されたか否かを判定する(ステップS13)。制御部150は、他のメニューが選択されていない場合(ステップS13/NO)、ステップS12の判定に戻り、確認領域325の全体で表示色を変更したか否かを判定する。また、制御部150は、他のメニューが選択されたと判定した場合(ステップS13/YES)、ステップS9に戻り、選択された他のメニューを表示したメニュー表示領域323の表示色を変更する。さらに、制御部150は、表示色を変更したメニュー表示領域323の横に、確認操作を受け付ける領域である確認領域325を表示させる(ステップS10)。
図10は、表示領域VRに表示される操作画面300を示す図である。特に、図10は、選択されたメニュー表示領域323に対応した確認領域325の全体の表示色が変更された状態を示す図である。確認領域325の全体の表示色が変更された状態が、本発明の「オブジェクト画像上での指示体の動きに対応して、オブジェクト画像の表示態様が変更された場合」に相当する。制御部150は、確認領域325の全体で表示色を変更した場合(ステップS12/YES)、操作が確定したと判定し、ステップS8で選択されたメニュー(処理コマンド)に対応付けられた処理を実行する(ステップS14)。図10には、カメラ61をオンさせるメニューが選択された場合を示す。この場合、制御部150は、カメラ61をオンさせる。本実施形態において「カメラ61をオンさせる」とは、例えば、操作部170が受け付けた操作(シャッター操作)によりカメラ61に撮像を実行させることに対応する。また、カメラ61をオンする操作が行われる前は、カメラ61の撮像画像データを揮発性のメモリー118に記憶させているが、カメラ61がオンされると、操作部170の操作により撮像した撮像画像データを記憶部140に記憶させる。制御部150は、選択されたメニューに対応した処理を実行すると、ステップS1に戻り、指示体5の検出を再開する。
図6〜図10の説明では、指示体5の動きを撮像画像データから検出して、確認領域325等のオブジェクト画像上での指示体5の動きに応じてオブジェクト画像5の表示色を変更する場合を説明した。この他の操作の確定方法として、例えば、図11に示すように指示体5としての手のひらを確認領域325に重ねて、確認領域325の全体又はほぼ全体を手のひらにより隠してもよい。制御部150は、確認領域325の全体又はほぼ全体に指示体5が重なっていると判定すると、ステップS8で選択されたメニュー(処理コマンド)に対応付けられた処理を実行する。
また、操作を確定させる他の方法として、タグ111、112や確認領域325等のオブジェクト画像内又はオブジェクト画像を含む一定範囲内で指示体5が検出された時間や、オブジェクト画像内での指示体5の移動距離、オブジェクト画像内で指示体5の動きが静止していた静止時間により操作の確定を判定してもよい。
また、操作を確定させる他の方法として、オブジェクト画像に重なる指示体5の面積や、位置に基づいて操作の確定を判定してもよい。例えば、制御部150は、指示体5と重なるオブジェクト画像の面積が予め設定されたしきい値以上である場合に、操作を確定させる。また、制御部150は、指示体5が重なるオブジェクト画像の位置により操作を確定させてもよい。例えば、制御部150は、オブジェクト画像の中心を含む領域に指示体5が検出された場合に、操作を確定させる。
また、制御部150は、上述した複数の条件のうち、少なくとも2以上の条件を組み合わせて操作の確定を判定してもよい。例えば、制御部150は、オブジェクト画像に重なる指示体5の面積と、オブジェクト画像内での指示体5の静止時間とにより操作を確定させてもよい。
また、操作を確定させる他の方法として、オブジェクト画像に重なる指示体5の面積や、位置に基づいて操作の確定を判定してもよい。例えば、制御部150は、指示体5と重なるオブジェクト画像の面積が予め設定されたしきい値以上である場合に、操作を確定させる。また、制御部150は、指示体5が重なるオブジェクト画像の位置により操作を確定させてもよい。例えば、制御部150は、オブジェクト画像の中心を含む領域に指示体5が検出された場合に、操作を確定させる。
また、制御部150は、上述した複数の条件のうち、少なくとも2以上の条件を組み合わせて操作の確定を判定してもよい。例えば、制御部150は、オブジェクト画像に重なる指示体5の面積と、オブジェクト画像内での指示体5の静止時間とにより操作を確定させてもよい。
図12〜図14は、表示領域VRに表示される操作画面300を示す図である。特に、操作画面300に画像305が表示された状態を示す図である。
次に、画像の表示サイズを拡大又は縮小させるメニューが選択された場合について説明する。制御部150は、「拡大・縮小」のメニュー表示領域323が選択された場合、「拡大・縮小」のメニューに対応したサブメニュー画面330を表示させる。このサブメニュー画面330には、表示領域VRに表示されたカーソル310を、上下左右に移動させる操作を受け付ける移動操作領域340と、画像の表示サイズを拡大又は縮小させる操作を受け付けるサイズ操作領域350とが表示される。移動操作領域340には、十字キー341が表示される。また、サイズ操作領域350には、縮小ボタン353や、拡大ボタン357、倍率表示部359等が表示される。サブメニュー画面330は、本発明の「オブジェクト画像」に相当する。
次に、画像の表示サイズを拡大又は縮小させるメニューが選択された場合について説明する。制御部150は、「拡大・縮小」のメニュー表示領域323が選択された場合、「拡大・縮小」のメニューに対応したサブメニュー画面330を表示させる。このサブメニュー画面330には、表示領域VRに表示されたカーソル310を、上下左右に移動させる操作を受け付ける移動操作領域340と、画像の表示サイズを拡大又は縮小させる操作を受け付けるサイズ操作領域350とが表示される。移動操作領域340には、十字キー341が表示される。また、サイズ操作領域350には、縮小ボタン353や、拡大ボタン357、倍率表示部359等が表示される。サブメニュー画面330は、本発明の「オブジェクト画像」に相当する。
移動操作領域340に表示された十字キー341は、カーソル310の表示位置を移動させるキーである。サイズ操作領域350に表示された縮小ボタン353や拡大ボタン357は、操作画面300に表示された画像305の表示サイズを縮小させたり、拡大させたりするボタンである。倍率表示部359には、画像の表示倍率を示す数字や画像が表示される。
サブメニュー画面330に対する操作として、例えば、使用者Uは、十字キー341を操作して、拡大又は縮小させたい画像305の中心にカーソル310を移動させる。カーソル310を画像305の中心に移動させると、縮小ボタン353や拡大ボタン357を操作して、縮小倍率又は拡大倍率の指定を入力する。制御部150は、縮小倍率又は拡大倍率が入力されると、入力された倍率で画像305を縮小又は拡大させる。このとき、制御部150は、カーソル310の表示位置を中心として画像305の表示サイズを縮小又は拡大させる。
サブメニュー画面330に対する操作として、例えば、使用者Uは、十字キー341を操作して、拡大又は縮小させたい画像305の中心にカーソル310を移動させる。カーソル310を画像305の中心に移動させると、縮小ボタン353や拡大ボタン357を操作して、縮小倍率又は拡大倍率の指定を入力する。制御部150は、縮小倍率又は拡大倍率が入力されると、入力された倍率で画像305を縮小又は拡大させる。このとき、制御部150は、カーソル310の表示位置を中心として画像305の表示サイズを縮小又は拡大させる。
図12には、サイズ操作領域350に対する操作が有効であり、移動操作領域340に対する操作は無効である場合を示す。サイズ操作領域350に表示された縮小ボタン353の周囲には、縮小ボタン353の有効な操作範囲を示す輪郭線351が破線で表示される。また、拡大ボタン357の周囲には、拡大ボタン357の有効な操作範囲を示す輪郭線355が破線で表示される。縮小ボタン353の有効な操作範囲を縮小操作範囲351aといい、拡大ボタン357の有効な操作範囲を拡大操作範囲355aという。移動操作領域340や、十字キー341、縮小操作範囲351a、拡大操作範囲355aは、本発明の「オブジェクト画像」に相当する。
操作を受け付け可能なボタンである縮小ボタン353や拡大ボタン357の周囲に輪郭線351、355を表示させることで、縮小ボタン353や拡大ボタン357が操作可能な有効なボタンであることを使用者Uに認識させることができる。
操作を受け付け可能なボタンである縮小ボタン353や拡大ボタン357の周囲に輪郭線351、355を表示させることで、縮小ボタン353や拡大ボタン357が操作可能な有効なボタンであることを使用者Uに認識させることができる。
使用者Uは、画像305の表示サイズを拡大させる場合、拡大操作範囲355a内に指示体5を移動させる。制御部150は、カメラ61の撮像画像データにより指示体5の画像を検出し、縮小操作範囲351a内で指示体5を検出した場合、縮小操作が検出されたと判定し、輪郭線351の線種を破線から実線に変更する。同様に、制御部150は、拡大操作範囲355a内で指示体5を検出した場合、拡大操作が検出されたと判定し、輪郭線355の線種を破線から実線に変更する。図13は、拡大操作が検出され、輪郭線355の線種が破線から実線に変更された状態を示す。
使用者Uは、輪郭線355の線種が破線から実線に変更されると、拡大操作範囲355a内で指示体5を動かす。例えば、使用者Uから見て、指示体5を、拡大操作範囲355aの左辺側から拡大操作範囲355a内に移動させた場合、拡大操作範囲355a内で指示体5を左から右に動かす。また、使用者Uから見て、指示体5を、拡大操作範囲355aの下側から拡大操作範囲355a内に移動させた場合、使用者Uは、拡大操作範囲355a内で指示体5を下から上に動かす。制御部150は、上述のフローチャートのステップS4の説明と同様に、カメラ61の撮像画像データから指示体5の動きを検出し、検出した指示体5の動きに対応させて拡大操作範囲355aの表示色を変更する(図13参照)。
図14は、画像305の表示サイズが拡大された状態を示す図である。
制御部150は、上述したフローチャートのステップS8で説明したように、拡大操作範囲355aの全体で表示色が変更された場合に、操作画面300に表示された画像の表示サイズを拡大させる。また、制御部150は、倍率表示部359に、変更後の倍率に対応した表示倍率を表示させる。画像の表示サイズを拡大させる拡大率は、図12〜図14で説明した操作を1回の操作とし、1回の操作ごとに予め設定された倍率(例えば、5%)ずつ画像の表示倍率を変更してもよい。また、倍率表示部359に表示された表示倍率を指示体5の操作により所望の表示倍率に変更してもよい。例えば、使用者Uは、倍率表示部359の上で指示体5を右方向に動かす。制御部150は、指示体5の右方向への動きを検出して表示倍率を高い値に変更する。逆に、制御部150は、倍率表示部359の上で指示体5の左方向への動きが検出された場合、表示倍率を低い値に変更する。制御部150は、変更された倍率表示部359の表示倍率に対応した倍率で画像の表示サイズを拡大させる。画像の表示サイズを縮小させる場合の動作は、画像の表示サイズを拡大させる場合と同様である。
制御部150は、上述したフローチャートのステップS8で説明したように、拡大操作範囲355aの全体で表示色が変更された場合に、操作画面300に表示された画像の表示サイズを拡大させる。また、制御部150は、倍率表示部359に、変更後の倍率に対応した表示倍率を表示させる。画像の表示サイズを拡大させる拡大率は、図12〜図14で説明した操作を1回の操作とし、1回の操作ごとに予め設定された倍率(例えば、5%)ずつ画像の表示倍率を変更してもよい。また、倍率表示部359に表示された表示倍率を指示体5の操作により所望の表示倍率に変更してもよい。例えば、使用者Uは、倍率表示部359の上で指示体5を右方向に動かす。制御部150は、指示体5の右方向への動きを検出して表示倍率を高い値に変更する。逆に、制御部150は、倍率表示部359の上で指示体5の左方向への動きが検出された場合、表示倍率を低い値に変更する。制御部150は、変更された倍率表示部359の表示倍率に対応した倍率で画像の表示サイズを拡大させる。画像の表示サイズを縮小させる場合の動作は、画像の表示サイズを拡大させる場合と同様である。
また、サイズ操作領域350に対する操作が終了した後は、移動操作領域340に対する操作が有効になる。使用者Uは、移動操作領域340に表示された十字キー341を操作することで、操作画面300内で画像305の表示位置を移動させることができる。十字キー341の周囲には、十字キー341の有効な操作範囲を示す輪郭線が破線で表示される。十字キー341には、上方向に移動させる操作を受け付ける上キー342、下方向に移動させる操作を受け付ける下キー344、左方向に移動させる操作を受け付ける左キー346、右方向に移動させる操作を受け付ける右キー348が含まれる。また、上キー342の周囲には、上キー342の有効な操作範囲を示す輪郭線343が破線で表示され、下キー344の周囲には、下キー344の有効な操作範囲を示す輪郭線345が破線で表示される。また、左キー346の周囲には、左キー346の有効な操作範囲を示す輪郭線347が破線で表示され、右キー348の周囲には、右キー348の有効な操作範囲を示す輪郭線349が破線で表示される。
使用者Uは、「拡大・縮小」のメニューを選択した場合と同様に、画像305又はカーソル310を移動させたい方向に対応したキーの操作範囲に指示体5を重ねる。制御部150は、撮像画像データにより指示体5と操作範囲との重なりを検出すると、重なりを検出した操作範囲の表示色を、指示体5の動きに対応して変更させる。制御部150は、操作範囲の全体で表示色が変更されると、表示色が変更された操作範囲に対応するキーの操作を有効に設定する。
また、十字キー341による操作モードには、第1モード〜第3モードの3つのモードがある。これら3つのモードの切り替えは、例えば、操作部170により行うことができる。
第1モードは、画像305の表示位置を移動させるモードである。このとき、カーソル310は、十字キー341が操作されても移動しない。
第2モードは、カーソル310の表示位置を移動させるモードである。このとき、画像305は、十字キー341が操作されても移動しない。
第1モードは、画像305の表示位置を移動させるモードである。このとき、カーソル310は、十字キー341が操作されても移動しない。
第2モードは、カーソル310の表示位置を移動させるモードである。このとき、画像305は、十字キー341が操作されても移動しない。
第3モードは、カーソル310及び画像305の両方の表示位置を移動させるモードであり、カーソル310及び画像305が交互に操作対象となるモードである。例えば、カーソル310が操作対象である場合、十字キー341の操作に応じてカーソル310の表示位置を移動させる。カーソル310が操作画面300の端(上下左右のいずれかの端)まで移動すると、カーソル310の代わりに画像305が十字キー341の操作対象となる。また、十字キー341の操作に応じて画像305が操作画面300の端(上下左右のいずれかの端)まで移動すると、画像305の代わりにカーソル310が十字キー341の操作対象となる。
また、第3モードにより十字キー341を操作して操作画面300内で画像305を移動させる場合に、例えば、十字キー341の操作によりカーソル310の表示位置を移動させて、画像305の上にカーソル310を重ねてもよい。カーソル310が画像305に重なると、十字キー341の操作によってカーソル310及び画像305を共に移動させることができるようにしてもよい。
また、第3モードにより十字キー341を操作して操作画面300内で画像305を移動させる場合に、例えば、十字キー341の操作によりカーソル310の表示位置を移動させて、画像305の上にカーソル310を重ねてもよい。カーソル310が画像305に重なると、十字キー341の操作によってカーソル310及び画像305を共に移動させることができるようにしてもよい。
図15は、プルアップメニュー321に含まれる文字入力のメニューが選択された場合に、操作画面300に表示されるサブメニュー画面360を示す図である。
制御部150は、プルアップメニュー321の中から文字入力のメニューが選択された場合、選択された文字種別に対応した文字をサブメニュー画面360に表示させる。サブメニュー画面360は、本発明の「オブジェクト画像」に相当する。
図15には、文字種別としてアルファベットの大文字が選択された場合を示すが、文字の種別は、アルファベットの小文字であってもよいし、ひらがなやカタカナであってもよい。図15に示すサブメニュー画面360には、アルファベットの各文字363がアルファベット順に並べて表示され、さらに操作キーとして「BS」キーと「DEL」キーとが表示された場合を示す。また、このサブメニュー画面360は、サブメニュー画面360の端に近い文字ほど使用者Uから見て近い位置に表示され、サブメニュー画面360の中央にいくほど、操作画面300の奥行き方向において使用者Uから離れた位置に表示される。例えば、図15に示す例では、サブメニュー画面360の両端に位置する「A」や「B」、「DEL」、「BS]の文字は、近い表示位置に表示されているように使用者Uに視認させるため、大きな文字サイズで表示される。また、「M」や「N」等の文字は、遠い表示位置に表示されているように使用者Uに視認させるため、小さな文字サイズで表示される。
制御部150は、プルアップメニュー321の中から文字入力のメニューが選択された場合、選択された文字種別に対応した文字をサブメニュー画面360に表示させる。サブメニュー画面360は、本発明の「オブジェクト画像」に相当する。
図15には、文字種別としてアルファベットの大文字が選択された場合を示すが、文字の種別は、アルファベットの小文字であってもよいし、ひらがなやカタカナであってもよい。図15に示すサブメニュー画面360には、アルファベットの各文字363がアルファベット順に並べて表示され、さらに操作キーとして「BS」キーと「DEL」キーとが表示された場合を示す。また、このサブメニュー画面360は、サブメニュー画面360の端に近い文字ほど使用者Uから見て近い位置に表示され、サブメニュー画面360の中央にいくほど、操作画面300の奥行き方向において使用者Uから離れた位置に表示される。例えば、図15に示す例では、サブメニュー画面360の両端に位置する「A」や「B」、「DEL」、「BS]の文字は、近い表示位置に表示されているように使用者Uに視認させるため、大きな文字サイズで表示される。また、「M」や「N」等の文字は、遠い表示位置に表示されているように使用者Uに視認させるため、小さな文字サイズで表示される。
図16及び図17は、サブメニュー画面360に表示された文字363の入力場面を示す図である。
制御部150は、指示体5の画像と、文字363の表示領域との重なりが検出されると、重なりが検出された文字363の表示領域を示す輪郭線を破線から実線に変更する。重なりが検出された文字363を、以下では、選択された文字363という。また、制御部150は、選択された文字363の表示領域の表示サイズを拡大して、他の文字363の表示領域の表示サイズよりも大きくする。このとき、制御部150は、選択された文字363の表示領域と、他の文字363の表示領域とが重なる場合、選択された文字363の表示領域が、他の文字363の表示領域よりも前に表示されるように操作画面300の表示を制御する。
制御部150は、指示体5の画像と、文字363の表示領域との重なりが検出されると、重なりが検出された文字363の表示領域を示す輪郭線を破線から実線に変更する。重なりが検出された文字363を、以下では、選択された文字363という。また、制御部150は、選択された文字363の表示領域の表示サイズを拡大して、他の文字363の表示領域の表示サイズよりも大きくする。このとき、制御部150は、選択された文字363の表示領域と、他の文字363の表示領域とが重なる場合、選択された文字363の表示領域が、他の文字363の表示領域よりも前に表示されるように操作画面300の表示を制御する。
次に、制御部150は、カメラ61の撮像画像データから指示体5の動きを検出し、検出した指示体5の動きに対応させて、選択された文字363の表示領域の表示色を変更する。選択された文字363の表示領域の全体の表示色が変更されると、制御部150は、選択された文字363の表示領域に対応させて確認領域365を表示させる(図16参照)。確認領域365には、「OK?」の文字が表示される。また、制御部150は、撮像画像データから指示体5の画像を検出し、指示体5の画像が確認領域365に重なる場合、確認領域365の領域を示す輪郭線を破線から実線に変更する。さらに、制御部150は、カメラ61の撮像画像データから指示体5の動きを検出し、検出した指示体5の動きに対応させて確認領域365の表示色を変更する。確認領域365の全体の表示色が変更されると(図17参照)、制御部150は、選択された文字363を文字入力欄(不図示)に入力する。確認領域365は、本発明の「オブジェクト画像」に相当する。
図18は、表示領域VRに表示されるアプリ画面400を示す図である。特に、図18は、動画再生用のアプリケーションプログラム142が選択され、選択されたアプリケーションプログラム142を制御部150が実行することで表示されるアプリ画面400を示す図である。
アプリ画面400には、コンテンツデータ144に基づくコンテンツが表示される再生領域405と、第1アイコン領域410及び第2アイコン領域430とが表示される。第1アイコン領域410は、使用者Uの操作対象となる操作アイコンが表示される領域である。操作アイコンには、巻き戻しアイコン411、再生アイコン413、コマ送り再生アイコン415、早送りアイコン417及びしおりアイコン419が含まれる。これらのアイコンは、本発明の「オブジェクト画像」に相当する。
アプリ画面400には、コンテンツデータ144に基づくコンテンツが表示される再生領域405と、第1アイコン領域410及び第2アイコン領域430とが表示される。第1アイコン領域410は、使用者Uの操作対象となる操作アイコンが表示される領域である。操作アイコンには、巻き戻しアイコン411、再生アイコン413、コマ送り再生アイコン415、早送りアイコン417及びしおりアイコン419が含まれる。これらのアイコンは、本発明の「オブジェクト画像」に相当する。
巻き戻しアイコン411は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線412が破線で表示される。
同様に、再生アイコン413は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線414が破線で表示される。
コマ送り再生アイコン415は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線416が破線で表示される。
早送りアイコン417は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線418が破線で表示される。
しおりアイコン419は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線420が破線で表示される。
同様に、再生アイコン413は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線414が破線で表示される。
コマ送り再生アイコン415は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線416が破線で表示される。
早送りアイコン417は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線418が破線で表示される。
しおりアイコン419は、操作を受け付け可能な状態の場合に、有効な操作範囲を示す輪郭線420が破線で表示される。
また、第2アイコン領域430には、コンテンツデータ144の再生状況を示すアイコンが表示される。具体的には、コンテンツデータ144の再生中である場合、再生中であることを示すアイコンが表示され、一時停止中である場合には一時停止を示すアイコンが表示され、停止状態である場合には停止状態であることを示すアイコンが表示される。図18には、一時停止を示す一時停止アイコン431が表示された状態を示す。第2アイコン領域430に表示されるアイコンは、本発明の「オブジェクト画像」に相当する。
図19は、表示領域VRに表示されるアプリ画面400を示す図である。特に、図19は、使用者Uが再生アイコン413を操作した場合を示す図である。
使用者Uは、一時停止中のコンテンツデータ144の再生を再開させる場合、指示体5を、再生アイコン413の有効な操作範囲を示す輪郭線414内に移動させる。輪郭線414で囲まれた範囲内を有効操作範囲414aという。制御部150は、カメラ61の撮像画像データから指示体5の画像を検出し、検出した指示体5の画像が有効操作範囲414a内にあると判定すると、再生操作が検出されたと判定し、輪郭線414の線種を破線から実線に変更する。再生アイコン413及びその有効な操作範囲を示す輪郭線414は、本発明の「オブジェクト画像」に相当する。
使用者Uは、一時停止中のコンテンツデータ144の再生を再開させる場合、指示体5を、再生アイコン413の有効な操作範囲を示す輪郭線414内に移動させる。輪郭線414で囲まれた範囲内を有効操作範囲414aという。制御部150は、カメラ61の撮像画像データから指示体5の画像を検出し、検出した指示体5の画像が有効操作範囲414a内にあると判定すると、再生操作が検出されたと判定し、輪郭線414の線種を破線から実線に変更する。再生アイコン413及びその有効な操作範囲を示す輪郭線414は、本発明の「オブジェクト画像」に相当する。
使用者Uは、輪郭線414の線種が破線から実線に変更されると、有効操作範囲414a内で指示体5を動かす。制御部150は、カメラ61の撮像画像データから指示体5の動きを検出し、検出した指示体5の動きに対応させて有効操作範囲414aの表示色を変更する。制御部150は、有効操作範囲414aの全体で表示色を変更したか否かを判定する。制御部150は、有効操作範囲414aの全体の表示色を変更したと判定した場合、コンテンツデータ144の再生を再開させる。また、制御部150は、第2アイコン領域430に表示された一時停止アイコン431を、コンテンツデータ144を再生中であることを示す再生中アイコン433に変更する。
図20〜図22は、表示領域VRに表示されるアプリ画面400を示す図である。特に、図20は、しおりアイコン419が操作された場合を示す図である。また、図21は、指示体5の動きに合わせて、しおりアイコン419の表示位置を変更する様子を示す図である。また、図22は、しおりアイコン419の操作を完了後のアプリ画面400を示す図である。
まず、使用者Uは、例えば、操作部170を操作してコンテンツデータ144の再生を一時停止させる。一時停止に伴い、しおりアイコンは操作を受け付け可能な状態となり、有効な操作範囲を示す輪郭線420が破線で表示される。次に、使用者Uは、しおりアイコン419に指示体5を重ねる。制御部150は、カメラ61の撮像画像データから指示体5がしおりアイコン419の有効操作範囲420aに重なっていることを検出すると、しおりアイコン419の有効操作範囲420aの表示色を変更する。しおりアイコン419及びその有効操作範囲420aを示す輪郭線420は、本発明の「オブジェクト画像」に相当する。
その後、制御部150は、連続的に撮像されるカメラ61の撮像画像データの各々から指示体5の画像を検出し、しおりアイコン419の有効操作範囲420aの表示色を指示体5の動きに対応させて変更する。制御部150は、しおりアイコン419の有効操作範囲420aの全体で表示色が変更されると、しおりアイコン419の操作が確定したと判定する。
制御部150は、しおりアイコン419の操作が確定した場合、再生領域405に、上下左右方向の矢印アイコンと、破線の輪郭線420とが表示されたしおりアイコン419を表示させる(図21参照)。このとき、第1アイコン領域410のアイコンのうち、巻き戻しアイコン411、再生アイコン413、コマ送り再生アイコン415、早送りアイコン417の輪郭線412、414、416、418の表示は消去(消灯)され、矢印アイコンが表示されたしおりアイコン419のみが入力可能な状態となる。
制御部150は、カメラ61の撮像画像データの各々から指示体5の画像を検出し、検出した指示体5である指の先端の位置が輪郭線420の有効操作範囲内にあると判定した場合、上下左右方向の矢印アイコンが表示されたしおりアイコン419が検出されたと判定する。制御部150は、しおりアイコン419の輪郭線の線種を破線から実線に変更し、かつ輪郭線420内の表示色が変更された状態である確定状態を維持する。この後、使用者Uは、指示体5である指の先端の動きに合わせて、しおりアイコン419の表示位置を変更することが可能となる。図21には、指の動きに合わせて、しおりアイコン419の表示位置を変更する様子を示す。
使用者Uは、表示させたい位置にしおりアイコン419を表示させると、指示体5の動きを、しおりアイコン419の表示位置を変更したときの動きよりも早めて、指示体5を表示領域VRの外側に移動させる。すなわち、カメラ61の撮像画像データに指示体5が撮像されないようにする。制御部150は、指示体5の動きの速度が急激に変化し、撮像画像データから指示体5が検出されなくなると、しおりアイコン419の表示位置の変更を停止する。
また、制御部150は、再生領域405にしおりアイコン419が表示されると、一時停止中のコンテンツデータ144の再生時間を記憶部140に記憶させる。また、制御部150は、再生領域405の外側にジャンプアイコン450を表示させる(図22参照)。ジャンプアイコン450も、第1アイコン領域410に表示されたアイコンと同様に、有効な操作範囲が表示される。ジャンプアイコン450は、コンテンツデータ144の再生中に、ジャンプアイコン450の周囲に、ジャンプアイコン450が有効なアイコンであることを示す輪郭線が破線で表示される。以上によりしおりアイコン419に対する操作が完了する。制御部150は、しおりアイコン419に対する操作が完了すると、第1アイコン領域410に表示されたアイコンのうち、操作可能なアイコンの輪郭線を破線で表示させる。
制御部150は、ジャンプアイコン450の操作を検出した場合、コンテンツデータ144の再生をジャンプさせる。より詳細には、制御部150は、ジャンプアイコン450に指示体5が重なったことを検出すると、しおりアイコン419が対応付けられたコンテンツデータ144の再生時間に、コンテンツデータ144の再生をジャンプさせる。
上述した説明では、指示体5の操作に対応させて、確認領域325の表示色(色相)を変更する場合を示したが、使用者Uに、指示体5の移動範囲を認識可能なように確認領域325の表示態様を変化させるとよい。例えば、指示体5に対応させて、確認領域325の明るさ(明度)、鮮やかさ(彩度)、透明度のいずれか少なくとも1つを変更してもよい。
以上説明したように本実施形態のHMD100は、表示部として動作する画像表示部20、撮像部として動作するカメラ61、検出部及び表示制御部として動作する制御部150を備える。
画像表示部20は、使用者Uの頭部に装着され、外景を透過して視認可能に構成される。
カメラ61は、画像表示部20を透過して視認される外景を含む範囲を撮像する。
制御部150は、カメラ61の撮像画像データから指示体5を検出する。
また、制御部150は、オブジェクト画像を外景に重ねて画像表示部20により表示させ、画像表示部20に表示されたオブジェクト画像のうち、検出された指示体5に重なるオブジェクト画像の表示態様を変更させる。
従って、検出されたオブジェクト画像を使用者Uに認識させることができ、オブジェクト画像に対する操作の操作性を向上させることができる。
画像表示部20は、使用者Uの頭部に装着され、外景を透過して視認可能に構成される。
カメラ61は、画像表示部20を透過して視認される外景を含む範囲を撮像する。
制御部150は、カメラ61の撮像画像データから指示体5を検出する。
また、制御部150は、オブジェクト画像を外景に重ねて画像表示部20により表示させ、画像表示部20に表示されたオブジェクト画像のうち、検出された指示体5に重なるオブジェクト画像の表示態様を変更させる。
従って、検出されたオブジェクト画像を使用者Uに認識させることができ、オブジェクト画像に対する操作の操作性を向上させることができる。
また、制御部150は、指示体5とオブジェクト画像との重なりが検出された場合に、オブジェクト画像の表示態様を変更させる。
従って、指示体5との重なりが検出されたオブジェクト画像を使用者Uに認識させることができる。
従って、指示体5との重なりが検出されたオブジェクト画像を使用者Uに認識させることができる。
また、制御部150は、指示体5とオブジェクト画像との重なりが検出された場合と、オブジェクト画像上で指示体5の動きが検出された場合とで、オブジェクト画像の表示態様を変更させる。
従って、指示体5との重なりが検出されたオブジェクト画像を使用者Uに認識させ、オブジェクト画像に対する操作が検出されていることを使用者Uに認識させることができる。
従って、指示体5との重なりが検出されたオブジェクト画像を使用者Uに認識させ、オブジェクト画像に対する操作が検出されていることを使用者Uに認識させることができる。
また、制御部150は、オブジェクト画像上での指示体5の動きに対応して、オブジェクト画像の表示態様を変更させる。
この構成によれば、オブジェクト画像上での指示体5の操作を使用者Uに認識させることができる。
この構成によれば、オブジェクト画像上での指示体5の操作を使用者Uに認識させることができる。
また、制御部150は、指示体5の動きに対応してオブジェクト画像全体の表示態様が、指示体5とオブジェクト画像との重なりが検出された場合のオブジェクト画像の表示態様から変更された場合に、オブジェクト画像に対応付けられた処理を実行させる。
従って、指示体5をオブジェクト画像上で動かしてブジェクト画像全体の表示態様を変更することで、オブジェクト画像に対応付けられた処理を実行させることができる。
従って、指示体5をオブジェクト画像上で動かしてブジェクト画像全体の表示態様を変更することで、オブジェクト画像に対応付けられた処理を実行させることができる。
また、オブジェクト画像の各々には、処理コマンドが対応付けられる。制御部150は、オブジェクト画像のうち、受け付け可能な処理コマンドが対応付けられたオブジェクト画像の輪郭を示す輪郭線を画像表示部20により表示させる。
従って、オブジェクト画像の輪郭を示す輪郭線が表示される。
従って、オブジェクト画像の輪郭を示す輪郭線が表示される。
また、制御部150は、指示体5と、オブジェクト画像との重なりが検出された場合に、重なりが検出されたオブジェクト画像の輪郭線の線種を変更してオブジェクト画像の表示態様を変更させる。
従って、指示体5との重なりが検出されたオブジェクト画像を、オブジェクト画像の輪郭線の線種を変更することで使用者Uに認識させることができる。
従って、指示体5との重なりが検出されたオブジェクト画像を、オブジェクト画像の輪郭線の線種を変更することで使用者Uに認識させることができる。
また、制御部150は、オブジェクト画像上での指示体5の動きに対応して、オブジェクト画像の色相、明度、彩度及び透明度の少なくともいずれか1つを変更する。
従って、オブジェクト画像が表示された領域での指示体5の動きを使用者Uに認識させることができる。
従って、オブジェクト画像が表示された領域での指示体5の動きを使用者Uに認識させることができる。
また、制御部150は、指示体5の色、形状、又は色及び形状に基づいて、撮像画像に撮像された指示体5を検出する。
従って、指示体5の検出精度を高めることができる。
従って、指示体5の検出精度を高めることができる。
本発明は、上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上述した実施形態では、指示体5の動きに対応してタグ311や、確認領域325の表示色を変更する場合について説明した。これ以外の動作として、指示体5の位置がタグ311や確認領域325に重なる時間に応じてタグ311や確認領域325の表示色を変更してもよい。使用者は、選択するタグ311、312や、確認領域325の上に指示体5を移動させ、選択したタグ311、312や確認領域325の上に一定時間、指示体5を重ねる。制御部150は、指示体5の位置がタグ311、312や確認領域325に重なっている時間に対応してタグ311や確認領域325の表示色を変更する。
例えば、上述した実施形態では、指示体5の動きに対応してタグ311や、確認領域325の表示色を変更する場合について説明した。これ以外の動作として、指示体5の位置がタグ311や確認領域325に重なる時間に応じてタグ311や確認領域325の表示色を変更してもよい。使用者は、選択するタグ311、312や、確認領域325の上に指示体5を移動させ、選択したタグ311、312や確認領域325の上に一定時間、指示体5を重ねる。制御部150は、指示体5の位置がタグ311、312や確認領域325に重なっている時間に対応してタグ311や確認領域325の表示色を変更する。
また、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者Uの左眼に対応して画像を表示する表示部と、使用者Uの右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者Uの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、コントローラー10と画像表示部20とが一体に構成され、使用者Uの頭部に装着される構成とすることも可能である。また、コントローラー10として、ノート型コンピューター、タブレット型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
また、上記実施形態では、画像表示部20とコントローラー10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明したが、コントローラー10と画像表示部20とが無線通信回線によって接続される構成であってもよい。
また、画像光を使用者Uの眼に導く光学系として、右導光板26及び左導光板28は、ハーフミラーを用いてもよいし、回折格子、プリズム等を用いてもよい。また、画像表示部20は、ホログラフィー表示部を用いてもよい。
また、ブロック図に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121またはコントローラー10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムをUSBコネクター19、通信部117、外部メモリーインターフェイス191などを介して取得して実行する構成としてもよい。また、コントローラー10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー125と同様のプロセッサーが画像表示部20に配置されてもよいし、コントローラー10が備えるメインプロセッサー125と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
また、本発明の頭部装着型表示装置の制御方法を、表示装置を備えたコンピューターを用いて実現する場合、本発明を、上記制御方法を実現するためにコンピューターが実行するプログラムの態様で構成することも可能である。また、このプログラムをコンピューターで読み取り可能に記録した記録媒体、或いは、このプログラムを伝送する伝送媒体の態様で構成することも可能である。上記記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Discが挙げられる。また、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、画像表示装置が備える内部記憶装置であるRAM(Random Access Memory)、ROM(Read Only Memory)、HDD等の不揮発性記憶装置であってもよい。
5…指示体、10…コントローラー、11…本体、12…ホイール操作部、13…中央キー、14…操作パッド、15…上下キー、17…LED表示部、18…電源スイッチ、19…USBコネクター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、42…コネクター、46…オーディオコネクター、61…カメラ、63…マイク、64…距離センサー、65…照度センサー、67…LEDインジケーター、69…温度センサー、100…HMD、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、125…メインプロセッサー、130…電源部、132…バッテリー、134…電源制御回路、140…記憶部、141…オペレーティングシステム、142…アプリケーションプログラム、143…設定データ、144…コンテンツデータ、145…キャリブレーションデータ、150…制御部、151…基本制御部、152…通信制御部、153…画像処理部、154…撮像制御部、155…アプリケーション実行部、156…表示制御部、170…操作部、172…タッチセンサー、174…スイッチ、176…バイブレーター、180…音声処理部、191…外部メモリーインターフェイス、193…センサーハブ、195…FPGA、197、211、231…インターフェイス、199…USBコントローラー、213、233…受信部、215…EEPROM、221…OLEDユニット、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、300…操作画面、311、312…タグ、321…プルアップメニュー、323…メニュー表示領域、323a…右端部、325…確認領域、325a…左端部、330…サブメニュー画面、340…移動操作領域、341…十字キー、350…サイズ操作領域、351…輪郭線、351a…縮小操作範囲、353…縮小ボタン、355…輪郭線、355a…拡大操作範囲、357…拡大ボタン、359…倍率表示部、360…サブメニュー画面、363…文字、365…確認領域、400…アプリ画面、405…再生領域、410…第1アイコン領域、411…巻き戻しアイコン、412…輪郭線、413…再生アイコン、414…輪郭線、414a…有効操作範囲、415…一時停止アイコン、416…輪郭線、417…早送りアイコン、418…輪郭線、419…しおりアイコン、420…輪郭線、420a…有効操作範囲、430…第2アイコン領域、431…一時停止アイコン、433…再生中アイコン、450…ジャンプアイコン、EL…端部、ER…端部、LE…左眼、RE…右眼。
Claims (10)
- 使用者の頭部に装着され、外景を透過して視認可能に構成される表示部と、
前記表示部を透過して視認される前記外景を含む範囲を撮像する撮像部と、
前記撮像部の撮像画像から指示体を検出する検出部と、
オブジェクト画像を前記外景に重ねて前記表示部により表示させ、前記表示部に表示された前記オブジェクト画像のうち、前記検出部により検出された前記指示体に重なる前記オブジェクト画像の表示態様を変更させる表示制御部と、
を備える頭部装着型表示装置。 - 前記表示制御部は、前記指示体と前記オブジェクト画像との重なりが検出された場合に、前記オブジェクト画像の表示態様を変更させる、請求項1記載の頭部装着型表示装置。
- 前記表示制御部は、前記指示体と前記オブジェクト画像との重なりが検出された場合と、前記オブジェクト画像上で前記指示体の動きが検出された場合とで、前記オブジェクト画像の表示態様を変更させる、請求項2記載の頭部装着型表示装置。
- 前記表示制御部は、前記オブジェクト画像上での前記指示体の動きに対応して、前記オブジェクト画像の表示態様を変更させる、請求項2又は3記載の頭部装着型表示装置。
- 前記表示制御部は、前記オブジェクト画像上での前記指示体の動きに対応して、前記オブジェクト画像の表示態様が変更された場合に、前記オブジェクト画像に対応付けられた処理を実行させる、請求項4記載の頭部装着型表示装置。
- 前記オブジェクト画像の各々には、処理コマンドが対応付けられ、
前記表示制御部は、前記オブジェクト画像のうち、受け付け可能な処理コマンドが対応付けられた前記オブジェクト画像の輪郭を示す輪郭線を前記表示部に表示させる、請求項1から5のいずれか1項に記載の頭部装着型表示装置。 - 前記表示制御部は、前記指示体と、前記オブジェクト画像との重なりが検出された場合に、重なりが検出された前記オブジェクト画像の輪郭線の線種を変更して前記オブジェクト画像の表示態様を変更させる、請求項6記載の頭部装着型表示装置。
- 前記表示制御部は、前記オブジェクト画像上での前記指示体の動きに対応して、前記オブジェクト画像の色相、明度、彩度及び透明度の少なくともいずれか1つを変更する、請求項4又は5に記載の頭部装着型表示装置。
- 前記検出部は、前記指示体の色、形状、又は色及び形状に基づいて、前記撮像画像に撮像された前記指示体を検出する、請求項1から8のいずれか1項に記載の頭部装着型表示装置。
- 使用者の頭部に装着され、外景を透過して視認可能に構成される頭部装着型表示装置の制御方法であって、
オブジェクト画像を前記外景に重ねて表示させるステップと、
撮像部により撮像された撮像画像から指示体を検出するステップと、
表示された前記オブジェクト画像のうち、検出された前記指示体に重なる前記オブジェクト画像の表示態様を変更させるステップと、
を有する頭部装着型表示装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018050713A JP2019164431A (ja) | 2018-03-19 | 2018-03-19 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
US16/356,188 US20190287489A1 (en) | 2018-03-19 | 2019-03-18 | Head-mounted display apparatus and method for controlling head-mounted display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018050713A JP2019164431A (ja) | 2018-03-19 | 2018-03-19 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019164431A true JP2019164431A (ja) | 2019-09-26 |
Family
ID=67905953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018050713A Pending JP2019164431A (ja) | 2018-03-19 | 2018-03-19 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190287489A1 (ja) |
JP (1) | JP2019164431A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019097740A1 (ja) * | 2017-11-17 | 2019-05-23 | 株式会社Nttドコモ | 情報処理装置及び情報処理方法 |
JP2021071672A (ja) * | 2019-11-01 | 2021-05-06 | セイコーエプソン株式会社 | 表示システム、表示方法、及び、表示プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5957875B2 (ja) * | 2011-12-26 | 2016-07-27 | ソニー株式会社 | ヘッドマウントディスプレイ |
US10521941B2 (en) * | 2015-05-22 | 2019-12-31 | Samsung Electronics Co., Ltd. | System and method for displaying virtual image through HMD device |
-
2018
- 2018-03-19 JP JP2018050713A patent/JP2019164431A/ja active Pending
-
2019
- 2019-03-18 US US16/356,188 patent/US20190287489A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20190287489A1 (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11310483B2 (en) | Display apparatus and method for controlling display apparatus | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US10261327B2 (en) | Head mounted display and control method for head mounted display | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
US10884498B2 (en) | Display device and method for controlling display device | |
US10296104B2 (en) | Display device, method of controlling display device, and program | |
KR20180002208A (ko) | 단말기 및 그 제어 방법 | |
CN113050279B (zh) | 显示系统、显示方法以及记录介质 | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2019128757A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2019129366A (ja) | 頭部装着型表示装置、音声伝送システム、及び頭部装着型表示装置の制御方法 | |
JP6638392B2 (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
US20190287489A1 (en) | Head-mounted display apparatus and method for controlling head-mounted display apparatus | |
US11275547B2 (en) | Display system, display method, and program | |
JP2019128758A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
US20170285765A1 (en) | Input apparatus, input method, and computer program | |
US20190265854A1 (en) | Head-mounted display apparatus and method for controlling head-mounted display apparatus | |
JP2018091882A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2019053714A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
US20220124239A1 (en) | Operating method | |
JP2018092206A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP6631299B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
CN116149490A (zh) | 字符输入方法、装置、设备及存储介质 |