[go: up one dir, main page]

JP2011070251A - Head mount display - Google Patents

Head mount display Download PDF

Info

Publication number
JP2011070251A
JP2011070251A JP2009218485A JP2009218485A JP2011070251A JP 2011070251 A JP2011070251 A JP 2011070251A JP 2009218485 A JP2009218485 A JP 2009218485A JP 2009218485 A JP2009218485 A JP 2009218485A JP 2011070251 A JP2011070251 A JP 2011070251A
Authority
JP
Japan
Prior art keywords
image
content
content image
display effect
condition value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009218485A
Other languages
Japanese (ja)
Inventor
Takatoshi Ono
貴俊 小野
Masashi Kato
真史 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009218485A priority Critical patent/JP2011070251A/en
Publication of JP2011070251A publication Critical patent/JP2011070251A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが外界像と区別してコンテンツ画像を視認し易いシースルー型のヘッドマウントディスプレイを提供することを目的とする。
【解決手段】コンテンツデータによって示されるコンテンツ画像を形成する全ピクセル(全画素)に占める、所定の基準値より暗いピクセル(画素)の第1占有率と、予め定めた第1条件値との大きさの関係について判断し(S104)、第1占有率が第1条件値より大きい場合(S104:Yes)、コンテンツ画像に表示効果を付加し(S106)、表示効果が付加されたコンテンツ画像を提示する(S108)こととした。
【選択図】図5
An object of the present invention is to provide a see-through type head mounted display in which a user can easily distinguish a content image from an external image.
A first occupancy ratio of pixels (pixels) darker than a predetermined reference value in all pixels (all pixels) forming a content image indicated by content data, and a predetermined first condition value When the first occupation ratio is larger than the first condition value (S104: Yes), a display effect is added to the content image (S106), and the content image with the display effect added is presented. (S108).
[Selection] Figure 5

Description

本発明は、ユーザの眼にコンテンツデータによって示されるコンテンツ画像を視認可能に提示するシースルー型のヘッドマウントディスプレイに関するものである。   The present invention relates to a see-through type head mounted display that presents a content image indicated by content data to a user's eye so as to be visible.

従来から、ユーザの眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示するシースルー型のヘッドマウントディスプレイに関する技術が提案されている。例えば、画像を表示する透光型の液晶表示パネルを有し、これが目の直前にくるように頭部に装着されるめがね部を持つヘッドマウント型のAV装置と、各作業過程の作業対象物を象って予め作成された各種アニメーション画像を記憶する記憶部と、各作業過程の順番に従って、AV装置を装着する装着者によって液晶表示パネルを通して視認される作業対象物そのものに対して、記憶部に記憶された対応するアニメーション画像が重なるように、そのアニメーション画像を液晶表示パネルに表示するアニメーション表示処理機能とを備え、各作業過程の順番に従って、アニメーション画像を液晶表示パネルに表示することにより、作業対象物に対して行われるべき作業内容を装着者に示すようにした技術が提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique related to a see-through type head mounted display that presents a content image indicated by content data to a user's eye so as to be visible is proposed. For example, a head-mounted AV device having a translucent liquid crystal display panel for displaying an image and having a spectacle portion mounted on the head so that the panel comes in front of the eyes, and a work object in each work process A storage unit for storing various animation images created in advance in the form of an image, and a storage unit for a work object itself visually recognized through a liquid crystal display panel by a wearer wearing the AV device according to the order of each work process And an animation display processing function for displaying the animation image on the liquid crystal display panel so that the corresponding animation images stored in the screen overlap, and by displaying the animation image on the liquid crystal display panel according to the order of each work process, Techniques have been proposed in which the work content to be performed on the work object is shown to the wearer (for example, patent documents) Reference 1).

特開2004−21931号公報JP 2004-21931 A

ところで、シースルー型のヘッドマウントディスプレイでは、外界像の上に重ねてコンテンツ画像が提示されるため、ユーザが外界像と区別してコンテンツ画像を視認し、認識することが困難となる場合がある。例えば、特許文献1のように、作業内容を表示するなどの作業支援にヘッドマウントディスプレイが用いられる場合、ユーザ(作業者)の注意がコンテンツ画像に常に向けられているわけではない。ユーザは、コンテンツ画像より作業対象物および/またはその周囲などに十分注意を向ける必要がある。そのため、ユーザにとって、外界像とコンテンツ画像とを区別して視認することが困難となることがあった。このような状態は、コンテンツ画像である部品の画像を実物と勘違いさせ、手を伸ばしても触ることができないなど、作業効率を低下させまたはユーザを困惑させる可能性があった。特に背景が暗い場合、部品が外界の中に存在するように見えてしまう。   By the way, in a see-through type head-mounted display, a content image is presented on an external image so that it is difficult for a user to visually recognize and recognize the content image separately from the external image. For example, when a head-mounted display is used for work support such as displaying work contents as in Patent Document 1, the user's (worker) 's attention is not always directed to the content image. The user needs to pay sufficient attention to the work object and / or its surroundings from the content image. For this reason, it may be difficult for the user to distinguish and visually recognize the external image and the content image. In such a state, an image of a part, which is a content image, may be mistaken for an actual product and may not be touched even if the hand is stretched out, which may reduce work efficiency or confuse the user. Especially when the background is dark, the parts appear to be in the outside world.

本発明は、ユーザが外界像と区別してコンテンツ画像を視認し易いシースルー型のヘッドマウントディスプレイを提供することを目的とする。   It is an object of the present invention to provide a see-through type head mounted display that allows a user to easily distinguish a content image from an external image.

上記従来の課題に鑑みなされた本発明は、コンテンツデータによって示されるコンテンツ画像をユーザの眼に視認可能に提示し、コンテンツ画像を視認しているユーザが外界像をこのコンテンツ画像と重ねて視認できるシースルー型のヘッドマウントディスプレイであって、提示されるコンテンツ画像の特徴について判断し、所定の特徴であると判断された場合、このコンテンツ画像に表示効果を付加し、表示効果が付加されたコンテンツ画像を、ユーザの眼に提示することとしたものである。   The present invention made in view of the above conventional problems presents a content image indicated by content data so as to be visible to the user's eyes, and allows a user viewing the content image to visually recognize the external image superimposed on the content image. A see-through type head-mounted display that determines the characteristics of a content image to be presented and, if determined to be a predetermined characteristic, adds a display effect to the content image, and the content image to which the display effect is added Is presented to the user's eyes.

本発明を反映した第1の課題解決手段は、コンテンツデータによって示されるコンテンツ画像をユーザの眼に視認可能に提示し、前記コンテンツ画像を視認しているユーザが外界像を前記コンテンツ画像と重ねて視認できるシースルー型のヘッドマウントディスプレイであって、前記コンテンツ画像を形成する全画素に占める、所定の基準値より暗い前記画素の第1占有率と、予め定めた第1条件値との大きさの関係について判断する第1判断手段と、前記第1判断手段によって前記第1占有率が前記第1条件値より大きいと判断された場合、前記コンテンツデータに対して画像処理を実行し、前記コンテンツ画像に表示効果を付加する表示効果付加手段と、前記表示効果付加手段によって前記表示効果が付加された前記コンテンツ画像を、前記ユーザの眼に提示するコンテンツ画像提示手段とを備えることを特徴とするヘッドマウントディスプレイである。これによれば、提示されるコンテンツ画像に表示効果を付加することができる。その結果、コンテンツ画像は外界像に対して、表示効果が付加された状態で視認可能になる。   A first problem-solving means reflecting the present invention presents a content image indicated by content data so as to be visible to a user's eyes, and a user viewing the content image superimposes an external image on the content image. A see-through type head-mounted display that is visible and has a size of a first occupancy ratio of the pixels that are darker than a predetermined reference value in all the pixels forming the content image and a predetermined first condition value. A first determination unit configured to determine a relationship; and when the first determination unit determines that the first occupancy is greater than the first condition value, image processing is performed on the content data, and the content image Display effect adding means for adding a display effect to the content image to which the display effect is added by the display effect adding means, A head mounted display, characterized in that it comprises a content image presenting means for presenting to the eye of the serial user. According to this, a display effect can be added to the presented content image. As a result, the content image can be visually recognized with a display effect added to the external image.

第2の課題解決手段は、第1の課題解決手段のヘッドマウントディスプレイであって、前記第1判断手段は、前記第1占有率が前記第1条件値より大きいと判断した場合、さらに、前記コンテンツ画像を形成する全画素のうちで前記所定の基準値より暗い前記画素全体に占める、前記コンテンツ画像の中心を含む所定の範囲に含まれる前記所定の基準値より暗い前記画素の第2占有率と、予め定めた第2条件値との大きさの関係について判断し、前記表示効果付加手段は、前記第1判断手段によって、前記第1占有率が前記第1条件値より大きく、かつ前記第2占有率が前記第2条件値より小さいと判断された場合、前記コンテンツデータに対して前記画像処理を実行し、前記コンテンツ画像に前記表示効果を付加することを特徴とする。これによれば、コンテンツ画像の明るさが、中心部分が明るく外周部分が暗い場合に、提示されるコンテンツ画像に表示効果を付加することができる。   The second problem-solving means is the head-mounted display of the first problem-solving means, and when the first determining means determines that the first occupancy is greater than the first condition value, The second occupancy ratio of the pixels darker than the predetermined reference value included in the predetermined range including the center of the content image, which occupies the entire pixels darker than the predetermined reference value among all the pixels forming the content image And the second condition value determined in advance, and the display effect adding means determines that the first occupancy is greater than the first condition value and the first effect is determined by the first determining means. 2 When it is determined that the occupation ratio is smaller than the second condition value, the image processing is executed on the content data, and the display effect is added to the content image. According to this, when the brightness of the content image is bright in the central portion and dark in the outer peripheral portion, a display effect can be added to the presented content image.

第3の課題解決手段は、第1または第2の課題解決手段のヘッドマウントディスプレイであって、前記コンテンツ画像に含まれるオブジェクトの位置の座標変化について判断する第2判断手段を備え、前記第1判断手段は、前記第2判断手段によって前記オブジェクトの位置が座標変化しないと判断された場合、前記第1占有率と前記第1条件値との大きさの関係について判断し、前記表示効果付加手段は、前記第2判断手段によって前記オブジェクトの位置が座標変化しないと判断され、かつ前記第1判断手段によって前記第1占有率が前記第1条件値より大きいと判断された場合、前記コンテンツデータに対して前記画像処理を実行し、前記コンテンツ画像に前記表示効果を付加することを特徴とする。これによれば、コンテンツ画像に含まれるオブジェクトの位置が座標変化しない場合に、提示されるコンテンツ画像に表示効果を付加することができる。   The third problem solving means is a head-mounted display of the first or second problem solving means, and includes second determination means for determining a coordinate change of the position of the object included in the content image, When the second determining unit determines that the position of the object does not change in coordinates, the determining unit determines the relationship between the first occupation ratio and the first condition value, and the display effect adding unit. If the second determination means determines that the position of the object does not change coordinates, and the first determination means determines that the first occupancy is greater than the first condition value, the content data The image processing is executed on the content image, and the display effect is added to the content image. According to this, when the coordinates of the position of the object included in the content image do not change, a display effect can be added to the presented content image.

第4の課題解決手段は、第3の課題解決手段のヘッドマウントディスプレイであって、前記第2判断手段は、前記コンテンツデータが静止画データである場合、前記オブジェクトの位置が座標変化しないと判断することを特徴とする。これによれば、コンテンツデータが静止画データである場合、オブジェクトの位置が座標変化しないと判断することができる。   The fourth problem solving means is the head mounted display of the third problem solving means, and the second determination means determines that the position of the object does not change in coordinates when the content data is still image data. It is characterized by doing. According to this, when the content data is still image data, it can be determined that the coordinates of the position of the object do not change.

第5の課題解決手段は、第1から第4の課題解決手段のいずれか1つのヘッドマウントディスプレイであって、前記表示効果付加手段は、前記コンテンツデータに対して、前記コンテンツ画像と前記外界像との境界を強調するための前記画像処理を実行し、前記コンテンツ画像に前記表示効果を付加することを特徴とする。これによれば、コンテンツ画像と外界像とを区別することができる。   The fifth problem solving means is the head mounted display according to any one of the first to fourth problem solving means, and the display effect adding means is configured to apply the content image and the external image to the content data. The display processing is added to the content image by executing the image processing for emphasizing the boundary between the content image and the content image. According to this, it is possible to distinguish between the content image and the external image.

第6の課題解決手段は、第5の課題解決手段のヘッドマウントディスプレイであって、前記コンテンツ画像と前記外界像との前記境界は、前記コンテンツ画像提示手段が前記コンテンツ画像を提示可能な有効領域の外縁であって、前記表示効果付加手段は、前記外縁に一致する枠を、前記コンテンツ画像に前記表示効果として付加することを特徴とする。これによれば、コンテンツ画像と外界像とを区別することができる。   The sixth problem solving means is the head mounted display of the fifth problem solving means, wherein the boundary between the content image and the external image is an effective area in which the content image presenting means can present the content image. The display effect adding means adds a frame that coincides with the outer edge to the content image as the display effect. According to this, it is possible to distinguish between the content image and the external image.

本発明によれば、ユーザが外界像と区別してコンテンツ画像を視認し易いシースルー型のヘッドマウントディスプレイを得ることができる。   According to the present invention, it is possible to obtain a see-through type head mounted display in which a user can easily distinguish a content image from an external image.

ヘッドマウントディスプレイを示す図である。It is a figure which shows a head mounted display. (a)はヘッドマウントディスプレイ本体の上面図であり、(b)は正面図であり、(c)は左側面図である。(A) is a top view of a head mounted display main body, (b) is a front view, (c) is a left side view. 制御ボックスの機能ブロックを示す図である。It is a figure which shows the functional block of a control box. 画像提示部の機能ブロックを示す図である。It is a figure which shows the functional block of an image presentation part. 第1処理形態のコンテンツ画像提示処理のフローチャートを示す図である。It is a figure which shows the flowchart of the content image presentation process of a 1st processing form. 第2処理形態のコンテンツ画像提示処理のフローチャートを示す図である。It is a figure which shows the flowchart of the content image presentation process of a 2nd processing form. 第3処理形態のコンテンツ画像提示処理のフローチャートを示す図である。It is a figure which shows the flowchart of the content image presentation process of a 3rd processing form. ユーザが視認するコンテンツ画像と外界像とを説明する図である。It is a figure explaining the content image and external image which a user visually recognizes.

本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。上記課題解決手段は以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に説明する各構成において、所定の構成を省略することができる。また、以下に説明する各処理において、所定のステップを省略することができる。   Embodiments for implementing the above problem solving means reflecting the present invention will be described below in detail with reference to the drawings. The above-mentioned problem solving means is not limited to the configuration described below, and various configurations can be adopted in the same technical idea. For example, in each configuration described below, a predetermined configuration can be omitted. In each process described below, a predetermined step can be omitted.

(ヘッドマウントディスプレイの概要)
ヘッドマウントディスプレイ(Head Mounted Display/以下、「HMD」ともいう。)10について、図1および図2を参照して説明する。HMD10は、HMD本体100と制御ボックス200とを含む。HMD本体100は、ユーザの顔に装着され、利用される。制御ボックス200は、ユーザの腰などに取り付けられる。
(Overview of head mounted display)
A head mounted display (Head Mounted Display / hereinafter also referred to as “HMD”) 10 will be described with reference to FIGS. 1 and 2. The HMD 10 includes an HMD main body 100 and a control box 200. The HMD main body 100 is worn on the user's face and used. The control box 200 is attached to the user's waist or the like.

HMD本体100は、ユーザの耳に当たるモダン102A,102Bが一端に取り付けられたテンプル104A,104Bと、テンプル104A,104Bの他端に蝶番112A,112Bを介して連結されたヨロイ106A,106Bと、ヨロイ106A,106Bを連結するフロントフレーム108と、フロントフレーム108の中央部に取り付けられ、ユーザの鼻に当接する鼻パッド110とを備える。これら各部は、HMD本体100の骨格部を形成する。ヨロイ106A,106Bに形成された蝶番112A,112Bでテンプル104A,104Bを折りたたむことができる。HMD本体100の骨格部の構成は、例えば、通常の眼鏡と同様であり、HMD本体100は、ユーザが装着した状態において、モダン102A,102Bと、鼻パッド110とによりユーザの顔に支持される。なお、図2(b)では、モダン102A,102Bおよびテンプル104A,104Bの図示を省略している。   The HMD main body 100 includes temples 104A and 104B each having a modern 102A and 102B that hits the user's ears attached to one end, armatures 106A and 106B coupled to the other ends of the temples 104A and 104B via hinges 112A and 112B, 106A and 106B, a front frame 108, and a nose pad 110 attached to the center of the front frame 108 and in contact with the user's nose. Each of these parts forms a skeleton part of the HMD main body 100. Temples 104A and 104B can be folded with hinges 112A and 112B formed on armor 106A and 106B. The structure of the skeleton part of the HMD main body 100 is the same as, for example, normal glasses, and the HMD main body 100 is supported on the user's face by the modern 102A and 102B and the nose pad 110 when the user wears it. . In FIG. 2B, illustration of the moderns 102A and 102B and the temples 104A and 104B is omitted.

HMD本体100の骨格部には、画像提示部114が、ヨロイ106A付近に設けられた取付部122を介して取り付けられている。画像提示部114は、ヨロイ106A付近に取付部122を介して取り付けられた状態において、HMD本体100を装着したユーザの左眼118と略同一の高さとなる位置に配置されている。画像提示部114の上面には輝度センサ260が取り付けられている(図2で図示を省略、図1参照)。画像提示部114および輝度センサ260は、信号ケーブル250を介して制御ボックス200と接続されている。詳細は後述するが、制御ボックス200は、所定の領域に記憶されたコンテンツデータに対して再生処理(レンダリング処理)を実行し、これによって形成されたコンテンツ画像を含む画像信号を、信号ケーブル250を介して画像提示部114に出力する。画像提示部114は、制御ボックス200が出力する画像信号を取得し、画像信号に基づくコンテンツ画像を、ハーフミラー116に向けて光学的に出射する。   An image presentation unit 114 is attached to the skeleton part of the HMD main body 100 via an attachment part 122 provided near the armor 106A. The image presentation unit 114 is disposed at a position that is substantially the same height as the left eye 118 of the user wearing the HMD main body 100 in a state where the image presentation unit 114 is attached to the vicinity of the armor 106 </ b> A via the attachment unit 122. A luminance sensor 260 is attached to the upper surface of the image presentation unit 114 (not shown in FIG. 2, see FIG. 1). The image presentation unit 114 and the brightness sensor 260 are connected to the control box 200 via the signal cable 250. Although details will be described later, the control box 200 performs a reproduction process (rendering process) on the content data stored in a predetermined area, and transmits an image signal including the content image formed thereby through the signal cable 250. To the image presentation unit 114. The image presentation unit 114 acquires an image signal output from the control box 200 and optically emits a content image based on the image signal toward the half mirror 116.

画像提示部114から出射されたコンテンツ画像を表す画像光120aは、ハーフミラー116で反射し、反射した画像光120bがユーザの左眼118に入射、換言すれば、視認可能に提示(投影)される。これにより、ユーザはコンテンツ画像を視認する。ハーフミラー116は、外界像を表す外光を透過する。ユーザは、HMD本体100を装着した状態でハーフミラー116を介して左眼118で外界像をコンテンツ画像と重ねて視認することができる。   The image light 120a representing the content image emitted from the image presentation unit 114 is reflected by the half mirror 116, and the reflected image light 120b is incident on the left eye 118 of the user, in other words, presented (projected) so as to be visible. The Thereby, the user visually recognizes the content image. The half mirror 116 transmits external light representing an external image. The user can visually recognize the external image superimposed on the content image with the left eye 118 through the half mirror 116 with the HMD main body 100 mounted.

なお、画像提示部114は、取得した画像信号に応じた画像光120a,120bを2次元方向に走査し、その走査された画像光120a,120bをユーザの左眼118に導き網膜上にコンテンツ画像を形成する網膜走査型のディスプレイを用いて構成することができる他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。   The image presentation unit 114 scans the image light 120a and 120b in accordance with the acquired image signal in a two-dimensional direction, guides the scanned image light 120a and 120b to the user's left eye 118, and displays the content image on the retina. In addition to a retinal scanning type display that forms a liquid crystal display, a liquid crystal display, an organic EL (Organic Electroluminescence) display, and other devices may be used.

(制御ボックス)
制御ボックス200について、図3を参照して説明する。制御ボックス200は、自装置の制御を司るCPU202と、以下に説明するコンテンツ画像提示処理を含む各種処理のためのプログラムを記憶するプログラムROM204と、コンテンツデータその他各種データを記憶する不揮発性のフラッシュROM206と、作業領域としてのRAM208とを備える。例えば、CPU202は、RAM208上で、プログラムROM204に記憶されているコンテンツ画像提示処理(図5〜図7参照)のためのプログラムを実行する。また、CPU202は、コンテンツ画像提示処理の中で、再生処理のためのプログラムを実行し、所定の場合に表示効果付加処理のためのプログラムを実行する。CPU202が、プログラムROM204に記憶された各種プログラムをRAM208上で実行することにより、各種機能手段が構成される。
(Control box)
The control box 200 will be described with reference to FIG. The control box 200 includes a CPU 202 that controls the device itself, a program ROM 204 that stores programs for various processes including a content image presentation process described below, and a non-volatile flash ROM 206 that stores content data and other various data. And a RAM 208 as a work area. For example, the CPU 202 executes a program for content image presentation processing (see FIGS. 5 to 7) stored in the program ROM 204 on the RAM 208. In addition, the CPU 202 executes a program for reproduction processing in the content image presentation processing, and executes a program for display effect addition processing in a predetermined case. Various functional units are configured by the CPU 202 executing various programs stored in the program ROM 204 on the RAM 208.

制御ボックス200は、ビデオRAM210と、HMD接続I/Fコントローラ220と外部装置接続I/Fコントローラ230と周辺I/F240とを備える。ビデオRAM210は、再生処理によって形成されたコンテンツ画像および後述する外部装置400から入力されたコンテンツ画像などを記憶する。HMD接続I/Fコントローラ220は、信号ケーブル250を介してHMD本体100に接続され、CPU202からの指令に基づき、HMD本体100の画像提示部114との間で行われる各種信号の入出力を制御する。具体的に、HMD接続I/Fコントローラ220は、コンテンツ画像を含む画像信号および画像提示部114に対する制御信号などを、画像提示部114に出力する。   The control box 200 includes a video RAM 210, an HMD connection I / F controller 220, an external device connection I / F controller 230, and a peripheral I / F 240. The video RAM 210 stores content images formed by reproduction processing, content images input from an external device 400 described later, and the like. The HMD connection I / F controller 220 is connected to the HMD main body 100 via the signal cable 250 and controls input / output of various signals performed with the image presentation unit 114 of the HMD main body 100 based on a command from the CPU 202. To do. Specifically, the HMD connection I / F controller 220 outputs an image signal including a content image, a control signal for the image presentation unit 114, and the like to the image presentation unit 114.

外部装置接続I/Fコントローラ230は、所定のケーブルを介してパーソナルコンピュータなどの外部装置400に接続され、CPU202からの指令に基づき、外部装置400との間の通信を制御する。例えば、外部装置接続I/Fコントローラ230は、外部装置400から入力される画像信号を受信する。なお、外部装置接続I/Fコントローラ230は、受信した画像信号によるコンテンツ画像をビデオRAM210に記憶する。   The external device connection I / F controller 230 is connected to the external device 400 such as a personal computer via a predetermined cable, and controls communication with the external device 400 based on a command from the CPU 202. For example, the external device connection I / F controller 230 receives an image signal input from the external device 400. The external device connection I / F controller 230 stores the content image based on the received image signal in the video RAM 210.

周辺I/F240は、輝度センサ260、電源スイッチ270および電源ランプ280などが接続される接続I/Fである。CPU202は、輝度センサ260によって検出された明るさ(輝度)を周辺I/F240を介して取得する。ユーザは、電源スイッチ270を介して画像提示部114および制御ボックス200のオン、オフを操作する。電源ランプ280は、電源スイッチ270がオンされたとき点灯し、オフされたとき消灯する。   The peripheral I / F 240 is a connection I / F to which the luminance sensor 260, the power switch 270, the power lamp 280, and the like are connected. The CPU 202 acquires the brightness (luminance) detected by the luminance sensor 260 via the peripheral I / F 240. The user operates on / off of the image presentation unit 114 and the control box 200 via the power switch 270. The power lamp 280 is turned on when the power switch 270 is turned on and turned off when the power switch 270 is turned off.

(画像提示部)
画像提示部114について、図3を参照して説明する。画像提示部114は、走査画像光生成部3121、コリメート光学系3122、水平走査部3123、垂直走査部3124、リレー光学系3125、リレー光学系3126を有している。
(Image presentation part)
The image presentation unit 114 will be described with reference to FIG. The image presentation unit 114 includes a scanned image light generation unit 3121, a collimating optical system 3122, a horizontal scanning unit 3123, a vertical scanning unit 3124, a relay optical system 3125, and a relay optical system 3126.

走査画像光生成部3121は、HMD接続I/Fコントローラ220が出力する画像信号を、ドットクロック毎に読み出し、読み出した画像信号に応じて強度変調して走査画像光を生成する装置である。走査画像光生成部3121は、信号処理回路3211、光源部3212、光合成部3213を有している。   The scanned image light generation unit 3121 is a device that reads the image signal output from the HMD connection I / F controller 220 for each dot clock and modulates the intensity according to the read image signal to generate scanned image light. The scanned image light generation unit 3121 includes a signal processing circuit 3211, a light source unit 3212, and a light combining unit 3213.

信号処理回路3211は、HMD接続I/Fコントローラ220と接続している。信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて、走査画像光を生成するための要素となるB(青)、G(緑)、R(赤)の各画像信号3214a〜3214cを生成し、光源部3212に出力する。また、信号処理回路3211は、後述する水平走査部3123の水平走査制御回路3123bと接続している。信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて水平駆動信号3215を生成し、この水平駆動信号3215を水平走査制御回路3123bに出力する。さらに、信号処理回路3211は、後述する垂直走査制御回路3124bと接続している。信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて垂直駆動信号3216を生成し、この垂直駆動信号3216を垂直走査制御回路3124bに出力する。   The signal processing circuit 3211 is connected to the HMD connection I / F controller 220. The signal processing circuit 3211 is configured to generate B (blue), G (green), and R (red), which are elements for generating scanned image light, based on the image signal input from the HMD connection I / F controller 220. Image signals 3214 a to 3214 c are generated and output to the light source unit 3212. The signal processing circuit 3211 is connected to a horizontal scanning control circuit 3123b of the horizontal scanning unit 3123 described later. The signal processing circuit 3211 generates a horizontal drive signal 3215 based on the image signal input from the HMD connection I / F controller 220, and outputs the horizontal drive signal 3215 to the horizontal scanning control circuit 3123b. Further, the signal processing circuit 3211 is connected to a vertical scanning control circuit 3124b described later. The signal processing circuit 3211 generates a vertical drive signal 3216 based on the image signal input from the HMD connection I / F controller 220 and outputs the vertical drive signal 3216 to the vertical scanning control circuit 3124b.

光源部3212は、Bレーザドライバ3212a、Gレーザドライバ3212b、Rレーザドライバ3212c、Bレーザ3212d、Gレーザ3212e、Rレーザ3212fから構成されている。Bレーザドライバ3212aは、信号処理回路3211からドットクロック毎に出力されたB(青)の画像信号3214aに基づき、Bレーザ3212dを駆動させる。Bレーザ3212dは、B(青)の画像信号3214aに基づき、強度変調された青色のレーザ光を出射する。Gレーザ3212eおよびRレーザ3212fも、同様に、それぞれ強度変調された、緑色のレーザ光、赤色のレーザ光を出射する。   The light source unit 3212 includes a B laser driver 3212a, a G laser driver 3212b, an R laser driver 3212c, a B laser 3212d, a G laser 3212e, and an R laser 3212f. The B laser driver 3212a drives the B laser 3212d based on the B (blue) image signal 3214a output from the signal processing circuit 3211 for each dot clock. The B laser 3212d emits intensity-modulated blue laser light based on the B (blue) image signal 3214a. Similarly, the G laser 3212e and the R laser 3212f emit green laser light and red laser light, which are respectively intensity-modulated.

各レーザ3212d〜3212fには、半導体レーザや、高調波発生機能付固体レーザが含まれる。なお、半導体レーザを用いる場合には、駆動電流を直接変調して、レーザ光の強度変調を行う。また、高調波発生機能付固体レーザを用いる場合には、各レーザ3212d〜3212fそれぞれに、外部変調器を備えてレーザ光の強度変調を行う。なお、高調波発生の効率は高くなく、さらに外部変調器での損失も加わるため、高調波発生機能付固体レーザの消費電力は大きくなるため、各レーザ3212d〜3212fに半導体レーザを用いることが好ましい。   Each of the lasers 3212d to 3212f includes a semiconductor laser and a solid-state laser with a harmonic generation function. When a semiconductor laser is used, the drive current is directly modulated to modulate the intensity of the laser beam. When using a solid state laser with a harmonic generation function, each of the lasers 3212d to 3212f is provided with an external modulator to modulate the intensity of the laser light. Note that the efficiency of harmonic generation is not high, and the loss of the external modulator is also added, so that the power consumption of the solid-state laser with the harmonic generation function is increased. Therefore, it is preferable to use a semiconductor laser for each of the lasers 3212d to 3212f. .

光合成部3213は、コリメート光学系3213a〜3213c、ダイクロイックミラー3213d〜3213f、結合光学系3213gとから構成されている。コリメート光学系3213a〜3213cは、それぞれ、各レーザ3212d〜3212fの前方に配設されていて、各レーザ3212d〜3212fが出射したレーザ光を、平行光化する。ダイクロイックミラー3213d〜3213fは、それぞれ、コリメート光学系3213a〜3213cの前方に配設されていて、各コリメート光学系3213a〜3213cが平行化した各レーザ光を、所定の範囲の波長のレーザ光のみを選択的に、反射または透過する。   The light combining unit 3213 includes collimating optical systems 3213a to 3213c, dichroic mirrors 3213d to 3213f, and a coupling optical system 3213g. The collimating optical systems 3213a to 3213c are arranged in front of the lasers 3212d to 3212f, respectively, and collimate the laser beams emitted from the lasers 3212d to 3212f. The dichroic mirrors 3213d to 3213f are arranged in front of the collimating optical systems 3213a to 3213c, respectively, and each laser beam paralleled by the collimating optical systems 3213a to 3213c is used only for laser beams having a wavelength in a predetermined range. Selectively reflects or transmits.

結合光学系3213gは、ダイクロイックミラー3213dの前方に配設されている。ダイクロイックミラー3213dを透過した青色のレーザ光および、ダイクロイックミラー3213e、3213fでそれぞれ反射された、緑色のレーザ光、赤色のレーザ光が、結合光学系3213gに入射する。結合光学系3213gは、各3原色のレーザ光を集光(混合)させて、光ファイバ3127に入射させる。なお、青色のレーザ光、緑色のレーザ光、赤色の各レーザ光の強度を均等にすると、白色を表現することができる。   The coupling optical system 3213g is disposed in front of the dichroic mirror 3213d. Blue laser light transmitted through the dichroic mirror 3213d and green laser light and red laser light reflected by the dichroic mirrors 3213e and 3213f are incident on the coupling optical system 3213g. The coupling optical system 3213 g condenses (mixes) the laser beams of the three primary colors and enters the optical fiber 3127. Note that white can be expressed by equalizing the intensity of each of the blue laser light, the green laser light, and the red laser light.

水平走査部3123および垂直走査部3124は、光ファイバ3127に入射されたレーザ光を、画像として照射するために、当該レーザ光を水平方向と垂直方向に走査して走査画像光を生成する。   In order to irradiate the laser beam incident on the optical fiber 3127 as an image, the horizontal scanning unit 3123 and the vertical scanning unit 3124 scan the laser beam in the horizontal direction and the vertical direction to generate scanning image light.

水平走査部3123は、共振型偏向素子3123a、水平走査制御回路3123b、水平走査角検出回路3123cとから構成されている。光ファイバ3127に入射されたレーザ光は、コリメート光学系3122で平行光化され、共振型偏向素子3123aに入射される。共振型偏向素子3123aは、水平走査制御回路3123bで揺動される反射面3123dを有し、入射されたレーザ光を、揺動する反射面3123dで反射させて水平方向に走査する。水平走査制御回路3123bは、信号処理回路3211から出力される水平駆動信号3215に基づいて、共振型偏向素子3123aの反射面3123dを揺動させる駆動信号を発生する。水平走査角検出回路3123cは、共振型偏向素子3123aから出力される変位信号に基づいて、共振型偏向素子3123aの反射面3123dの揺動範囲および揺動周波数などの揺動状態を検出し、当該揺動状態を示す信号を、HMD接続I/Fコントローラ220に出力する。   The horizontal scanning unit 3123 includes a resonant deflection element 3123a, a horizontal scanning control circuit 3123b, and a horizontal scanning angle detection circuit 3123c. The laser light incident on the optical fiber 3127 is collimated by the collimating optical system 3122 and is incident on the resonant deflection element 3123a. The resonant deflection element 3123a has a reflection surface 3123d that is swung by the horizontal scanning control circuit 3123b, and scans the incident laser light in the horizontal direction by being reflected by the swinging reflection surface 3123d. The horizontal scanning control circuit 3123b generates a driving signal for swinging the reflecting surface 3123d of the resonant deflection element 3123a based on the horizontal driving signal 3215 output from the signal processing circuit 3211. The horizontal scanning angle detection circuit 3123c detects a swing state such as a swing range and a swing frequency of the reflection surface 3123d of the resonant deflection element 3123a based on the displacement signal output from the resonant deflection element 3123a. A signal indicating the swing state is output to the HMD connection I / F controller 220.

垂直走査部3124は、偏向素子3124a、垂直走査制御回路3124b、垂直走査角検出回路3124cとから構成されている。偏向素子3124aは、垂直走査制御回路3124bで揺動される反射面3124dを有し、入射されたレーザ光を、揺動する反射面3124dで反射させて垂直方向に走査し、2次元的に走査された画像光として、リレー光学系3126に出射する。垂直走査制御回路3124bは、信号処理回路3211から出力される垂直駆動信号3216に基づいて、偏向素子3124aの反射面3124dを揺動させる駆動信号を発生する。垂直走査角検出回路3124cは、偏向素子3124aから出力される変位信号に基づいて、偏向素子3124aの反射面3124dの揺動範囲および揺動周波数などの揺動状態を検出し、当該揺動状態を示す信号を、HMD接続I/Fコントローラ220に出力する。   The vertical scanning unit 3124 includes a deflection element 3124a, a vertical scanning control circuit 3124b, and a vertical scanning angle detection circuit 3124c. The deflection element 3124a has a reflection surface 3124d that is oscillated by the vertical scanning control circuit 3124b. The incident laser beam is reflected by the oscillating reflection surface 3124d and scanned in the vertical direction to scan two-dimensionally. The emitted image light is emitted to the relay optical system 3126. Based on the vertical drive signal 3216 output from the signal processing circuit 3211, the vertical scanning control circuit 3124b generates a drive signal for swinging the reflection surface 3124d of the deflection element 3124a. Based on the displacement signal output from the deflection element 3124a, the vertical scanning angle detection circuit 3124c detects the oscillation state such as the oscillation range and oscillation frequency of the reflecting surface 3124d of the deflection element 3124a, and detects the oscillation state. The signal shown is output to the HMD connection I / F controller 220.

リレー光学系3125は、共振型偏向素子3123aと偏向素子3124aの間に配設されている。リレー光学系3125は、共振型偏向素子3123aの反射面3123dで水平方向に走査されたレーザ光を、偏向素子3124aの反射面3124dに入射させる。   The relay optical system 3125 is disposed between the resonant deflection element 3123a and the deflection element 3124a. The relay optical system 3125 causes the laser beam scanned in the horizontal direction by the reflection surface 3123d of the resonance type deflection element 3123a to enter the reflection surface 3124d of the deflection element 3124a.

信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて、水平駆動信号3215と垂直駆動信号3216を、それぞれ水平走査制御回路3123bと垂直走査制御回路3124bに出力し、反射面3123d、3124dの走査角を変更することにより、画像光を生成する。   Based on the image signal input from the HMD connection I / F controller 220, the signal processing circuit 3211 outputs a horizontal drive signal 3215 and a vertical drive signal 3216 to the horizontal scan control circuit 3123b and the vertical scan control circuit 3124b, respectively. Image light is generated by changing the scanning angle of the reflecting surfaces 3123d and 3124d.

こうして変更された反射面3123d、3124dの走査角度は、水平走査角検出回路3123cおよび垂直走査角検出回路3124cによって検出信号として検出され、当該検出信号がHMD接続I/Fコントローラ220に入力され、水平駆動信号3215および垂直駆動信号3216にフィードバックされる。   The scanning angles of the reflecting surfaces 3123d and 3124d thus changed are detected as detection signals by the horizontal scanning angle detection circuit 3123c and the vertical scanning angle detection circuit 3124c, and the detection signals are input to the HMD connection I / F controller 220, Feedback is provided to the drive signal 3215 and the vertical drive signal 3216.

リレー光学系3126は、正の屈折力を持つレンズ系3126a、3126bを有している。偏向素子3124aから出射された画像光は、レンズ系3126aによって、それぞれの画像光が、その走査画像光の中心線を相互に略平行にされ、かつそれぞれ収束画像光に変換される。前記収束画像光は、レンズ系3126bによってそれぞれほぼ平行な走査画像光となるとともに、これらの走査画像光の中心線がユーザの瞳孔Eaに収束するように集光される。   The relay optical system 3126 includes lens systems 3126a and 3126b having a positive refractive power. The image light emitted from the deflecting element 3124a is converted into convergent image light by the lens system 3126a, with the respective image lights having their scanning image light center lines substantially parallel to each other. The converged image light is converted into substantially parallel scanned image light by the lens system 3126b, and the center line of these scanned image light is condensed so as to converge on the pupil Ea of the user.

なお、本実施形態では、光ファイバ3127から入射されたレーザ光を、水平走査部3123で水平方向に走査した後、垂直走査部3124によって垂直方向に走査することとしたが、水平走査部3123と垂直走査部3124の配置を入れ替え、垂直走査部3124に垂直方向に走査した後、水平走査部3123で水平方向に走査するように構成してもよい。   In the present embodiment, laser light incident from the optical fiber 3127 is scanned in the horizontal direction by the horizontal scanning unit 3123 and then scanned in the vertical direction by the vertical scanning unit 3124. The arrangement of the vertical scanning unit 3124 may be changed, and after the vertical scanning unit 3124 is scanned in the vertical direction, the horizontal scanning unit 3123 may scan in the horizontal direction.

(コンテンツ画像提示処理)
コンテンツ画像提示処理について、3つの処理形態を以下に説明する。以下に説明するコンテンツ画像提示処理それぞれは、制御ボックス200のCPU202が、RAM208上で、プログラムROM204に記憶されたこの処理のためのプログラムを実行することで行われる。CPU202は、この処理の実行に際し、フラッシュROM206に記憶されたコンテンツデータ、輝度センサ260によって検出された明るさおよび外部装置接続I/Fコントローラ230によって受信されたコンテンツ画像などのデータを用いる。
(Content image presentation processing)
Regarding the content image presentation processing, three processing modes will be described below. Each of the content image presentation processes described below is performed by the CPU 202 of the control box 200 executing a program for this process stored in the program ROM 204 on the RAM 208. When executing this processing, the CPU 202 uses data such as content data stored in the flash ROM 206, brightness detected by the brightness sensor 260, and content image received by the external device connection I / F controller 230.

(第1処理形態)
第1処理形態のコンテンツ画像提示処理について、図5を参照して説明する。この処理を開始したCPU202は、提示可能なコンテンツを含むメニュー画面を画像提示部114を介して提示し、ユーザにメニュー画面に含まれるコンテンツの1つを選択させる(S100)。ユーザは、例えば制御ボックス200に設けられた操作部(図1および図3で図示を省略)を操作し、メニュー画面に含まれるコンテンツの1つを選択する。CPU202は、ユーザによって選択されたコンテンツのコンテンツデータをフラッシュROM206から読み出し、RAM208に記憶する。CPU202は、RAM208に記憶したコンテンツデータに対して再生処理を実行し、これによって形成されたコンテンツ画像をビデオRAM210に記憶する。なお、外部装置400からの入力が選択された場合、CPU202は、外部装置接続I/Fコントローラ230を介して受信されたコンテンツ画像をビデオRAM210に記憶する。
(First processing form)
The content image presentation processing in the first processing form will be described with reference to FIG. The CPU 202 that has started this process presents a menu screen including content that can be presented via the image presentation unit 114, and allows the user to select one of the content items included in the menu screen (S100). For example, the user operates an operation unit (not shown in FIGS. 1 and 3) provided in the control box 200 to select one of the contents included in the menu screen. The CPU 202 reads content data of the content selected by the user from the flash ROM 206 and stores it in the RAM 208. The CPU 202 executes a reproduction process on the content data stored in the RAM 208 and stores the content image formed thereby in the video RAM 210. When an input from the external device 400 is selected, the CPU 202 stores the content image received via the external device connection I / F controller 230 in the video RAM 210.

S100を実行した後、CPU202は、輝度センサ260によって検出される外界の明るさ(輝度)を、周辺I/F240を介して取得する。そして、CPU202は、予め定められた所定の基準にしたがい、取得した外界の明るさに対応するピクセル(画素)明暗判断の基準値を決定する(S102)。なお、基準値は、外界の明るさとの関係が一定に保たれるような値として定義される。   After executing S100, the CPU 202 acquires the brightness (luminance) of the outside world detected by the luminance sensor 260 via the peripheral I / F 240. Then, the CPU 202 determines a reference value for pixel (pixel) brightness determination corresponding to the acquired brightness of the outside world in accordance with a predetermined standard (S102). The reference value is defined as a value that maintains a constant relationship with the brightness of the outside world.

S104でCPU202は、S100に応じてビデオRAM210に記憶されているコンテンツ画像を対象として、S102の基準値より暗いピクセル(画素)の占有率、すなわち、コンテンツ画像を形成する全ピクセルに占める、S102の基準値より暗いピクセルの第1占有率と、予め定めた第1条件値(S104の判断における占有率の基準値)との大きさの関係について判断する。具体的に、CPU202は、第1占有率が第1条件値より大きいかを判断する。   In S104, the CPU 202 targets the content image stored in the video RAM 210 in accordance with S100, and occupies the pixels (pixels) darker than the reference value in S102, that is, occupies all the pixels forming the content image in S102. The relationship between the first occupancy ratio of pixels darker than the reference value and the predetermined first condition value (the occupancy reference value in the determination in S104) is determined. Specifically, the CPU 202 determines whether the first occupancy is greater than the first condition value.

S104の判断の結果、第1占有率が第1条件値より大きい場合(S104:Yes)、CPU202は、処理をS106に移行し、第1占有率が第1条件値より大きくない、換言すれば、第1占有率が第1条件値以下である場合(S104:No)、処理をS108に移行する。すなわち、コンテンツ画像の明るさが暗いピクセルが多い場合(S104:Yes)、広く存在する暗いピクセルの部分を通して外界(外界像)が視野内に広く視認されるため、コンテンツ画像が外界像に溶け込んで視認されるので、第1処理形態では、次に記載のS106の表示効果付加処理(画像処理)を実行する一方、明るいピクセルが多い場合には明らかに外界と区別できるため(S104:No)、S106の表示効果付加処理を実行しないこととした。   As a result of the determination in S104, if the first occupancy is larger than the first condition value (S104: Yes), the CPU 202 shifts the process to S106, in other words, the first occupancy is not greater than the first condition value. If the first occupation ratio is equal to or less than the first condition value (S104: No), the process proceeds to S108. That is, when the content image has many dark pixels (S104: Yes), the external environment (external image) is widely recognized in the field of view through the dark pixel portions that exist widely, so the content image blends into the external image. Since it is visually recognized, in the first processing mode, the display effect addition processing (image processing) of S106 described below is executed. On the other hand, when there are many bright pixels, it can be clearly distinguished from the outside world (S104: No). The display effect addition process of S106 is not executed.

S106でCPU202は、ビデオRAM210に記憶されているコンテンツ画像を、RAM208上に読み出して表示効果付加処理を実行し、コンテンツ画像と外界像との境界を強調するための表示効果を付加する。そして、CPU202は、表示効果を付加したコンテンツ画像をビデオRAM210に記憶する。具体的に、CPU202は、コンテンツ画像の外縁に一致する枠を、コンテンツ画像に付加する。なお、付加される枠については、後述する。S108でCPU202は、ビデオRAM210に記憶されているコンテンツ画像を含む画像信号と、コンテンツ画像の提示についての制御信号とを、HMD接続I/Fコントローラ220を介して画像提示部114に出力し、画像提示部114からのコンテンツ画像の提示を実行する。   In S106, the CPU 202 reads the content image stored in the video RAM 210 onto the RAM 208, executes display effect addition processing, and adds a display effect for enhancing the boundary between the content image and the external image. Then, the CPU 202 stores the content image to which the display effect is added in the video RAM 210. Specifically, the CPU 202 adds a frame that matches the outer edge of the content image to the content image. The added frame will be described later. In S <b> 108, the CPU 202 outputs an image signal including the content image stored in the video RAM 210 and a control signal for presenting the content image to the image presentation unit 114 via the HMD connection I / F controller 220. The presentation of the content image from the presentation unit 114 is executed.

S108を実行した後、CPU202は、ユーザが制御ボックス200の電源スイッチ270を操作し、電源をオフしたか否かを判断する(S110)。判断の結果、電源がオフされていない場合(S110:No)、CPU202は、処理をS100に戻す一方、電源がオフされた場合(S110:Yes)、この処理を終了する。   After executing S108, the CPU 202 determines whether or not the user has operated the power switch 270 of the control box 200 to turn off the power (S110). As a result of the determination, if the power is not turned off (S110: No), the CPU 202 returns the process to S100, whereas if the power is turned off (S110: Yes), the process is terminated.

(第2処理形態)
第2処理形態のコンテンツ画像提示処理について、図6を参照して説明する。この処理を開始したCPU202は、図5に示す第1処理形態と同じく、提示可能なコンテンツを含むメニュー画面を画像提示部114を介して提示し、S200〜S204の各処理を実行する。ここで、S200〜S204の各処理は、図5のS100〜S104の各処理に対応する処理である。したがって、これら各処理について、詳細な説明は省略する。なお、CPU202は、S204の判断の結果が肯定される場合(S204:Yes)、処理をS206に移行する一方、否定される場合(S204:No)、処理をS210に移行する。
(Second processing mode)
The content image presentation processing in the second processing form will be described with reference to FIG. CPU202 which started this process presents the menu screen containing the content which can be shown through the image presentation part 114 similarly to the 1st processing form shown in FIG. 5, and performs each process of S200-S204. Here, each process of S200-S204 is a process corresponding to each process of S100-S104 of FIG. Therefore, detailed description of these processes is omitted. Note that if the result of the determination in S204 is affirmative (S204: Yes), the CPU 202 moves the process to S206, whereas if denied (S204: No), the CPU 202 moves the process to S210.

S206でCPU202は、S202の基準値より暗いピクセルのうち、中心部分に集中しているピクセルの割合、すなわち、S200に応じてビデオRAM210に記憶されているコンテンツ画像を形成する全ピクセルのうち、S202の基準値より暗い画素全体に占める、コンテンツ画像の中心を含む所定の範囲に含まれるS202の基準値より暗いピクセルの第2占有率と、予め定めた第2条件値(S206の判断における占有率の基準値)との大きさの関係について判断する。具体的には、CPU202は、第2占有率が第2条件値より小さいかを判断する。   In S206, the CPU 202 determines the ratio of the pixels that are concentrated in the central portion of the pixels that are darker than the reference value in S202, that is, out of all the pixels that form the content image stored in the video RAM 210 according to S200. A second occupancy ratio of pixels darker than the reference value of S202 included in a predetermined range including the center of the content image, and a predetermined second condition value (occupancy ratio in the determination of S206). The relationship between the size and the reference value is determined. Specifically, the CPU 202 determines whether the second occupation ratio is smaller than the second condition value.

S206の判断の結果、第2占有率が第2条件値より小さい場合(S206:Yes)、CPU202は、処理をS208に移行し、第2占有率が第2条件値より小さくない、換言すれば、第2占有率が第2条件値以上である場合(S206:No)、処理をS210に移行する。すなわち、コンテンツ画像の明るさが、中心部分が明るく外周部分が暗い場合(S206:Yes)、明るく表示されている中心部分は外界(外界像)と区別がつくものの、暗い外周部分は外界像との区別が困難であるため、中心部分が外周に近づくにしたがって外界像に溶け込んで視認される。そこで、第2処理形態では、中心部分が明るく外周部分が暗い場合(S206:Yes)は、S208の表示効果付加処理を実行することとした。一方、中心部分が外周部分に対して比較的暗い場合(S206:No)は、外周部分が中心部分に比べて外界像と区別がつき易いため、S208の表示効果付加処理を実行しないこととした。   If the second occupancy is smaller than the second condition value as a result of the determination in S206 (S206: Yes), the CPU 202 moves the process to S208, in other words, the second occupancy is not smaller than the second condition value. If the second occupation ratio is equal to or greater than the second condition value (S206: No), the process proceeds to S210. That is, when the brightness of the content image is bright in the central part and dark in the outer peripheral part (S206: Yes), the brightly displayed central part can be distinguished from the external environment (external image), but the dark peripheral part is distinguished from the external image. Is difficult to distinguish, so that the center portion is melted and visually recognized as it approaches the outer periphery. Therefore, in the second processing mode, when the central portion is bright and the outer peripheral portion is dark (S206: Yes), the display effect addition processing of S208 is executed. On the other hand, when the central portion is relatively dark with respect to the outer peripheral portion (S206: No), the outer peripheral portion is more easily distinguished from the external image than the central portion, and therefore the display effect addition processing in S208 is not executed. .

S206を実行した後、CPU202は、順次S208〜S212の各処理を実行する。ここで、S208〜S212の各処理は、図5のS106〜S110の各処理に対応する処理である。したがって、これら各処理について、詳細な説明は省略する。   After executing S206, the CPU 202 sequentially executes each process of S208 to S212. Here, each process of S208-S212 is a process corresponding to each process of S106-S110 of FIG. Therefore, detailed description of these processes is omitted.

(第3処理形態)
第3処理形態のコンテンツ画像提示処理について、図7を参照して説明する。この処理を開始したCPU202は、図5に示す第1処理形態と同じく、提示可能なコンテンツを含むメニュー画面を、画像提示部114を介して提示し、S300の処理を実行する。ここで、S300の処理は、図5のS100の処理に対応する処理である。したがって、詳細な説明は省略する。
(Third processing mode)
The content image presentation processing in the third processing form will be described with reference to FIG. CPU202 which started this process presents the menu screen containing the content which can be shown through the image presentation part 114 similarly to the 1st processing form shown in FIG. 5, and performs the process of S300. Here, the process of S300 is a process corresponding to the process of S100 of FIG. Therefore, detailed description is omitted.

S302でCPU202は、S300に応じてビデオRAM210に記憶されているコンテンツ画像を対象として、コンテンツ画像に含まれるオブジェクトの位置の座標変化について判断する。具体的に、CPU202は、オブジェクトの位置の座標変化を、コンテンツ画像を示すコンテンツデータのファイル拡張子で判断する。すなわち、ユーザによって選択されたコンテンツデータをフラッシュROM206から読み出す際に、コンテンツデータが静止画データを示すファイル拡張子(例えば「jpg」(Joint Photographic Experts Group))をともなうものである場合、CPU202は、コンテンツ画像に含まれるオブジェクトの位置が座標変化しないと判断する(S302:No)。一方、コンテンツデータが動画データを示すファイル拡張子(例えば「mpg」(Moving Picture Experts Group))をともなうものである場合、CPU202は、コンテンツ画像に含まれるオブジェクトの位置が座標変化すると判断する(S302:Yes)。   In S302, the CPU 202 determines a change in the coordinates of the position of the object included in the content image for the content image stored in the video RAM 210 according to S300. Specifically, the CPU 202 determines the coordinate change of the position of the object based on the file extension of the content data indicating the content image. That is, when the content data selected by the user is read from the flash ROM 206, if the content data has a file extension indicating still image data (for example, “jpg” (Joint Photographic Experts Group)), the CPU 202 It is determined that the position of the object included in the content image does not change (S302: No). On the other hand, when the content data has a file extension indicating moving image data (for example, “mpg” (Moving Picture Experts Group)), the CPU 202 determines that the position of the object included in the content image changes in coordinates (S302). : Yes).

S302の判断の結果、座標変化しない場合(S302:No)、CPU202は処理をS304に移行し、座標変化する場合(S302:Yes)、処理をS310に移行する。すなわち、CPU202は、コンテンツデータによって示されるコンテンツ画像に含まれるオブジェクトの位置が座標変化しない場合(S302:No)、S304で輝度センサ260によって検出される外界の明るさに対応するピクセル(画素)明暗判断の基準値を決定し、S306でコンテンツ画像の明るさに基づくS308の表示効果付加処理の実行または未実行を判断する。一方、オブジェクトの位置が座標変化する場合(S302:Yes)、S308の表示効果付加処理を実行しない。   As a result of the determination in S302, when the coordinate does not change (S302: No), the CPU 202 shifts the process to S304, and when the coordinate changes (S302: Yes), the process shifts to S310. That is, when the position of the object included in the content image indicated by the content data does not change coordinates (S302: No), the CPU 202 determines whether the pixel (pixel) brightness corresponding to the brightness of the external environment detected by the luminance sensor 260 in S304 is reached. A determination reference value is determined, and whether or not the display effect addition processing of S308 based on the brightness of the content image is performed or not is determined in S306. On the other hand, when the coordinates of the object position change (S302: Yes), the display effect addition process of S308 is not executed.

例えば、作業内容を表示するなどの作業支援にヘッドマウントディスプレイが用いられる場合、ユーザは作業中に対象物に注目し頭をほとんど動かさない場合がある。このようなときにコンテンツ画像が表示されると、位置座標が変化するオブジェクトを含むコンテツ画像は、このオブジェクトに基づき外界像と区別することが可能で、ユーザは、位置座標が変化するオブジェクトに基づきコンテンツ画像を認識することができる。しかし、静止画像では、コンテンツ画像に含まれるオブジェクトは位置座標が変化せず、その結果、視認しているオブジェクトが、コンテンツ画像に含まれるものであるのか、外界の実物であるかの区別が困難となる。そこで、第3処理形態では、座標変化しない場合(S302:No)は、S304に処理を移行し、その後、S306でコンテンツ画像の明るさに基づくS308の表示効果付加処理の実行または未実行を判断することとした。一方、座標変化する場合(S302:Yes)は、処理をS310に移行し、S308の表示効果付加処理を実行しないこととした。   For example, when a head-mounted display is used for work support such as displaying work contents, the user may pay attention to an object during work and hardly move his head. When a content image is displayed at such a time, a content image including an object whose position coordinates change can be distinguished from an external image based on this object, and the user can select a content image based on an object whose position coordinates change. A content image can be recognized. However, in the still image, the position coordinates of the object included in the content image do not change, and as a result, it is difficult to distinguish whether the object being viewed is included in the content image or the real object in the outside world. It becomes. Therefore, in the third processing mode, when the coordinate does not change (S302: No), the process proceeds to S304, and then, in S306, it is determined whether or not the display effect addition process in S308 based on the brightness of the content image is performed. It was decided to. On the other hand, if the coordinates change (S302: Yes), the process proceeds to S310, and the display effect addition process of S308 is not executed.

S302を実行した後、CPU202は、順次S304〜S312の各処理を実行する。ここで、S304〜S312の各処理は、図5のS102,S104〜S110の各処理に対応する処理である。したがって、これら各処理について、詳細な説明は省略する。   After executing S302, the CPU 202 sequentially executes each process of S304 to S312. Here, each process of S304 to S312 is a process corresponding to each process of S102 and S104 to S110 of FIG. Therefore, detailed description of these processes is omitted.

(変形例)
上述した本実施形態の構成は、次のようにすることもできる。
(Modification)
The configuration of the present embodiment described above can also be as follows.

(1)上記では、HMD本体100と制御ボックス200とが別体のHMD10を例に説明したが、HMD本体100と制御ボックス200とを一体で構成したHMDとすることもできる。この場合、制御ボックス200の各構成(図3参照)は、例えば画像提示部114を形成する筐体(カバー)内に収容される。   (1) In the above description, the HMD body 100 and the control box 200 are separated from each other as an example. However, the HMD body 100 and the control box 200 may be integrated into an HMD. In this case, each component (see FIG. 3) of the control box 200 is accommodated in, for example, a housing (cover) that forms the image presentation unit 114.

(2)上記では、図5のS104、図6のS204、図7のS306の判断を、第1占有率が第1条件値より大きいか基づいて判断する構成を例に説明した。しかし、このような構成の他、第1占有率が第1条件値以上であるかに基づいて判断する構成とすることもできる。なお、この場合、CPU202は、第1占有率が第1条件値以上であるとき、その判断を肯定し(S104,S204,S306:Yes)、第1占有率が第1条件値より小さいとき、その判断を否定する(S104,S204,S306:No)。   (2) In the above description, the configuration in which the determination in S104 in FIG. 5, S204 in FIG. 6, and S306 in FIG. 7 is determined based on whether the first occupancy is larger than the first condition value has been described as an example. However, in addition to such a configuration, it may be configured to make a determination based on whether the first occupancy is equal to or higher than the first condition value. In this case, when the first occupancy is equal to or higher than the first condition value, the CPU 202 affirms the determination (S104, S204, S306: Yes), and when the first occupancy is smaller than the first condition value, The judgment is denied (S104, S204, S306: No).

また、上記では、図6のS206の判断を、第2占有率が第2条件値より小さいかに基づいて判断する構成を例に説明した。しかし、このような構成の他、第2占有率が第2条件値以下であるかに基づいて判断する構成とすることもできる。なお、この場合、CPU202は、第2占有率が第2条件値以下であるとき、その判断を肯定し(S206:Yes)、第2占有率が第2条件値より大きいとき、その判断を否定する(S206:No)。   In the above description, the configuration in which the determination in S206 of FIG. 6 is determined based on whether the second occupancy is smaller than the second condition value has been described as an example. However, in addition to such a configuration, it is also possible to make a determination based on whether the second occupation ratio is equal to or less than the second condition value. In this case, the CPU 202 affirms the determination when the second occupancy is equal to or less than the second condition value (S206: Yes), and denies the determination when the second occupancy is greater than the second condition value. (S206: No).

(3)上記では、図7に示す第3処理形態のコンテンツ画像提示処理のS302の判断を、コンテンツデータのファイル拡張子に基づき行う構成を例に説明した。しかし、このような構成の他、コンテンツ画像に対して所定の解析処理を実行し、直接、コンテンツ画像に含まれるオブジェクトの位置が座標変化しているかを判断する構成とすることができる。例えば、コンテンツ画像のデータ構造が、複数のフレームからなるものである場合、前後のフレームを比較して、この判断を行う構成とすることもできる。   (3) In the above description, the configuration in which the determination in S302 of the content image presentation processing in the third processing form illustrated in FIG. 7 is performed based on the file extension of content data has been described as an example. However, in addition to such a configuration, it is possible to execute a predetermined analysis process on the content image and directly determine whether the position of the object included in the content image has changed coordinates. For example, when the data structure of the content image is composed of a plurality of frames, the determination can be made by comparing the frames before and after.

また、図7に示す第3処理形態のコンテンツ画像提示処理では、S306の判断が肯定された場合(S306:Yes)、CPU202は、S308を実行する構成を例に説明した。しかし、このような構成の他、S306の判断が肯定された場合(S306:Yes)、図6に示す第2処理形態のコンテンツ画像提示処理のS206の判断を実行する構成とすることもできる。なお、この場合、CPU202は、S206に相当する判断が肯定されたとき(S206:Yes参照)、処理をS308に移行し、判断が否定されたとき(S206:No参照)、処理をS310に移行する。   Further, in the content image presentation processing of the third processing form illustrated in FIG. 7, when the determination in S306 is affirmed (S306: Yes), the CPU 202 has been described as an example of a configuration in which S308 is executed. However, in addition to such a configuration, when the determination in S306 is affirmed (S306: Yes), the determination in S206 of the content image presentation processing in the second processing form illustrated in FIG. 6 may be performed. In this case, when the determination corresponding to S206 is affirmed (S206: Yes), the process proceeds to S308, and when the determination is negative (S206: No), the process proceeds to S310. To do.

(本実施形態の構成による有利な効果)
本実施形態の構成によれば、ユーザは、コンテンツ画像を外界像と区別して視認することができる(図5のS106,S108、図6のS208,S210、図7のS308,S310参照)。具体的に、HMD本体100を装着したユーザが、ハーフミラー116を介して視認できる外界に、HMD10によって提示されるコンテンツ画像と同一または類似する物が存在する場合、ユーザは、視認している像が、コンテンツ画像であるか外界像であるかを、容易に区別することができる。
(Advantageous effects of the configuration of the present embodiment)
According to the configuration of the present embodiment, the user can visually recognize the content image separately from the external image (see S106 and S108 in FIG. 5, S208 and S210 in FIG. 6, and S308 and S310 in FIG. 7). Specifically, when there is an object that is the same as or similar to the content image presented by the HMD 10 in the outside world that the user wearing the HMD main body 100 can visually recognize through the half mirror 116, the image that the user is viewing Can be easily discriminated whether it is a content image or an external image.

上述したように、作業内容を表示するなどの作業支援にヘッドマウントディスプレイが用いられる場合、例えば、サーバコンピュータの背面に設けられたコネクタに、所定のケーブルを接続するような組立作業で、HMD10が、この作業の作業指図書を提供するツールとして利用される場合、ユーザは、外界像として、サーバコンピュータの背面に設けられたコネクタを表すコネクタ画像510を、ハーフミラー116を介して視認する。このような状態で、表示効果が付加されずにコンテンツ画像として、ケーブルを接続すべきコネクタを表すコネクタ画像520が、ユーザの左眼118に提示されると(図8(a)参照)、ユーザがコネクタ画像510とコネクタ画像520との区別を誤るといった事態の発生が想定される。   As described above, when the head-mounted display is used for work support such as displaying work contents, the HMD 10 can be assembled by connecting a predetermined cable to a connector provided on the back of the server computer, for example. When used as a tool for providing a work instruction for this work, the user visually recognizes a connector image 510 representing a connector provided on the back of the server computer through the half mirror 116 as an external image. In this state, when a connector image 520 representing a connector to which a cable is to be connected is presented to the user's left eye 118 as a content image without adding a display effect (see FIG. 8A), the user However, it is assumed that the connector image 510 and the connector image 520 are misidentified.

しかし、本実施形態のHMD10の構成によれば、コンテンツ画像としてのコネクタ画像520の外縁には、これに一致する枠500が付加され、ユーザは枠500が付加されたコネクタ画像520を視認する(図8(b)参照)。したがって、ユーザは、コネクタ画像520に付加された枠500によって、コネクタ画像520とコネクタ画像510を含む外界像との境界を認識し、コネクタ画像510とコネクタ画像520とを容易に区別することができる。   However, according to the configuration of the HMD 10 of the present embodiment, a frame 500 corresponding to the outer edge of the connector image 520 as a content image is added, and the user visually recognizes the connector image 520 with the frame 500 added ( (Refer FIG.8 (b)). Therefore, the user can recognize the boundary between the connector image 520 and the external image including the connector image 510 by the frame 500 added to the connector image 520, and can easily distinguish the connector image 510 from the connector image 520. .

ここで、表示効果は、図8(c)のような態様とすることもできる。すなわち、表示効果として、画像提示部114がコンテンツ画像を提示可能な有効領域(最大提示領域)の外縁に一致する枠502を付加する構成とすることもできる。これによっても、上記同様の効果を得ることができる。   Here, the display effect can be set as shown in FIG. That is, as a display effect, it is possible to add a frame 502 that matches the outer edge of the effective area (maximum presentation area) in which the image presentation unit 114 can present a content image. Also by this, the same effect as described above can be obtained.

なお、図7に示す第3処理形態のコンテンツ画像提示処理について、表示効果は、その位置が座標変化しないと判断されたオブジェクトの外縁に対して直接付加する構成とすることもできる。図8に示す例に基づけば、コンテンツ画像としてのコネクタ画像520に含まれるコネクタの外縁に枠504を付加する構成とすることもできる(図8(d)参照)。また、コンテンツ画像全体を、ハーフミラー116を介して視認される外界像の色合いと異なる色、例えば赤味がかった色(色合い)として、表示効果を付加する構成とすることもできる。これらによっても、上記同様の効果を得ることができる。さらに、コンテンツ画像が線画(例えば文字)である場合、表示効果を付加しない構成とすることもできる。   In the content image presentation process of the third processing form shown in FIG. 7, the display effect may be directly added to the outer edge of the object whose position is determined not to change in coordinates. Based on the example shown in FIG. 8, it is also possible to adopt a configuration in which a frame 504 is added to the outer edge of the connector included in the connector image 520 as the content image (see FIG. 8D). The entire content image may be configured to add a display effect as a color different from the shade of the external image visually recognized through the half mirror 116, for example, a reddish color (hue). Also by these, the same effect as described above can be obtained. Furthermore, when the content image is a line drawing (for example, a character), a configuration in which a display effect is not added may be employed.

10 ヘッドマウントディスプレイ(HMD)
100 ヘッドマウントディスプレイ本体(HMD本体)
114 画像提示部
116 ハーフミラー
200 制御ボックス
202 CPU
204 プログラムROM
206 フラッシュROM
208 RAM
260 輝度センサ
500,502,504 枠
510,520 コネクタ画像
10 Head mounted display (HMD)
100 Head-mounted display body (HMD body)
114 Image presentation unit 116 Half mirror 200 Control box 202 CPU
204 Program ROM
206 Flash ROM
208 RAM
260 Brightness sensor 500, 502, 504 Frame 510, 520 Connector image

Claims (6)

コンテンツデータによって示されるコンテンツ画像をユーザの眼に視認可能に提示し、前記コンテンツ画像を視認しているユーザが外界像を前記コンテンツ画像と重ねて視認できるシースルー型のヘッドマウントディスプレイであって、
前記コンテンツ画像を形成する全画素に占める、所定の基準値より暗い前記画素の第1占有率と、予め定めた第1条件値との大きさの関係について判断する第1判断手段と、
前記第1判断手段によって前記第1占有率が前記第1条件値より大きいと判断された場合、前記コンテンツデータに対して画像処理を実行し、前記コンテンツ画像に表示効果を付加する表示効果付加手段と、
前記表示効果付加手段によって前記表示効果が付加された前記コンテンツ画像を、前記ユーザの眼に提示するコンテンツ画像提示手段とを備えることを特徴とするヘッドマウントディスプレイ。
A see-through head-mounted display that presents a content image indicated by content data so as to be visible to the user's eyes, and allows a user viewing the content image to visually recognize an external image superimposed on the content image,
First determination means for determining a relationship between a first occupancy ratio of the pixels that are darker than a predetermined reference value in all the pixels forming the content image and a predetermined first condition value;
Display effect adding means for executing image processing on the content data and adding a display effect to the content image when the first determining means determines that the first occupation ratio is greater than the first condition value. When,
A head-mounted display comprising: a content image presentation unit that presents the content image to which the display effect is added by the display effect addition unit to the eyes of the user.
前記第1判断手段は、前記第1占有率が前記第1条件値より大きいと判断した場合、さらに、前記コンテンツ画像を形成する全画素のうちで前記所定の基準値より暗い前記画素全体に占める、前記コンテンツ画像の中心を含む所定の範囲に含まれる前記所定の基準値より暗い前記画素の第2占有率と、予め定めた第2条件値との大きさの関係について判断し、
前記表示効果付加手段は、前記第1判断手段によって、前記第1占有率が前記第1条件値より大きく、かつ前記第2占有率が前記第2条件値より小さいと判断された場合、前記コンテンツデータに対して前記画像処理を実行し、前記コンテンツ画像に前記表示効果を付加することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
When the first determination unit determines that the first occupation ratio is greater than the first condition value, the first determination unit further occupies all the pixels that are darker than the predetermined reference value among all the pixels forming the content image. Determining a relationship between the second occupancy ratio of the pixels darker than the predetermined reference value included in a predetermined range including the center of the content image and a predetermined second condition value;
When the first determination unit determines that the first occupancy rate is greater than the first condition value and the second occupancy rate is less than the second condition value, the display effect adding unit determines that the content The head mounted display according to claim 1, wherein the image processing is executed on data to add the display effect to the content image.
前記コンテンツ画像に含まれるオブジェクトの位置の座標変化について判断する第2判断手段を備え、
前記第1判断手段は、前記第2判断手段によって前記オブジェクトの位置が座標変化しないと判断された場合、前記第1占有率と前記第1条件値との大きさの関係について判断し、
前記表示効果付加手段は、前記第2判断手段によって前記オブジェクトの位置が座標変化しないと判断され、かつ前記第1判断手段によって前記第1占有率が前記第1条件値より大きいと判断された場合、前記コンテンツデータに対して前記画像処理を実行し、前記コンテンツ画像に前記表示効果を付加することを特徴とする請求項1または請求項2に記載のヘッドマウントディスプレイ。
A second determination unit configured to determine a change in coordinates of the position of the object included in the content image;
The first determination unit determines a relationship between the first occupation ratio and the first condition value when the second determination unit determines that the position of the object does not change in coordinates;
The display effect adding unit is configured such that the second determining unit determines that the position of the object does not change coordinates, and the first determining unit determines that the first occupancy is greater than the first condition value. 3. The head mounted display according to claim 1, wherein the image processing is executed on the content data, and the display effect is added to the content image.
前記第2判断手段は、前記コンテンツデータが静止画データである場合、前記オブジェクトの位置が座標変化しないと判断することを特徴とする請求項3に記載のヘッドマウントディスプレイ。   4. The head mounted display according to claim 3, wherein the second determination unit determines that the coordinates of the position of the object do not change when the content data is still image data. 5. 前記表示効果付加手段は、前記コンテンツデータに対して、前記コンテンツ画像と前記外界像との境界を強調するための前記画像処理を実行し、前記コンテンツ画像に前記表示効果を付加することを特徴とする請求項1から請求項4のいずれか1項に記載のヘッドマウントディスプレイ。   The display effect adding means performs the image processing for emphasizing a boundary between the content image and the external image on the content data, and adds the display effect to the content image. The head mounted display according to any one of claims 1 to 4. 前記コンテンツ画像と前記外界像との前記境界は、前記コンテンツ画像提示手段が前記コンテンツ画像を提示可能な有効領域の外縁であって、
前記表示効果付加手段は、前記外縁に一致する枠を、前記コンテンツ画像に前記表示効果として付加することを特徴とする請求項5に記載のヘッドマウントディスプレイ。
The boundary between the content image and the external image is an outer edge of an effective area where the content image presentation means can present the content image,
The head mounted display according to claim 5, wherein the display effect adding unit adds a frame that matches the outer edge as the display effect to the content image.
JP2009218485A 2009-09-24 2009-09-24 Head mount display Pending JP2011070251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009218485A JP2011070251A (en) 2009-09-24 2009-09-24 Head mount display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009218485A JP2011070251A (en) 2009-09-24 2009-09-24 Head mount display

Publications (1)

Publication Number Publication Date
JP2011070251A true JP2011070251A (en) 2011-04-07

Family

ID=44015506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009218485A Pending JP2011070251A (en) 2009-09-24 2009-09-24 Head mount display

Country Status (1)

Country Link
JP (1) JP2011070251A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182719A (en) * 2013-03-21 2014-09-29 Yasuaki Iwai Virtual reality presentation system, and virtual reality presentation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221637A (en) * 1997-02-10 1998-08-21 Olympus Optical Co Ltd Head-mounted image display device
JP2000298246A (en) * 1999-02-12 2000-10-24 Canon Inc Display device, display method, and storage medium
JP2002244074A (en) * 2001-02-15 2002-08-28 Mixed Reality Systems Laboratory Inc Picture display device
JP2006126691A (en) * 2004-11-01 2006-05-18 Nikon Corp Video display device
JP2006189476A (en) * 2004-12-28 2006-07-20 Konica Minolta Photo Imaging Inc Display system
JP2007101618A (en) * 2005-09-30 2007-04-19 Konica Minolta Photo Imaging Inc Display device
JP2010164782A (en) * 2009-01-15 2010-07-29 Brother Ind Ltd Image display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221637A (en) * 1997-02-10 1998-08-21 Olympus Optical Co Ltd Head-mounted image display device
JP2000298246A (en) * 1999-02-12 2000-10-24 Canon Inc Display device, display method, and storage medium
JP2002244074A (en) * 2001-02-15 2002-08-28 Mixed Reality Systems Laboratory Inc Picture display device
JP2006126691A (en) * 2004-11-01 2006-05-18 Nikon Corp Video display device
JP2006189476A (en) * 2004-12-28 2006-07-20 Konica Minolta Photo Imaging Inc Display system
JP2007101618A (en) * 2005-09-30 2007-04-19 Konica Minolta Photo Imaging Inc Display device
JP2010164782A (en) * 2009-01-15 2010-07-29 Brother Ind Ltd Image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182719A (en) * 2013-03-21 2014-09-29 Yasuaki Iwai Virtual reality presentation system, and virtual reality presentation method

Similar Documents

Publication Publication Date Title
US8928556B2 (en) Head mounted display
JP5293025B2 (en) Head mounted display
JP5104679B2 (en) Head mounted display
US8514148B2 (en) Head mount display
JP5195537B2 (en) Head mounted display
US8061845B2 (en) Image display system and image display method
US10645374B2 (en) Head-mounted display device and display control method for head-mounted display device
WO2010071110A1 (en) Head-mounted display
CN111684336A (en) Image display device and method using retinal scanning display unit
JP2011091789A (en) Head-mounted display
JP2010139901A (en) Head mount display
JP2011075956A (en) Head-mounted display
JP2010085786A (en) Head-mounted display device
JP2010067154A (en) Head mounted display, information browsing system, and management server
JP6561606B2 (en) Display device and control method of display device
JP6337534B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP5109952B2 (en) Head mounted display
JP5375481B2 (en) Head mounted display
WO2010095347A1 (en) Head mounted display
JP2011070251A (en) Head mount display
JP2011070093A (en) Head-mounted display
JP5348004B2 (en) Strike zone presentation system
JP2010211149A (en) Image display
JP6268704B2 (en) Display device, display device control method, and program
JP2011069977A (en) Head-mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702