JP5262682B2 - Head mounted display - Google Patents
Head mounted display Download PDFInfo
- Publication number
- JP5262682B2 JP5262682B2 JP2008326883A JP2008326883A JP5262682B2 JP 5262682 B2 JP5262682 B2 JP 5262682B2 JP 2008326883 A JP2008326883 A JP 2008326883A JP 2008326883 A JP2008326883 A JP 2008326883A JP 5262682 B2 JP5262682 B2 JP 5262682B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- image
- mounted display
- information
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 claims description 39
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 204
- 230000008569 process Effects 0.000 description 201
- 230000003287 optical effect Effects 0.000 description 21
- 210000003128 head Anatomy 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 239000013307 optical fiber Substances 0.000 description 5
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 229910002091 carbon monoxide Inorganic materials 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000029553 photosynthesis Effects 0.000 description 1
- 238000010672 photosynthesis Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、ユーザが、建造物等の環境を、臨場感をもって把握することができるヘッドマウントディスプレイに関する。 The present invention relates to a head mounted display that allows a user to grasp an environment such as a building with a sense of reality.
従来特許文献1に示されるように、建造物の温度等の環境情報を、建造物の見取り図とともにディスプレイに表示することができる温熱環境ディスプレイ装置が知られている。このような装置は、建造物の温度等の環境を、視覚的に把握することができる。
As shown in
しかしながら、実際には、ユーザが建造物の見取り図から、ユーザの視覚をイメージする必要があることから、ユーザが、建造物の環境情報を、臨場感をもって把握することが困難であった。 However, in reality, since the user needs to imagine the user's vision from the floor plan of the building, it is difficult for the user to grasp the environmental information of the building with a sense of reality.
本発明は、上記問題を解決し、ユーザが建造物等の環境を、臨場感をもって把握することができるヘッドマウントディスプレイを提供することを目的になされたものである。 An object of the present invention is to provide a head mounted display that solves the above-described problems and allows a user to grasp the environment of a building or the like with a sense of reality.
上記課題を解決するためになされた請求項1に記載の発明は、
ユーザの頭部に装着される頭部装着部と、
前記頭部装着部の前部に取り付けられ、画像を表示し、ユーザに当該画像を視認させる画像表示部を有するヘッドマウントディスプレイにおいて、
複数位置に設置されたセンサが計測したセンシング情報及び、前記各センサの個体識別情報、各センサの座標情報を取得する情報取得手段と、
ヘッドマウントディスプレイの座標を算出又は取得するヘッドマウントディスプレイ座標取得手段と、
ユーザの視線方向を計測する視線方向計測手段と、
前記情報取得手段が取得した前記各センサの座標情報及び、前記ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づいて、ヘッドマウントディスプレイの座標を基点とした前記各センサの相対座標を算出するセンサ相対座標算出手段と、
前記視線方向計測手段が計測したユーザの視線方向情報から、ユーザの視界領域を算出する視界領域算出手段と、
前記視界領域算出手段が算出した視界領域及び、前記センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記視界領域内および視界領域を視界方向に延長した領域内にある通信可能なセンサを選択するセンサ選択手段と、
前記センサ選択手段が選択した各センサのセンサ相対座標と前記情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成するセンシング情報画像生成手段と、
を有することを特徴とする。
The invention according to
A head mounting part to be mounted on the user's head;
In a head-mounted display that is attached to the front part of the head-mounted unit, displays an image, and has an image display unit that allows the user to visually recognize the image.
Sensing information measured by sensors installed at a plurality of positions, individual identification information of each sensor, information acquisition means for acquiring coordinate information of each sensor,
Head-mounted display coordinate acquisition means for calculating or acquiring the coordinates of the head-mounted display;
Gaze direction measuring means for measuring the gaze direction of the user;
Based on the coordinate information of each sensor acquired by the information acquisition unit and the coordinates of the head mounted display acquired by the head mounted display coordinate acquisition unit, the relative coordinates of the sensors based on the coordinates of the head mounted display are obtained. Sensor relative coordinate calculating means for calculating;
A visual field area calculating means for calculating a visual field area of the user from the visual line direction information of the user measured by the visual line direction measuring means;
Based on the field of view calculated by the field of view calculation unit and the sensor relative coordinates of each sensor calculated by the sensor relative coordinate calculation unit, communication is possible within the field of view and within a region extending the field of view in the field of view direction. Sensor selection means for selecting a sensor,
Sensing information image generating means for generating a sensing information image to be displayed on the image display unit based on sensor relative coordinates of each sensor selected by the sensor selecting means and sensing information of each sensor acquired by the information acquiring means;
It is characterized by having.
請求項2に記載の発明は、請求項1に記載の発明において、
センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記センサ選択手段が選択した各センサの前記画像表示部で表示する画像上の座標である画像座標を算出する画像座標算出手段を有し、
センシング情報画像生成手段は、前記画像座標算出手段が算出した前記各センサの画像座標及び、情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成することを特徴とする。
The invention according to
Image coordinate calculation means for calculating image coordinates, which are coordinates on an image displayed on the image display unit of each sensor selected by the sensor selection means, based on the sensor relative coordinates calculated by the sensor relative coordinate calculation means. Have
The sensing information image generation unit generates a sensing information image to be displayed on the image display unit based on the image coordinates of each sensor calculated by the image coordinate calculation unit and the sensing information of each sensor acquired by the information acquisition unit. It is characterized by that.
請求項3に記載の発明は、請求項1〜請求項2に記載の発明において、
情報取得手段は、部屋に配置された複数のセンサが計測したセンシング情報及び前記各センサの座標情報を取得し、
前記部屋の境界情報を記憶した境界情報記憶部と、
視線方向計測手段が計測したユーザの視線方向及び、前記境界情報、ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づき、前記部屋の境界線をセンシング情報画像に合成する境界線合成手段と、
を有することを特徴とする。
The invention according to
The information acquisition means acquires sensing information measured by a plurality of sensors arranged in a room and coordinate information of each sensor,
A boundary information storage unit storing boundary information of the room;
Boundary line synthesizing means for synthesizing the boundary line of the room with the sensing information image based on the user's gaze direction measured by the gaze direction measuring means, the boundary information, and the coordinates of the head mounted display acquired by the head mounted display coordinate acquiring means. When,
It is characterized by having.
請求項4に記載の発明は、請求項3に記載の発明において、
境界線合成手段は、
異なる部屋ごとに境界線の表示を変えて、これら境界線をセンシング情報画像に合成することを特徴とする。
The invention according to
The boundary line synthesis means is
The present invention is characterized in that the display of the boundary lines is changed for each different room, and these boundary lines are synthesized with the sensing information image.
請求項5に記載の発明は、請求項1〜請求項4に記載の発明において、
各センサのヘッドマウントディスプレイに対する距離情報を算出するセンサ距離算出手段を有し、
ヘッドマウントディスプレイ座標取得手段は、前記センサ距離算出手段が算出した距離情報及び、情報取得手段が取得した各センサの個体識別情報及び座標情報に基づいて、ヘッドマウントディスプレイの座標を算出することを特徴とする。
The invention according to claim 5 is the invention according to
Sensor distance calculation means for calculating distance information for each sensor head-mounted display,
The head mounted display coordinate acquisition means calculates the coordinates of the head mounted display based on the distance information calculated by the sensor distance calculation means and the individual identification information and coordinate information of each sensor acquired by the information acquisition means. And
請求項1に記載の発明は、複数位置に設置されたセンサが計測したセンシング情報及び、前記各センサの個体識別情報、各センサの座標情報を取得する情報取得手段と、ヘッドマウントディスプレイの座標を算出又は取得するヘッドマウントディスプレイ座標取得手段と、ユーザの視線方向を計測する視線方向計測手段と、前記情報取得手段が取得した前記各センサの座標情報及び、前記ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づいて、ヘッドマウントディスプレイの座標を基点とした前記各センサの相対座標を算出するセンサ相対座標算出手段と、前記視線方向計測手段が計測したユーザの視線方向情報から、ユーザの視界領域を算出する視界領域算出手段と、前記視界領域算出手段が算出した視界領域及び、前記センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記視界領域内及び視界領域を視界方向に延長した領域内にある通信可能なセンサを選択するセンサ選択手段と、前記センサ選択手段が選択した各センサのセンサ相対座標と前記情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成するセンシング情報画像生成手段とを有することを特徴とする。
このため、ユーザがセンシング情報画像を、実際のユーザの視界に重ね合わせて視認することができることから、ユーザが、センサが検知したセンシング情報を臨場感を持って把握することが可能となる。
According to the first aspect of the present invention, the sensing information measured by the sensors installed at a plurality of positions, the individual identification information of each sensor, the information acquisition means for acquiring the coordinate information of each sensor, and the coordinates of the head mounted display are obtained. Head-mounted display coordinate acquisition means for calculating or acquiring, eye-gaze direction measuring means for measuring the user's line-of-sight direction, coordinate information of each sensor acquired by the information acquisition means, and the head-mounted display coordinate acquisition means Based on the coordinates of the head mounted display, the sensor relative coordinate calculating means for calculating the relative coordinates of each sensor with the coordinates of the head mounted display as a base point, and the user's gaze direction information measured by the gaze direction measuring means, A view area calculating means for calculating a view area of the view area and the view area calculating means A sensor that selects a communicable sensor in the visual field region and a region obtained by extending the visual field region in the visual field direction based on the projected visual field region and the sensor relative coordinate of each sensor calculated by the sensor relative coordinate calculation unit Sensing information image generation for generating a sensing information image to be displayed on the image display unit based on selection means, sensor relative coordinates of each sensor selected by the sensor selection means, and sensing information of each sensor acquired by the information acquisition means Means.
For this reason, since the user can view the sensing information image superimposed on the actual user's field of view, the user can grasp the sensing information detected by the sensor with a sense of reality.
請求項2に記載の発明は、センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記センサ選択手段が選択した各センサの前記画像表示部で表示する画像上の座標である画像座標を算出する画像座標算出手段を有し、センシング情報画像生成手段は、前記画像座標算出手段が算出した前記各センサの画像座標及び、情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成することを特徴とする。
このため、画像生成部で表示するセンシング情報画像を正確に表示することが可能となる。
The invention according to
For this reason, it is possible to accurately display the sensing information image displayed by the image generation unit.
請求項3に記載の発明は、部屋の境界情報と、視線方向計測手段が計測したユーザの視線方向及び、前記境界情報、ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づき、前記部屋の境界線をセンシング情報画像に合成する。このため、ユーザが見ることができない領域のセンシング情報とともに、ユーザが視認することができない領域の境界線も視認することができるので、大変臨場感がある。
The invention according to
請求項4に記載の発明は、境界線合成手段は、異なる部屋ごとに境界線の表示を変えて、これら境界線をセンシング情報画像に合成するので、ユーザは、奥にある部屋と、この部屋の更に奥にある部屋のセンシング情報画像を区別して認識することが可能となる。
In the invention according to
請求項5に記載の発明は、各センサのヘッドマウントディスプレイに対する距離情報を算出するセンサ距離算出手段と、前記センサ距離算出手段が算出した距離情報及び、情報取得手段が取得した各センサの個体識別情報及び座標情報に基づいて、ヘッドマウントディスプレイの座標を算出するヘッドマウントディスプレイ座標算出手段を有することを特徴とする。
このため、ヘッドマウントディスプレイの座標を正確に算出することができることから、画像生成部で表示するセンシング情報画像を正確に表示することが可能となる。
The invention according to claim 5 is a sensor distance calculation unit that calculates distance information of each sensor with respect to the head-mounted display, distance information calculated by the sensor distance calculation unit, and individual identification of each sensor acquired by the information acquisition unit It has a head mounted display coordinate calculation means for calculating the coordinates of the head mounted display based on the information and the coordinate information.
For this reason, since the coordinates of the head mounted display can be accurately calculated, it is possible to accurately display the sensing information image displayed by the image generation unit.
(本発明の概要)
以下に図面を示しつつ、本発明の概要を説明する。図1は本発明のヘッドマウントディスプレイ100の全体図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着される頭部装着部1と、ユーザに視認させる画像を表示する画像表示部2とから構成されている。
(Outline of the present invention)
The outline of the present invention will be described below with reference to the drawings. FIG. 1 is an overall view of a head mounted
ヘッドマウントディスプレイ100の画像表示部2には、強度が画像に応じて変調されたレーザ光を2次元に走査した走査画像光を、ユーザの眼球に直接照射して、ユーザに画像を視認させる(以下「表示」とする)走査画像光照射部20(図3に示す)を有している。本発明のヘッドマウントディスプレイ100は、ユーザが、画像表示部2が表示する画像を視認しつつ、外界を見ることができる、所謂シースルー型のヘッドマウントディスプレイである。
The
図2は、ヘッドマウントディスプレイ100を、頭部に装着したユーザの視界を表した図である。本発明のヘッドマウントディスプレイ100は、建造物等内に複数取り付けられた、センサ500が検知するセンシング情報を読み取り、当該センシング情報を、画像表示部2で、視覚的に表示することができるようになっている。前記センサ500が、ガス濃度を検知するセンサである場合には、図2に示されるように、高濃度のガス600が滞留している領域を、ヘッドマウントディスプレイ100の画像表示部2で表示させることにより、ユーザが高濃度のガス600が滞留している領域を、実際のユーザの視界に重ね合わせて視認することができ、ユーザがセンシング情報を臨場感を持って把握することが可能となる。なお、センサ500が検知するセンシング情報には、都市ガスや一酸化炭素等のガス濃度、温度、湿度、気圧、音量、粉塵濃度、煙、放射線量、水の存否等が含まれる。以下に、本発明のヘッドマウントディスプレイ100を詳細に説明する。
FIG. 2 is a diagram showing the field of view of a user who wears the head-mounted
(ヘッドマウントディスプレイのブロック図)
図3は本発明のヘッドマウントディスプレイ100のブロック図である。画像表示部2は、制御部40を有している。制御部40は、CPU41、RAM42、ROM43、不揮発性メモリ44、入力インターフェース45、無線インターフェース55を有していて、これらは相互にバス46で接続されている。
(Block diagram of head-mounted display)
FIG. 3 is a block diagram of the head mounted
CPU(Central Processing Unitの略)41は、RAM(Random Access Memoryの略)42、ROM(Read Only Memoryの略)43と協動して、各種演算、処理を行う。 A CPU (abbreviation of central processing unit) 41 performs various calculations and processes in cooperation with a RAM (abbreviation of random access memory) 42 and a ROM (abbreviation of read only memory) 43.
RAM42は、CPU41によって処理されるプログラムや、CPU41で処理するデータを、そのアドレス空間に一時的に保存する。
The
ROM43には、ヘッドマウントディスプレイ100を制御する各種プログラムやパラメータが保存されている。当該各種プログラムが、CPU41で処理されることにより、各種機能を実現している。ROM43には、後述するセンサ距離算出手段43a、ヘッドマウントディスプレイ座標算出手段43b、視線方向算出手段43c、センサ相対座標算出手段43d、視界領域算出手段43e、センサ選択手段43f、画像座標算出手段43g、センシング情報画像生成手段43h、境界情報合成手段43i等のプログラムが保存されている。なお、不揮発性メモリ44に、これらプログラムを保存することにしても差し支えない。
Various programs and parameters for controlling the head mounted
センサ距離算出手段43aは、無線インターフェース55が受信する、各センサ500の受信電波強度から、ヘッドマウントディスプレイ100と各センサ500との距離を算出する手段である。
The sensor
ヘッドマウントディスプレイ座標算出手段43b(ヘッドマウントディスプレイ座標取得手段)は、ヘッドマウントディスプレイ100に近い複数のセンサ500の「位置座標」及び、センサ距離算出手段43aが算出した、ヘッドマウントディスプレイ100とセンサ500との距離から、ヘッドマウントディスプレイ100の位置座標を算出する手段である。
The head-mounted display coordinate calculation unit 43b (head-mounted display coordinate acquisition unit) includes the “position coordinates” of the plurality of
視線方向算出手段43cは、方位センサ53及び傾きセンサ54が検出する信号に基づいて、ユーザの視線方向を算出する手段である。 The line-of-sight direction calculation means 43c is a means for calculating the user's line-of-sight direction based on signals detected by the azimuth sensor 53 and the tilt sensor 54.
センサ相対座標算出手段43dは、各センサ500の「位置座標」から、ヘッドマウントディスプレイ100の「位置座標」を引いて、各センサ500の「位置座標」を、ヘッドマウントディスプレイ100を中心座標とする座標系に変換した「センサ相対座標」に変換する手段である。
The sensor relative coordinate
視界領域算出手段43eは、視線方向算出手段43cが算出した、ユーザの視線方向から、ユーザの視界領域を算出する手段である。
The visual field
センサ選択手段43fは、視界領域算出手段43eが算出したユーザの視界領域及び、センサ相対座標算出手段43dが算出した各センサ500の「センサ相対座標」に基づいて、ユーザの視界領域内および視界領域を視界方向に延長した領域内にある通信可能なセンサ500を選択する手段である。
Based on the user's field of view calculated by the field of
画像座標算出手段43gは、センサ相対座標算出手段43dが算出した各センサ500の「センサ相対座標」に基づき、センサ選択手段43fが選択した各センサ500の画像表示部2で表示する画像上の座標である「画像座標」を算出する手段である。
The image coordinate
センシング情報画像生成手段43hは、センサ選択手段43fが選択した各センサ500の「画像座標」と、無線インターフェース55が取得した前記各センサ500の「センシング情報」に基づき、画像表示部2で表示する「センシング情報画像」を生成する手段である。
The sensing information
境界情報合成手段43iは、視線方向算出手段43cが算出したユーザの視線方向及び、不揮発性メモリ44に保存された境界情報44b、ヘッドマウントディスプレイ座標算出手段43bが取得したヘッドマウントディスプレイの座標に基づき、部屋の境界線を「センシング情報画像」に合成する手段である。
The boundary information synthesizing unit 43i is based on the user's gaze direction calculated by the gaze
なお、センサ距離算出手段43a、ヘッドマウントディスプレイ座標算出手段43b、視線方向算出手段43c、センサ相対座標算出手段43d、視界領域算出手段43e、センサ選択手段43f、画像座標算出手段43g、センシング情報画像生成手段43h、境界情報合成手段43iを、ASIC(ApplicationSpecific Integrated Circuit)として構成することとしても差し支えない。
Sensor distance calculation means 43a, head-mounted display coordinate calculation means 43b, line-of-sight direction calculation means 43c, sensor relative coordinate calculation means 43d, field-of-view area calculation means 43e, sensor selection means 43f, image coordinate calculation means 43g, sensing information image generation The
不揮発性メモリ44は、ヘッドマウントディスプレイ100の各種設定や、表示パターンテーブル44a、境界情報44bを保存する。表示パターンテーブル44aは、図18に示されるように、「センシング情報」(計測値)の閾値と、当該閾値に応じ、どのように「センシング情報画像」として表示するかを表したテーブルである。境界情報44bは、図7に示されるような各部屋の境界座標の情報である。
The
入力インターフェース45は、電源ボタン50、設定変更ボタン51、モード切替ボタン52、方位センサ53、傾きセンサ54と接続し、これらのボタン及びセンサが出力する信号の物理的、論理的な形式を変換し、バス46に引き渡す。
The
電源ボタン50は、ヘッドマウントディスプレイ100への電源の投入・遮断を行うためのボタンである。設定変更ボタン51は、ヘッドマウントディスプレイ100の設定の変更を行うためのボタンである。モード切替ボタン52は、後述する「透過モード」と「非透過モード」と「視界領域全センサ閲覧モード」(広義の透過モード)とを切り替えるための手段(モード切替手段)である。なお、図1に示されているように、電源ボタン50、設定変更ボタン51、モード切替ボタン52は、画像表示部2に設けられている。
The
方位センサ53は、地磁気を検知することにより、ヘッドマウントディスプレイ100の正面方向の方位、つまり、ユーザの視線の水平方向の方位を計測するセンサである。
The azimuth sensor 53 is a sensor that measures the azimuth in the front direction of the head mounted
傾きセンサ54は、ヘッドマウントディスプレイ100の正面方向の水平面に対する仰角や俯角、つまり、ユーザの視線の水平面に対する角度を計測するセンサである。傾きセンサ54には、ジャイロセンサが含まれる。
The tilt sensor 54 is a sensor that measures the elevation angle and depression angle of the head mounted
方位センサ53及び傾きセンサ54から、ユーザの視線方向を計測する「視線方向計測手段」が構成されている。 The azimuth sensor 53 and the tilt sensor 54 constitute a “gaze direction measuring unit” that measures the gaze direction of the user.
無線インターフェース55は、複数にセンサ500から、「センシング情報」、「個体識別情報」、「座標情報」を受信する「情報取得手段」である。
The wireless interface 55 is an “information acquisition unit” that receives “sensing information”, “individual identification information”, and “coordinate information” from a plurality of
走査画像光照射部20は、強度が画像に応じて変調されたレーザ光を2次元に走査した走査画像光を生成し、当該走査画像光をユーザの眼球に直接照射し、ユーザに画像を視認させる装置である。走査画像光照射部20は、走査光生成部21、コリメート光学系22、垂直走査部23、水平走査部24、リレー光学系25、リレー光学系26を有している。
The scanned image
走査光生成部21は、センシング情報画像生成手段43hが生成した「センシング情報画像」を、ドットクロック毎に読み出し、読み出した「センシング情報画像」に応じて強度変調して走査光を生成する装置である。走査光生成部21は、信号処理回路211、光源部212、光合成部213を有している。
The scanning
信号処理回路211は、制御部40のバス46と接続している。信号処理回路211は、制御部40のバス46から入力された「センシング情報画像」に基づいて、走査画像光を生成するための要素となるB(青)、G(緑)、R(赤)の各画像信号214a〜214cを生成し、光源部212に出力する。また、信号処理回路211は、後述する垂直走査部23の垂直走査制御回路23bと接続している。信号処理回路211は、垂直駆動信号215を生成し、この垂直駆動信号215を垂直走査制御回路23bに出力する。更に、信号処理回路211は、後述する水平走査制御回路24bと接続している。信号処理回路211は、水平駆動信号216を生成し、この水平駆動信号216を水平走査制御回路24bに出力する。
The
光源部212は、Bレーザドライバ212a、Gレーザドライバ212b、Rレーザドライバ212c、Bレーザ212d、Gレーザ212e、Rレーザ212fから構成されている。Bレーザドライバ212aは、信号処理回路211からドットクロック毎に出力されたB(青)の画像信号214aに基づき、Bレーザ212dを駆動させる。Bレーザ212dは、B(青)の画像信号214aに基づき、強度変調された青色のレーザ光を出射する。Gレーザ212e及びRレーザ212fも、同様に、それぞれ強度変調された、緑色のレーザ光、赤色のレーザ光を出射する。
The
各レーザ212d〜212fには、半導体レーザや、高調波発生機能付固定レーザが含まれる。なお、半導体レーザを用いる場合には、駆動電流を直接変調して、レーザ光の強度変調を行う。また、高調波発生機能付固定レーザを用いる場合には、各レーザ212d〜212fそれぞれに、外部変調器を備えてレーザ光の強度変調を行う。 Each of the lasers 212d to 212f includes a semiconductor laser and a fixed laser with a harmonic generation function. When a semiconductor laser is used, the drive current is directly modulated to modulate the intensity of the laser beam. When using a fixed laser with a harmonic generation function, each of the lasers 212d to 212f is provided with an external modulator to modulate the intensity of the laser light.
光合成部213は、コリメート光学系213a〜213c、ダイクロイックミラー213d〜213f、結合光学系213gとから構成されている。コリメート光学系213a〜213cは、それぞれ、レーザ212d〜212fの前方に配設されていて、各レーザ212d〜212fが出射したレーザ光を、平行光化する。ダイクロイックミラー213d〜213fは、それぞれ、コリメート光学系213a〜213cの前方に配設されていて、各コリメート光学系213a〜213cが平行化した各レーザ光を、所定の範囲の波長のレーザ光のみを選択的に、反射又は透過する。
The
結合光学系213gは、ダイクロイックミラー213dの前方に配設されている。ダイクロイックミラー213dを透過した青色のレーザ光及び、ダイクロイックミラー213e、213fをそれぞれ反射した、緑色のレーザ光、赤色のレーザ光が、結合光学系213gに入射する。結合光学系213gは、各3原色のレーザ光を集光(混合)させて、光ファイバ27に入射させる。
The coupling optical system 213g is disposed in front of the dichroic mirror 213d. Blue laser light transmitted through the dichroic mirror 213d and green laser light and red laser light reflected from the
垂直走査部23及び水平走査部24は、光ファイバ27に入射されたレーザ光を、画像として照射するために、当該レーザ光を垂直方向と水平方向に走査して走査画像光を生成する。
In order to irradiate the laser beam incident on the
垂直走査部23は、共振型偏向素子23a、垂直走査制御回路23bとから構成されている。光ファイバ27に入射されたレーザ光は、コリメート光学系22で平行光化され、共振型偏向素子23aに入射される。共振型偏向素子23aは、垂直走査制御回路23bで揺動される反射面23dを有し、入射されたレーザ光を、揺動する反射面23dで反射させて垂直方向に走査する。垂直走査制御回路23bは、信号処理回路211から出力される垂直駆動信号215に基づいて、共振型偏向素子23aの反射面23dを揺動させる駆動信号を発生する。
The vertical scanning unit 23 includes a
水平走査部24は、偏向素子24a、水平走査制御回路24b、とから構成されている。偏向素子24aは、水平走査制御回路24bで揺動される反射面24dを有し、入射されたレーザ光を、揺動する反射面24dで反射させて水平方向に走査し、2次元的に走査された画像光として、リレー光学系26に出射する。水平走査制御回路24bは、信号処理回路211から出力される水平駆動信号216に基づいて、偏向素子24aの反射面24dを揺動させる駆動信号を発生する。
The horizontal scanning unit 24 includes a
リレー光学系25は、共振型偏向素子23aと偏向素子24aの間に配設されている。リレー光学系25は、共振型偏向素子23aの反射面23dで、垂直方向に走査されたレーザ光を収束させて、偏向素子24aの反射面24dに入射させる。
The relay
信号処理回路211は、電源が投入されれば、垂直駆動信号215と水平駆動信号216を、それぞれ垂直走査制御回路23bと水平走査制御回路24bに出力し、反射面23d、24dを振動させ、安定して2次元走査をさせるよう制御を行う。
When the power is turned on, the
リレー光学系26は、正の屈折力を持つレンズ系26a、26bを有している。偏向素子24aから出射された画像光は、レンズ系26aによって、それぞれの画像光が、その走査画像光の中心線を相互に略平行にされ、かつそれぞれ収束画像光に変換される。前記収束画像光は、レンズ系26bによってそれぞれほぼ平行な走査画像光となるとともに、これらの走査画像光の中心線がユーザの瞳孔Eaに収束するように集光される。
The relay
なお、本実施形態では、光ファイバ27から入射されたレーザ光を、垂直走査部23で垂直方向に走査した後、水平走査部24によって水平方向に走査することとしたが、垂直走査部23と水平走査部24の配置を入れ替え、水平走査部24に水平方向に走査した後、垂直走査部23で垂直方向に走査するように構成しても差し支えない。
In this embodiment, the laser light incident from the
(メイン処理)
図4にメイン処理のフロー図を示し、メイン処理について説明する。ユーザが電源ボタン50を操作することにより、ヘッドマウントディスプレイ100の電源が投入されると、S11「初期化」の処理に進む。S11の処理において、ユーザは、設定変更ボタン51を操作することにより、「表示更新間隔」や「モード」を設定することができる。「表示更新間隔」とは、画像表示部2で表示する「センシング情報画像」を更新する間隔である。なお、「モード」には、「非透過モード」、「透過モード」、「視界領域全センサ閲覧モード」(広義の透過モード)がある。図20に示されるように、「非透過モード」とは、ヘッドマウントディスプレイ100がある領域、つまり、ユーザが見ることができる領域(例えば、ユーザが居る部屋)に取り付けられたセンサ500が計測した「センシング情報」のみから、「センシング情報画像」を生成するモードである。「透過モード」とは、ヘッドマウントディスプレイ100が無い領域、つまり、ユーザが見ることができない領域に取り付けられたセンサ500が計測した「センシング情報」から、「センシング情報画像」を生成するモードである。S11の処理が終了すると、S12「センシング情報受信処理起動」の処理に進む。
(Main process)
FIG. 4 shows a flowchart of the main process, and the main process will be described. When the power of the head mounted
S12「センシング情報受信処理起動」の処理において、CPU41は、図5に示される、「センシング情報受信処理」を起動させる。当該処理については、図5を用いて後で詳細に説明する。S12の処理が終了すると、S13「タイマースタート」の処理に進む。
In the process of S12 “sensing information reception process activation”, the
S13「タイマースタート」の処理において、CPU41は、「センシング情報画像」を更新するためのタイマーをスタートさせる処理を行う。S13の処理が終了すると、S15「表示更新間隔時間経過?」の判断処理に進む。
In the process of S13 “timer start”, the
S15「表示更新間隔時間経過?」の判断処理において、CPU41は、S13の処理でスタートさせたタイマーが、「表示更新間隔」を経過したか判断する。CPU41が、「表示更新間隔」を経過したと判断した場合には、S16「ヘッドマウントディスプレイ位置座標算出処理」に進む。CPU11が、「表示更新間隔」を経過していないと判断した場合には、S21「透過モードON?」の判断処理に進む。
In the determination process of S15 “display update interval time elapsed?”, The
S21「透過モードON?」の判断処理において、CPU41は、ユーザがモード切替ボタン52を押圧することにより「透過モード」が選択されたか否かを判断する。CPU41が、「透過モード」が選択されたと判断した場合には、S22「透過モードに切替処理」の処理に進む。一方で、CPU41が、「透過モード」が選択されたと判断しない場合には、S25「非透過モードON?」の判断処理に進む。
In the determination process of S21 “transparent mode ON?”, The
S22「透過モードに切替処理」において、CPU41は、「透過モード」に切り替える処理を実行する。S22の処理が終了すると、S15の判断処理に戻る。
In S22 “switching to transparent mode”, the
S25「非透過モードON?」の判断処理において、CPU41は、ユーザがモード切替ボタン52を押圧することにより「非透過モード」が選択されたか否かを判断する。CPU41が、「非透過モード」が選択されたと判断した場合には、S26「非透過モードに切替処理」の処理に進む。一方で、CPU41が、「非透過モード」が選択されたと判断しない場合には、S28「視界領域全センサ閲覧モードON?」の判断処理に進む。
In the determination process of S25 “non-transparent mode ON?”, The
S26「非透過モードに切替処理」において、CPU41は、「非透過モード」に切り替える処理を実行する。S26の処理が終了すると、S15の判断処理に戻る。
In S <b> 26 “switch to non-transparent mode”, the
S28「視界領域全センサ閲覧モードON?」の判断処理において、CPU41は、ユーザがモード切替ボタン52を押圧することにより「視界領域全センサ閲覧モード」が選択されたか否かを判断する。CPU41が、「視界領域全センサ閲覧モード」が選択されたと判断した場合には、S29「視界領域全センサ閲覧モードに切替処理」の処理に進む。一方で、CPU41が、「視界領域全センサ閲覧モード」が選択されたと判断しない場合には、S15の判断処理に戻る。
In the determination process of S <b> 28 “viewing area all-sensor browsing mode ON?”, The
S29「視界領域全センサ閲覧モードに切替処理」において、CPU41は、「視界領域全センサ閲覧モード」に切り替える処理を実行する。S29の処理が終了すると、S15の判断処理に戻る。
In S <b> 29 “switching to the viewing area all-sensor browsing mode”, the
S16「ヘッドマウントディスプレイ位置座標算出処理」において、図8を用いて後で詳細に説明するが、ヘッドマウントディスプレイ座標算出手段43bは、ヘッドマウントディスプレイ100の「位置座標」を算出する。S16の処理が終了すると、S17「センサ選択処理」に進む。
In S16 “Head Mount Display Position Coordinate Calculation Processing”, which will be described in detail later with reference to FIG. 8, the head mount display coordinate calculation means 43b calculates the “position coordinates” of the
S17「センサ選択処理」において。図10を用いて後で詳細に説明するが、センサ選択手段43fは、ユーザの「視界領域」内および「視界領域」を視界方向に延長した領域内にある通信可能なセンサ500を選択する。S17の処理が終了すると、S18「センシング情報表示処理」に進む。
In S17 “sensor selection process”. As will be described in detail later with reference to FIG. 10, the
S18「センシング情報画像表示処理」において、図14を用いて後で詳細に説明するが、センシング情報画像生成手段43hは、「センシング情報画像」を生成する。S18の処理が終了すると、S19「電源OFF?」
In S18 “sensing information image display processing”, which will be described in detail later with reference to FIG. 14, the sensing information
S19「電源OFF?」の判断処理において、CPU41は、電源ボタン50の押下を検知し、ユーザがヘッドマウントディスプレイ100の電源をOFFにする操作を行ったか否かを判断する。CPU41が、電源ボタン50の押下を検知した場合には、S20「起動中の全ての処理を中止」の処理に進む。CPU41が、電源ボタン50の押下を検知しない場合には、S13の処理に戻る。
In the determination process of S19 “Power OFF?”, The
S20「起動中の全ての処理を中止」の処理において、CPU41は、起動中の全ての処理を終了させて、ヘッドマウントディスプレイ100の電源をOFFにする。S20の処理が終了すると、「ヘッドマウントディスプレイメイン処理」が終了する。
In the process of S20 “stop all active processes”, the
(センシング情報受信処理)
図5にセンシング情報取得処理のフロー図を示して、当該処理について説明する。S12の処理で、CPU41が、「センシング情報受信処理」を開始させると、以下の処理がメイン処理と並列に実行される。まず、S31「センサからデータ受信?」の判断処理に進む。S31の判断処理において、CPU41が、センサ500からデータを受信したと判断した場合には、S32「センサ情報テーブルに保存」の処理に進む。なお、前記データは、「個体識別情報」、「座標情報」、「部屋情報」、「センシング情報」である。ここで、通常、ユーザがいる部屋内のセンサ500からは直接無線通信によりデータを受信できる。また一例としてユーザがいない部屋にあるセンサ500からのデータは、ユーザが視界領域を視界方向に延長した方向の近くのセンサ500に転送され、これを順次ユーザがいる部屋にあるセンサ500にまで繰り返すことにより、ユーザがいない部屋のセンサ500からのデータもユーザがいる部屋のセンサ500から受信することができる。いわゆるセンサネットワークが形成され、センサ500がマルチホップ通信(リレー通信)を行う場合には、建物内の離れた部屋、直接電波の届かないところにあるセンサ500からのデータも全て受信することができることも可能である。
(Sensing information reception processing)
FIG. 5 is a flowchart of sensing information acquisition processing, and the processing will be described. When the
S32「センサ情報テーブルに保存」の処理において、CPU41は、各センサ500から受信した、「個体識別情報」(センサID)、「座標情報」(位置座標)、「部屋情報」(部屋)、「センシング情報」(計測値(%))を、図6に示されるような「センサ情報テーブル」として、RAM42の記憶領域に保存する。なお、図7に部屋の配置例を示す。センサ500の位置座標は、建造物の所定位置を原点としたセンサ500の位置座標である。S32の処理が終了すると、S33「センサとの距離を算出」の処理に進む。
In the process of S32 “store in sensor information table”, the
S33「センサとの距離を算出」の処理において、センサ距離算出手段43aは、無線インターフェース55が受信する、直接電波を受信できた各センサ500の受信電波強度と電波の減衰曲線から、ヘッドマウントディスプレイ100と各センサ500との距離を算出し、「センサ情報テーブル」に保存する。S33の処理が終了すると、S31の判断処理に戻る。
In the process of S33 “Calculate the distance to the sensor”, the sensor distance calculation means 43a calculates the head-mounted display from the received radio wave intensity and the radio wave attenuation curve of each
(ヘッドマウントディスプレイ位置座標算出処理)
図8にヘッドマウントディスプレイ位置座標算出処理のフロー図を示して、以下当該処理について説明をする。図4のS16の処理が開始すると、図8のS41「近い順にセンサを4つ選択」の処理において、ヘッドマウントディスプレイ座標算出手段43bは、RAM42の記憶領域に記憶された「センサ情報テーブル」(図6に示す)を照合して、ヘッドマウントディスプレイ100から、最も近いセンサ500を4つ選択する。1つの部屋には複数のセンサ500が設けられているため、距離を算出できたセンサ500は部屋内のセンサ500となる。隣接した部屋のセンサ500から直接データが受信できた場合は、壁等の減衰により遠い距離にあるセンサ500として算出されるので、ここでは部屋内にあるセンサ500が選択されると考えて良い。S41の処理が終了すると、S42「ヘッドマウントディスプレイの位置座標算出」の処理に進む。
(Head-mounted display position coordinate calculation process)
FIG. 8 shows a flowchart of the head-mounted display position coordinate calculation process, which will be described below. When the process of S16 in FIG. 4 starts, in the process of S41 “select four sensors in the closest order” in FIG. 8, the head mounted display coordinate calculation unit 43b uses the “sensor information table” ( 4), the four
S42「ヘッドマウントディスプレイの位置座標算出」の処理において、ヘッドマウントディスプレイ座標算出手段43bは、S41の処理で選択された4つのセンサ500それぞれについて、センサ500の位置座標を中心とし、ヘッドマウントディスプレイ100との距離(図6に示される「距離(m)」)を半径とする4つの球の交点の座標を算出する。前記4つの球の交点が、当該交点の座標が、ヘッドマウントディスプレイ100の「位置座標」(図7に示される建造物の所定位置を原点とした座標)である。図9に、S42の処理で算出されたヘッドマウントディスプレイ100の位置座標を示す。ヘッドマウントディスプレイ座標算出手段43bは、ヘッドマウントディスプレイ100の「位置座標」と、不揮発性メモリ44に保存された境界情報44bと照合して、ヘッドマウントディスプレイ100が建造物のどの部屋にある(ユーザがどの部屋にいるか)を認識する。S42の処理が終了すると、「ヘッドマウントディスプレイ位置座標算出処理」が終了し、図4に示される「メイン処理」のS17の処理に進む。
In the processing of S42 “calculation of position coordinates of the head mounted display”, the head mounted display coordinate calculation means 43b has the position coordinates of the
なお、ヘッドマウントディスプレイ100の「位置座標」を算出する処理は、図8に示したフローの実施形態に限定されず、GPS(ヘッドマウントディスプレイ座標取得手段)を使用したり、無線LANやPHSの基地局を利用したりして、当該基地局が発する電波の電波強度から、ヘッドマウントディスプレイ100の「位置座標」を算出することにしても差し支えない。また、アクティブタグ方式により、ヘッドマウントディスプレイ100の「位置座標」を算出することにしても差し支えない。
Note that the process of calculating the “position coordinates” of the head mounted
(センサ選択処理)
図10にセンサ選択処理のフロー図を示し、以下、当該フローについて説明する。図4のS17の処理が開始すると、図10のS51「初期化」の処理において、CPU41は、「視界水平角度」dh°及び「視界垂直角度」dv°を設定する。図11の(B)に示されるように、「視界水平角度」dh°は、ユーザの視界の水平方向の角度であり、ユーザが操作ボタン51を操作することにより任意に設定できるようになっている。図11の(C)に示されるように、「視界垂直角度」dv°は、ユーザの視界の垂直方向の角度であり、ユーザが操作ボタン51を操作することにより任意に設定できるようになっている。もちろん、人間の平均的な視界となるよう予め設定されていても良い。なお、図11の(A)〜(C)のx、y、z座標は、図7に示される建造物内にいるユーザの位置(ヘッドマウントディスプレイの位置)が原点となるように、建造物を基準としてセンサの座標を決定している座標軸を平行移動した相対座標である。S51の処理が終了すると、S52「視線水平角度を算出」の処理に進む。
(Sensor selection processing)
FIG. 10 shows a flowchart of the sensor selection process, and the flow will be described below. When the process of S17 in FIG. 4 is started, in the process of S51 “initialization” in FIG. 10, the
S52「視線水平角度を算出」の処理において、視線方向算出手段43cは、方位センサ53から出力される信号に基づいて、図11の(B)に示されるように、ユーザの視線方向の水平角度h°を算出する。なお、水平角度h°は、図7に示される建造物内にいるユーザの位置を原点とした相対座標系のx軸に対し視線方向がなす角度である。S52の処理が終了すると、S53「視線垂直角度を算出」の処理に進む。 In the process of S52 “calculate gaze horizontal angle”, the gaze direction calculation means 43c, based on the signal output from the azimuth sensor 53, as shown in FIG. Calculate h °. The horizontal angle h ° is an angle formed by the line-of-sight direction with respect to the x axis of the relative coordinate system with the position of the user in the building shown in FIG. 7 as the origin. When the process of S52 is completed, the process proceeds to S53 "Calculate gaze vertical angle".
S53「視線垂直角度を算出」の処理において、視線方向算出手段43cは、傾きセンサ54から出力される信号に基づいて、図11の(C)に示されるように、ユーザの視線方向の垂直角度v°を算出する。なお、垂直角度v°は、図7に示される建造物内にいるユーザの位置を原点とした相対座標系のx−y面に対して視線方向がなす角度である。S53の処理が終了すると、S54「未チェックのセンサあり?」の判断処理に進む。 In the process of S53 “Calculate the gaze vertical angle”, the gaze direction calculation means 43c, based on the signal output from the tilt sensor 54, as shown in FIG. v ° is calculated. The vertical angle v ° is an angle formed by the line-of-sight direction with respect to the xy plane of the relative coordinate system with the position of the user in the building shown in FIG. 7 as the origin. When the process of S53 is completed, the process proceeds to S54 “Is there an unchecked sensor?”
S54「未チェックのセンサあり?」の判断処理において、CPU41は、S55〜S6の処理や判断処理を経ていない未チェックのセンサ500があるか否かを判断する。CPU41が、未チェックのセンサ500があると判断した場合には、S55「センサ相対座標」の処理に進む。一方で、CPU41が、未チェックのセンサ500がないと判断した場合には、「センサ選択処理」が終了し、図4に示される「メイン処理」のS18の処理に進む。
In the determination process of S54 “Is there an unchecked sensor?”, The
S55「センサ相対座標算出」の処理において、センサ相対座標算出手段43dは、RAM42に記憶された「センサ情報テーブル」(図6に示す)を参照して、各センサ500の建造物を基準とした「位置座標」から、ヘッドマウントディスプレイ100の「位置座標」を引いて、各センサ500の「位置座標」を、ヘッドマウントディスプレイ100を中心座標とする相対座標系に変換した「センサ相対座標」に変換する。S55の処理が終了すると、S56「ヘッドマウントディスプレイに対するセンサの角度を算出」の処理に進む。
In the process of S55 “sensor relative coordinate calculation”, the sensor relative coordinate
S56「ヘッドマウントディスプレイに対するセンサの角度を算出」の処理において、センサ選択手段43fは、図12に示されるように、ヘッドマウントディスプレイ100を中心座標とする座標系における、ヘッドマウントディスプレイ100に対する各センサ500の角度を算出する。具体的には、下式(式1、式2)に、S55の処理で算出した各センサの「センサ相対座標」を代入することにより、ヘッドマウントディスプレイ100に対する各センサ500の水平方向角度θ_h°及び垂直方向角度θ_v°を算出する。
なお、上式(式1、式2)から導き出される水平方向角度θ_h°及び垂直方向角度θ_v°は、2つの値が導き出されるが、S52、S53の処理でそれぞれ算出した、ユーザの視線方向の水平角度h°と垂直角度v°に近い方の値を採用する。S56の処理が終了すると、S57「視界領域算出」の処理に進む。
Two values are derived for the horizontal direction angle θ_h ° and the vertical direction angle θ_v ° derived from the above equations (
S57「視界領域算出」の処理において、視界領域算出手段43eは、ユーザの視界領域を算出する。
具体的には、図12の(A)に示されるように、水平角度に関し、S52の処理で算出したユーザの視線方向の水平角度h°から、S51に処理で設定された「視界水平角度」dh°を、加算、減算した角度の範囲が、水平方向の視界の領域(以下「水平視界領域」とする)である。
また、図12の(B)に示されるように、垂直角度に関し、S53の処理で算出したユーザの視線方向の垂直角度v°から、S51の処理で設定された「視界垂直角度」dv°を、加算、減算した角度の範囲が、垂直方向の視界の領域(以下、「垂直視界領域」とする)である。S57の処理が終了すると、S58「センサが水平視界領域内にある?」の判断処理に進む。
In the processing of S57 “visual field calculation”, the visual
Specifically, as shown in FIG. 12A, regarding the horizontal angle, the “view horizontal angle” set in S51 from the horizontal angle h ° in the user's line-of-sight direction calculated in S52. The range of angles obtained by adding and subtracting dh ° is the horizontal field of view (hereinafter referred to as “horizontal field of view”).
Further, as shown in FIG. 12B, regarding the vertical angle, the “view vertical angle” dv ° set in the process of S51 is calculated from the vertical angle v ° of the user's line-of-sight direction calculated in the process of S53. The range of the angle obtained by adding and subtracting is the vertical field of view (hereinafter referred to as “vertical field of view”). When the process of S57 is completed, the process proceeds to the determination process of S58 “A sensor is in the horizontal field of view?”.
S58「センサが水平視界領域内にある?」の判断処理において、センサ選択手段43fは、通信可能なセンサ500が図12の(A)に示される「水平視界領域」内および「水平視界領域」を視界方向に延長した領域内にあるか否かを判断する。具体的には、S56の処理で算出した、センサ500の水平方向角度θ_h°が、下式3に合致するか否かで判断する。
(h°−視界水平角度dh°)≦θ_h°≦(h°+視界水平角度dh°)……(式3)
センサ選択手段43fが、通信可能なセンサ500が「水平視界領域」内および「水平視界領域」を視界方向に延長した領域内にあると判断した場合には、S59「センサが垂直視界領域内にある?」の判断処理に進む。一方で、センサ選択手段43fが、通信可能なセンサ500が「水平視界領域」内および「水平視界領域」を視界方向に延長した領域内にないと判断した場合には、S54の判断処理に戻る。
In the determination process of S58 “Sensor is in horizontal viewing area?”,
(H ° −view horizontal angle dh °) ≦ θ_h ° ≦ (h ° + view horizontal angle dh °) (Equation 3)
If the
S59「センサが垂直視界領域内にある?」の判断処理において、センサ選択手段43fは、通信可能なセンサ500が図12の(B)に示される「垂直視界領域」内および「垂直視界領域」を視界方向に延長した領域内にあるか否かを判断する。具体的には、S56の処理で算出した、センサ500の垂直方向角度θ_v°が、下式4に合致するか否かで判断する。
(v°−視界垂直角度dv°)≦θ_v°≦(v°+視界垂直角度dv°)……(式4)
センサ選択手段43fが、通信可能なセンサ500が「垂直視界領域」内および「垂直視界領域」を視界方向に延長した領域内にあると判断した場合には、S60「センサを表示リストに登録」の処理に進む。一方で、センサ選択手段43fが、通信可能なセンサ500が「垂直視界領域」内および「垂直視界領域」を視界方向に延長した領域内にないと判断した場合には、S54の判断処理に戻る。
In the determination process of S59 “A sensor is in the vertical viewing area?”, The
(V ° −view vertical angle dv °) ≦ θ_v ° ≦ (v ° + view vertical angle dv °) (Formula 4)
If the
S60「センサを表示リストに登録」の処理において、S58及びS59の処理で、ユーザの視界領域内にあると判断されたセンサ500を図13に示されるような「表示リスト」に登録する。S60処理が終了すると、S54の判断処理に戻る。
In the process of S60 “register sensor in display list”, the
(センシング情報画像表示処理)
図14にセンシング情報画像表示処理のフロー図を示して、以下当該処理について説明をする。図4のS18の処理が開始するとS71「透過モード?」の判断処理で、CPU41は、ヘッドマウントディスプレイ100の状態が「透過モード」であるか否かを判断する。CPU41が、ヘッドマウントディスプレイ100の状態が「透過モード」であると判断した場合には、S72「ユーザが見ることができる領域のセンサを表示リストから削除」の処理に進む。一方で、CPU41は、ヘッドマウントディスプレイ100の状態が「透過モード」でないと判断した場合には、S75「非透過モード?」の判断処理に進む。
(Sensing information image display processing)
FIG. 14 shows a flowchart of the sensing information image display process, and the process will be described below. When the process of S18 in FIG. 4 starts, the
S72「ユーザが見ることができる領域のセンサを表示リストから削除」の処理において、センサ選択手段43fは、ユーザが見ることができる領域(ユーザが現在いる部屋)のセンサ500を、図13に示される「表示リスト」から削除する処理を行う。図13において、各センサの部屋情報がヘッドマウントディスプレイ100の存在する部屋と一致するかを判定すればよい。S72の処理が終了すると、S73「センサのヘッドマウントディスプレイで表示する画像上の画像座標を算出」の処理に進む。
FIG. 13 shows the
S73「センサのヘッドマウントディスプレイで表示する画像上の画像座標を算出」の処理において、画像座標算出手段43gは、センサ相対座標算出手段43dが算出した各センサ500の「センサ相対座標」に基づき、センサ選択手段43fが選択した各センサ500の画像表示部2で表示する画像上の座標である「画像座標」を算出する。つまり、3次元上に配置されたセンサ500を、画像生成装置2が生成する2次元の画像上に表示させるための座標を算出する処理を行う。具体的に、図15及び図16に説明図を示して説明する。図15はヘッドマウントディスプレイ100を中心座標とする座標系の水平座標を示した図である。
(1)ユーザの視線方向の直線をw軸とする。
w軸に直交する軸を、p軸とする。
(2)視野範囲内の任意のセンサ500(図15の例では、センサA)を選択し、当該センサAを通りw軸と、直交する直線vを引く。 直線vは、wa=d_a×cos(h°−θ_h°)=√(xa2+ya2)×cos(h°−θ_h°)(式5)と表すことができる。
(3)右側最大視野方向の直線及び左側最大視野方向の直線は、いずれもw軸に対する角度は視野水平角度なので、(図12に示す)、右側の視野水平角度をdh1°、左側の視野水平角度をdh2°とすると、P=a1w(式6)P=a2w(式7)と表すことができる。ここで、a1=tan(−dh1°)、a2=tan(dh2°)
(4)式5及び式6とから、直線Vと右側最大視野方向の直線との交点mの座標(pm、wm)を算出する。
また、式5及び式7とから、直線Vと左側最大視野方向の直線との交点nの座標(pn、wn)を算出する。
交点mの座標(pm、wm)及び交点nの座標(pn、wn)から、下式8に示されるように、仮画面の横幅を算出する。
|pm−pn|…(式8)
(5)また、w軸(仮想画面の中心)からのセンサAの距離p_aは、下式9で求めることができる。
p_a=d_a×sin(h°−θ_h°)=√(xa2+ya2)×sin(h°−θ_h°)…(式9)
(6)センサBについては、ヘッドマウントディスプレイ原点及びセンサBを通る直線の式と、直線vの式から、両直線の交点の座標を算出することができ(xb’、yb’)当該座標から、上記した(1)〜(5)と同じ手法で、w軸(仮想画面の中心)からのセンサBの距離p_bを算出する。他のセンサ500についても同様の手法で、仮画面上の各センサ500の横幅方向の位置を算出する。
(7)図16に示されるように、同様の手法で、仮画面上の各センサ500の縦幅方向の位置を算出する。
(8)図17に示されるように、仮画面上のセンサの位置関係を保ったまま、画像表示部2が生成する画面のサイズに縮小することにより、画像生成装置2が表示する画像上の各センサ500の「画像座標」が算出される。
S73の処理が終了すると、S74「センシング情報画像及び境界線をヘッドマウントディスプレイで表示」の処理に進む。
In the process of S73 “calculate image coordinates on the image displayed on the head-mounted display of the sensor”, the image coordinate calculation means 43g is based on the “sensor relative coordinates” of each
(1) A straight line in the user's line-of-sight direction is taken as the w-axis.
The axis orthogonal to the w axis is the p axis.
(2) Select an arbitrary sensor 500 (sensor A in the example of FIG. 15) within the visual field range, and draw a straight line v that passes through the sensor A and is orthogonal to the w axis. The straight line v can be expressed as wa = d_a × cos (h ° −θ_h °) = √ (xa 2 + ya 2 ) × cos (h ° −θ_h °) (Formula 5).
(3) The straight line in the maximum right visual field direction and the straight line in the maximum left visual field direction are both horizontal to the w-axis (shown in FIG. 12), so the right visual field horizontal angle is dh1 ° and the left visual field horizontal When the angle is dh2 °, it can be expressed as P = a 1 w (formula 6) P = a 2 w (formula 7). Here, a1 = tan (−dh1 °), a2 = tan (dh2 °)
(4) From Equations 5 and 6, the coordinates (pm, wm) of the intersection m between the straight line V and the straight line in the right-side maximum visual field direction are calculated.
Further, the coordinates (pn, wn) of the intersection point n between the straight line V and the straight line in the maximum left visual field direction are calculated from the
From the coordinates (pm, wm) of the intersection point m and the coordinates (pn, wn) of the intersection point n, the horizontal width of the temporary screen is calculated as shown in Equation 8 below.
| Pm−pn | (Formula 8)
(5) Further, the distance p_a of the sensor A from the w-axis (the center of the virtual screen) can be obtained by the following formula 9.
p_a = d_a × sin (h ° −θ_h °) = √ (xa 2 + ya 2 ) × sin (h ° −θ_h °) (Equation 9)
(6) For sensor B, the coordinates of the intersection of both straight lines can be calculated from the formula of the straight line passing through the head mounted display origin and sensor B and the formula of straight line v (xb ′, yb ′) The distance p_b of the sensor B from the w axis (the center of the virtual screen) is calculated by the same method as the above (1) to (5). For the
(7) As shown in FIG. 16, the position in the vertical width direction of each
(8) As shown in FIG. 17, by reducing the size of the screen generated by the
When the process of S73 ends, the process proceeds to the process of S74 “display sensing information image and boundary line on head mounted display”.
S74「センシング情報画像及び境界線をヘッドマウントディスプレイで表示」の処理において、センシング情報画像生成手段43hは、S73の処理で算出した、各センサ500の「画像座標」及び図18に示されるような「表示パターンテーブル」基づいて、「センシング情報画像」を生成し、当該「センシング情報画像」を画像表示部2に出力して表示する。ここで、センサの値はセンサの各画像座標に与えられるが、良く知られた等高線処理や補間処理により、図19に見られるような面を示す画像が生成される。このような観点から、視界水平角度dh°や視界垂直角度dv°は実際にユーザの視界よりもやや広めに設定し、等高線処理や補間処理の視度を上げるようにしても良い。更に、境界情報合成手段43iは、視線方向算出手段43cが計測したユーザの視線方向及び、不揮発性メモリ44に保存された境界情報44b、ヘッドマウントディスプレイ座標算出手段43bが取得したヘッドマウントディスプレイの座標に基づき、部屋の境界線710を「センシング情報画像」に合成する。なお、前記部屋には、建造物の区切られた領域を意味し、廊下やロビー等も、本発明において部屋と見なされる。図19は「透過モード」の状態における、ユーザの視界を表した図である。本実施形態では、「透過モード」であるので、床面の下側に、センシング情報画像700が表示されている。更に、ユーザが視認することができない領域の境界線710が表示されている。図18、図19に示される実施形態では、センシング情報画像700は、高濃度の一酸化炭素が滞留している領域を表している。このように、本発明のヘッドマウントディスプレイ100を使用すれば、ユーザが見ることができない領域の「センシング情報」とともに、ユーザが視認することができない領域の境界線710も視認することができるので、大変臨場感がある。なお、異なる部屋ごとに境界線710の表示を変えて、これら境界線710をセンシング情報画像に合成することが好ましい。このようにすると、ユーザは、奥にある部屋と、この部屋の更に奥にある部屋のセンシング情報画像700を区別して認識することができる。S74の処理が終了すると、「センシング情報画像表示処理」が終了し、図4に示される「メイン処理」のS19の判断処理に進む。
In the process of S74 “display the sensing information image and the boundary line on the head mounted display”, the sensing information
S75「非透過モード?」の判断処理において、CPU41は、ヘッドマウントディスプレイ100の状態が「非透過モード」であるか否かを判断する。CPU41が、ヘッドマウントディスプレイ100の状態が「非透過モード」であると判断した場合には、S76「ユーザが見ることができる領域以外のセンサを表示リストから削除」の処理に進む。一方で、CPU41は、ヘッドマウントディスプレイ100の状態が「非透過モード」でなく「視界領域全センサ閲覧モード」と判断した場合には、S79「センサのヘッドマウントディスプレイで表示する画像上の画像座標を算出」の処理に進む。
In the determination process of S75 “non-transparent mode?”, The
S76「ユーザが見ることができる領域以外のセンサを表示リストから削除」の処理において、センサ選択手段43fは、ユーザが見ることができる領域以外(ユーザが現在いる部屋以外の)のセンサ500を、図13に示される「表示リスト」から削除する処理を行う。S76の処理が終了すると、S77「センサのヘッドマウントディスプレイで表示する画像上の画像座標を算出」の処理に進む。
In the process of S76 “deleting a sensor other than the area that the user can see from the display list”, the
S77「センサのヘッドマウントディスプレイで表示する画像上の画像座標を算出」の処理において、画像座標算出手段43gは、S73の処理と同様に、センサ相対座標算出手段43dが算出した各センサ500の「センサ相対座標」に基づき、センサ選択手段43fが選択した各センサ500の画像表示部2で表示する画像上の座標である「画像座標」を算出する。S77の処理が終了すると、S78「センシング情報画像をヘッドマウントディスプレイで表示」の処理に進む。
In the process of S77 “calculate the image coordinates on the image displayed on the head-mounted display of the sensor”, the image coordinate
S78「センシング情報画像をヘッドマウントディスプレイで表示」の処理において、センシング情報画像生成手段43hは、S77の処理で算出した、各センサ500の「画像座標」及び、図18に示されるような「表示パターンテーブル」基づいて、「センシング情報画像」を生成し、当該「センシング情報画像」を画像表示部2に出力して表示する。S78の処理では、ヘッドマウントディスプレイ100は、「非透過モード」なので、図2に示されるように、ユーザが見ることができる領域の、「センシング情報」が、画像表示部2で表示される。S78の処理が終了すると、「センシング情報画像表示処理」が終了し、図4に示される「メイン処理」のS19の判断処理に進む。
In the process of S78 “display the sensing information image on the head mounted display”, the sensing information
S79「センサのヘッドマウントディスプレイで表示する画像上の画像座標を算出」の処理において、画像座標算出手段43gは、S73の処理やS77の処理と同様に、センサ相対座標算出手段43dが算出した各センサ500の「センサ相対座標」に基づき、センサ選択手段43fが選択した「表示リスト」にある全てのセンサ500の画像表示部2で表示する画像上の座標である「画像座標」を算出する。S79の処理が終了すると、S80「センシング情報画像をヘッドマウントディスプレイで表示」の処理に進む。
In the process of S79 “Calculate the image coordinates on the image displayed on the head-mounted display of the sensor”, the image coordinate calculation means 43g is the same as the process of S73 and the process of S77. Based on the “sensor relative coordinates” of the
S80「センシング情報画像をヘッドマウントディスプレイで表示」の処理において、センシング情報画像生成手段43hは、S79の処理で算出した、各センサ500の「画像座標」及び、図18に示されるような「表示パターンテーブル」基づいて、「センシング情報画像」を生成し、当該「センシング情報画像」を画像表示部2に出力して表示する。S80の処理では、ヘッドマウントディスプレイ100は、「視界領域全センサ閲覧モード」なので、ユーザが見ることができる領域及びユーザが見ることができない領域の、「センシング情報」が、画像表示部2で表示される。S80の処理が終了すると、「センシング情報画像表示処理」が終了し、図4に示される「メイン処理」のS19の判断処理に進む。
In the process of S80 “display the sensing information image on the head mounted display”, the sensing information
以上説明した実施形態では、制御部40を画像表示部2に取り付けているが、制御部40を画像表示部2と別体構造にしても差し支えない。
In the embodiment described above, the
図1に示される頭部装着部1は、眼鏡のフレーム形状をしている。頭部装着部1は、この形状に限定されず、ヘルメット形状等であってもよく、ユーザの頭部に装着される構造のものであれはすべて含まれる。頭部装着部1の側前部には、画像表示部2が取り付けられている。なお、図1に示されるヘッドマウントディスプレイ100は、1つの画像表示部2が、頭部装着部1の側前部に取り付けられているが、2つの画像表示部2が頭部装着部1の両側前部に取り付けられ、ユーザが両眼で画像を視認することができるヘッドマウントディスプレイであっても差し支えない。また、センシング情報を受信するときに、ユーザの視界内か判断して、視界内に位置するセンサからのデータを受信するようにしても良い。これにより、処理負荷を軽減できる。
The
以上、現時点において、もっとも、実践的であり、かつ好ましいと思われる実施形態に関連して本発明を説明したが、本発明は、本願明細書中に開示された実施形態に限定されるものではなく、請求の範囲および明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うヘッドマウントディスプレイもまた技術的範囲に包含されるものとして理解されなければならない。 Although the present invention has been described above in connection with the most practical and preferred embodiments at the present time, the present invention is not limited to the embodiments disclosed herein. However, the present invention can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification, and a head-mounted display accompanying such a change should also be understood as being included in the technical scope. I must.
1 頭部装着部
2 画像表示部
20 走査画像光照射部
21 走査光生成部
22 コリメート光学系
23 垂直走査部
23a 共振型偏向素子
23b 垂直走査制御回路
24 水平走査部
24a 偏向素子
24b 水平走査制御回路
25 リレー光学系
26 リレー光学系
26a レンズ系
26b レンズ系
27 光ファイバ
40 制御部
41 CPU
42 RAM
43 ROM
43a センサ距離算出手段
43b ヘッドマウントディスプレイ座標算出手段
43c 視線方向算出手段
43d センサ相対座標算出手段
43e 視界領域算出手段
43f センサ選択手段
43g 画像座標算出手段
43h センシング情報画像生成手段
43i 境界情報合成手段
44 不揮発性メモリ
44a 表示パターンテーブル
44b 境界情報
45 入力インターフェース
46 バス
50 電源ボタン
51 設定変更ボタン
52 モード切替ボタン
53 包囲センサ
54 傾きセンサ
55 無線インターフェース
100 ヘッドマウントディスプレイ
211 信号処理回路
212 光源部
212a Bレーザドライバ
212b Gレーザドライバ
212c Rレーザドライバ
212d Bレーザ
212e Gレーザ
212f Rレーザ
213 光合成部
213a〜213c コリメート光学系
213d〜213f ダイクロイックミラー
213g 結合光学系
214 画像信号
215 垂直駆動信号
216 水平駆動信号
500 センサ
600 高濃度のガスが滞留している領域
700 センシング情報画像(高濃度の一酸化炭素が滞留している領域)
710 境界線
E 眼球
Ea 瞳孔
DESCRIPTION OF
42 RAM
43 ROM
43a sensor distance calculation means 43b head mounted display coordinate calculation means 43c gaze direction calculation means 43d sensor relative coordinate calculation means 43e visual field area calculation means 43f sensor selection means 43g image coordinate calculation means 43h sensing information image generation means 43i boundary information synthesis means 44 nonvolatile Memory 44a Display pattern table
710 Boundary line E Eyeball Ea Pupil
Claims (5)
前記頭部装着部の前部に取り付けられ、画像を表示し、ユーザに当該画像を視認させる画像表示部を有するヘッドマウントディスプレイにおいて、
複数位置に設置されたセンサが計測したセンシング情報及び、前記各センサの個体識別情報、各センサの座標情報を取得する情報取得手段と、
ヘッドマウントディスプレイの座標を算出又は取得するヘッドマウントディスプレイ座標取得手段と、
ユーザの視線方向を計測する視線方向計測手段と、
前記情報取得手段が取得した前記各センサの座標情報及び、前記ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づいて、ヘッドマウントディスプレイの座標を基点とした前記各センサの相対座標を算出するセンサ相対座標算出手段と、
前記視線方向計測手段が計測したユーザの視線方向情報から、ユーザの視界領域を算出する視界領域算出手段と、
前記視界領域算出手段が算出した視界領域及び、前記センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記視界領域内および視界領域を視界方向に延長した領域内にある通信可能なセンサを選択するセンサ選択手段と、
前記センサ選択手段が選択した各センサのセンサ相対座標と前記情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成するセンシング情報画像生成手段と、
を有することを特徴とするヘッドマウントディスプレイ。 A head mounting part to be mounted on the user's head;
In a head-mounted display that is attached to the front part of the head-mounted unit, displays an image, and has an image display unit that allows the user to visually recognize the image.
Sensing information measured by sensors installed at a plurality of positions, individual identification information of each sensor, information acquisition means for acquiring coordinate information of each sensor,
Head-mounted display coordinate acquisition means for calculating or acquiring the coordinates of the head-mounted display;
Gaze direction measuring means for measuring the gaze direction of the user;
Based on the coordinate information of each sensor acquired by the information acquisition unit and the coordinates of the head mounted display acquired by the head mounted display coordinate acquisition unit, the relative coordinates of the sensors based on the coordinates of the head mounted display are obtained. Sensor relative coordinate calculating means for calculating;
A visual field area calculating means for calculating a visual field area of the user from the visual line direction information of the user measured by the visual line direction measuring means;
Based on the field of view calculated by the field of view calculation unit and the sensor relative coordinates of each sensor calculated by the sensor relative coordinate calculation unit, communication is possible within the field of view and within a region extending the field of view in the field of view direction. Sensor selection means for selecting a sensor,
Sensing information image generating means for generating a sensing information image to be displayed on the image display unit based on sensor relative coordinates of each sensor selected by the sensor selecting means and sensing information of each sensor acquired by the information acquiring means;
A head-mounted display comprising:
センシング情報画像生成手段は、前記画像座標算出手段が算出した前記各センサの画像座標及び、情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成することを特徴とする請求項1に記載のヘッドマウントディスプレイ。 Image coordinate calculation means for calculating image coordinates, which are coordinates on an image displayed on the image display unit of each sensor selected by the sensor selection means, based on the sensor relative coordinates calculated by the sensor relative coordinate calculation means. Have
The sensing information image generation unit generates a sensing information image to be displayed on the image display unit based on the image coordinates of each sensor calculated by the image coordinate calculation unit and the sensing information of each sensor acquired by the information acquisition unit. The head mounted display according to claim 1.
前記部屋の境界情報を記憶した境界情報記憶部と、A boundary information storage unit storing boundary information of the room;
視線方向計測手段が計測したユーザの視線方向及び、前記境界情報、ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づき、前記部屋の境界線をセンシング情報画像に合成する境界線合成手段と、Boundary line synthesizing means for synthesizing the room boundary line with the sensing information image based on the user's gaze direction measured by the gaze direction measuring means, the boundary information, and the coordinates of the head mounted display acquired by the head mounted display coordinate acquiring means. When,
を有することを特徴とする請求項1〜請求項2のいずれかに記載のヘッドマウントディスプレイ。The head mounted display according to claim 1, wherein the head mounted display is provided.
異なる部屋ごとに境界線の表示を変えて、これら境界線をセンシング情報画像に合成することを特徴とする請求項3に記載のヘッドマウントディスプレイ。4. The head mounted display according to claim 3, wherein the display of the boundary lines is changed for each different room, and the boundary lines are combined with the sensing information image.
ヘッドマウントディスプレイ座標取得手段は、前記センサ距離算出手段が算出した距離情報及び、情報取得手段が取得した各センサの個体識別情報及び座標情報に基づいて、ヘッドマウントディスプレイの座標を算出することを特徴とする請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。The head mounted display coordinate acquisition means calculates the coordinates of the head mounted display based on the distance information calculated by the sensor distance calculation means and the individual identification information and coordinate information of each sensor acquired by the information acquisition means. The head mounted display according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008326883A JP5262682B2 (en) | 2008-12-24 | 2008-12-24 | Head mounted display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008326883A JP5262682B2 (en) | 2008-12-24 | 2008-12-24 | Head mounted display |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010151867A JP2010151867A (en) | 2010-07-08 |
JP5262682B2 true JP5262682B2 (en) | 2013-08-14 |
Family
ID=42571071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008326883A Expired - Fee Related JP5262682B2 (en) | 2008-12-24 | 2008-12-24 | Head mounted display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5262682B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5652477B2 (en) * | 2010-10-22 | 2015-01-14 | 富士通株式会社 | Data center, information processing system, information processing apparatus, control method and control program for information processing apparatus |
JP5333477B2 (en) * | 2011-02-14 | 2013-11-06 | 日本電気株式会社 | Field work support system, apparatus, method and program |
JP6375591B2 (en) * | 2013-01-15 | 2018-08-22 | セイコーエプソン株式会社 | Head-mounted display device, head-mounted display device control method, and image display system |
JP6108926B2 (en) * | 2013-04-15 | 2017-04-05 | オリンパス株式会社 | Wearable device, program, and display control method for wearable device |
JP2015048171A (en) * | 2013-08-30 | 2015-03-16 | 学校法人立命館 | Picking system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11153492A (en) * | 1997-11-21 | 1999-06-08 | Sekisui House Ltd | Thermal environment display device for house |
JP2002132241A (en) * | 2000-10-27 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | Virtual space display system based on real space |
JP2004180208A (en) * | 2002-11-29 | 2004-06-24 | Toshiba Corp | Television signal viewing device |
JP2004219664A (en) * | 2003-01-14 | 2004-08-05 | Sumitomo Electric Ind Ltd | Information display system and information display method |
JP4705355B2 (en) * | 2004-10-04 | 2011-06-22 | 株式会社日立製作所 | Wireless tag data display system, portable computer, and wireless tag data display method |
JP2007078911A (en) * | 2005-09-13 | 2007-03-29 | Nikon Corp | Video display apparatus |
JP2007272067A (en) * | 2006-03-31 | 2007-10-18 | Brother Ind Ltd | Image display device |
JP5228305B2 (en) * | 2006-09-08 | 2013-07-03 | ソニー株式会社 | Display device and display method |
-
2008
- 2008-12-24 JP JP2008326883A patent/JP5262682B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010151867A (en) | 2010-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5104679B2 (en) | Head mounted display | |
US20090096714A1 (en) | Image display device | |
JP5293025B2 (en) | Head mounted display | |
US10242504B2 (en) | Head-mounted display device and computer program | |
JP5262681B2 (en) | Head mounted display and program thereof | |
JP5262682B2 (en) | Head mounted display | |
KR20180035895A (en) | INFORMATION DISPLAY DEVICE, INFORMATION PROVIDING SYSTEM, MOBILE DEVICE, INFORMATION DISPLAY METHOD, AND RECORDING MEDIUM | |
WO2019155916A1 (en) | Image display device using retinal scan display unit and method therefor | |
US20140198017A1 (en) | Wearable Behavior-Based Vision System | |
JPWO2011111201A1 (en) | Image position adjustment device | |
US10634904B2 (en) | Image projection device | |
CN109613706A (en) | For the method for adjustment, equipment and storage medium of intelligent helmet | |
CN103092357B (en) | A kind of implementation method of Scan orientation and projected keyboard device | |
JPWO2013024539A1 (en) | Virtual image display device | |
JP2016024208A (en) | Display device, method for controlling display device, and program | |
JP2017067944A (en) | Display image generation device and image display device | |
JP4930115B2 (en) | Image display system | |
JP2016033611A (en) | Information providing system, display device, and display device control method | |
JP5109952B2 (en) | Head mounted display | |
JP2010199789A (en) | Head-mounted display | |
JP4747635B2 (en) | Image display device | |
JP5348004B2 (en) | Strike zone presentation system | |
JP2011069849A (en) | Head-mounted display | |
JP4599858B2 (en) | Image display device | |
US20250014264A1 (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130415 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5262682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |