JP7559605B2 - Image display device and method - Google Patents
Image display device and method Download PDFInfo
- Publication number
- JP7559605B2 JP7559605B2 JP2021027327A JP2021027327A JP7559605B2 JP 7559605 B2 JP7559605 B2 JP 7559605B2 JP 2021027327 A JP2021027327 A JP 2021027327A JP 2021027327 A JP2021027327 A JP 2021027327A JP 7559605 B2 JP7559605 B2 JP 7559605B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- eyes
- eye
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、画像表示装置及び方法に関する。 The present invention relates to an image display device and method.
従来、光学素子を利用して光学ユニットが形成する射出瞳をリレーすることにより空中にアイポイントを配置し、画像を形成する光を光学ユニットに入れることで、ユーザが、そのアイポイント内に眼(すなわち、瞳孔)を入れた際に画像を目視することのできる画像表示装置が知られている。ここで、光学素子として、再帰性反射素子を用いることができる(特許文献1参照)。斯かる表示装置は、アイポイント内に眼を入れた一人のユーザのみが画像を目視することができるため、特に高いセキュリティ効果が得られることで注目されている。
特許文献1 特開2009-288696号公報
Conventionally, there is known an image display device that uses an optical element to relay an exit pupil formed by an optical unit to place an eyepoint in the air, and allows a user to view an image when placing his/her eye (i.e., pupil) within the eyepoint by irradiating light that forms an image into the optical unit. Here, a retroreflective element can be used as the optical element (see Patent Document 1). Such a display device has attracted attention because it provides a particularly high level of security, since only a single user who places his/her eye within the eyepoint can view the image.
Patent Document 1: JP 2009-288696 A
本発明の第1の態様においては、画像が生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントを形成する光学素子と、を有する表示部と、ユーザの眼の位置を検出する検出部と、検出部が検出したユーザの眼の位置とアイポイントの位置に基づいて、ユーザの眼を、アイポイントの位置に相対的に誘導する誘導部と、を備え、誘導部は、アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する触覚生成装置を有する、画像表示装置が提供される。 In a first aspect of the present invention, there is provided an image display device comprising: a display unit having an optical unit having an input side focus at a position where an image is generated and forming an exit pupil on the output side from which light forming the image is output; and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil; a detection unit that detects the position of a user's eye; and a guidance unit that guides the user's eye relative to the position of the eyepoint based on the position of the user's eye and the position of the eyepoint detected by the detection unit , wherein the guidance unit has a tactile generation device that generates a tactile sensation at at least one location near the position of the eyepoint .
本発明の第2の態様においては、ユーザの眼の位置を検出する段階と、検出する段階で検出したユーザの眼の位置と、画像が生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントを形成する光学素子と、により空中に形成されるアイポイントの位置と、に基づいて、ユーザの眼を、アイポイントの位置に相対的に誘導する段階と、画像を表示する段階と、を備え、誘導する段階では、さらに、アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する、画像表示方法が提供される。 In a second aspect of the present invention, there is provided an image display method comprising: a step of detecting the position of a user's eye; a step of guiding the user's eye relative to the position of the eyepoint based on the position of the user's eye detected in the detection step; a step of guiding the user's eye relative to the position of the eyepoint based on the position of the eyepoint formed in the air by an optical unit having an input side focus at the position where an image is generated and forming an exit pupil on the output side from which light forming the image is output; and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil; and a step of displaying an image, wherein the guiding step further generates a tactile sensation at at least one location near the position of the eyepoint .
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the features of the present invention. Also, subcombinations of these features may also be inventions.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.
図1A、図1B、及び図1Cに、第1の実施形態に係る画像表示装置100の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置100は、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30を備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。
1A, 1B, and 1C are schematic side, front, and top views, respectively, showing the configuration of an
表示部10は、空中にアイポイントExpを形成し、そのアイポイントExpの位置内にユーザ99が両眼を入れる(空中接眼とも呼ぶ)と視界内にその画角全体を目視可能な画像Imを表示するユニットであり、ケース19、表示装置11、光学ユニット12(12L,12R)、ハーフミラー13、及び光学素子14を有する。なお、表示部10は、フレーム(不図示)を介して床面上に或いは壁面に支持されている。
The
ケース19は、例えば三角形状の側面を有する中空の箱体であり、その上面上に表示装置11及び光学ユニット12(12L,12R)を支持し、その内部にハーフミラー13及び光学素子14を保持する。
The
表示装置11は、画像Imを表示する装置であり、左眼用及び右眼用表示画面11L,11Rを有する。左眼用及び右眼用表示画面11L,11Rは、例えば液晶ディスプレイ等であってよく、それぞれ後述する光学ユニット12L,12Rの筐体に支持されてケース19の上面上の左右に配置される。表示装置11は、通信装置(不図示)を介して外部から画像信号を受信或いは記憶装置(不図示)に記憶された画像信号を読み出して、左眼用及び右眼用表示画面11L,11R上にそれぞれ左眼用及び右眼用画像ImL,ImRを表示する。なお、本明細書では、左眼用及び右眼用の部材等を示す符号にそれぞれ記号L,Rを加えるが、左眼及び右眼の区別を要さない場合にはこれらの記号を省略する。なお、表示画面を左眼用及び右眼用として別個に配置する代わりに、表示画面を左眼用及び右眼用で共通する表示画面として配置してもよい。
The
光学ユニット12は、画像Imを形成する光、特に平行光束を屈折等させて平行光束として射出するアフォーカル系の対物レンズとして機能するユニットであり、左眼用及び右眼用光学ユニット12L,12Rを有する。左眼用及び右眼用光学ユニット12L,12Rは、それぞれ、1又は複数のレンズ素子等の光学素子を含み、筐体内に保持されてケース19の上面上のそれぞれ左右に配置されている。光学ユニット12L,12Rは、画像ImL,ImRが生成される位置、すなわち表示画面11L、11R上に入力側(すなわち、+Z側)の焦点を有し、画像ImL,ImRを形成する光が出力される出力側(すなわち、-Z側)に射出瞳(不図示)を形成する。
The
ハーフミラー13及び光学素子14は、光学ユニット12から出力される光をユーザ99に向けて+Y方向に指向する素子であり、ケース19内に保持されている。
The
ハーフミラー13は、半透過性のミラー素子であり、ケース19の+Y,-Z方向を向く傾斜面上に支持されている。これにより、ハーフミラー13は、画像Imから出力される光の光路において光学ユニット12及び光学素子14の間に配置されることとなり、光学ユニット12から-Z方向に出力される光を光学素子14に向けて-Y方向に反射し、光学素子14から出力される光を+Y方向に透過する。
The
光学素子14は、一例として90度の角度をなす2つの平面鏡を有するコーナーリフレクタが平面上にアレイ配置された再帰性反射素子であり、ケース19の-Y面上に支持されている。これにより、光学素子14は、光学ユニット12から出力され、ハーフミラー13により-Y方向に反射された光を+Y方向に再帰反射することで、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置にリレー(すなわち、再形成)して、ケース19の+Y側、例えば200mmの位置にアイポイントExpL,ExpRを形成する。ここで、アイポイントExpは、例えばユーザ99の眼幅(約50mm)程度の直径(X軸方向及びZ軸方向の幅)及び100mm程度の奥行(Y軸方向の幅)又は50度程度の見込み角度を有する。
The
なお、ハーフミラー13が配置される位置にハーフミラー13の代わりに、光学素子14として、複数の反射面が積層された積層部を、複数の反射面が互いに交差するように複数積層した再帰性透過素子を採用してもよい。斯かる場合、表示装置11及び光学ユニット12を光学素子14の-Y側に配置し、光学ユニット12から画像Imを形成する光を光学素子14に向けて+Y方向に出力する。これにより、光学素子14は、光学ユニット12から出力された光を+Y方向に再帰透過することで、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置にリレー(すなわち、再形成)して、ケース19の+Y側にアイポイントExpL,ExpRを形成する。
In addition, instead of the
上述の構成の表示部10において、左眼用表示画面11Lが左眼用画像ImLを表示すると、左眼用画像ImLを形成する光が光軸10L,10L'に沿って光学ユニット12L、ハーフミラー13、光学素子14を介して送られ、アイポイントExpLにおいて集光する。右眼用表示画面11Rが右眼用画像ImRを表示すると、右眼用画像ImRを形成する光が光軸10R,10R'に沿って光学ユニット12R、ハーフミラー13、光学素子14を介して送られ、アイポイントExpRの位置において集光する。このように、表示部10がユーザ99の左眼及び右眼に対してそれぞれアイポイントExpL,ExpRを形成することで、ユーザ99が、左眼及び右眼(すなわち、瞳孔、単に眼とも呼ぶ)99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れて空中接眼すると、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、左眼及び右眼用画像ImL,ImRとして視差画像を表示することにより、ユーザ99は立体像を視認することもできる。
In the
検出部20は、ユーザ99の眼99L,99Rの位置及び向きを検出するユニットである。検出部20は、一例として、ケース19の上面手前に左右に離間して配置される2つのステレオカメラ21を有し、これを用いてユーザ99の頭部、特に顔部を撮像する。なお、ステレオカメラ21は、ケース19内に設置され、ハーフミラー13を介してユーザ99の顔部を撮像するよう構成してもよい。2つのステレオカメラ21によりそれぞれ得られる画像、特に視差画像により、ユーザ99の眼99L,99Rの左右方向の位置(X位置)、上下方向の位置(Z位置)、及び前後方向の位置(Y位置)だけでなく、それらの向きも検出される。これらの検出結果は、誘導部30に転送される。なお、ユーザ99の眼99L,99Rの位置及び向きを検出する場合、一例としてユーザの左眼及び右眼それぞれの瞳孔の位置及び向きを検出する。
The
なお、検出部20は、ステレオカメラ21に代えて、超音波或いは赤外線レーザを用いて飛行時間差(ToF)法によりユーザの頭部までの距離を測定する距離計を含み、これによりユーザ99の眼99L,99Rの位置及び向きを検出してもよい。
In addition, instead of the
誘導部30は、検出部20により検出されたユーザ99の眼99L,99Rの位置及びアイポイントの位置に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では、液晶ディスプレイ等の表示モニタ31及び指向性スピーカ、骨伝導スピーカ等のスピーカ32を有する。表示モニタ31は、ユーザ99がその表示を目視可能な位置、本例ではケース19の左側に設置されている。スピーカ32は、ユーザ99が音声を聴くことができる位置、本例ではケース19の左下側に設置されている。
The
誘導部30は、検出部20による検出結果に基づいて、表示モニタ31及びスピーカ32を用いて視覚及び/又は音声により、ユーザ99に眼99L,99Rの位置を移動するようガイドする。例えば、アイポイントExpL,ExpRの位置に対して眼99L,99Rが左方(右方)に位置する場合には右方(左方)に移動するよう、上方(下方)に位置する場合には頭部を下げる(上げる)よう、前方(後方)に位置する場合には後ろに下がる(前に出る)よう、左(右)を向いている場合には右(左)を向くよう、表示モニタ31に映像ガイドを表示する及び/又はスピーカ32により音声ガイドを流す。
Based on the detection result by the
図2に、画像表示装置100の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30を含む。これらは互いに信号を送受信可能に接続されている。
Figure 2 shows the configuration of the
図3に、第1の実施形態に係る画像表示方法のフローS100を示す。なお、フローS100は、検出部20がユーザ99の画像表示装置100への接近を検知することで開始する。
Figure 3 shows flow S100 of the image display method according to the first embodiment. Note that flow S100 starts when the
ステップS102では、検出部20により、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置を検出する。検出部20は、ステレオカメラ21を用いてユーザ99の眼99L,99RのX位置、Y位置、Z位置、及び向きを検出し、その検出結果を誘導部30に転送する。
In step S102, the
ステップS104では、検出部20により、ステップS102で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。このとき、例えば、検出部20は、ユーザ99の眼99L,99Rの位置と、アイポイントExpL,ExpRの位置(例えば、アイポイントExpL,ExpRの中心位置)との相対的な位置ずれを検出する。眼99L,99RがアイポイントExpL,ExpRの位置から離れている、すなわち、眼99L,99Rの位置と、アイポイントExpL,ExpRの位置が相対的にずれていると判断されるとステップS106に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS108に進む。
In step S104, the
ステップS106では、誘導部30により、ステップS102で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導する。誘導部30は、例えば、アイポイントExpL,ExpRの位置に対して眼99L,99Rが左方(右方)に位置する場合には右方(左方)に移動するよう、上方(下方)に位置する場合には頭部を下げる(上げる)よう、前方(後方)に位置する場合には後ろに下がる(前に出る)よう、左(右)を向いている場合には右(左)を向くよう、表示モニタ31に映像ガイドを表示する及び/又はスピーカ32により音声ガイドを流す。
In step S106, the
ステップS106の実行後、ステップS102~S106が、ステップS104で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。
After step S106 is executed, steps S102 to S106 are repeated until step S104 determines that the
ステップS108では、ユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことで、表示部10により画像ImL,ImRを表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。なお、ユーザ99の眼99L,99Rに対してアイポイントExpL,ExpRが十分に大きい場合、ステップS108において、ユーザ99の眼99L,99Rのいずれか一方がアイポイントExpL,ExpRの位置内に入ったことを検出した後に、表示部10により画像ImL,ImRを表示してもよい。
In step S108, the
なお、フローS100は、検出部20によりユーザ99が画像表示装置100から離れたことを検知することで終了する。
Note that flow S100 ends when the
第1の実施形態に係る画像表示装置100は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果及びアイポイントの位置に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30と、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、アイポイントの位置に対するユーザの眼の位置を検出し、誘導部により、その検出結果に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、その誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。また、光学素子14として再帰性反射素子又は再帰性透過素子を用いることでアイポイントが拡張されるため、ユーザの眼をアイポイントの位置に相対的に誘導する際の位置設定の自由度が上がり、容易にアイポイント位置内に眼を合わせることができる。
The
図4A、図4B、及び図4Cに、第2の実施形態に係る画像表示装置110の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置110は、先述の画像表示装置100と同様に、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30dを備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。表示部10及び検出部20は、先述の画像表示装置100におけるそれらと同様に構成される。
4A, 4B, and 4C are schematic side, front, and top views of the configuration of the
図5に、画像表示装置110の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30dを含む。これらは互いに信号を送受信可能に接続されている。
Figure 5 shows the configuration of the
誘導部30dは、検出部20によるユーザ99の眼99L,99Rの位置の検出結果に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では触覚生成装置33(33L,33R)を有する。触覚生成装置33は、風圧等を含む圧力又は超音波振動等を含む振動によりユーザの眼99L,99RをアイポイントExpL,ExpRの位置に相対的に誘導する。特に本実施形態に係る触覚生成装置33は、複数の超音波振動子がアレイ状に配列されたディスプレイ装置であり、これにより空中に超音波の強度分布(すなわち、粗密分布)を生成してアイポイントExpの位置の近傍に位置する人体表面の少なくとも一箇所に触覚を与える。触覚生成装置33は、それぞれケース19の上面の左側及び右側にアイポイントExpL,ExpRの位置に向けて配置された2つの触覚生成装置33L,33Rを含む。
The
触覚生成装置33L,33Rは、図4Aから図4Cに示すように、アイポイントExpL,ExpRの中央の幾らか上方、すなわち眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に位置合わせしたユーザ99の額の位置に触覚98を生成する。それにより、ユーザ99は、額に感じる触覚98を通じてアイポイントExpL,ExpRの位置を知り、それらに眼99L,99Rを位置合わせすることができる。
As shown in Figures 4A to 4C, the
触覚生成装置33L,33Rは、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置、特にY軸方向の位置に応じて触覚98を生成する位置及びその強度を制御してもよい。図6Aから図6Cに、触覚98の生成位置及び強度の制御の一例を示す。検出部20がユーザ99を検知しない場合又は十分遠くに検知した場合、触覚生成装置33L,33Rは触覚98を生成しない。
The
図6Aに示すように、誘導部30dは、検出部20によりユーザ99のアイポイントExpへの接近を検知した場合に触覚生成装置33L,33Rにより触覚98を生成する。ここでは、ユーザ99はまだ画像表示装置100から離れているため、触覚生成装置33L,33Rはユーザ99の額に弱い触覚を生成する。
As shown in FIG. 6A, when the
図6Bに示すようにユーザ99が画像表示装置100に接近すると、触覚生成装置33L,33Rは、検出部20によるユーザ99の位置の検出結果に基づいて触覚98をユーザ99の移動に合わせてアイポイントExpに向けて移動させるとともにその強度を上げる。それにより、ユーザ99は、眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて強くなる触覚98を額に受ける。
6B, when the
図6Cに示すように、ユーザ99が画像表示装置100に到達し、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置に入ると、触覚生成装置33L,33Rは、検出部20によりユーザ99の位置を検知して触覚98の強度をさらに上げる(又は最大強度に上げる)。このように、ユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて、ユーザ99の額の位置に合わせて触覚98を生成する位置をY軸方向に移動するとともに触覚98の強度を上げることで、ユーザ99は触覚98を通じてアイポイントExpL,ExpRの位置を知り眼99L,99RをアイポイントExpL,ExpRの位置に容易に入れることが可能となる。
As shown in FIG. 6C, when the
なお、誘導部30dは、触覚生成装置33L,33Rにより、ユーザ99の属性に応じて触覚98の強度を変更してもよい。ユーザの属性は、年齢、性別及び体重のいずれか1つを含む。検出部20によりユーザの属性を検出し、その検出結果に応じて誘導部30dが、例えば、女性、子供に対して触覚98の強度を下げ、大柄なユーザに対しては強度を上げる。
The
なお、触覚生成装置33L,33Rは、ユーザ99の額の位置に1つの触覚98を生成することに代えて、後述するようにユーザ99の左右のこめかみ又は頬の位置に2つの触覚98L,98Rを生成し、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置に応じてそれらを生成する位置をY軸方向に移動するとともに強度を制御してもよい。
In addition, instead of generating one haptic 98 at the forehead of the
触覚生成装置33L,33Rは、検出部20により検出されたユーザ99の眼99L,99Rの向き及びアイポイントExp(ExpL、ExpR)の位置に基づいて、アイポイントExp(ExpL、ExpR)の位置の左及び/又は右に、すなわち眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に位置合わせしたユーザ99の左右のこめかみの位置にそれぞれ触覚98L,98Rを生成してよく、さらに、それぞれの触覚98L,98Rの強度を制御してもよい。図7A及び図7Bに、触覚98の生成位置及び強度の制御の別の例を示す。
Based on the orientation of the user's 99's
図7Aに示すように、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に対して左方(白抜き矢印)を向いていることを検知した場合、触覚生成装置33L,33Rにより触覚98Lを弱く(又は強く)且つ触覚98Rを強く(又は弱く)生成する。それにより、ユーザ99は、頭部を右方に回転(黒塗り矢印)させようとする意識がはたらく力この結果、ユーザ99は、触覚98L,98Rを通じて頭部を右方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。
As shown in FIG. 7A, when the
図7Bに示すように、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRに対して右方(白抜き矢印)を向いていることを検知した場合、触覚生成装置33L,33Rにより触覚98Lを強く(又は弱く)且つ触覚98Rを弱く(又は強く)生成する。それにより、ユーザ99は、頭部を左方に回転(黒塗り矢印)させようとする意識がはたらく。この結果、ユーザ99は、触覚98L,98Rを通じて頭部を左方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。
As shown in FIG. 7B, when the
このように、触覚生成装置33L,33Rにより、アイポイントExpL,ExpRの位置の左及び右にそれぞれ触覚98L,98Rを生成してユーザ99の左右のこめかみに触覚を与えるとともに、ユーザ99の眼99L,99Rの向きの検出結果に基づいてそれらの触覚98L,98Rの強度を制御することにより、ユーザ99は、左右のこめかみに感じる触覚の強度を通じて眼99L,99Rの向きを決めてアイポイントExpL,ExpRの位置内に入れることができる。
In this way, the
なお、図7A及び図7Bを用いて説明した触覚98L,98Rの生成位置及び強度の制御によるユーザ99の頭部の回転を、図6Aから図6Cを用いて説明した触覚98の生成位置及び強度の制御によるユーザ99のアイポイントExpへの誘導に続けて実行してもよい。例えば、ユーザ99のX軸方向の位置に応じて触覚98を生成する位置及びその強度を制御してもよい。この場合、ユーザ99の眼99L,99Rが、アイポイントExpL,ExpRの位置に対して-X方向にずれていた場合、触覚生成装置33L,33Rにより触覚98Lを強く(又は弱く)且つ触覚98Rを弱く(又は強く)生成する。ユーザ99は、触覚98L,98Rを通じて+X方向に移動することで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。なお、触覚生成装置33L,33Rを駆動装置(図示しない)によりX軸方向、Y軸方向及びZ軸方向に移動可能、又はチルト可能としてもよい。それにより、ユーザ99が画像表示装置100から離れていた場合に、触覚生成装置33L,33Rを駆動してユーザ99の方向に風圧や圧力等を発生させることで、確実にユーザ99に対して風圧や圧力等の触覚を感じさせることができる。
The rotation of the user's 99 head by controlling the generation position and strength of the
検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置内に入ったこと、例えば眼99L,99Rが予め定めた時間より長くアイポイントExpL,ExpRの位置内に留まったことを検知すると、誘導部30dは、触覚生成装置33L,33Rを停止する。これに続いて、表示部10が画像Imを表示してよい。
When the
図8に、第2の実施形態に係る画像表示方法のフローS200を示す。なお、フローS200は、検出部20がユーザ99の画像表示装置110への接近を検知することで開始する。
Figure 8 shows flow S200 of the image display method according to the second embodiment. Note that flow S200 starts when the
ステップS202では、検出部20により、アイポイントExp(ExpL,ExpR)の位置に対するユーザ99の眼99L,99Rの位置(X位置、Y位置、及びZ位置)及び向きを検出する。その検出結果は、誘導部30dに転送される。
In step S202, the
ステップS204では、検出部20により、ステップS202で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。眼99L,99RがアイポイントExpL,ExpRの位置から離れていると判断されるとステップS206に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS208に進む。
In step S204, the
ステップS206では、誘導部30dにより、ステップS202で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて触覚生成装置33L,33Rを用いて触覚ガイドを生成して、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導する。
In step S206, the
ステップS206の実行後、ステップS202~S206が、ステップS204で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。
After step S206 is executed, steps S202 to S206 are repeated until step S204 determines that the
それにより、誘導部30dは、検出部20によりユーザ99の眼99L,99RのアイポイントExpの位置への接近を検知すると、図6Aに示したように、触覚生成装置33L,33Rにより触覚98を生成する。誘導部30dは、検出部20によりユーザ99が画像表示装置100に接近するのを検知すると、図6Bに示したように、触覚生成装置33L,33Rにより、検出部20によるユーザ99の位置の検出結果に基づいて触覚98をユーザ99の移動に合わせてアイポイントExpの位置に向けて移動させるとともにその強度を上げる。誘導部30dは、検出部20によりユーザ99が画像表示装置100に到達し、眼99L,99RがアイポイントExpL,ExpRの位置に到達したのを検知すると、触覚生成装置33L,33Rにより、検出部20によりユーザ99の位置を検知して触覚98の強度をさらに上げる(又は最大強度に上げる)。
As a result, when the
このように、触覚生成装置33L,33Rにより、ユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて、ユーザ99の額の位置に合わせて触覚98を生成する位置を移動するとともに触覚98の強度を上げることで、ユーザ99は触覚98を通じてアイポイントExpの位置を知り、眼99L,99RをアイポイントExpL,ExpRの位置に接近させることが可能となる。
In this way, the
さらに、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に到達したがそれらに対して左方又は右方を向いていることを検知すると、図7A及び図7Bに示したように、触覚生成装置33L,33Rにより触覚98Lを弱く又は強く且つ触覚98Rを強く又は弱く生成する。それにより、ユーザ99は、頭部を右方又は左方に回転させようとする意識がはたらく。この結果、ユーザ99は、触覚98L,98Rを通じて頭部を右方又は左方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。
Furthermore, when the
このように、触覚生成装置33L,33Rにより、アイポイントExpL,ExpRの位置の左及び右にそれぞれ触覚98L,98Rを生成してユーザ99の左右のこめかみに触覚を与えるとともに、ユーザ99の眼99L,99Rの向きの検出結果に基づいてそれらの触覚98L,98Rの強度を制御することにより、ユーザ99は、左右のこめかみに感じる触覚の強度を通じて眼99L,99Rの向きを決めてアイポイントExpL,ExpRの位置内に入れることができる。
In this way, the
ステップS208では、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知すると、誘導部30dは、触覚生成装置33L,33Rを停止して触覚ガイドを終了する。なお、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知した場合、触覚生成装置33L,33Rが風圧又は圧力を断続的に変化させてもよい。ユーザ99は、風圧又は圧力の断続的な変化を触覚として感知することで、眼99L,99RのそれぞれがアイポイントExpL,ExpRの位置内に入ったことを認識することができる。
In step S208, when the
ステップS210では、表示部10により画像Im(ImL,ImR)を表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。
In step S210, the
なお、フローS200は、検出部20によりユーザ99が画像表示装置110から離れたことを検知することで終了する。
Note that flow S200 ends when the
第2の実施形態に係る画像表示装置110は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果及びアイポイントの位置に基づいて触覚ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30dと、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、アイポイントの位置に対するユーザの眼の位置を検出し、誘導部により、その検出結果に基づいて触覚ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、その誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。
The
図9A、図9B、及び図9Cに、第3の実施形態に係る画像表示装置120の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置120は、先述の画像表示装置100,110と同様に、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30ddを備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。表示部10及び検出部20は、先述の画像表示装置100,110におけるそれらと同様に構成される。ただし、表示部10のケース19は壁面W上に固定され、光学ユニット12(12L,12R)は、駆動装置34,35,36によりケース19の上面に設けられた開口(不図示)を介して下方に向けてケース19上に支持される。
9A, 9B, and 9C are schematic side, front, and top views of the configuration of the
図10に、画像表示装置120の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30ddを含む。これらは互いに信号を送受信可能に接続されている。
Figure 10 shows the configuration of the
誘導部30ddは、検出部20によるユーザ99の眼99L,99Rの位置の検出結果に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では駆動装置34,35,36を含む。
The guidance unit 30dd is a unit that guides the
駆動装置34は、光学ユニット12をXY方向に駆動する、特に本実施形態では左眼用及び右眼用光学ユニット12L,12Rを一体的に駆動する装置であり、X駆動装置34X及びY駆動装置34Yを有する。X駆動装置34X及びX駆動装置34Xとして、例えばリニアモータを採用してよい。X駆動装置34Xは、光学ユニット12L,12Rが固定された表示装置11L,11Rのそれぞれの±Y端部を保持してX軸方向に駆動する。Y駆動装置34Yは、X駆動装置34Xの±X端部を保持してY軸方向に駆動する。
The
駆動装置35は、駆動装置34をZ軸方向に駆動する装置である。駆動装置35として、例えばリニアモータを採用してよい。駆動装置35は、ケース19の上面上に固定され、駆動装置34の-Y端部を保持してZ軸方向に駆動する。
The driving
誘導部30ddは、検出部20による検出結果に基づいて駆動装置34,35を制御して、光学ユニット12L,12Rを光軸10L,10R(Z軸に平行)に対して平行な方向及び/又は直交する方向に駆動する。光学ユニット12L,12RをZ軸方向に駆動すると、アイポイントExpL,ExpRの位置は光軸10L',10R'(Y軸に平行)に沿ってY軸方向に移動する(図9Aに示す矢印(実線)参照)。光学ユニット12L,12RをY軸方向に駆動すると、アイポイントExpL,ExpRの位置をZ軸方向に移動する(図9Aに示す矢印(点線)参照)。光学ユニット12L,12RをX軸方向に駆動すると、アイポイントExpL,ExpRの位置をX軸方向に移動する(図9B及び図9Cに示す矢印参照)。
The guidance unit 30dd controls the driving
図11に示すように、誘導部30ddは、さらに、ハーフミラー13を光軸10L',10R'(Y軸に平行)に対して傾動する駆動装置36を含んでもよい。駆動装置36として、例えば回転モータを採用してよい。誘導部30ddは、検出部20による検出結果に基づいて駆動装置36を用いてハーフミラー13を上下に傾動することで、アイポイントExpL,ExpRの位置を上下動する(図11に示す矢印参照)。例えば、子供又は幼児など低身長のユーザ99を検知した場合、ハーフミラー13を下方に回動して、アイポイントExpL,ExpRの位置を下げる。さらに、誘導部30ddは、ハーフミラー13を左右に振ることで、アイポイントExpL,ExpRの位置を左右に移動してもよい。誘導部30ddにより、検出部20による検出結果に基づいて、光学ユニット12(12L,12R)をX軸方向、Y軸方向、Z軸方向に駆動する及び/又はハーフミラー13を傾動して、アイポイントExpL,ExpRの位置を前後、上下、左右に移動してユーザ99の眼99L,99Rの位置に合わせることができる。
As shown in FIG. 11, the guidance unit 30dd may further include a drive device 36 that tilts the
図12に、第3の実施形態に係る画像表示方法のフローS300を示す。なお、フローS300は、検出部20がユーザ99の画像表示装置120への接近を検知することで開始する。
Figure 12 shows a flow S300 of the image display method according to the third embodiment. Note that flow S300 starts when the
ステップS302では、検出部20により、アイポイントExp(ExpL,ExpR)の位置に対するユーザ99の眼99L,99Rの位置(X位置、Y位置、及びZ位置)及び向きを検出する。その検出結果は、誘導部30ddに転送される。
In step S302, the
ステップS304では、検出部20により、ステップS302で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。眼99L,99RがアイポイントExpL,ExpRの位置から離れていると判断されるとステップS306に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS308に進む。
In step S304, the
ステップS306では、誘導部30ddにより、ステップS302で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて駆動装置34,35,36を制御して光学ユニット12(12L,12R)を駆動及び光学素子14を傾動することにより、ユーザ99の眼99L,99RをアイポイントExpL,ExpRの位置に相対的に誘導する。
In step S306, the guidance unit 30dd controls the driving
ステップS306の実行後、ステップS302~S306が、ステップS304で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。
After step S306 is executed, steps S302 to S306 are repeated until step S304 determines that the
それにより、誘導部30ddは、光学ユニット12L,12RをZ軸方向に駆動することにより、アイポイントExpL,ExpRの位置を光軸10L',10R'(Y軸に平行)に沿ってY軸方向に移動し(図9Aに示す矢印(実線)参照)、光学ユニット12L,12RをY軸方向に駆動することにより、アイポイントExpL,ExpRの位置をZ軸方向に移動し(図9Aに示す矢印(点線)参照)、光学ユニット12L,12RをX軸方向に駆動することにより、アイポイントExpL,ExpRの位置をX軸方向に移動する(図9B及び図9Cに示す矢印参照)。さらに、誘導部30ddは、光学素子14を光軸10L',10R'(Y軸に平行)に対して上下に傾動することにより、アイポイントExpL,ExpRの位置を上下動する(図11に示す矢印参照)。
As a result, the guiding unit 30dd moves the positions of the eyepoints ExpL and ExpR in the Y-axis direction along the
このように、駆動装置34,35,36により、光学ユニット12(12L,12R)をX軸方向、Y軸方向、Z軸方向に駆動する及び/又は光学素子14を傾動して、アイポイントExpL,ExpRの位置を前後、上下、左右に移動してユーザ99の眼99L,99Rの位置に合わせることができる。
In this way, the driving
ステップS308では、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知すると、誘導部30ddは、駆動装置34,35,36を停止して光学ユニット12(12L,12R)及び光学素子14を位置決めする。
In step S308, when the
ステップS310では、表示部10により画像Im(ImL,ImR)を表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。
In step S310, the
なお、フローS300は、検出部20によりユーザ99が画像表示装置120から離れたことを検知することで終了する。
Note that flow S300 ends when the
第3の実施形態に係る画像表示装置120は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、アイポイントの位置に対するユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果に基づいて駆動装置34,35,36を制御して光学ユニットを駆動及び/又は光学素子を傾動して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30ddと、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、ユーザの眼の位置を検出し、誘導部により、その検出結果及びアイポイントの位置に基づいて光学ユニットを駆動及び/又は光学素子を傾動して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。
The
なお、上述の構成の画像表示装置100,110,120において、検出部20を用いてユーザによる情報入力を受けるよう構成してもよい。検出部20は、ステレオカメラ21を用いて、ユーザ99のうなずき、首振りのような顔の動き、指の形、動きのような指によるジェスチャ、眼の大きさ、視線、表情の変化、瞬きの回数のような生体反応を検出し、それにより暗証番号のような秘匿情報の入力を受け付けてもよい。また、検出部20は、顔、虹彩を検出してユーザ認証してもよい。
The
また、図1Aから図1Cで示される、検出部20を除く画像表示装置100がXY平面に対して反転して配置されてもいてもよく、また、検出部20を含む画像表示装置100がXY平面に対して反転して配置されていてもよい。また、ユーザの眼の位置と、アイポイントの位置に基づいて、ユーザの眼をアイポイントの位置に相対的に誘導する代わりに、ユーザの眼の位置と、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置(アイポイントの位置)にリレー(すなわち、再形成)することにより形成される瞳の領域とを用いてユーザの眼を瞳の領域内に相対的に誘導してもよい。例えば、瞳の領域が十分に大きい場合は、ユーザの左眼及び右眼のそれぞれが、アイポイントの位置に形成される左右の瞳のそれぞれの領域内に入っていれば、左眼及び右眼がアイポイントの位置に形成される左右の瞳それぞれの中心に位置していなくとも、ユーザは、表示部10により表示される画像Im(ImL,ImR)をケラレの発生なく視認することができる。
Also, the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.
10…表示部、10L,10R…光軸、11…表示装置、11L…左眼用表示画面、11R…右眼用表示画面、12…光学ユニット、12L…左眼用光学ユニット、12R…右眼用光学ユニット、13…ハーフミラー、14…光学素子、19…ケース、20…検出部、21…ステレオカメラ、30,30d,30dd…誘導部、31…表示モニタ、32…スピーカ、33…触覚生成装置、33,33L,33R…触覚生成装置、34,35,36…駆動装置、34X…X駆動装置、34Y…Y駆動装置、50…制御系、98…触覚、98L,98R…触覚、99…ユーザ、99L,99R…眼、100,110,120…画像表示装置、Exp,ExpL,ExpR…アイポイント、Im…画像、ImL…左眼用画像、ImR…右眼用画像、W…壁面。 10...display unit, 10L, 10R...optical axis, 11...display device, 11L...display screen for left eye, 11R...display screen for right eye, 12...optical unit, 12L...optical unit for left eye, 12R...optical unit for right eye, 13...half mirror, 14...optical element, 19...case, 20...detection unit, 21...stereo camera, 30, 30d, 30dd...guidance unit, 31...display monitor, 32...speaker, 33...tactile Generation device, 33, 33L, 33R...tactile generation device, 34, 35, 36...drive device, 34X...X drive device, 34Y...Y drive device, 50...control system, 98...tactile sense, 98L, 98R...tactile sense, 99...user, 99L, 99R...eyes, 100, 110, 120...image display device, Exp, ExpL, ExpR...eye point, Im...image, ImL...image for left eye, ImR...image for right eye, W...wall surface.
Claims (17)
ユーザの眼の位置を検出する検出部と、
前記検出部が検出したユーザの眼の位置とアイポイントの位置に基づいて、前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する誘導部と、
を備え、
前記誘導部は、前記アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する触覚生成装置を有する、画像表示装置。 a display unit having an optical unit having an input side focal point at a position where an image is generated and forming an exit pupil at an output side from which light forming the image is output, and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil;
A detection unit that detects the position of a user's eyes;
A guidance unit that guides the user's eyes relatively to the position of the eye point based on the position of the user's eyes and the position of the eye point detected by the detection unit;
Equipped with
The guidance unit includes a tactile sense generating device that generates a tactile sense at least at one location near the position of the eyepoint .
前記触覚生成装置は、前記検出部が検出したユーザの眼の向きとアイポイントの位置に基づいて、前記アイポイントの位置の左又は右にそれぞれ触覚を生成する、請求項1から5のいずれか一項に記載の画像表示装置。 The detection unit further detects an orientation of the user's eyes,
The image display device according to claim 1 , wherein the haptic sense generating device generates a haptic sense to the left or right of the eye point position based on the user's eye direction and eye point position detected by the detection unit.
前記誘導部は、前記検出部による検出結果に基づいて前記駆動装置を制御して、前記光学素子を光軸に対して傾動する、請求項10に記載の画像表示装置。 The detection unit further detects an orientation of the user's eyes,
The image display device according to claim 10 , wherein the guidance section controls the drive device based on a detection result by the detection section to tilt the optical element with respect to an optical axis.
前記表示部は、前記光の光路における前記光学素子及び前記光学ユニットの間にハーフミラーをさらに有する、請求項1から13のいずれか一項に記載の画像表示装置。 the optical element is a retroreflective element that reflects light output from the optical unit,
The image display device according to claim 1 , wherein the display unit further comprises a half mirror between the optical element and the optical unit in an optical path of the light.
前記検出する段階で検出したユーザの眼の位置と、画像が生成される位置に入力側の焦点を有し、前記画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、該光学ユニットから出力される光を反射又は透過して、前記射出瞳の共役位置にアイポイントを形成する光学素子と、により空中に形成されるアイポイントの位置と、に基づいて、前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する段階と、
前記画像を表示する段階と、
を備え、
前記誘導する段階では、さらに、前記アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する、画像表示方法。 detecting a position of a user's eyes;
a step of guiding the user's eye relatively to the position of the eyepoint based on the position of the user's eye detected in the detection step, and the position of an eyepoint formed in the air by an optical unit having an input side focus at a position where an image is generated and forming an exit pupil on an output side from which light forming the image is output, and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil;
displaying the image;
Equipped with
The image display method , in the guiding step, further comprises generating a haptic sensation at at least one location in the vicinity of the eyepoint position .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021027327A JP7559605B2 (en) | 2021-02-24 | 2021-02-24 | Image display device and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021027327A JP7559605B2 (en) | 2021-02-24 | 2021-02-24 | Image display device and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022128876A JP2022128876A (en) | 2022-09-05 |
| JP7559605B2 true JP7559605B2 (en) | 2024-10-02 |
Family
ID=83150623
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021027327A Active JP7559605B2 (en) | 2021-02-24 | 2021-02-24 | Image display device and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7559605B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7661149B2 (en) * | 2021-06-22 | 2025-04-14 | 三菱電機エンジニアリング株式会社 | Aerial image display device |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013088486A1 (en) | 2011-12-12 | 2013-06-20 | パイオニア株式会社 | Display device, display method, and display program |
| JP2013172388A (en) | 2012-02-22 | 2013-09-02 | Nikon Corp | Display device and program |
| JP2015064434A (en) | 2013-09-24 | 2015-04-09 | アイシン・エィ・ダブリュ株式会社 | Head-up display device |
| JP2017142790A (en) | 2017-02-01 | 2017-08-17 | セイコーエプソン株式会社 | Head mounting type display device, control method of head mounting type display device, and work supporting system |
| JP2018022129A (en) | 2016-07-21 | 2018-02-08 | Tianma Japan株式会社 | Stereoscopic display device and control method |
| WO2019220856A1 (en) | 2018-05-14 | 2019-11-21 | 株式会社ニコン | Image display device, image display system, image display method, and image processing program |
| US10926638B1 (en) | 2019-10-23 | 2021-02-23 | GM Global Technology Operations LLC | Method and apparatus that reformats content of eyebox |
-
2021
- 2021-02-24 JP JP2021027327A patent/JP7559605B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013088486A1 (en) | 2011-12-12 | 2013-06-20 | パイオニア株式会社 | Display device, display method, and display program |
| JP2013172388A (en) | 2012-02-22 | 2013-09-02 | Nikon Corp | Display device and program |
| JP2015064434A (en) | 2013-09-24 | 2015-04-09 | アイシン・エィ・ダブリュ株式会社 | Head-up display device |
| JP2018022129A (en) | 2016-07-21 | 2018-02-08 | Tianma Japan株式会社 | Stereoscopic display device and control method |
| JP2017142790A (en) | 2017-02-01 | 2017-08-17 | セイコーエプソン株式会社 | Head mounting type display device, control method of head mounting type display device, and work supporting system |
| WO2019220856A1 (en) | 2018-05-14 | 2019-11-21 | 株式会社ニコン | Image display device, image display system, image display method, and image processing program |
| US10926638B1 (en) | 2019-10-23 | 2021-02-23 | GM Global Technology Operations LLC | Method and apparatus that reformats content of eyebox |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022128876A (en) | 2022-09-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6822472B2 (en) | Display devices, programs, display methods and controls | |
| JP6339239B2 (en) | Head-mounted display device and video display system | |
| US7193584B2 (en) | Wearable display apparatus | |
| JP6378781B2 (en) | Head-mounted display device and video display system | |
| US5612709A (en) | Multi-eye image displaying apparatus | |
| CN110300567B (en) | Vision training device for improving fusion function | |
| KR20180037887A (en) | Smart glasses | |
| US20070097319A1 (en) | Stereoscopic display | |
| US6967781B2 (en) | Image display apparatus for displaying image in variable direction relative to viewer | |
| JP3900578B2 (en) | Follow-up virtual image display system | |
| KR102269833B1 (en) | Smart glasses | |
| JPH06235885A (en) | Stereoscopic picture display device | |
| CN112285934B (en) | Image display device and wearable equipment | |
| JP2015087698A (en) | Virtual image display device | |
| JP2004191962A (en) | Image display device | |
| JP2018203245A (en) | Display system, electronic mirror system, and mobile body | |
| JP7559605B2 (en) | Image display device and method | |
| JP2001290101A (en) | Depth direction viewpoint adjustment intention detection and will drive method and automatic perspective correction glasses | |
| TWI846280B (en) | Near-to-eye display device and viewing angle adjusting method for the near-to-eye display device | |
| JPH09218376A (en) | 3D display device | |
| JP2006011145A (en) | Binocular microscope apparatus | |
| CN110727112B (en) | A variable-focus retinal scanning imaging three-dimensional display device | |
| JPH01259348A (en) | Three-dimensional image display device | |
| JPH0341807B2 (en) | ||
| JPH0756517A (en) | Eyeglass type image display device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231002 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240527 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240805 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240820 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240902 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7559605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |