[go: up one dir, main page]

JP2023048008A - ヘッドマウントディスプレイおよびクロスリアリティシステム - Google Patents

ヘッドマウントディスプレイおよびクロスリアリティシステム Download PDF

Info

Publication number
JP2023048008A
JP2023048008A JP2021157239A JP2021157239A JP2023048008A JP 2023048008 A JP2023048008 A JP 2023048008A JP 2021157239 A JP2021157239 A JP 2021157239A JP 2021157239 A JP2021157239 A JP 2021157239A JP 2023048008 A JP2023048008 A JP 2023048008A
Authority
JP
Japan
Prior art keywords
line
sight
eye
display device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021157239A
Other languages
English (en)
Other versions
JP2023048008A5 (ja
Inventor
孝一 清水
Koichi Shimizu
智 ▲濱▼▲崎▼
Satoshi Hamazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021157239A priority Critical patent/JP2023048008A/ja
Priority to US17/950,192 priority patent/US12166958B2/en
Publication of JP2023048008A publication Critical patent/JP2023048008A/ja
Publication of JP2023048008A5 publication Critical patent/JP2023048008A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)

Abstract

【課題】ヘッドマウントディスプレイを使用して観察する場合に観察者が感じ易い違和感と疲れ眼を解消あるいは低減するために有利な技術を提供する【解決手段】ヘッドマウントディスプレイは、表示面を有する表示デバイスと、観察者の眼の焦点を前記表示デバイスに合わせるための光学系と、前記表示デバイスを駆動する駆動機構と、前記観察者の視線を検知する視線検知部と、前記視線検知部の出力に基づいて、前記視線と前記表示面とが交差する点において、前記視線と前記表示面とのなす角度が90度に対して予め設定された許容範囲に収まるように前記駆動機構を制御する制御部と、を備える。【選択図】図23

Description

本発明は、ヘッドマウントディスプレイおよびクロスリアリティシステム(仮想空間技術、空間拡張技術)に関する。
特許文献1には体験者の視線を検知して得た情報を使って、適切な位置に表示デバイスを移動させる視線追従型のヘッドマウントディスプレイが開示されている。
特開平9-68670号公報
図39は観察者がその眼3901によって250mm先に有る点物体3928を見ている様子を表している。眼3901のレンズである水晶体3959は光軸3929を有する。光軸3929は眼3901の視線に相当する。光軸3929の延長線上に有る点物体3928から出た光のうち眼3901の瞳3940に入射した光が網膜3931上の一点に焦点3932を形成するように水晶体3959の厚みが調節される。
ここで、網膜3931上の中心窩3952は、光軸3929に対して1~2度以内の傾きを持ち、かつ瞳3940の中心を通る光、例えば光3969や、光3970が入射する範囲に存在しうる。中心窩3952には視細胞が集中しており、観察者は点物体3928の周りの範囲3971に有る物を精緻に認識することが可能である。焦点3932は中心窩3952の略中心にある。
中心窩3952の外周領域3964にも視細胞がまばらに存在する。視細胞がまばらであるため、外周領域3964に焦点を形成した物を精緻に判別することは出来ない。しかし、外周領域3964は物の色、形、明るさ、遠近感を判断する上では必要な部分である。例えば、外周領域3964に有る焦点3965は点物体3966から瞳3940に入射した光が焦点を形成する点である。同様に、焦点3967は点物体3968から瞳3940に入射した光が焦点を形成する点である。これらの焦点3965、焦点3967は光学収差のため完全な焦点ではないが、それぞれ点物体3966、点物体3968から出た光が集光される微小領域である。
点物体3928、点物体3966、及び点物体3968を含む、それぞれ網膜3931上に焦点を形成する物体側の点物体の集合は略球面3972を形成する。球面3972は網膜3931を撮像面と考えた場合の物体側の合焦面として理解することができる。
合焦面3972より手前、即ち眼3901に近いところに有る点物体から発せられる光は網膜3931より後ろに焦点を形成する。そのため、網膜3931上で点物体の像はボケた像となる。逆に合焦面3972より後ろ、即ち眼3901から遠いところに有る点物体から発せられる光は網膜3931より手前に焦点を形成する。そのため、同様に網膜3931上で点物体の像はボケた像となる。
網膜3931上に形成される点物体像のボケ具合は、合焦面3972と点物体との距離が離れる程大きくなる。そのため合焦面3972は眼と点物体との遠近を推し量る基準となる。即ち網膜3931上の点物体像のボケ具合が小さければ、眼3901が見ている点物体3928と同等の距離、即ち合焦面3972近傍に有る点物体であると判断される。反対に点物体像のボケ具体が大きれば、点物体3928とは異なる距離、即ち合焦面3972から離れた位置に有る点物体であると判断される。
特許文献1には、前述のように観察者の視線を検知して得た情報を使って、適切な位置に表示デバイスを移動させる視線追従型のヘッドマウントディスプレイが開示されている。図40は特許文献1のヘッドマウントディスプレイに映し出す映像を撮影するステレオカメラを示している。4001は左眼用の画像を撮影するカメラである。4002は右眼用画像を撮影するカメラである。夫々、図40において、白線で示した平板イメージセンサーを内部に備えており、このイメージセンサー上が像側の合焦面となる様にレンズが設計されている。破線4009は左眼用カメラ4001で黒丸4003の人物に焦点を合わせて撮像した場合の物体側の合焦面である。破線4010は右眼用カメラ4002で黒丸4003の人物に焦点を合わせて撮像した場合の物体側の合焦面である。合焦面4009と合焦面4010は、見分け易い様に若干上下にずらして示しているが実際の合焦位置は両者の中間に有る。
同様に破線4011は左眼用カメラ4001で黒バツ4006の木に焦点を合わせて撮像した場合の合焦面であり、破線4012は右眼用カメラ4002で木4006に焦点を合わせて撮像した場合の合焦面である。先と同様に破線4011と破線4012は、見分け易い様に若干上下にずらして示してあるが実際の合焦位置は両者の中間にある。
黒丸4003はカメラ4001、4002に対し近傍に居る人物が実際に居る場所を示している。グレーの丸4004は左眼用カメラ4001から見た合焦面4011上の人物像の位置であり、グレーの丸4005は右眼用カメラ4002から見た合焦面4012上の人物像の位置である。また、黒バツ4006はカメラ4001、4002に対し遠方に有る木が実際に有る場所を示している。グレーのバツ4007は左眼用カメラ4001から見た合焦面4009上の木像の位置であり、グレーのバツ4008は右眼用カメラ4002から見た合焦面4010上の木像の位置である。
図41は図40のステレオカメラで映した映像を示したものである。フレーム4109は左眼用カメラ4001で黒丸4003の人物に焦点を合わせて撮像した画像を示す。フレーム4109を合焦位置にて示したものが破線4009である。フレーム4109の中央右寄りの人物像4103は、黒丸4003の位置にいる人物の像である。また、左上部の木の像4107は、黒バツ4006にある木の合焦面4009の位置における像である。実際には合焦面4009より遠方に有るためボケた像となっている。
同様にフレーム4110は右眼用カメラ4002で黒丸4003の人物に焦点を合わせて撮像した画像を示す。フレーム4110を合焦位置にて示したものが破線4010である。フレーム4110の中央右寄りの人物像4103は、黒丸4003の位置にいる人物の像である。また、左上部の木の像4108は、黒バツ4006にある木の合焦面4010の位置における像である。実際には合焦面4010より遠方に有るためボケた像となっている。
さらにフレーム4111、フレーム4112は夫々、左眼用カメラ4001、右眼用カメラ4002で黒バツ4006の木に焦点を合わせて撮像した画像を示す。フレーム4111を合焦位置にて示したものが破線4011であり、フレーム4112を合焦位置にて示したものが破線4012である。フレーム4111、フレーム4112の中央右寄りの人物像4104、及び人物像4105は夫々、黒丸4003の位置にいる人物の合焦面4011、及び合焦面4012の位置における像である。実際には、夫々合焦面4011、合焦面4012よりも手前に居るためボケた像となっている。左上部の木の像4106は黒バツ4006にある木の像である。
図42、図43、図44、図45は特許文献1に開示されているヘッドマウントディスプレイ(以下HMD)を使って図40のステレオカメラで撮影した図41の映像を観察する様子を表している。図42は観察者が映像に映し出された人物を見ている様子を示している。同様に図44は観察者が映像に映し出された木を見ている様子を示している。4201及び4401、4202及び4402は夫々、観察者の左眼、右眼である。4213及び4413、4214及び4414は夫々、左眼用表示デバイス、右眼用表示デバイスである。左眼用レンズ4215、4415、右眼用レンズ4216、4416は観察者の左眼4201、401、右眼4202、4402のピントが夫々左眼用表示デバイス4213、4413、右眼用表示デバイス4214、4414の表面に合う様に設計されている。
図43は図42のHMDの表示デバイスに映る画像を示した図である。フレーム4313が表示デバイス4213のフレームである。破線で示したフレーム4309が図41のフレーム4109に相当し、ステレオカメラ4001で撮影した映像範囲である。表示デバイス4213には、フレーム4109の映像の内、右寄りの部分が切出されて表示されている。同様にフレーム4314が表示デバイス4214のフレームである。破線で示したフレーム4310が図41のフレーム4110に相当し、ステレオカメラ4002で撮影した映像範囲である。表示デバイス4214には、フレーム4110の映像の内、左寄りの部分が切出されて表示されている。
フレーム4313とフレーム4314とは夫々、人物4303を基準として同じ位置に有るフレームであり、フレーム4313とフレーム4314の映像を重ねるとフレーム4321の様に人物4303が一つに重なる。ここでフレーム4313の人物4303の像と、フレーム14の人物4303の像とには視差が有るため、観察者には人物4303の像が立体的に感じられる。一方、木4307と木4308とは二つに分かれているが、夫々を左眼4201と右眼4202とで分けて観察しているため、立体視の効果により木は遠方に有る様に感じられる。
図42において、黒丸4217は表示デバイス4213上で人物が映し出されている位置で有り、黒丸4218は表示デバイス4214上で人物が映し出されている位置である。また、グレーバツ4219は表示デバイス4213上で木が映し出されている位置で有り、グレーバツ4220は表示デバイス4214上で木が表示されている位置である。この時、観察者には左眼4201の視線と、右眼4202の視線とが交差する点、黒丸4203の位置に人物が居る様に感じられ、木はそれよりも遠方に有る様に感じられる。
図45は図44のHMDの表示デバイスに映る画像を示した図である。フレーム4513が表示デバイス4413のフレームである。破線で示したフレーム4509が図41のフレーム4111に相当し、ステレオカメラ4001で撮影した映像範囲である。表示デバイス4413には、フレーム4111の映像の内、左寄りの部分が切出されて表示されている。同様にフレーム4514が表示デバイス4414のフレームである。破線で示したフレーム4510が図41のフレーム4112に相当し、ステレオカメラ4002で撮影した映像範囲である。表示デバイス4414には、フレーム4112の映像の内、右寄りの部分が切出されて表示されている。
フレーム4513とフレーム4514とは夫々、木4506を基準として同じ位置に有るフレームであり、フレーム4513とフレーム4514の映像を重ねるとフレーム4521の様に木4506が一つに重なる。一方、人物4504と人物4505とは二つに分かれているが、夫々を左眼4401と右眼4402とで分けて観察しているため、立体視の効果により人物は手前に有る様に感じられる。
図44において、グレー丸4417は表示デバイス4413上で人物が映し出されている位置で有り、グレー丸4418は表示デバイス4414上で人物が映し出されている位置である。また、黒バツ4419は表示デバイス4413上で木が映し出されている位置で有り、黒バツ4420は表示デバイス4414上で木が表示されている位置である。この時、観察者には左眼4401の視線と、右眼4402の視線とが交差する点、黒バツ4406に木が有る様に感じられ、人物はそれよりも手前に居る様に感じられる。
ここで左眼4201の視線と右眼4202の視線とが交わる角度、あるいは左眼4401の視線と右眼4402の視線とが交わる角度が検知される。そして、それらの値から眼とそれが見ている物体との距離4222あるいは距離4422が計算されうる。そして、距離4222あるいは距離4422に基づいて、図42の様に近傍視の場合は寄り眼に対応して左眼用表示デバイス4213を右に動かし、右眼用表示デバイス4214を左に動かすことができる。これにより、両者のギャップ4224を狭めることができる。また、近傍視の際の水晶体の厚みに対応する様に、両表示デバイスを下に動かし、両眼と両表示デバイスとの距離4223を小さくすることができる。逆に図44の様に遠方視の場合には両眼の視線が並行に近づくことに対応して左眼用表示デバイス4413を左に動かし、右眼用表示デバイス4414を右に動かし、両眼と表示デバイスとの距離4423を大きくすることができる。
特許文献1に開示されているヘッドマウントディスプレイ(以下HMD)を使って図40のステレオカメラで撮影した図41の映像を観察する図42、図43、図44、図45に記載の方法は、以下の点で実際に観察者が現場で人物及び木を見る状況と異なる。そのため、観察者に疲れ眼や違和感を生じる問題点が有った。
図46、図47、図48、図49は図40のステレオカメラで撮影した景色を現場で観察者が見ている様子を表している。4601及び4801、4602及び4802は夫々、観察者の左眼、右眼である。左眼4601及び4801は図40の左眼用カメラ4001と同じ位置に有る。同様に右眼4602及び4802は図40の右眼用カメラ4002と同じ位置に有る。
図46及び図47は観察者が手前の人物を見ている状況を示している。左眼4601の視線と、右眼4602の視線とは、人物が居る黒丸4603の位置で交差する。円弧状の破線4609は図39で説明した眼の円弧状合焦面で有り、左眼4601の合焦面である。そのため左眼4601の視線と円弧状合焦面4609との交点にて両者は直角に交差している。同様に円弧上の破線4610は右眼4602の合焦面で有り、右眼4602の視線と円弧状合焦面4610は、その交点にて直角に交差している。
図42の方法が図46の状況と異なる一つ目の点は合焦面4209が左眼4201の視線と直交していないことである。これにより視線の左側において左眼4201に近い手前の物体にピントが合い易く、視線の右側において左眼4201から遠い奥の物体にピントが合い易いという不均衡が生じている。同様に合焦面4210が右眼4202の視線と直交していないために、視線の左側において右眼4202に近い手前の物体にピントが合い易く、視線の右側において右眼4202から遠い奥の物体にピントが合い易いという不均衡が生じている。
比較して図46では合焦面4609が視線と直交しているため、視線の左側と右側で左眼4601からの距離に対して均等にピントが合い易い状況に有る。この差が観察者の違和感と疲れ眼の一因になる。
図42の方法が図46の状況と異なる二つ目の点は合焦面の形状差に依る。図42の合焦面4210と右眼4202の視線とは略直交している。しかし、その形状は略平面で有りこれは図46の合焦面4610の略球面と異なる。そのため被写体と合焦面との距離が変化するため被写体のボケ度合が異なる。これは、例え右眼用カメラ4002の被写界深度と図46の右眼4602の被写界深度を合わせることが出来たとしても解消されない。
例えば図46において木が有る黒バツ4606と合焦面4610上の木の像4608との距離は、図42において木が有る黒バツ4206と合焦面4210上の木の像4208との距離よりも大きい。そのため、例え右眼用カメラ4002の被写界深度と図42の右眼4202の被写界深度が同じだったとしても木の像4608と木の像4208のボケ度合が異なる。図43の木の像4308の線と、図47の木の像4708の線との太さの違いはそのことを明示している。このボケ度合の違いも観察者の違和感と疲れ眼の一因となる。
図42の方法が図46の状況と異なる三つ目の点は視線の先である黒丸4203に相当する図43の人物4303が視野を表すフレーム4313、及びフレーム4314の中心に無いことである。図46において視線の先である黒丸4603に相当する図47の人物4703は視野を表すフレーム4709、及びフレーム4710の中心に有る。これは人間の眼が、視線の動きに合わせて視野が動く様に出来ており、常に視線の先が視野の中心に有るためである。しかも、特殊な場合を除き、略全てにおいて、常に視線の先でピントが合う様に調節されるためである。比較して図42のシステムの場合、図43に示す様に視野の中心以外でピントが合っており、しかもこの状態でピントの合っていない木4307や、木4308に視線を移すことが出来てしまう。このことが観察者の違和感と疲れ眼の一因となる。
図42の方法が図46の状況と異なる四つ目の点は、図43のフレーム4321と図47のフレーム4721との比較において説明される。前述の様に合焦面4209と合焦面4609、とが異なり、合焦面4210と合焦面4610が異なる。これにより、フレーム4321における人物4303と木4307、あるいは人物4303と木4308との位置関係が、フレーム4721における人物4703と木4707、あるいは人物4703と木4708との位置関係と異なってしまう。特にフレーム4321における木4307と木4308との距離4325と、フレーム4721における木4707と木4708との距離4725とが異なる。これらの距離4325と距離4725とは立体視を行う際、人間の頭の中で人物と木との距離を判断するための大事なファクターとなっており、これらが異なる場合、人物と木との距離が実際と違って感じられるため違和感と疲れ眼の原因となる。立体視映像が感覚に反して妙に画面から飛び出して見える、斜めから見た場合に浮いて見える等の違和感が生じるのはこのためである。
上記一つ目から四つ目の異なる点は図44及び図45と、図48及び図49との比較においても同様に理解される。図48、及び図49は観察者が遠方の木を見ている状況を示している。左眼4801の視線と、右眼4802の視線とは、木が有る黒バツ4806の位置にて交差する。円弧状の破線4811は図39で説明した眼の円弧状合焦面で有り、左眼4801の合焦面である。そのため左眼4801の視線と円弧状合焦面4811との交点にて両者は直角に交差している。同様に円弧上の破線4812は右眼4802の合焦面で有り、右眼4802の視線と円弧状合焦面4812は、その交点にて直角に交差している。
図44の方法が図48の状況と異なる一つ目の点は合焦面4411が左眼4401の視線と直交していないことである。これにより視線の左側において左眼4401に遠い奥の物体にピントが合い易く、視線の右側において左眼4401に近い手前の物体にピントが合い易いという不均衡が生じている。同様に合焦面4411が右眼4402の視線と直交していないために、視線の左側において右眼4402から遠い奥の物体にピントが合い易く、視線の右側において右眼4402から近い手前の物体にピントが合い易いという不均衡が生じている。
比較して図48では合焦面4811が視線と直交しているため、視線の左側と右側で左眼4801からの距離に対して均等にピントが合い易い状況に有る。この差が観察者の違和感と疲れ眼の一因になる。
図44の方法が図48の状況と異なる二つ目の点は合焦面の形状差に依る。図44の合焦面4410、及び合焦面4411の形状は略平面で有り、これは図48の合焦面4811、及び合焦面4812の略球面と異なる。そのため図44の場合と、図48の場合とで被写体と合焦面との距離が変化するため被写体のボケ度合が異なる。これは、例え左眼用カメラ4001の被写界深度と図48の左眼4801の被写界深度を合わせ、同様に右眼用カメラ4002の被写界深度と図48の右眼4802の被写界深度を合わせることが出来たとしても解消されない。
例えば図48の人物が実際に居る黒丸4803の位置と、合焦面4812上の人の像であるグレー丸4805の位置との距離は、図44の人物が実際に居る黒丸4403の位置と、合焦面4412上の人の像であるグレー丸4405との距離よりも大きい。そのためグレー丸4805の人物像のボケ度合がグレー丸4405の人物像のボケ度合よりも大きい。図45の人物像4505の線と、図49の人物像4905の線との太さの違いはそのことを明示している。このボケ度合の違いも観察者の違和感と疲れ眼の一因となる。
図44の方法が図48の状況と異なる三つ目の点は視線の先である黒バツ4406に相当する図45の木4506が視野の中心に無いことである。図48において視線の先である黒バツ4806に相当する図49の木4906は視野を表すフレーム4909、及びフレーム4910の中心に有る。これは人間の眼が、視線の動きに合わせて視野が動く様に出来ており、常に視線の先が視野の中心に有るためである。しかも、特殊な場合を除き、略全てにおいて、常に視線の先でピントが合う様に調節されるためである。比較して図44のシステムの場合、図45に示す様に視野の中心以外でピントが合っており、しかもこの状態でピントの合っていない人物4504や、人物4505に視線を移すことが出来てしまう。このことが観察者の違和感と疲れ眼の一因となる。
図44の方法が図48の状況と異なる四つ目の点は、図45のフレーム4521と図49のフレーム4921との比較において説明される。前述の様に合焦面4411と合焦面4811とが異なり、合焦面4412と合焦面4812とが異なる。これに起因して、フレーム4521における人物4504と木4506、あるいは人物4505と木4506との位置関係が、フレーム4921における人物4904と木4906、あるいは人物4904と木4906との位置関係と異なってしまう。特にフレーム4521における人物4504と人物4505との距離4525と、フレーム4921における人物4904と人物4905との距離4925とが異なる。これらの距離4525と距離4925とは立体視を行う際、人間の頭の中で人物と木との距離を判断するための大事なファクターとなっており、これらが異なる場合、人物と木との距離が実際と違って感じられるため違和感と疲れ眼の原因となる。立体視映像が感覚に反して妙に画面から飛び出して見える、斜めから見た場合に浮いて見える等の違和感が生じるのはこのためである。
さらに、前述の四つの異なる点に起因した疲れ眼とは異なる疲れ眼の原因が従来のHMDには有った。図42の状態において表示デバイス4213と左眼4201の視線とは直交していない。また、表示デバイス4214と右眼4202の視線とも直交していない。そのためレンズ4215の光軸と、左眼4201の視線とが一致せず、かつレンズ4216の光軸と右眼4202の視線とも一致しない。これは観察者が見たい視線の先の映像がレンズ4215、及びレンズ4216の光学収差の影響を受け易いことを意味する。これは図44の状態においても同様である。つまり従来のHMDでは観察者が真正面の遠方を見る場合にのみレンズの光軸と視線とが一致し、その他の大部分の場合はレンズの光学収差の影響を受けて疲れ眼を生じ易かった。また、この収差の影響を抑えるために光学系が複雑化し大型化する問題も有った。
本発明は、HMDを使用して観察する場合に観察者が感じ易い違和感と疲れ眼を解消あるいは低減するために有利な技術を提供する。
本発明の1つの側面は、表示面を有する表示デバイスと、観察者の眼の焦点を前記表示デバイスに合わせるための光学系と、を備えるヘッドマウントディスプレイに係り、前記ヘッドマウントディスプレイは、前記表示デバイスを駆動する駆動機構と、前記観察者の視線を検知する視線検知部と、前記視線検知部の出力に基づいて、前記視線と前記表示面とが交差する点において、前記視線と前記表示面とのなす角度が90度に対して予め設定された許容範囲に収まるように前記駆動機構を制御する制御部と、を備える。
本発明によれば、HMDを使用して観察する場合に観察者が感じ易い違和感と疲れ眼を解消あるいは低減するために有利な技術が提供される。
第1実施形態を説明する図である。 第1実施形態を説明する図である。 第1実施形態を説明する図である。 第1実施形態を説明する図である。 第2実施形態を説明する図である。 第1実施形態を説明する図である。 第1実施形態を説明する図である。 第1実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第2実施形態を説明する図である。 第1実施形態を説明する図である。 第2実施形態を説明する図である。 第1実施形態を説明する図である。 第2実施形態を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例1を説明する図である。 実施例2を説明する図である。 実施例3を説明する図である。 実施例4を説明する図である。 実施例5を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。 課題を説明する図である。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
第1実施形態を図1乃至図8に基づいて説明する。第1実施形態のヘッドマウントディスプレイ(以下、HMD)の一状態を図1に示す。HMDは観察者の左眼0101用の表示デバイス0113と、左眼0101の焦点を表示デバイス0113の表示面に合わせるためのレンズ(光学系)0115とを有する。同様に、HMDは右眼0102用の表示デバイス0114と、右眼0102の焦点を表示デバイス0114の表示面に合わせるためのレンズ(光学系)0116とを有する。
レンズ0115と表示デバイス0113とは、レンズ0115の光軸と表示デバイス0113の中心法線とが一致する様に5軸に関して調整されうる。さらにレンズ0115と表示デバイス0113との距離0126は所定の距離となる様に6軸目に関しても調整されうる。レンズ0115と表示デバイス0113とで一つの左眼用の表示モジュールが構成されうる。前述の6軸調整の範囲としては併進距離が±40um以内、より好ましくは±4um以内であり、角度が±40分角以内、より好ましくは±4分角以内である。ここで、距離0126を前記所定の距離から所定の可動範囲内で変えることを可能とする不図示の機構が左眼用表示モジュールに備えられうる。また、レンズ0116と表示デバイス0114も同様に右眼用表示モジュールを構成しうる。
左眼0101と黒丸0103とを結ぶ線が左眼0101の視線である。左眼0101の視線とレンズ0115の光軸とが一致する様に、左眼用表示モジュールの位置を調節する不図示の調節機構がHMDに備えられうる。さらに、表示デバイス0113と左眼0101との距離0126が所定の距離となる様に左眼用表示モジュールの位置を調節する機構も備えられうる。これにより、観察者の左眼0101の水晶体の厚みが所定の範囲で変化しても、それに合わせて左眼用表示モジュール内のレンズ0115と表示デバイス0113との距離0126を調節することができる。これにより、左眼0101の焦点を表示デバイス0113の面に合わせることができる。これらの位置調節の精度は前述の6軸調整範囲と同様である。
左眼用表示モジュールの位置調節機構によって、左眼0101の視線と表示デバイス0113との交点において、左眼0101の視線と表示デバイス0113の表示面とが成す角θが略垂直にされる。θの範囲は±60分角以内、より好ましくは±6分角以内である。右眼用表示モジュールの位置調節機構も前述の左眼用表示モジュールの場合と同様にHMDに備えられうる。右眼0102の視線と表示デバイス0114との交点において、右眼0102の視線と表示デバイス0114の表示面とが成す角θも略垂直にされうる。
図1で示した第1実施形態のHMDについて、別の状態を図3に示す。左眼0301の視線の向きが図1の左眼0101の視線の向きと異なる。また、右眼0302の視線の向きと、図1の右眼0102の視線の向きとも異なる。
第1実施態例のHMDには不図示の視線検知部が備えられうる。その視線検知部で左眼0301の視線を検知し、その検知情報を元にレンズ0315と、表示デバイス0313とからなる左眼用表示モジュールの位置を調節する不図示の機構が備えられうる。この機構により、図3においても左眼0301の視線と表示デバイス0313との交点0319において、左眼0301の視線と表示デバイス0313の表示面とがなす角θが略垂直に維持されうる。ここでも、θの範囲は±60分角以内、より好ましくは±6分角以内である。
同様に視線検知部によって右眼0302の視線も検知され、その検知情報を元にレンズ0316と表示デバイス0314とからなる右眼用表示モジュールの位置を調節する不図示の調節部(後述の駆動機構Dおよび制御部Cで構成される調節部Aに相当する。)が備えられうる。この調節部により、右眼0302の視線と表示デバイス0314の表示面との交点0320において、右眼0302の視線と表示デバイス0314の表示面とがなす角θも略垂直に維持あるいは調整されうる。ここでも、θの範囲は±60分角以内、より好ましくは±6分角以内である。
図1、図3で示した視線の方向以外の方向に視線が向いた場合も常に、同様の調節部によって視線と表示デバイスの表示面との交点において、視線と表示デバイスの表示面との成す角θが常に略垂直になる様に制御されうる。この様に視線と表示デバイスの表示面とがなす角θを垂直に保つことによって、従来のHMDで生じていた疲れ眼の要因の二つが解消される。
一つ目の要因は、従来のHMDでは視線が正面を向く以外の状態において、図42や図44の例の様に表示デバイスの表示面と眼の視線とが直交せず、そのために生じる光学収差影響による疲れ眼であるが、それが解消される。また、この収差の影響を抑えるために光学系が複雑化し大型化することも防ぐことが可能である。
二つ目の要因は、図42と図46、及び図44と図48との比較において説明した従来のHMDで観察する場合と、実際の現場において眼で観察する場合とが異なる三つ目の点である。即ち従来のHMDでは、観察者が見たい視線の先の物体が常に視野の中心に有る訳では無いために疲れ眼生じる。第1実施形態では視線の先が表示デバイスの中心に常に保持されるために、観察者が見たい映像が視野の中心に常に保たれ、よって、疲れ眼の要因のもう一つが解消される。
図5は左眼用カメラモジュール0501を用いて図1の表示デバイス0113に映し出す映像を撮像し、右眼用カメラモジュール0502を用いて図1の表示デバイス0114に映し出す映像を撮像する様子を示した図である。図1の左眼0101の視線検知情報を受けて、カメラモジュール0501の光軸が左眼0101の視線と同じ方向を向く様に左眼用カメラモジュール0501の姿勢を制御する不図示の姿勢制御部が設けられうる。同様に右眼用カメラモジュール0502の光軸が右眼0102の視線と一致する様に右眼用カメラモジュール0502の姿勢を制御する不図示の姿勢制御部が設けられうる。
カメラモジュール0501、及びカメラモジュール0502には白線で示した平板状のイメージセンサーが内蔵されうる。破線0509、及び破線0510は夫々、カメラモジュール0501、及びカメラモジュール0502の物体側の焦点面を示している。したがって、破線0509上の物体はカメラモジュール0501のレンズを通して、白線で示したイメージセンサー上に結像される。同様に破線0510上の物体はカメラモジュール0502のレンズを通して、白線で示したイメージセンサー上に結像される。
図5において、カメラモジュール0501の光軸とカメラモジュール0502の光軸との交点にある黒丸0503には人物が居る。また、左手遠方の黒バツ0506には木が有る。カメラモジュール0502と黒バツ0506とを結ぶ一点鎖線と、破線0510は交点を有する。したがってカメラモジュール0502の撮影画像には木が写る。それをグレーのバツ0508で示している。実際にグレーのバツ0508の位置に木が有れば、カメラモジュール0502の撮像画像内の木の映像はピントが有った映像となるが、実際には木は黒バツ0506の位置に有るため、黒バツ0506とグレーバツ0508との距離に比例してボケた映像となる。
一方、カメラモジュール0501と黒バツ0506とを結ぶ一点鎖線は、破線0509との交点を持たず、破線0509の延長線である一点鎖線との交点を持つ。それをグレー鎖線のバツ0507で示してある。したがってカメラモジュール0501の撮影画像には木が写らない。
図6は図5のカメラモジュールで撮影した撮影画像を示した図である。フレーム0609は図5の破線0509に相当し、フレーム0610は図5の破線0510に相当する。図5でカメラモジュール0501の光軸上の黒丸0503に人物が居るため、図6のフレーム0609の中心に人物像0603が写っている。同様にカメラモジュール0502の光軸上にも黒丸0503が有り、そこに人物が居るため、図6のフレーム0610の中心に人物像0603が写っている。両方の人物像0603にはカメラモジュール0501とカメラモジュール0502の視差が有るため、両方ともフレームの中心に有るが同じ像ではない。フレーム0610の左上端には木の像0608が写っているが、先に述べた理由でボケた画像となっている。そのことをグレーの中太線で明示している。一方、フレーム0609には先に述べた理由で木の像は映っていない。
図2は図6の撮影画像を図1の表示デバイスに表示した状態を示した図である。図6のフレーム0609の撮影画像は図1の表示デバイス0113に表示される。その表示された映像を示したものが図2のフレーム0213である。同様に図6のフレーム0610の撮影画像は図1の表示デバイス0114に表示される。その表示された映像を示したものが図2のフレーム0214である。観察者は左眼0101でフレーム0213の映像を見て、右眼0102でフレーム0214の映像を見るため頭の中では両者が合成される。その様子を示したものがフレーム0221である。中心の人物像0203は一つであるが、視差を含むフレーム0213の人物像0203と、フレーム0214の人物像0203とが重なったものであり、立体的に感じられる。また、木の像0208は右眼0102だけに感じられることや、木の像のボケ具合から人物像0203との空間的距離感が頭の中で推し測られる。
図1において表示デバイス0113、表示デバイス0114、レンズ0115、及びレンズ0116が無いものとし、黒丸0103に居る人物を観察者が見る場合を考える。この場合、左眼0101の水晶体、及び右眼0102の水晶体は黒丸0103に居る人物にピントを合わせるために夫々、所定の厚みに調整される。その所定の厚みを保ったまま実際に有る表示デバイス0113上の人物像0117を左眼0101の網膜上に結像させることは、表示デバイス0113とレンズ0115との距離0126を調整することで可能である。同じく所定の厚みを保ったまま実際に有る表示デバイス0114上の人物像0118を右眼0102の網膜上に結像させることは、表示デバイス0114とレンズ0116との距離0127を調整することで可能である。その様な調整を行ったとき、観察者に感じられる左眼0101の合焦面は破線0109であり、右眼0102の合焦面は破線0110となり、図5のカメラモジュール0501の合焦面0509と、カメラモジュール0502の合焦面0510が再現される。
次に、図3に示す様に観察者の意識が人物から遠方の木0306に移った場合、左眼0301の視線は左眼0301と黒バツ0306とを結ぶ一点鎖線に移る。同様に右眼0302の視線は右眼0302と黒バツ0306とを結ぶ一点鎖線に移る。この視線の変化を前述の不図示の視線検知部で検知し、これがカメラモジュール0501、及びカメラモジュール0502の姿勢を制御する不図示の調節部に伝えられる。その結果、カメラモジュール0501の光軸が図3の左眼0301の視線に一致し、かつカメラモジュール0502の光軸が図3の右眼0302の視線に一致する。その状態を示した図が図7である。
図7において、カメラモジュール0701の光軸とカメラモジュール0702の光軸との交点にある黒バツ0706には木が有る。また、右手手前の黒丸0703には人物が居る。カメラモジュール0702と黒丸0703とを結ぶ破線と、破線0712は交点を有する。したがってカメラモジュール0702の撮影画像には人物が写る。それをグレーの丸0705で示している。実際にグレーの丸0705の位置に人物が居れば、カメラモジュール0702の撮像画像内の人物像はピントが有った映像となるが、実際には人物は黒丸0703の位置に居るため、黒丸0703とグレー丸0705との距離に比例してボケた映像となる。一方、カメラモジュール0701と黒丸0703とを結ぶ破線は、破線0711との交点を持たず、破線0711の延長線である一点鎖線との交点を持つ。それを白抜きグレー丸0704で示してある。したがってカメラモジュール0701の撮影画像には人物が写らない。
図8は図7のカメラモジュールで撮影した撮影画像を示した図である。フレーム0811は図7の破線0711に相当し、フレーム0812は図7の破線0712に相当する。図7でカメラモジュール0701の光軸上の黒バツ0706に木が有るため、図8のフレーム0811の中心に木の像0806が写っている。同様にカメラモジュール0702の光軸上にも黒バツ0706が有り、そこに木が有るため、図8のフレーム0812の中心に木の像0806が写っている。両方の木像0806にはカメラモジュール0701とカメラモジュール0702の視差が有るため、両方ともフレームの中心に有るが同じ像ではない。フレーム0812の右下端には人物像0805が写っているが、先に述べた理由でボケた画像となっている。そのことをグレーの大太線で明示している。一方、フレーム0811には先に述べた理由で人物像は映っていない。
図4は図8の撮影画像を図3の表示デバイスに表示した状態を示した図である。図8のフレーム0811の撮影画像は図3の表示デバイス0313に表示される。その表示された映像を示したものが図4のフレーム0413である。同様に図8のフレーム0812の撮影画像は図3の表示デバイス0314に表示される。その表示された映像を示したものが図4のフレーム0414である。観察者は左眼0301でフレーム0413の映像を見て、右眼0302でフレーム0414の映像を見るため頭の中では両者が合成される。その様子を示したものがフレーム0421である。中心の木像0406は一つであるが、視差を含むフレーム0413の木像0406と、フレーム0414の木像0406とが重なったものであり、立体的に感じられる。また、人物像0405は右眼0302だけに感じられることや、人物像のボケ具合から木像0406との空間的距離感が頭の中で推し測られる。
図3において表示デバイス0313、表示デバイス0314、レンズ0315、及びレンズ0316が無いものとし、黒バツ0306に有る木を観察者が見る場合を考える。左眼0301の水晶体、及び右眼0302の水晶体は黒バツ0306に有る木にピントを合わせるために夫々、所定の厚みに調整される。その所定の厚みを保ったまま実際に有る表示デバイス0313上の木像0319を左眼0301の網膜上に結像させることは、表示デバイス0313とレンズ0315との距離0326を調整することで可能である。同じく所定の厚みを保ったまま実際に有る表示デバイス0314上の木像0320を右眼0302の網膜上に結像させることは、表示デバイス0314とレンズ0316との距離0327を調整することで可能である。その様な調整を行ったとき、観察者に感じられる左眼0301の合焦面は破線0311であり、右眼0302の合焦面は破線0312となり、図7のカメラモジュール0701の合焦面0711と、カメラモジュール0702の合焦面0712が再現される。
HMDとカメラモジュールとを備えるクロスリアリティシステムではカメラモジュールの光軸がHMDを利用する観察者の視線と略同じ方向を向く様にリアルタイムに制御がなされうる。また、このクロスリアリティシステムではかつカメラモジュールの撮像がHMDの表示デバイスにリアルタイムに表示される。これにより、従来のHMDで生じた疲れ眼の問題が軽減される。
尚、ここではHMDの他にカメラモジュールを用いてリアルタイムで視線情報と撮像データの交換をHMDとカメラモジュールとの間で行う例を挙げたが、カメラモジュールが無くてもよい。その場合は図1の合焦面0109、0110(あるいは図3の合焦面0311、0312に相当する合焦面、より好ましくは図46の合焦面4609、4610、図48の合焦面4811、4812に相当する合焦面。)がHMDを利用する観察者の前に、観察者の視線の向きに合わせて再現される様に、HMDの表示デバイスに映し出す映像をリアルタイムにCG処理すればよい。これにより、カメラモジュールを用いる場合と同様に従来のHMDで生じた疲れ眼の問題を軽減できる。
また、カメラモジュールを用いる場合もリアルタイム性を保持可能な程度にカメラモジュールが観察者から遠方に合ってもよいし、同じHMDの中に組み込まれていてもよい。カメラモジュールが人間の眼では見えない波長の光を捉えるものであってもよい。あるいは、カメラモジュールの撮像に文字や映像を重ねる処理を行ってHMDの表示デバイスに映してもよい。
以下、第1実施形態によって従来のHMDで生じた疲れ眼の問題が軽減される理由を説明する。従来のHMDに有った疲れ眼の要因の一つ目は図42や図44の状態で合焦面4209、合焦面4210、合焦面4411、及び、合焦面4412が観察者の視線と直交していなことであった。そのために視線の左側と視線の右側でピントの合い易さに不均衡が生じ、現場で実際に観察している場合である図46や図48の場合と異なる違和感を観察者が受けるのである。図1、図3に示した本実施形態の場合、図46や図48の場合と同様に合焦面0109、合焦面0110、合焦面0311、及び合焦面0312が視線と直交しているため、その様な違和感は解消される。これは図1、図3以外の方向に視線が向く場合も同様である。
従来のHMDに有った疲れ眼の要因の三つ目は視線の先が視野の中心に無いことであった。図42や図44で、視線の先の見たい被写体が視野の中心でないことが、現場で実際に観察している場合である図46や図48の様に見たい被写体が視野の中心に有る場合との違いとなり、そこから観察者が違和感を受けて疲れ眼の要因となっていた。第1実施形態の図1や図3の場合、視線の先は視野の中心となっているため、その様な違和感は解消される。これは図1、図3以外の方向に視線が向く場合も同様である。
従来のHMDに有った疲れ眼の要因の四つ目は、視線の先の注目している物体よりも奥、あるいは手前に有り、かつ左眼と右眼とで見える位置に視差を生じている物体に関して、現場で実際に観察している場合と視差の度合が異なることであった。例えば図43において遠くの木4307と4308との視差4325は小さいためにフレーム4321には両方が映ってしまう。しかし、現場で実際に観察している場合の図47において遠くの木4707と4708との視差4725は大きいためフレーム4721には片方しか映らない。第1実施形態の図2においては遠くの木0207と0208との視差0225が大きいためフレーム0221には図47と同様に片方しか映らない。
同様のことが図45に関してもいえる。近くの人物4504と4505との視差4525は小さいためフレーム4521には両方が映ってしまう。一方、現場で実際に観察している場合の図49において近くの人物4904と4905との視差4925は大きいためフレーム4921には片方しか映らない。第1実施形態の図4においては近くの人物0405と0404との視差0425が大きいためフレーム0421には図49と同様に片方しか映らない。
したがって、第1実施形態の場合に観察者が感じる人物と木との距離感は、現場で実際に観察している場合に近いものとなる。これによって、従来のHMDで生じていた違和感が軽減され疲れ眼も軽減される。
第1実施形態について補足する。図1で左眼0101と表示デバイス0113との距離と、右眼0102と表示デバイス0114との距離は同じである。左眼0101の焦点が表示デバイス0113の表面に合う様に表示デバイス0113とレンズ0115との距離0126が決められ、右眼0102の焦点が表示デバイス0114の表面に合う様に表示デバイス0114とレンズ0116との距離0127が決められる。この様な焦点の調整手法は実現が容易であるが、それらの位置関係はこの限りでは無い。即ち眼とレンズとの距離が一定で、眼と表示デバイスとの距離を調整して焦点を合わせてもよいし、眼とレンズとの距離と、眼と表示デバイスとの距離との両方を調節する方式でもよい。また、図1では左眼用、右眼用、夫々レンズは一枚で有るが光学収差を補正するために複数であってもよいし、一定の波長のみを透過する平板の透光性部材が間にあってもよい。
第2実施形態のヘッドマウントディスプレイ(以下、HMD)の一状態を図9に示す。第2実施形態は左眼用表示デバイス0913および右眼用表示デバイス0914が平板では無く、曲面である点が第1実施形態と異なる。第2実施形態の様に曲面表示デバイスを使用したことでHMDを小型化することが可能となる。図9の表示デバイス0913と左眼0901との距離は図1の表示デバイス0113と左眼0101との距離よりも短く、同様に表示デバイス0914と右眼0902との距離は表示デバイス0114と右眼0102との距離よりも短い。
図17、図18は平面表示デバイスの場合と曲面表示デバイスの場合を比較するための図である。図17においては、表示デバイス1713の表示面は曲面であり、この曲面は半球面、あるいは球面の一部となっている。レンズ(光学系)1715は表示デバイス1713から発せられた光を眼1701の網膜上に結像させる様に形状と位置が設計されている。表示デバイス1713の中心から出て角度1733に入る光は瞳1740によって蹴られることなく眼1701に入射し、網膜の中心窩に結像する様子が光線追尾計算の結果として描かれている。同様に表示デバイスの中心から距離1737及び距離1736離れたところから発せられた光の一部も瞳1740によって蹴られることなく眼1701に入射し、網膜上の中心窩から夫々、距離1739及び距離1738離れたところに結像する様子が描かれている。
一方、図18においては、表示デバイス1813は平板である。レンズ1815は表示デバイス1813から発せられた光を眼1801の網膜上に結像させる様に形状と位置が設計されている。表示デバイス1813の中心から出て角度1833に入る光は瞳1840によって蹴られることなく眼1801に入射し、網膜の中心窩に結像する様子が光線追尾計算の結果として描かれている。同様に表示デバイスの中心から距離1837及び距離1836離れたところから発せられた光の一部も瞳1840によって蹴られることなく眼1801に入射し、網膜上の中心窩から夫々、距離1839及び距離1838離れたところに結像する様子が描かれている。
図17の表示デバイス1713の平面サイズ1730と図18の表示デバイス1813の平面サイズ1830とは同じである。しかし、図17のHMDサイズ1723は図18のHMDサイズ1823よりも小さくコンパクトである。さらにレンズ1715の径はレンズ1815の径よりも小さい。この様に曲面表示デバイスを使用した図17の方がHMDを小さくする上で有利である。
また、角度1733は角度1833よりも広いため表示デバイス1713と表示デバイス1813とが同じ明るさの表示デバイスであっても図17のHMDの方が明るい映像を観察者が観察可能である。さらに角度1734は角度1834よりも広いため図17のHMDの方が視野を広く設けることが出来る。この様に曲面表示デバイスを使用した図17の方がHMDを明るく、広視野とする上でも有利である。
図17、図18はレンズが1枚で構成される単純な光学系の例であるが色収差等の光学収差を減らす目的で複数枚のレンズを組み合わせたレンズ系を使用しても同様の効果が得られる。
また、図19、図20に示す様にHMDを使用した観察者が近傍の物体を観察する際にも曲面の表示デバイスを使用した方が有利である。図19に示す様に観察者が距離1941の場所に有る物体を観察する場合を考える。この場合、左眼1901用の曲面表示デバイス、レンズ1915、右眼1902用の曲面表示デバイスおよびレンズ1916からなるHMDで観察すれば表示デバイス1913と表示デバイス1914がぶつからない。よって、当該物体を観察することが可能である。しかし、図20に示す様に左眼2001用の平面表示デバイス2013、レンズ2015、右眼2002用の平面表示デバイス2014、及びレンズ2016からなるHMDで観察しようとすれば、表示デバイス2015と表示デバイス2016とがぶつかってしまう。よって、距離1941よりも遠い距離2041にある物体しか観察することが出来ない。
図9において表示デバイスとレンズとの6軸に関する調整は第1実施形態と同様に行われうる。また、第1実施形態と同様に不図示の視線を検知する視線検知部が備えられてよく、それによって検知される観察者の視線方向に合わせて表示モジュールの位置を調節する機構も備えられうる。さらに、観察者の視線とレンズの光軸とが一致する様に表示モジュールの位置を調整する機構も第1実施形態と同様に備えられうる。したがって、第1実施形態と同様に視線と表示デバイスの表示面が成す角θ(視線が表示面との交点における両者の間の角度)は略直角となる。θの範囲は±60分角以内、より好ましくは±6分角以内である。
以上により、第2実施形態においても第1実施形態と同様に従来の課題に対して、課題を解決、または軽減する効果が有る。即ち一つ目の効果は、従来のHMDに有った観察者の視線と表示デバイスが直交しないために光学収差影響を受けて生じていた疲れ眼を解消する効果である。さらに二つ目の効果は従来のHMDに有った観察者の見たい映像が視野の中心に保たれないことに起因した疲れ眼を解消する効果である。
図13は第1実施形態で説明した図5に対応する。図13と図5との違いはカメラモジュール1301、及びカメラモジュール1302には白線で示した曲面状のイメージセンサーが内蔵されている点である。図21は曲面状のイメージセンサーを内蔵するカメラモジュール2101で250mm先の合焦面2109上の物体を撮影している様子を表している。カメラモジュール2101に内蔵されるイメージセンサーの撮像面は曲面であり、この曲面は半球面、あるいは球面の一部となっている。レンズ2115は合焦面2109から発せられた光を曲面イメージセンサーの撮像面上に結像させる様に形状と位置が設計されている。合焦面2109の中心から出て角度2133に入る光はレンズ2115の絞りによって蹴られることなくカメラモジュール2101に入射する。これにより、曲面イメージセンサーの撮像面の中心に結像する。同様に合焦面2109の中心から距離2137及び距離2136を隔てた位置から発せられた光の一部もレンズ2115の絞りによって蹴られることなくカメラモジュール2101に入射する。これにより、曲面イメージセンサーの撮像面の中心から夫々距離2139及び距離2138離れたところに結像する。
そして、図21の曲面イメージセンサーで受けた画像情報は図17の表示デバイス1713に不図示の転送装置によって転送され上下、左右を反転して表示される。表示位置の関係は次の様になる。図21のイメージセンサーの中心点の画素情報は図17の表示デバイスの中心画素で表示される。図21のイメージセンサーの中心点から距離2139の位置に配置された画素の情報は図17の表示デバイスの中心画素から距離1737の位置に配置された画素で表示される。同様に距離2138の位置に配置された画素の情報は距離1736の位置に配置された画素で表示される。
その結果、図17でHMDを使用している観察者の眼1701の網膜上に結像される像は観察者が現場で観察を行っている場合と同様の像となる。即ち図21を、観察者が現場で250mm先の観察を行っている様子を示した図であると見做した時に、眼2101の網膜に結像している像と、図17のHMDを使用している観察者の眼1701の網膜に結像している像とが同じとなる。これにより、図17のHMDを使用している観察者には、あたかも図21の様に現場で250mm先を観察しているかの様に感じられる。
250mm先の物体を撮影し、その映像をHMDで観察する場合を説明したが、250mm以外の距離でも同様である。例えば図21で無限遠に合焦面2109が有る場合も、レンズ2115をイメージセンサーへ若干近づける方向にシフトさせれば、合焦面2109の各点から発光された光を曲面イメージセンサー上に結像させることが可能である。その状態で、曲面イメージセンサーで受けた画像情報を図17の曲面表示デバイス1713に反転して表示させ、HMDで観察を行う際にレンズ1715を眼1701に近づく方向にシフトさせれば、観察者は現場で無限遠を観察しているかの様に感じられる。
図13は左眼用カメラモジュール1301を用いて図9の表示デバイス0913に映し出す映像を撮像し、右眼用カメラモジュール1302を用いて図9の表示デバイス0914に映し出す映像を撮像する様子を示した図である。図9の左眼0901の視線検知情報を受けて、カメラモジュール1301の光軸が左眼0901の視線と同じ方向を向く様に左眼用カメラモジュール1301の姿勢を制御する不図示の機構が備えられうる。同様に右眼用カメラモジュール1302の光軸が右眼0902の視線と一致する様に右眼用カメラモジュール1302の姿勢を制御する不図示の機構が設けられうる。
破線1309、及び破線1310は夫々、カメラモジュール1301、及びカメラモジュール1302の物体側の焦点面を示している。したがって、破線1309上の物体はカメラモジュール1301のレンズを通して、白線で示したイメージセンサーの撮像面上に結像される。同様に破線1310上の物体はカメラモジュール1302のレンズを通して、白線で示したイメージセンサーの撮像面上に結像される。
図13において、カメラモジュール1301の光軸とカメラモジュール1302の光軸との交点にある黒丸1303には人物が居る。また、左手遠方の黒バツ1306には木が有る。カメラモジュール1302と黒バツ1306とを結ぶ一点鎖線と破線1310とは交点を有する。したがって、カメラモジュール1302の撮影画像には木が写る。それをグレーのバツ1308で示している。実際にグレーのバツ1308の位置に木が有れば、カメラモジュール1302の撮像画像内の木の映像はピントが有った映像となるが、実際には木は黒バツ1306の位置に有るため、黒バツ1306とグレーバツ1308との距離に比例してボケた映像となる。一方、カメラモジュール1301と黒バツ1306とを結ぶ一点鎖線は、破線1309との交点を持たず、破線1309の延長線である一点鎖線との交点を持つ。それをグレー点線のバツ1307で示してある。したがってカメラモジュール1301の撮影画像には木が写らない。
図14は図13のカメラモジュールで撮影した撮影画像を示した図である。フレーム1409は図13の破線1309に相当し、フレーム1410は図13の破線1310に相当する。図13でカメラモジュール1301の光軸上の黒丸1303に人物が居るため、図14のフレーム1409の中心に人物像1403が写っている。同様にカメラモジュール1302の光軸上にも黒丸1303が有り、そこに人物が居るため、図14のフレーム1410の中心に人物像1403が写っている。両方の人物像1403にはカメラモジュール1301とカメラモジュール1302の視差が有るため、両方ともフレームの中心に有るが同じ像ではない。フレーム1410の左上端には木の像1408が写っているが、先に述べた理由でボケた画像となっている。そのことをグレーの中太線で明示している。一方、フレーム1409には先に述べた理由で木の像は映っていない。
図10は図14の撮影画像を図9の表示デバイスに表示した状態を示した図である。図14のフレーム1409の撮影画像は図9の表示デバイス0913に表示される。その表示された映像を示したものが図10のフレーム1013である。同様に図14のフレーム1410の撮影画像は図9の表示デバイス0914に表示される。その表示された映像を示したものが図10のフレーム1014である。観察者は左眼0901でフレーム1013の映像を見て、右眼0902でフレーム1014の映像を見るため頭の中では両者が合成される。その様子を示したものがフレーム1021である。中心の人物像1003は一つであるが、視差を含むフレーム1013の人物像1003と、フレーム1014の人物像1003とが重なったものであり、立体的に感じられる。また、木の像1008は右眼0902だけに感じられることや、木の像のボケ具合から人物像1003との空間的距離感が頭の中で推し測られる。
図9において表示デバイス0913、表示デバイス0914、レンズ0915、及びレンズ0916が無いものとし、黒丸0903に居る人物を観察者が見る場合を考える。この場合、左眼0901の水晶体、及び右眼0902の水晶体は黒丸0903に居る人物にピントを合わせるために夫々、所定の厚みに調整される。その所定の厚みを保ったまま実際に有る表示デバイス0913上の人物像0917を左眼0901の網膜上に結像させることは、表示デバイス0913とレンズ0915との距離0926を調整することで可能である。同じく所定の厚みを保ったまま実際に有る表示デバイス0914上の人物像0918を右眼0902の網膜上に結像させることは、表示デバイス0914とレンズ0916との距離0927を調整することで可能である。その様な調整を行ったとき、観察者に感じられる左眼0901の合焦面は破線0909であり、右眼0902の合焦面は破線0910となり、図13のカメラモジュール1301の合焦面1309と、カメラモジュール1302の合焦面1310が再現される。
次に、図11に示す様に観察者の意識が人物から遠方の木1106に移った場合、左眼1101の視線は左眼1101と黒バツ1106とを結ぶ一点鎖線に移る。同様に右眼1102の視線は右眼1102と黒バツ1106とを結ぶ一点鎖線に移る。この視線の変化を前述の不図示の視線検知部で検知し、カメラモジュール1301、及びカメラモジュール1302の姿勢を制御する不図示の機構に伝えられうる。その結果、カメラモジュール1301の光軸が図11の左眼1101の視線に一致し、かつカメラモジュール1302の光軸が図11の右眼1102の視線に一致した状態を示した図が図15である。
図15において、カメラモジュール1501の光軸とカメラモジュール1502の光軸との交点にある黒バツ1506には木が有る。また、右側手前の黒丸1503には人物が居る。カメラモジュール1502と黒丸1503とを結ぶ破線と破線1512とは交点を有する。したがってカメラモジュール1502の撮影画像には人物が写る。それをグレーの丸1505で示している。実際にグレーの丸1505の位置に人物が居れば、カメラモジュール1502の撮像画像内の人物像はピントが有った映像となるが、実際には人物は黒丸1503の位置に居るため、黒丸1503とグレー丸1505との距離に比例してボケた映像となる。一方、カメラモジュール1501と黒丸1503とを結ぶ破線は、破線1511との交点を持たないが、破線1511の延長線である一点鎖線との交点を持つ。それを白抜きグレー丸1504で示してある。したがってカメラモジュール1501の撮影画像には人物が写らない。
図16は図15のカメラモジュールで撮影した撮影画像を示した図である。フレーム1611は図15の破線1511に相当し、フレーム1612は図15の破線1512に相当する。図15でカメラモジュール1501の光軸上の黒バツ1506に木が有るため、図16のフレーム1611の中心に木の像1606が写っている。同様にカメラモジュール1502の光軸上にも黒バツ1506が有り、そこに木が有るため、図16のフレーム1612の中心に木の像1606が写っている。両方の木像1606にはカメラモジュール1501とカメラモジュール1502の視差が有るため、両方ともフレームの中心に有るが同じ像ではない。フレーム1612の右下端には人物像1605が写っているが、先に述べた理由でボケた画像となっている。そのことをグレーの大太線で明示している。一方、フレーム1611には先に述べた理由で人物像は映っていない。
図12は図16の撮影画像を図11の表示デバイスに表示した状態を示した図である。図16のフレーム1611の撮影画像は図11の表示デバイス1113に表示される。その表示された映像を示したものが図12のフレーム1213である。同様に図16のフレーム1612の撮影画像は図11の表示デバイス1114に表示される。その表示された映像を示したものが図12のフレーム1214である。観察者は左眼1101でフレーム1213の映像を見て、右眼1102でフレーム1214の映像を見るため頭の中では両者が合成される。その様子を示したものがフレーム1221である。中心の木像1206は一つであるが、視差を含むフレーム1213の木像1206と、フレーム1214の木像1206とが重なったものであり、立体的に感じられる。また、人物像1205は右眼1102だけに感じられることや、人物像のボケ具合から木像1206との空間的距離感が頭の中で推し測られる。
図11において表示デバイス1113、表示デバイス1114、レンズ1115、及びレンズ1116が無いものとし、黒バツ1106に有る木を観察者が見る場合を考える。この場合、左眼1101の水晶体、及び右眼1102の水晶体は黒バツ1106に有る木にピントを合わせるために夫々、所定の厚みに調整される。その所定の厚みを保ったまま実際に有る表示デバイス1113上の木像1119を左眼1101の網膜上に結像させることは、表示デバイス1113とレンズ1115との距離1126を調整することで可能である。同じく所定の厚みを保ったまま実際に有る表示デバイス1114上の木像1120を右眼1102の網膜上に結像させることは、表示デバイス1114とレンズ1116との距離1127を調整することで可能である。その様な調整を行ったとき、観察者に感じられる左眼1101の合焦面は破線1111であり、右眼1102の合焦面は破線1112となり、図13のカメラモジュール1301の合焦面1311と、カメラモジュール1302の合焦面1312が再現される。
HMDとカメラモジュールとを備えるクロスリアリティシステムでは、カメラモジュールの光軸がHMDを利用する観察者の視線と略同じ方向を向く様にリアルタイムに制御がなされる。また、このシステムではカメラモジュールによって撮像された画像がHMDの表示デバイスにリアルタイムに表示される。これにより、従来のHMDで生じた疲れ眼の問題が軽減される。
尚、ここではHMDの他にカメラモジュールを用いてリアルタイムで視線情報と撮像データの交換をHMDとカメラモジュールとの間で行う例を挙げたが、カメラモジュールが無くてもよい。その場合は図9の合焦面0909、0910(あるいは図11の合焦面1111、1112に相当する合焦面、より好ましくは図46の合焦面469、4610、図48の合焦面4811、4812に相当する合焦面。)がHMDを利用する観察者の前に、観察者の視線の向きに合わせて再現される様に、HMDの表示デバイスに映し出す映像をリアルタイムにCG処理すればよい。これによりカメラモジュールを用いる場合と同様に従来のHMDで生じた疲れ眼の問題を軽減できる。
また、カメラモジュールを用いる場合もリアルタイム性を保持可能な程度にカメラモジュールが観察者から遠方に合ってもよいし、同じHMDの中に組み込まれていてもよい。カメラモジュールが人間の眼では見えない波長の光を捉えるものであってもよい。あるいは、カメラモジュールの撮像に文字や映像を重ねる処理を行ってHMDの表示デバイスに映してもよい。
以下、第2実施形態によって従来のHMDで生じた疲れ眼の問題が軽減される理由を説明する。従来のHMDに有った疲れ眼の要因の一つ目は図42や図44の状態で合焦面4209、合焦面4210、合焦面4411、及び、合焦面4412が観察者の視線と直交していなことであった。そのために視線の左側と視線の右側でピントの合い易さに不均衡が生じ、現場で実際に観察している場合である図46や図48の場合と異なる違和感を観察者が受けるのである。図9、図11に示した本実施形態の場合、図46や図48の場合と同様に合焦面0909、合焦面0910、合焦面1111、及び合焦面1112が視線と直交しているため、その様な違和感は解消される。これは図9、図11以外の方向に視線が向く場合も同様である。
従来のHMDに有った疲れ眼の要因の三つ目は視線の先が視野の中心に無いことであった。図42や図44で、視線の先の見たい被写体が視野の中心でないことが、現場で実際に観察している場合である図46や図48の様に見たい被写体が視野の中心に有る場合との違いとなり、そこから観察者が違和感を受けて疲れ眼の要因となっていた。第2実施形態の図9や図11の場合、視線の先は視野の中心となっているため、その様な違和感は解消される。これは図9、図11以外の方向に視線が向く場合も同様である。
従来のHMDに有った疲れ眼の要因の四つ目は、視線の先の注目している物体よりも奥、あるいは手前に有り、かつ左眼と右眼とで見える位置に視差を生じている物体に関して、現場で実際に観察している場合と視差の度合が異なることであった。例えば図43において遠くの木4307と4308との視差4325は小さいたいめフレーム4321には両方が映ってしまっている。しかし、現場で実際に観察している場合の図47において遠くの木4707と4708との視差4725は大きいためフレーム4721には片方しか映らない。第2実施形態の図10においては遠くの木1007と1008との視差1025が大きいためフレーム1021には図47と同様に片方しか映らない。
同様のことが図45に関してもいえる。近くの人物4504と4505との視差4525は小さいためフレーム4521には両方が映ってしまっている。一方、現場で実際に観察している場合の図49において近くの人物4904と4905との視差4925は大きいためフレーム4921には片方しか映らない。第2実施形態の図12においては近くの人物1205と1204との視差1225が大きいためフレーム1221には図49と同様に片方しか映らない。
したがって第2実施形態の場合に観察者が感じる人物と木との距離感は、現場で実際に観察している場合に近いものとなる。これによって、従来のHMDで生じていた違和感が軽減され疲れ眼も軽減される。
さらに第2実施形態では従来のHMDにあった疲れ眼の要因の二つ目も解消される。要因の二つ目は現場で実際に観察している場合の合焦面と、HMDを体験している際に観察者が感じる合焦面の形状差に依るものであった。しかし、第2実施形態ではHMDを使用して観察している場合を示す図9の状況と、現場で実際に観測者が見ている場合を示す図46の状況とが一致している。
つまり、図9において木が有る黒バツ0906と合焦面0910上の木の像0908との距離と、図46において木が有る黒バツ4606と合焦面4610上の木の像4608との距離とが同じである。このため、右眼用カメラ1302の被写界深度と観察者の眼4602の被写界深度が略同じであれば木の像0908と、木の像4608のボケ度合が同じとなる。図10の木の像1008と、図47の木の像4708の線の太さが同じであることがそのことを明示している。
同様の事が図11の場合と、図48との比較においても言える。つまり図11において人物が居る黒丸1103と合焦面1112上の人物像1105との距離と、図48において人物が居る黒丸4803と合焦面4812上の人物像4805との距離とが同じである。このため右眼用カメラ1502の被写界深度と観察者の眼4802の被写界深度が略同じであるとすれば人物像1105と、人物像4805のボケ度合が同じとなる。図12の人物像1205と、図49の人物像4905の線の太さが同じであることがそのことを明示している。
以上の様に従来のHMDにあった疲れ眼の要因の二つ目も解消される点において第2実施形態は第1実施形態よりも好ましい。
以下、第2実施形態を具体化した実施例を実施例1として説明する。実施例1の曲面表示デバイスと曲面イメージセンサーの製造方法を図22に示す。平面表示デバイスまたは平面イメージセンサーである平面デバイス2244の表面には画素2245が一定のピッチで配置されうる。一例において、画素の平面形状は六角形とし、蜂の巣の様に平面充填構造とすることができる。一例において、画素サイズは3umである。平面表示デバイスとしては、例えば、液晶ディスプレイまたは有機ELディスプレイ等が使用可能である。平面イメージセンサーとしては、例えば、CMOSイメージセンサー、CCDセンサーまたはSPADセンサー等が使用可能である。
ファイバーオプティカルプレート(以下、FOP)、より具体的には、一方の面が平面で、他方の面が球面であるFOP2242を準備した。FOPを構成するファイバー2243は、例えば直径が3umでありうる。図22、右図の様にFOP2242と平面デバイス2244とを接着剤2246により貼り合わせることによって、曲面表示デバイスまたは曲面イメージセンサーである曲面デバイスとを完成させることができる。貼り合わせには、例えば公知の高精度ダイボンダーを使用することができ、これにより画素2245の中心とファイバー2243の中心を一致させることができる。一例において、貼り合わせ精度は±0.3umでありうる。
図23は本例のHMDにおいて、観察者の視線を検知する視線検知部と、それによって検知された視線に応じて表示モジュールの光軸を駆動する駆動機構とを説明する図である。本例のHMDは、球面の一部で構成される支持面を有する支持体2347を備え、その球面の中心は観察者の眼2301の回転中心(視線の動きの回転中心)と略一致するように位置決めされうる。ここで略一致とは、眼2301の回転中心に対して±1mm以内、より好ましくは0.1mm以内である。
曲面表示デバイス2313は、その表示面と反対の面である裏面が支持体2347の球面の曲率より少し小さい曲率の球面形状を有しうる。表示デバイス2313の裏面には永久磁石のハルバッハアレイ2349が固定されうる。一方、支持体2347の支持面には電磁石配列2350が設けられうる。電磁石配列2350をハルバッハアレイ2349と常に引き合う様に制御することによって表示デバイス2313を常に支持体2347に引き付けることができる。一方、表示デバイス2313を引き付ける力に抗する様にベアリング2348が設けられうる。ベアリング2348は表示デバイス2313が支持体2347の支持面に沿って移動することを可能にする。表示デバイス2313を移動させるために電磁石配列2350が発生する磁界が制御される。これにより表示デバイス2313は支持体2347の球面に沿って上下および左右に駆動される。
ハルバッハアレイ2349と電磁石配列2350とは入れ替えられてもよい。即ちハルバッハアレイ2349が表示デバイス2313に設けられ、電磁石配列2350が支持体2347に設けられてもよい。
表示デバイス2313の光軸とレンズ(光学系)2315の光軸とが一致した状態で、レンズ2315は不図示の駆動系によってレンズ2315の光軸に沿って駆動されうる。表示デバイス2313の光軸とレンズ2315の光軸とを一致させるための5軸調整精度としては、例えば、並進を±4umとし、角度を±4分角とすることができる。
表示デバイス2313とレンズ2315との間に、光軸に対し45°で交差する赤外ミラー(ハーフミラー)2353を設けられうる。赤外ミラー2353は、可視光を透過し、赤外光を反射する様に透光性部材の表面に光学フィルターを設けることによって構成されうる。また、眼2301の瞳に対し赤外光を照射する赤外LED(照射部)2351を設けられうる。赤外LED2351によって瞳に照射された赤外光のうち瞳によってレンズ2315の方向に反射された光はレンズ2315で若干集光され、赤外ミラー2353によって反射されうる。赤外ミラー2353によって反射された赤外光は赤外レンズ2354を通り、赤外イメージセンサー2355の撮像面上に眼2301の瞳像を結像しうる。赤外イメージセンサー2355は観察者の視線を検知する視線検知部を構成しうる。ここで、赤外レンズ2354は不図示の駆動系によって赤外イメージセンサー2355の光軸に沿って駆動されうる。該駆動系は、レンズ2315が動いた際にも、赤外イメージセンサー2355上に常に瞳像が結像する様に制御されうる。
ハルバッハアレイ2349、ベアリング2348、表示デバイス2313、レンズ2315、赤外LED2351、赤外ミラー2353、赤外レンズ2354、赤外イメージセンサー2355等は一体化された表示モジュールDMを構成しうる。モジュールMは眼2301の回転中心と略同一の中心点の周りで回転する様に駆動機構Dによって駆動されうる。眼2301の回転し、即ち視線の変化は赤外イメージセンサー233の撮像面に瞳像の移動として現れる。そこで、制御部CNTは赤外イメージセンサー233の出力に基づいて赤外イメージセンサー233の撮像面における瞳像の動きの速度と方向を検知することで観察者の視線の動きを検知することができる。また、制御部CNTは観察者の視線の動きに応じて、それにモジュールMが追従する様に駆動機構Dを制御しうる。これにより観察者の視線と表示デバイス2313の表示面との交点において、視線と表示デバイス2313の表示面とが成す角θを略垂直に保つことができる。換言すると、制御部CNTは、赤外イメージセンサー2355(視線検知部)の出力に基づいて、観察者の視線と表示デバイス2313の表示面とのなす角度が90度に対して予め設定された許容範囲に収まるように駆動機構Dを制御しうる。許容範囲は、要求仕様に応じて任意に決定されうる。許容範囲は、例えば、90度に対して±60分角以内であってよく、90度に対して±6分角以内であることが好ましい。
図24は観察者の視線の方向を数値化し、カメラモジュールの姿勢を制御するための情報を得る仕組みを説明する図である。支持体2447の球面には二次元エンコーダーで目盛りとして使用可能なコントラストを有する2次元紋様2456が設けられうる。エンコーダーセンサー2457は内部に不図示の赤外LEDと赤外センサー配列を有しうる。2次元紋様2456に向かってエンコーダーセンサー2457の赤外LEDから赤外線2458が照射され、2次元紋様2456からの赤外反射光をエンコーダーセンサー2457の赤外センサー配列によって検知することができる。
エンコーダーセンサー2457、表示デバイス2413、レンズ2415、赤外ミラー2453、赤外レンズ2454、赤外イメージセンサー2455を含むモジュールMは図24の様に眼2401の回転中心と略同一の中心点の周りで回転しうる。眼2401の回転中心は視線の動きの回転中心であるとも言える。制御部CNTはエンコーダーセンサー2457によって2次元紋様2456からの赤外反射光の変化をカウントすることで視線の角度を検知することができる。検視された視線の方向をカメラモジュールの姿勢制御にフィードバックさせることでリアルタイムクロスリアリティシステムが構築されうる。次にそのリアルタイムクロスリアリティシステムの動作について説明する。
図25は観察者が本例のHMDを使用して無限遠の景色を観察している状態を示している。左眼2501の視線と右眼2502の視線は平行であり、表示デバイス2513とレンズ2515からなる表示モジュールの光軸と左眼2501の視線が一致している。同様に表示デバイス2514とレンズ2516からなる表示モジュールの光軸と視線も一致している。
図26は観察者の意識が右7°かつ前方250mmの位置にある物体に向いた状態を示している。この時、左眼2601、及び右眼2602の視線は夫々、図25の平行状態から8.6°内側方向に向きになり寄り眼となった状態である。観察者の視線の変化は前述の視線検知部を使って検知され、前述の駆動機構Dによって、表示デバイス2613とレンズ2615を含むモジュールの光軸と左眼2601の視線が一致する。さらに同様に表示デバイス2614とレンズ2616を含む表示モジュールの光軸と右眼2602の視線も一致する。この時、観察者の頭の回転角7°は不図示のジャイロセンサーによって計測されうる。また、左眼2601の視線角度、及び右眼2602の視線角度は前述のエンコーダーセンサーを使用した機構にて測定されうる。
図27は図25で観察者が見ている表示デバイス2513と表示デバイス2514に表示する映像を撮影するカメラモジュールシステムを示している。左眼用カメラモジュール2701の撮影映像は図25の表示デバイス2513に表示され、右眼用カメラモジュール2702の撮影映像は図25の表示デバイス2514に表示される。この時、左眼用カメラモジュール2701の光軸方向は図25の左眼2501の視線の方向と一致し、右眼用カメラモジュール2702の光軸方向は図25の右眼2502の視線の方向と一致している。また図25の観察者の頭の向きと図27のカメラモジュールシステム全体の向きとは図の水平左方向に一致している。
観察者の状態が図25から図26に移った際に、リアルタイムで前述の観察者の頭の回転角と、左右の眼の視線の角度変化が図27の状態のカメラモジュールシステムに不図示の伝達装置によって伝達されカメラモジュールの方向制御が行われうる。そのためカメラモジュールシステムの状態は図27の状態から図28の状態になる。即ちカメラモジュールシステム全体が右に7°回転し、右眼用カメラモジュール2701の光軸方向と左眼用カメラモジュール2702の光軸方向とが夫々8.6°内側に向く。これにより、再び観察者の左眼2601の視線方向と左眼用カメラモジュール2801の光軸方向が一致し、右眼2602の視線方向と右眼用カメラモジュール2802の光軸方向が一致する。
次に本例のリアルタイムクロスリアリティシステムのレンズ系の制御について説明する。図29は図27の無限遠に合焦面がある状態のカメラモジュールの拡大図である。無限遠から来る平行光がレンズ2915を通して曲面イメージセンサー上に焦点を結ぶ様子が光線計算の結果として描かれている。図30は図28の近傍250mmに合焦面がある状態のカメラモジュール拡大図である。250mm遠方の不図示の円弧状合焦面から発光された拡散光がレンズ3015を通して曲面イメージセンサー上に焦点を結ぶ様子が光線計算の結果として描かれている。図29の状態から図30の状態へは、公知のオートフォーカス機構によってレンズ2915の位置から、レンズ3015の位置へレンズ2915をシフトさせることで行なわれる。あるいはHMDで検知された左眼の視線と右眼の視線とが成す角ηから、観察物体と観察者との距離Lを算出し、レンズ2915のシフト量を決定してもよい。
図31は図25の観察者が無限遠を観察している状態の表示モジュールの拡大図である。図29のカメラモジュール2901で撮影された映像が表示デバイス3113にリアルタイムで表示されている。表示デバイス3113の表面から発光した拡散光がレンズ3115、水晶体3159を通して眼3101の網膜に結像している様子が光線計算の結果として描かれている。この時、水晶体3519の厚みは観察者が実際に無限遠を観察している時と同じ厚みになる様にレンズ3115の位置が制御される。また、レンズ3115の位置に合わせて赤外レンズ3154の位置が調節され赤外イメージセンサー3155に眼3101の瞳像が結像している。つまり、不図示の制御部は、観察者の眼の輻輳角に基づいて、表示デバイス3213の表示面を見ている眼の水晶体の厚みが、該輻輳角に対応する輻輳距離に存在する物体を観察者が見るときの眼の水晶体の厚みと一致するように、レンズ3115を調整しうる。
図32は図26の観察者が近傍250mmに有る物体を観察している状態にある時の表示モジュールの拡大図である。カメラモジュールが図29の状態から図30の状態に移った際のレンズ2915のシフト量が図31のHMDのシステムに伝達されレンズ3115の位置制御にリアルタイムでフィードバックされる。あるいは、HMDで検知された観察者の左眼の視線と、右眼の視線とが成す角ηから、観察物体と観察者との距離Lを算出し、レンズ3115の位置制御にフィードバックしても良い。フィードバックにしたがって図31の状態から図32の状態に変わる際にレンズ3115の位置からレンズ3215の位置へレンズ3115の位置がシフトされる。
その結果、表示デバイス3213の表面から発光した拡散光がレンズ3215を通して、眼3201に入射した際に、観察者の眼3101において水晶体3159の厚みを厚くする制御が行われる。これは、この様にしなければ拡散光が網膜に結像しないためである。図32の水晶体3259の厚みは、観察者が実際に250mm近傍を見る際に必要な厚みである。逆に、先のレンズ3115の位置からレンズ3215の位置へのシフト量は、水晶体3259の厚みが図32の厚みになる様に計算され決定される。また、赤外イメージセンサー3255上の瞳画像のピントがずれない様にレンズ3115のシフトに合わせて、赤外レンズ3154の位置も赤外レンズ3254の位置にシフトされる。
以上の様な制御が成されることによって観察者は現場で実際に観察している場合と同様に疲れ眼を感じ難い状態で、表示を観察することが可能である。
図27のカメラモジュールから図28の表示デバイスへ、あるいは図28のカメラモジュールから図26の表示デバイスへの画像転送はカメラモジュールと観察者との距離が近い場合は問題ない。しかし、遠隔地の場合いは転送に時間を要するためリアルタイム性が低下する場合がある。そのため本例では図33に示す様に画素情報の間引き転送とAIによるレンダリングによって再生処理を行ってもよい。即ち図33のaはカメラモジュールで撮影した映像を示し、bはカメラモジュール近傍のイメージシグナルプロセッサによって周囲画素の情報を間引いた映像を示す。この状態でカメラモジュールから表示デバイスへ転送を行えば情報量が少ないため転送時間を削減可能である。つまり、カメラモジュールの前メージセンサーを使って得られた画像の周辺部を該画像の中心部よりも粗くした画像をカメラモジュールの側から表示デバイスの側に転送されることにより転送時間を削減可能である。また、より重要な目の中心窩で観察する部分はそのままであるため間引きの影響を抑えることが可能である。cは表示デバイス近傍のAIプロセッサで受けた画像情報を示し、dはAIプロセッサがAI処理で間引かれた画素情報を補間して表示デバイスに表示させた画像を示す。この様な処理を行うシステムを構築することが遠隔地の映像を体験するためのクロスリアリティシステムを実現する上でより好ましい。
以下、実施例2について説明する。実施例2が実施例1と異なる点を図34、図35を用いて説明する。図34は実施例1のHMDを示す図である。左眼3401、右眼3402の視線の先に夫々のハルバッハアレイ3449が有り、これは夫々の支持体3447から突出することが出来ない構成になっている。したがって、実施例1では左眼3401、及び右眼3402の回転角が±18°に限定されている。
一方、図35は実施例2のHMDを示す図である。左眼3501、右眼3502の視線の先に夫々のハルバッハアレイ3549は無く、オフセットが設けられている。したがって、図35の左眼用表示デバイス3513の様に左眼用支持体3547の右端から外に突出することが可能である。他の観点で説明すれば、表示デバイス3513の可動域は、表示デバイスを支持する支持面(ハルバッハアレイ3549)の領域の外側の領域を含む。このため実施例2では左眼3501、及び右眼3502の回転角が±30°の範囲まで許される。オフセット量を調節することに依ってさらに回転角の許される範囲を広げることも可能であり、実施例2の構成をとることにHMDの視野を広げる効果がある。
以下、実施例3について説明する。実施例3は、ハルバッハアレイを使用した表示デバイスの駆動系で使用する支持体が、球面の一部で構成された支持面を有する支持体3447と異なり、平面で構成された支持面を有する支持体3647である点が実施例1と異なる。図36を参照して実施例3の構成を説明する。観察者の視線と表示デバイスの表示面とが成す角θを垂直に保つために角度制御機構3660が設けられうる。角度制御機構3660は支持体3647のハルバッハアレイ3649における位置に応じて眼3601の視線と表示デバイス3613の表示面との交点において視線と表示デバイス3613の表示面との成す角θが垂直となる様に表示デバイス3613を制御する。この時、実施例1と異なり、眼3601と表示デバイス3613の表示面との距離が変化するため、例えばレンズ3615を視線方向に動かすことでピント調整が行われる。
以下、実施例4について説明する。実施例4は曲面センサー、及び曲面表示デバイスの製造方法のみが実施例1と異なる。図37にてその方法を説明する。実施例4の曲面センサー、及び表示デバイスの製造のためのウェハプロセスとしては平面状態のウェハプロセスが採用されうる。ウェハプロセスを経たウェハは、例えば50umまで薄膜化され、個々のセンサー、及びデバイスに個片化される。次に、例えば400mmの曲率半径を有する曲面を備える型3761を用意し、図37のaに示す様に個片化されたイメージセンサーあるいは、表示デバイス3744が型3761の曲面部分に設置されうる。その状態でイメージセンサーあるいは表示デバイス3744と型3761とで形成される閉空間を脱気することで図37のbに示す様にイメージセンサーあるいは表示デバイス3744が曲面形状に湾曲されうる。その状態で不図示の接着剤にてイメージセンサーあるいは表示デバイス3744を型3761に接着することによって曲面形状が固定されうる。
以下、実施例5について説明する。実施例5は実施例4と以下の点においてのみ異なる。実施例4では曲面の曲率半径は、例えば400mmであった。実施例4では曲率半径は、例えば10mmとされる。そのため図38の様に正方形3つ、台形6つの平面イメージセンサー、もしくは表示デバイスを曲げて接続し、一つの曲面イメージセンサー、もしくは表示デバイス3844が形成されうる。この時、個々のイメージセンサー、あるいは表示デバイスは面要素3862と、面要素3862間を繋ぐスプリングブリッジ3863とで構成されうる。
個々のイメージセンサー、あるいは表示デバイスの厚みは10umとされうる。その際に公知のSOI(Silicon On Insulator)ウェハを使用し薄化を行うことができる。まず、酸化膜(Insulator)上のSi層の全厚分をディープエッチングによってパターニングし、面要素3862とスプリングブリッジ3863を形成しうる。その後、XeF2ガスを使用したエッチングにより酸化膜より上の部分をSi基板から分離して薄化を完了しうる。個々の面要素3862の大きさは、例えば100um角とし、その中に、例えば3um角の画素を敷き詰める構造を採用することができる。以上により実施例4よりも曲率半径の小さいイメージセンサー、及び表示デバイスを得ることができる。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
2313:表示デバイス、2315:レンズ(光学系)、D:駆動機構、C:制御部、A:調整部、DM:表示モジュール、2301:眼

Claims (15)

  1. 表示面を有する表示デバイスと、観察者の眼の焦点を前記表示デバイスに合わせるための光学系と、を備えるヘッドマウントディスプレイであって、
    前記表示デバイスを駆動する駆動機構と、
    前記観察者の視線を検知する視線検知部と、
    前記視線検知部の出力に基づいて、前記視線と前記表示面とが交差する点において、前記視線と前記表示面とのなす角度が90度に対して予め設定された許容範囲に収まるように前記駆動機構を制御する制御部と、
    を備えることを特徴とするヘッドマウントディスプレイ。
  2. 球面の一部で構成される支持面を有する支持体を更に備え、
    前記表示デバイスは、前記支持面によって支持される、
    ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記駆動機構は、前記支持面に沿って前記表示デバイスを駆動するように構成されている、
    ことを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  4. 前記駆動機構は、ハルバッハアレイを含む、
    ことを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  5. 前記表示デバイスの可動域は、前記支持面の領域の外側の領域を含む、
    ことを特徴とする請求項3又は4に記載のヘッドマウントディスプレイ。
  6. 前記表示面は、球面の一部で構成される、
    ことを特徴とする請求項2乃至5のいずれか1項に記載のヘッドマウントディスプレイ。
  7. 前記支持面は、前記支持面を構成する前記球面の中心が前記視線の動きの回転中心に略一致するように構成される、
    ことを特徴とする請求項2乃至6のいずれか1項に記載のヘッドマウントディスプレイ。
  8. 前記制御部は、前記観察者の前記眼の輻輳角に基づいて、前記表示面を見ている前記眼の水晶体の厚みが、前記輻輳角に対応する輻輳距離に存在する物体を前記観察者が見るときの前記眼の水晶体の厚みと一致するように前記光学系を調整する、
    ことを特徴とする請求項1乃至7のいずれか1項に記載のヘッドマウントディスプレイ。
  9. 前記制御部は、前記視線検知部からの出力に基づいて検知される前記観察者の左眼の視線と前記観察者の右眼の視線とに基づいて前記輻輳角を決定する、
    ことを特徴とする請求項8に記載のヘッドマウントディスプレイ。
  10. 前記視線検知部は、前記観察者の前記眼に赤外光を照射する照射部と、前記表示デバイスと前記眼との間に配置され、前記眼で反射された前記赤外光を反射させ、可視光を透過させるハーフミラーと、前記ハーフミラーで反射された前記赤外光を検知するイメージセンサーと、を含む、
    ことを特徴とする請求項1乃至9のいずれか1項に記載のヘッドマウントディスプレイ。
  11. 前記許容範囲は、90度に対して±60分角以内である、
    ことを特徴とする請求項1乃至10のいずれか1項に記載のヘッドマウントディスプレイ。
  12. 前記許容範囲は、90度に対して±6分角以内である、
    ことを特徴とする請求項1乃至10のいずれか1項に記載のヘッドマウントディスプレイ。
  13. 請求項1乃至12のいずれか1項に記載のヘッドマウントディスプレイと、
    カメラモジュールと、
    前記視線の方向に応じて前記カメラモジュールの光軸が調整されるように前記カメラモジュールの姿勢を制御する姿勢制御部と、
    を更に備えることを特徴とするクロスリアリティシステム。
  14. 前記カメラモジュールは、曲面で構成された撮像面を有するイメージセンサーを含む、
    ことを特徴とする請求項13に記載のクロスリアリティシステム。
  15. 前記カメラモジュールの前記イメージセンサーを使って得られた画像の周辺部を該画像の中心部よりも粗くした画像が前記カメラモジュールの側から前記表示デバイスの側に転送される、
    ことを特徴とする請求項14に記載のクロスリアリティシステム。
JP2021157239A 2021-09-27 2021-09-27 ヘッドマウントディスプレイおよびクロスリアリティシステム Pending JP2023048008A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021157239A JP2023048008A (ja) 2021-09-27 2021-09-27 ヘッドマウントディスプレイおよびクロスリアリティシステム
US17/950,192 US12166958B2 (en) 2021-09-27 2022-09-22 Head mounted display and cross reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021157239A JP2023048008A (ja) 2021-09-27 2021-09-27 ヘッドマウントディスプレイおよびクロスリアリティシステム

Publications (2)

Publication Number Publication Date
JP2023048008A true JP2023048008A (ja) 2023-04-06
JP2023048008A5 JP2023048008A5 (ja) 2024-10-03

Family

ID=85718202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021157239A Pending JP2023048008A (ja) 2021-09-27 2021-09-27 ヘッドマウントディスプレイおよびクロスリアリティシステム

Country Status (2)

Country Link
US (1) US12166958B2 (ja)
JP (1) JP2023048008A (ja)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111878A (ja) * 1994-10-13 1996-04-30 Minolta Co Ltd Hmd
JPH0915057A (ja) * 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
JPH09266554A (ja) * 1996-03-28 1997-10-07 Canon Inc 表示装置
JP2002031776A (ja) * 2000-07-14 2002-01-31 Canon Inc 表示装置
JP2006165668A (ja) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd 携帯端末
WO2007072675A1 (ja) * 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. コンテンツ提示装置およびコンテンツ提示方法
JP2010151951A (ja) * 2008-12-24 2010-07-08 Mitsubishi Electric Engineering Co Ltd 特定方向画像表示システム
WO2016013269A1 (ja) * 2014-07-22 2016-01-28 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
WO2016113951A1 (ja) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム
JP2016208062A (ja) * 2013-10-04 2016-12-08 コニカミノルタ株式会社 表示装置および映像表示方法
WO2018181144A1 (ja) * 2017-03-31 2018-10-04 シャープ株式会社 ヘッドマウントディスプレイ
JP2020076934A (ja) * 2018-11-09 2020-05-21 ソニー株式会社 虚像表示装置、および虚像表示方法
US20200183152A1 (en) * 2018-12-10 2020-06-11 Daqri, Llc Optical hyperfocal reflective systems and methods, and augmented reality and/or virtual reality displays incorporating same
US20210026230A1 (en) * 2019-07-24 2021-01-28 Coretronic Corporation Optical module and projection apparatus

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223609A (ja) 1995-02-09 1996-08-30 Atr Tsushin Syst Kenkyusho:Kk 焦点調節の可能な三次元表示方法および表示装置
JPH0968670A (ja) 1995-08-31 1997-03-11 Olympus Optical Co Ltd 頭部装着型映像表示装置
US6788274B2 (en) * 2000-01-31 2004-09-07 National Institute Of Information And Communications Technology Apparatus and method for displaying stereoscopic images
JP2011145488A (ja) 2010-01-14 2011-07-28 Sony Corp ヘッドマウントディスプレイ
US10108018B2 (en) * 2012-11-13 2018-10-23 Sony Corporation Image display apparatus for displaying an image captured by a mobile apparatus
US9507066B2 (en) * 2014-06-30 2016-11-29 Microsoft Technology Licensing, Llc Eyepiece for near eye display system
US10426668B2 (en) * 2014-09-18 2019-10-01 Rohm Co., Ltd. Binocular display apparatus
WO2016130941A1 (en) * 2015-02-12 2016-08-18 Google Inc. Combining a high resolution narrow field display and a mid resolution wide field display
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
US10721735B2 (en) * 2015-12-24 2020-07-21 Sony Interactive Entertainment Inc. Frequency band determination based on image of communication environment for head-mounted display
US10591739B2 (en) * 2016-09-19 2020-03-17 George M Calm Near-eye-display with rapid spherical image scanning
CN110376734B (zh) * 2018-04-12 2021-11-19 肥鲨技术 单面板头戴式显示器
CN114175462B (zh) * 2019-05-24 2025-04-25 奇跃公司 环形轴向磁通电机
TWI870411B (zh) * 2019-06-04 2025-01-21 以色列商魯姆斯有限公司 具有能調節瞳距的機構的雙目型頭戴式顯示系統

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111878A (ja) * 1994-10-13 1996-04-30 Minolta Co Ltd Hmd
JPH0915057A (ja) * 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
JPH09266554A (ja) * 1996-03-28 1997-10-07 Canon Inc 表示装置
JP2002031776A (ja) * 2000-07-14 2002-01-31 Canon Inc 表示装置
JP2006165668A (ja) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd 携帯端末
WO2007072675A1 (ja) * 2005-12-20 2007-06-28 Matsushita Electric Industrial Co., Ltd. コンテンツ提示装置およびコンテンツ提示方法
JP2010151951A (ja) * 2008-12-24 2010-07-08 Mitsubishi Electric Engineering Co Ltd 特定方向画像表示システム
JP2016208062A (ja) * 2013-10-04 2016-12-08 コニカミノルタ株式会社 表示装置および映像表示方法
WO2016013269A1 (ja) * 2014-07-22 2016-01-28 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
WO2016113951A1 (ja) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム
WO2018181144A1 (ja) * 2017-03-31 2018-10-04 シャープ株式会社 ヘッドマウントディスプレイ
JP2020076934A (ja) * 2018-11-09 2020-05-21 ソニー株式会社 虚像表示装置、および虚像表示方法
US20200183152A1 (en) * 2018-12-10 2020-06-11 Daqri, Llc Optical hyperfocal reflective systems and methods, and augmented reality and/or virtual reality displays incorporating same
US20210026230A1 (en) * 2019-07-24 2021-01-28 Coretronic Corporation Optical module and projection apparatus

Also Published As

Publication number Publication date
US20230097378A1 (en) 2023-03-30
US12166958B2 (en) 2024-12-10

Similar Documents

Publication Publication Date Title
CN106537220B (zh) 具有可变焦点和/或对象识别的可佩戴3d增强现实显示器
EP0618471B1 (en) Image display apparatus
JP4233357B2 (ja) 自動立体光学装置
JP5417660B2 (ja) 立体プロジェクション・システム
JP4263461B2 (ja) 自動立体光学装置
US20180160048A1 (en) Imaging system and method of producing images for display apparatus
JP2018533062A (ja) 広視野ヘッドマウントディスプレイ
JP5834177B2 (ja) 立体画像表示システム及び立体視メガネ
JP6767481B2 (ja) ライトフィールド顕微鏡法を用いる眼科手術
CN110187506B (zh) 光学显示系统和增强现实设备
CN108089332A (zh) Vr头戴显示设备及显示方法
CN106291945B (zh) 一种显示面板和显示装置
TWI858237B (zh) 頭戴裝置
CN212460199U (zh) 头戴式显示设备
KR20090038843A (ko) 입체 투사 시스템
JP3425402B2 (ja) 立体画像を表示する装置および方法
JP4970798B2 (ja) 立体画像観察装置
JP2023048008A (ja) ヘッドマウントディスプレイおよびクロスリアリティシステム
JP3698582B2 (ja) 画像表示装置
US11463674B1 (en) Imaging system and display apparatus incorporating super resolution using fixed focus cameras
JP7531154B2 (ja) 裸眼立体画像表示システム
JP4664690B2 (ja) 立体表示装置及び立体表示方法
JP6677387B2 (ja) 立体画像表示装置及び立体画像表示方法
WO2019113942A1 (zh) Vr头戴显示设备及显示方法
CN211791831U (zh) 集成成像显示系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250711