[go: up one dir, main page]

JP7559605B2 - Image display device and method - Google Patents

Image display device and method Download PDF

Info

Publication number
JP7559605B2
JP7559605B2 JP2021027327A JP2021027327A JP7559605B2 JP 7559605 B2 JP7559605 B2 JP 7559605B2 JP 2021027327 A JP2021027327 A JP 2021027327A JP 2021027327 A JP2021027327 A JP 2021027327A JP 7559605 B2 JP7559605 B2 JP 7559605B2
Authority
JP
Japan
Prior art keywords
user
unit
eyes
eye
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021027327A
Other languages
Japanese (ja)
Other versions
JP2022128876A (en
Inventor
智裕 川崎
正宏 水田
良一 左高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021027327A priority Critical patent/JP7559605B2/en
Publication of JP2022128876A publication Critical patent/JP2022128876A/en
Application granted granted Critical
Publication of JP7559605B2 publication Critical patent/JP7559605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像表示装置及び方法に関する。 The present invention relates to an image display device and method.

従来、光学素子を利用して光学ユニットが形成する射出瞳をリレーすることにより空中にアイポイントを配置し、画像を形成する光を光学ユニットに入れることで、ユーザが、そのアイポイント内に眼(すなわち、瞳孔)を入れた際に画像を目視することのできる画像表示装置が知られている。ここで、光学素子として、再帰性反射素子を用いることができる(特許文献1参照)。斯かる表示装置は、アイポイント内に眼を入れた一人のユーザのみが画像を目視することができるため、特に高いセキュリティ効果が得られることで注目されている。
特許文献1 特開2009-288696号公報
Conventionally, there is known an image display device that uses an optical element to relay an exit pupil formed by an optical unit to place an eyepoint in the air, and allows a user to view an image when placing his/her eye (i.e., pupil) within the eyepoint by irradiating light that forms an image into the optical unit. Here, a retroreflective element can be used as the optical element (see Patent Document 1). Such a display device has attracted attention because it provides a particularly high level of security, since only a single user who places his/her eye within the eyepoint can view the image.
Patent Document 1: JP 2009-288696 A

本発明の第1の態様においては、画像が生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントを形成する光学素子と、を有する表示部と、ユーザの眼の位置を検出する検出部と、検出部が検出したユーザの眼の位置とアイポイントの位置に基づいて、ユーザの眼を、アイポイントの位置に相対的に誘導する誘導部と、を備え、誘導部は、アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する触覚生成装置を有す画像表示装置が提供される。 In a first aspect of the present invention, there is provided an image display device comprising: a display unit having an optical unit having an input side focus at a position where an image is generated and forming an exit pupil on the output side from which light forming the image is output; and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil; a detection unit that detects the position of a user's eye; and a guidance unit that guides the user's eye relative to the position of the eyepoint based on the position of the user's eye and the position of the eyepoint detected by the detection unit , wherein the guidance unit has a tactile generation device that generates a tactile sensation at at least one location near the position of the eyepoint .

本発明の第2の態様においては、ユーザの眼の位置を検出する段階と、検出する段階で検出したユーザの眼の位置と、画像が生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントを形成する光学素子と、により空中に形成されるアイポイントの位置と、に基づいて、ユーザの眼を、アイポイントの位置に相対的に誘導する段階と、画像を表示する段階と、を備え、誘導する段階では、さらに、アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する、画像表示方法が提供される。 In a second aspect of the present invention, there is provided an image display method comprising: a step of detecting the position of a user's eye; a step of guiding the user's eye relative to the position of the eyepoint based on the position of the user's eye detected in the detection step; a step of guiding the user's eye relative to the position of the eyepoint based on the position of the eyepoint formed in the air by an optical unit having an input side focus at the position where an image is generated and forming an exit pupil on the output side from which light forming the image is output; and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil; and a step of displaying an image, wherein the guiding step further generates a tactile sensation at at least one location near the position of the eyepoint .

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the features of the present invention. Also, subcombinations of these features may also be inventions.

第1の実施形態に係る画像表示装置の構成を側面視において概略的に示す。1 shows a schematic configuration of an image display device according to a first embodiment in a side view. 第1の実施形態に係る画像表示装置の構成を正面視において概略的に示す。1 is a front view showing a schematic configuration of an image display device according to a first embodiment. 第1の実施形態に係る画像表示装置の構成を上面視において概略的に示す。1 is a top view showing a schematic configuration of an image display device according to a first embodiment. 第1の実施形態に係る画像表示装置の制御系の構成を示す。2 shows the configuration of a control system of the image display device according to the first embodiment. 第1の実施形態に係る画像表示方法のフローを示す。3 shows a flow of an image display method according to the first embodiment. 第2の実施形態に係る画像表示装置の構成を側面視において概略的に示す。13 is a schematic side view showing the configuration of an image display device according to a second embodiment. 第2の実施形態に係る画像表示装置の構成を正面視において概略的に示す。13 is a front view showing a schematic configuration of an image display device according to a second embodiment. 第2の実施形態に係る画像表示装置の構成を上面視において概略的に示す。13 is a top view illustrating a schematic configuration of an image display device according to a second embodiment. 第2の実施形態に係る画像表示装置の制御系の構成を示す。13 shows the configuration of a control system of an image display device according to a second embodiment. 触覚生成装置による触覚の生成位置及び強度の制御の一例(ユーザが画像表示装置から離れている状態)を示す。13 shows an example of control of the haptic generation position and intensity by the haptic generation device (when the user is away from the image display device). 触覚生成装置による触覚の生成位置及び強度の制御の一例(ユーザが画像表示装置に接近している状態)を示す。13 shows an example of control of the haptic generation position and intensity by the haptic generation device (when the user is approaching the image display device). 触覚生成装置による触覚の生成位置及び強度の制御の一例(ユーザの眼がアイポイントに入った状態)を示す。13 shows an example of control of the haptic generation position and intensity by the haptic generation device (when the user's eyes are at the eyepoint). 触覚生成装置による触覚の生成位置及び強度の制御の別の例(ユーザが左方を向いている状態)を示す。13 shows another example of control of the position and intensity of haptics generated by the haptic generating device (when the user is facing left). 触覚生成装置による触覚の生成位置及び強度の制御の別の例(ユーザが右方を向いている状態)を示す。13 shows another example of control of the position and intensity of haptics generated by the haptic generating device (when the user is facing to the right). 第2の実施形態に係る画像表示方法のフローを示す。10 shows a flow of an image display method according to a second embodiment. 第3の実施形態に係る画像表示装置の構成を側面視において概略的に示す。13 is a schematic side view showing the configuration of an image display device according to a third embodiment. 第3の実施形態に係る画像表示装置の構成を正面視において概略的に示す。13 is a front view showing a schematic configuration of an image display device according to a third embodiment. 第3の実施形態に係る画像表示装置の構成を上面視において概略的に示す。13 is a top view illustrating a schematic configuration of an image display device according to a third embodiment. 第3の実施形態に係る画像表示装置の制御系の構成を示す。13 shows the configuration of a control system of an image display device according to a third embodiment. 光学素子を回動可能な画像表示装置の構成を側面視において概略的に示す。1 is a side view showing a schematic configuration of an image display device capable of rotating an optical element. 第3の実施形態に係る画像表示方法のフローを示す。13 shows a flow of an image display method according to a third embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.

図1A、図1B、及び図1Cに、第1の実施形態に係る画像表示装置100の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置100は、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30を備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。 1A, 1B, and 1C are schematic side, front, and top views, respectively, showing the configuration of an image display device 100 according to a first embodiment. The image display device 100 is a device that displays an image Im so that the user 99 can see it without physically contacting any of the components, and includes a display unit 10, a detection unit 20, and a guidance unit 30. The image Im may be a still image or a video, and may be a monochrome image or a color image. Furthermore, with respect to the user 99 viewing the image Im, the left-right direction (the user's eye width direction) is the X-axis direction, the front-back direction is the Y-axis direction, and the up-down direction is the Z-axis direction.

表示部10は、空中にアイポイントExpを形成し、そのアイポイントExpの位置内にユーザ99が両眼を入れる(空中接眼とも呼ぶ)と視界内にその画角全体を目視可能な画像Imを表示するユニットであり、ケース19、表示装置11、光学ユニット12(12L,12R)、ハーフミラー13、及び光学素子14を有する。なお、表示部10は、フレーム(不図示)を介して床面上に或いは壁面に支持されている。 The display unit 10 is a unit that forms an eyepoint Exp in the air, and displays an image Im whose entire angle of view is visible within the field of view when the user 99 places both eyes within the position of the eyepoint Exp (also called an aerial eyepiece), and has a case 19, a display device 11, an optical unit 12 (12L, 12R), a half mirror 13, and an optical element 14. The display unit 10 is supported on the floor or wall via a frame (not shown).

ケース19は、例えば三角形状の側面を有する中空の箱体であり、その上面上に表示装置11及び光学ユニット12(12L,12R)を支持し、その内部にハーフミラー13及び光学素子14を保持する。 The case 19 is, for example, a hollow box having triangular sides, and supports the display device 11 and the optical unit 12 (12L, 12R) on its upper surface, and holds the half mirror 13 and the optical element 14 inside.

表示装置11は、画像Imを表示する装置であり、左眼用及び右眼用表示画面11L,11Rを有する。左眼用及び右眼用表示画面11L,11Rは、例えば液晶ディスプレイ等であってよく、それぞれ後述する光学ユニット12L,12Rの筐体に支持されてケース19の上面上の左右に配置される。表示装置11は、通信装置(不図示)を介して外部から画像信号を受信或いは記憶装置(不図示)に記憶された画像信号を読み出して、左眼用及び右眼用表示画面11L,11R上にそれぞれ左眼用及び右眼用画像ImL,ImRを表示する。なお、本明細書では、左眼用及び右眼用の部材等を示す符号にそれぞれ記号L,Rを加えるが、左眼及び右眼の区別を要さない場合にはこれらの記号を省略する。なお、表示画面を左眼用及び右眼用として別個に配置する代わりに、表示画面を左眼用及び右眼用で共通する表示画面として配置してもよい。 The display device 11 is a device that displays an image Im and has left-eye and right-eye display screens 11L and 11R. The left-eye and right-eye display screens 11L and 11R may be, for example, liquid crystal displays, and are supported by the housings of the optical units 12L and 12R described later and arranged on the left and right sides of the upper surface of the case 19. The display device 11 receives an image signal from the outside via a communication device (not shown) or reads an image signal stored in a storage device (not shown), and displays the left-eye and right-eye images ImL and ImR on the left-eye and right-eye display screens 11L and 11R, respectively. In this specification, the symbols L and R are added to the symbols indicating the left-eye and right-eye members, but these symbols are omitted when there is no need to distinguish between the left eye and the right eye. Instead of arranging the display screens separately for the left eye and the right eye, the display screen may be arranged as a common display screen for the left eye and the right eye.

光学ユニット12は、画像Imを形成する光、特に平行光束を屈折等させて平行光束として射出するアフォーカル系の対物レンズとして機能するユニットであり、左眼用及び右眼用光学ユニット12L,12Rを有する。左眼用及び右眼用光学ユニット12L,12Rは、それぞれ、1又は複数のレンズ素子等の光学素子を含み、筐体内に保持されてケース19の上面上のそれぞれ左右に配置されている。光学ユニット12L,12Rは、画像ImL,ImRが生成される位置、すなわち表示画面11L、11R上に入力側(すなわち、+Z側)の焦点を有し、画像ImL,ImRを形成する光が出力される出力側(すなわち、-Z側)に射出瞳(不図示)を形成する。 The optical unit 12 is a unit that functions as an afocal objective lens that refracts light that forms the image Im, particularly parallel light beams, and emits them as parallel light beams, and has optical units 12L and 12R for the left and right eyes. The optical units 12L and 12R for the left and right eyes each include one or more optical elements such as lens elements, are held in a housing, and are arranged on the left and right sides of the top surface of the case 19. The optical units 12L and 12R have a focus on the input side (i.e., the +Z side) at the position where the images ImL and ImR are generated, i.e., on the display screens 11L and 11R, and form an exit pupil (not shown) on the output side (i.e., the -Z side) where the light that forms the images ImL and ImR is output.

ハーフミラー13及び光学素子14は、光学ユニット12から出力される光をユーザ99に向けて+Y方向に指向する素子であり、ケース19内に保持されている。 The half mirror 13 and the optical element 14 are elements that direct the light output from the optical unit 12 in the +Y direction toward the user 99, and are held within the case 19.

ハーフミラー13は、半透過性のミラー素子であり、ケース19の+Y,-Z方向を向く傾斜面上に支持されている。これにより、ハーフミラー13は、画像Imから出力される光の光路において光学ユニット12及び光学素子14の間に配置されることとなり、光学ユニット12から-Z方向に出力される光を光学素子14に向けて-Y方向に反射し、光学素子14から出力される光を+Y方向に透過する。 The half mirror 13 is a semi-transparent mirror element, and is supported on an inclined surface of the case 19 facing the +Y and -Z directions. As a result, the half mirror 13 is disposed between the optical unit 12 and the optical element 14 in the optical path of the light output from the image Im, and reflects the light output from the optical unit 12 in the -Z direction toward the optical element 14 in the -Y direction, and transmits the light output from the optical element 14 in the +Y direction.

光学素子14は、一例として90度の角度をなす2つの平面鏡を有するコーナーリフレクタが平面上にアレイ配置された再帰性反射素子であり、ケース19の-Y面上に支持されている。これにより、光学素子14は、光学ユニット12から出力され、ハーフミラー13により-Y方向に反射された光を+Y方向に再帰反射することで、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置にリレー(すなわち、再形成)して、ケース19の+Y側、例えば200mmの位置にアイポイントExpL,ExpRを形成する。ここで、アイポイントExpは、例えばユーザ99の眼幅(約50mm)程度の直径(X軸方向及びZ軸方向の幅)及び100mm程度の奥行(Y軸方向の幅)又は50度程度の見込み角度を有する。 The optical element 14 is a retroreflective element in which, for example, a corner reflector having two plane mirrors at an angle of 90 degrees is arrayed on a plane, and is supported on the -Y surface of the case 19. As a result, the optical element 14 retroreflects in the +Y direction the light output from the optical unit 12 and reflected in the -Y direction by the half mirror 13, thereby relaying (i.e., reshaping) the exit pupils (not shown) of the optical units 12L and 12R to their conjugate positions, and forming eyepoints ExpL and ExpR at a position of, for example, 200 mm on the +Y side of the case 19. Here, the eyepoint Exp has, for example, a diameter (width in the X-axis and Z-axis directions) of the interpupillary width (approximately 50 mm) of the user 99, a depth (width in the Y-axis direction) of about 100 mm, or an angle of view of about 50 degrees.

なお、ハーフミラー13が配置される位置にハーフミラー13の代わりに、光学素子14として、複数の反射面が積層された積層部を、複数の反射面が互いに交差するように複数積層した再帰性透過素子を採用してもよい。斯かる場合、表示装置11及び光学ユニット12を光学素子14の-Y側に配置し、光学ユニット12から画像Imを形成する光を光学素子14に向けて+Y方向に出力する。これにより、光学素子14は、光学ユニット12から出力された光を+Y方向に再帰透過することで、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置にリレー(すなわち、再形成)して、ケース19の+Y側にアイポイントExpL,ExpRを形成する。 In addition, instead of the half mirror 13 at the position where the half mirror 13 is disposed, a retrotransmissive element in which a laminated portion in which multiple reflective surfaces are stacked so that the multiple reflective surfaces intersect with each other may be used as the optical element 14. In such a case, the display device 11 and the optical unit 12 are disposed on the -Y side of the optical element 14, and light forming the image Im is output from the optical unit 12 in the +Y direction toward the optical element 14. As a result, the optical element 14 transmits the light output from the optical unit 12 retrotransmittently in the +Y direction, relaying (i.e., re-forming) the exit pupils (not shown) of the optical units 12L and 12R to their conjugate positions, and forming eyepoints ExpL and ExpR on the +Y side of the case 19.

上述の構成の表示部10において、左眼用表示画面11Lが左眼用画像ImLを表示すると、左眼用画像ImLを形成する光が光軸10L,10L'に沿って光学ユニット12L、ハーフミラー13、光学素子14を介して送られ、アイポイントExpLにおいて集光する。右眼用表示画面11Rが右眼用画像ImRを表示すると、右眼用画像ImRを形成する光が光軸10R,10R'に沿って光学ユニット12R、ハーフミラー13、光学素子14を介して送られ、アイポイントExpRの位置において集光する。このように、表示部10がユーザ99の左眼及び右眼に対してそれぞれアイポイントExpL,ExpRを形成することで、ユーザ99が、左眼及び右眼(すなわち、瞳孔、単に眼とも呼ぶ)99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れて空中接眼すると、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、左眼及び右眼用画像ImL,ImRとして視差画像を表示することにより、ユーザ99は立体像を視認することもできる。 In the display unit 10 configured as described above, when the left eye display screen 11L displays the left eye image ImL, the light forming the left eye image ImL is sent along the optical axes 10L, 10L' through the optical unit 12L, the half mirror 13, and the optical element 14, and is focused at the eye point ExpL. When the right eye display screen 11R displays the right eye image ImR, the light forming the right eye image ImR is sent along the optical axes 10R, 10R' through the optical unit 12R, the half mirror 13, and the optical element 14, and is focused at the position of the eye point ExpR. In this way, the display unit 10 forms eyepoints ExpL and ExpR for the left and right eyes of the user 99, respectively, so that when the user 99 places the left and right eyes (i.e., pupils, or simply eyes) 99L and 99R within the positions of the eyepoints ExpL and ExpR and places the eyepiece in midair, the user can view the entire angle of view of the left and right eye images ImL and ImR with the left and right eyes, respectively. Here, by displaying parallax images as the left and right eye images ImL and ImR, the user 99 can also view a stereoscopic image.

検出部20は、ユーザ99の眼99L,99Rの位置及び向きを検出するユニットである。検出部20は、一例として、ケース19の上面手前に左右に離間して配置される2つのステレオカメラ21を有し、これを用いてユーザ99の頭部、特に顔部を撮像する。なお、ステレオカメラ21は、ケース19内に設置され、ハーフミラー13を介してユーザ99の顔部を撮像するよう構成してもよい。2つのステレオカメラ21によりそれぞれ得られる画像、特に視差画像により、ユーザ99の眼99L,99Rの左右方向の位置(X位置)、上下方向の位置(Z位置)、及び前後方向の位置(Y位置)だけでなく、それらの向きも検出される。これらの検出結果は、誘導部30に転送される。なお、ユーザ99の眼99L,99Rの位置及び向きを検出する場合、一例としてユーザの左眼及び右眼それぞれの瞳孔の位置及び向きを検出する。 The detection unit 20 is a unit that detects the position and orientation of the eyes 99L, 99R of the user 99. As an example, the detection unit 20 has two stereo cameras 21 arranged at a distance from each other on the left and right in front of the upper surface of the case 19, and uses these to capture the head, particularly the face, of the user 99. The stereo camera 21 may be installed inside the case 19 and configured to capture the face of the user 99 through the half mirror 13. The images obtained by the two stereo cameras 21, particularly the parallax images, detect not only the left-right position (X position), up-down position (Z position), and front-back position (Y position) of the eyes 99L, 99R of the user 99, but also their orientations. These detection results are transferred to the guidance unit 30. When detecting the position and orientation of the eyes 99L, 99R of the user 99, as an example, the position and orientation of the pupils of the left eye and right eye of the user are detected.

なお、検出部20は、ステレオカメラ21に代えて、超音波或いは赤外線レーザを用いて飛行時間差(ToF)法によりユーザの頭部までの距離を測定する距離計を含み、これによりユーザ99の眼99L,99Rの位置及び向きを検出してもよい。 In addition, instead of the stereo camera 21, the detection unit 20 may include a range finder that uses ultrasonic waves or infrared lasers to measure the distance to the user's head by a time-of-flight (ToF) method, thereby detecting the position and orientation of the user's 99 eyes 99L, 99R.

誘導部30は、検出部20により検出されたユーザ99の眼99L,99Rの位置及びアイポイントの位置に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では、液晶ディスプレイ等の表示モニタ31及び指向性スピーカ、骨伝導スピーカ等のスピーカ32を有する。表示モニタ31は、ユーザ99がその表示を目視可能な位置、本例ではケース19の左側に設置されている。スピーカ32は、ユーザ99が音声を聴くことができる位置、本例ではケース19の左下側に設置されている。 The guidance unit 30 is a unit that guides the eyes 99L, 99R of the user 99 relatively to the positions of the eyepoints ExpL, ExpR based on the positions of the eyes 99L, 99R and the eyepoint position of the user 99 detected by the detection unit 20, and in this embodiment has a display monitor 31 such as a liquid crystal display and a speaker 32 such as a directional speaker or a bone conduction speaker. The display monitor 31 is installed in a position where the user 99 can see the display, in this example, on the left side of the case 19. The speaker 32 is installed in a position where the user 99 can hear the sound, in this example, on the lower left side of the case 19.

誘導部30は、検出部20による検出結果に基づいて、表示モニタ31及びスピーカ32を用いて視覚及び/又は音声により、ユーザ99に眼99L,99Rの位置を移動するようガイドする。例えば、アイポイントExpL,ExpRの位置に対して眼99L,99Rが左方(右方)に位置する場合には右方(左方)に移動するよう、上方(下方)に位置する場合には頭部を下げる(上げる)よう、前方(後方)に位置する場合には後ろに下がる(前に出る)よう、左(右)を向いている場合には右(左)を向くよう、表示モニタ31に映像ガイドを表示する及び/又はスピーカ32により音声ガイドを流す。 Based on the detection result by the detection unit 20, the guidance unit 30 uses the display monitor 31 and the speaker 32 to visually and/or audibly guide the user 99 to move the position of the eyes 99L, 99R. For example, a video guide is displayed on the display monitor 31 and/or an audio guide is played by the speaker 32 to move the eyes 99L, 99R to the right (left) when the eyes 99L, 99R are to the left (right) of the eye points ExpL, ExpR, to lower (raise) the head when the eyes are above (below), to step back (step forward) when the eyes are forward (rear), and to look to the right (left) when the eyes are looking to the left (right).

図2に、画像表示装置100の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30を含む。これらは互いに信号を送受信可能に接続されている。 Figure 2 shows the configuration of the control system 50 of the image display device 100. The control system 50 includes the display unit 10, the detection unit 20, and the guidance unit 30 described above. These are connected to each other so that they can send and receive signals.

図3に、第1の実施形態に係る画像表示方法のフローS100を示す。なお、フローS100は、検出部20がユーザ99の画像表示装置100への接近を検知することで開始する。 Figure 3 shows flow S100 of the image display method according to the first embodiment. Note that flow S100 starts when the detection unit 20 detects the approach of a user 99 to the image display device 100.

ステップS102では、検出部20により、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置を検出する。検出部20は、ステレオカメラ21を用いてユーザ99の眼99L,99RのX位置、Y位置、Z位置、及び向きを検出し、その検出結果を誘導部30に転送する。 In step S102, the detection unit 20 detects the positions of the eyes 99L, 99R of the user 99 relative to the positions of the eyepoints ExpL, ExpR. The detection unit 20 detects the X position, Y position, Z position, and orientation of the eyes 99L, 99R of the user 99 using the stereo camera 21, and transfers the detection results to the guidance unit 30.

ステップS104では、検出部20により、ステップS102で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。このとき、例えば、検出部20は、ユーザ99の眼99L,99Rの位置と、アイポイントExpL,ExpRの位置(例えば、アイポイントExpL,ExpRの中心位置)との相対的な位置ずれを検出する。眼99L,99RがアイポイントExpL,ExpRの位置から離れている、すなわち、眼99L,99Rの位置と、アイポイントExpL,ExpRの位置が相対的にずれていると判断されるとステップS106に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS108に進む。 In step S104, the detection unit 20 determines whether the positions of the eyes 99L, 99R of the user 99 are away from the positions of the eyepoints ExpL, ExpR based on the detection results obtained in step S102. At this time, for example, the detection unit 20 detects a relative positional deviation between the positions of the eyes 99L, 99R of the user 99 and the positions of the eyepoints ExpL, ExpR (for example, the center positions of the eyepoints ExpL, ExpR). If it is determined that the eyes 99L, 99R are away from the positions of the eyepoints ExpL, ExpR, i.e., that the positions of the eyes 99L, 99R and the positions of the eyepoints ExpL, ExpR are relatively misaligned, the process proceeds to step S106, and if it is determined that the eyes 99L, 99R are located within the positions of the eyepoints ExpL, ExpR, respectively, the process proceeds to step S108.

ステップS106では、誘導部30により、ステップS102で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導する。誘導部30は、例えば、アイポイントExpL,ExpRの位置に対して眼99L,99Rが左方(右方)に位置する場合には右方(左方)に移動するよう、上方(下方)に位置する場合には頭部を下げる(上げる)よう、前方(後方)に位置する場合には後ろに下がる(前に出る)よう、左(右)を向いている場合には右(左)を向くよう、表示モニタ31に映像ガイドを表示する及び/又はスピーカ32により音声ガイドを流す。 In step S106, the guidance unit 30 generates a video guide and/or an audio guide based on the detection result obtained in step S102 and the positions of the eyepoints ExpL and ExpR, and guides the eyes 99L and 99R of the user 99 relative to the positions of the eyepoints ExpL and ExpR. The guidance unit 30 displays a video guide on the display monitor 31 and/or plays an audio guide through the speaker 32 to, for example, move to the right (left) when the eyes 99L and 99R are located to the left (right) of the positions of the eyepoints ExpL and ExpR, lower (raise) the head when the eyes are located above (below), step back (step forward) when the eyes are located forward (rear), and turn right (left) when facing left (right).

ステップS106の実行後、ステップS102~S106が、ステップS104で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。 After step S106 is executed, steps S102 to S106 are repeated until step S104 determines that the eyes 99L and 99R are located within the eyepoints ExpL and ExpR, respectively, that is, the user 99 has placed his or her eyes in the air.

ステップS108では、ユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことで、表示部10により画像ImL,ImRを表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。なお、ユーザ99の眼99L,99Rに対してアイポイントExpL,ExpRが十分に大きい場合、ステップS108において、ユーザ99の眼99L,99Rのいずれか一方がアイポイントExpL,ExpRの位置内に入ったことを検出した後に、表示部10により画像ImL,ImRを表示してもよい。 In step S108, the display unit 10 displays images ImL and ImR as the user 99's eyes 99L and 99R enter the positions of eyepoints ExpL and ExpR, respectively. This allows the user 99 to view the entire angle of view of the left and right eye images ImL and ImR with his left and right eyes, respectively. Here, if the display unit 10 displays parallax images as the left and right eye images ImL and ImR, the user 99 can view a stereoscopic image. Note that if the eyepoints ExpL and ExpR are sufficiently large with respect to the user 99's eyes 99L and 99R, the display unit 10 may display images ImL and ImR after detecting in step S108 that one of the user's eyes 99L and 99R has entered the position of eyepoints ExpL and ExpR.

なお、フローS100は、検出部20によりユーザ99が画像表示装置100から離れたことを検知することで終了する。 Note that flow S100 ends when the detection unit 20 detects that the user 99 has moved away from the image display device 100.

第1の実施形態に係る画像表示装置100は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果及びアイポイントの位置に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30と、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、アイポイントの位置に対するユーザの眼の位置を検出し、誘導部により、その検出結果に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、その誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。また、光学素子14として再帰性反射素子又は再帰性透過素子を用いることでアイポイントが拡張されるため、ユーザの眼をアイポイントの位置に相対的に誘導する際の位置設定の自由度が上がり、容易にアイポイント位置内に眼を合わせることができる。 The image display device 100 of the first embodiment comprises a display unit 10 having an optical unit 12 having an input side focus at the position where an image Im is generated and forming an exit pupil on the output side from which light forming the image is output, and an optical element 14 which reflects or transmits light output from the optical unit to form an eyepoint Exp at a conjugate position of the exit pupil, a detection unit 20 which detects the position of the eyes 99L, 99R of a user 99, and a guidance unit 30 which generates a video guide and/or an audio guide based on the detection result of the detection unit and the position of the eyepoint, and guides the user's eyes relative to the position of the eyepoint. Since the image display device 100 does not have an eyepiece that is in physical contact, it is expected that some users will have difficulty placing their eyes on the display. However, the detection unit 20 detects the position of the user's eyes relative to the eyepoint position, and the guidance unit generates a video guide and/or audio guide based on the detection result to guide the user's eyes relatively to the eyepoint position, allowing the user to easily align their eyes within the eyepoint position formed in the air by the display unit (i.e., place the eye in the air) by following the guidance. In addition, the use of a retroreflective element or a retrotransparent element as the optical element 14 expands the eyepoint, increasing the degree of freedom in position setting when guiding the user's eyes relatively to the eyepoint position, making it easier to align the eyes within the eyepoint position.

図4A、図4B、及び図4Cに、第2の実施形態に係る画像表示装置110の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置110は、先述の画像表示装置100と同様に、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30dを備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。表示部10及び検出部20は、先述の画像表示装置100におけるそれらと同様に構成される。 4A, 4B, and 4C are schematic side, front, and top views of the configuration of the image display device 110 according to the second embodiment. The image display device 110, like the image display device 100 described above, is a device that displays an image Im so that the user 99 can see it without physically contacting the components, and includes a display unit 10, a detection unit 20, and a guidance unit 30d. The image Im may be a still image or a video, and may be a monochrome image or a color image. Also, with respect to the user 99 viewing the image Im, the left-right direction (user's eye width direction) is the X-axis direction, the front-back direction is the Y-axis direction, and the up-down direction is the Z-axis direction. The display unit 10 and the detection unit 20 are configured in the same manner as those in the image display device 100 described above.

図5に、画像表示装置110の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30dを含む。これらは互いに信号を送受信可能に接続されている。 Figure 5 shows the configuration of the control system 50 of the image display device 110. The control system 50 includes the display unit 10, the detection unit 20, and the guidance unit 30d described above. These are connected to each other so that they can send and receive signals.

誘導部30dは、検出部20によるユーザ99の眼99L,99Rの位置の検出結果に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では触覚生成装置33(33L,33R)を有する。触覚生成装置33は、風圧等を含む圧力又は超音波振動等を含む振動によりユーザの眼99L,99RをアイポイントExpL,ExpRの位置に相対的に誘導する。特に本実施形態に係る触覚生成装置33は、複数の超音波振動子がアレイ状に配列されたディスプレイ装置であり、これにより空中に超音波の強度分布(すなわち、粗密分布)を生成してアイポイントExpの位置の近傍に位置する人体表面の少なくとも一箇所に触覚を与える。触覚生成装置33は、それぞれケース19の上面の左側及び右側にアイポイントExpL,ExpRの位置に向けて配置された2つの触覚生成装置33L,33Rを含む。 The guidance unit 30d is a unit that guides the user's 99 eyes 99L, 99R relatively to the positions of the eyepoints ExpL, ExpR based on the detection result of the positions of the user's 99 eyes 99L, 99R by the detection unit 20, and has a haptic generation device 33 (33L, 33R) in this embodiment. The haptic generation device 33 guides the user's eyes 99L, 99R relatively to the positions of the eyepoints ExpL, ExpR by pressure including wind pressure or vibration including ultrasonic vibration. In particular, the haptic generation device 33 in this embodiment is a display device in which multiple ultrasonic transducers are arranged in an array, and thereby generates an intensity distribution (i.e., a sparse/dense distribution) of ultrasonic waves in the air to give a haptic sensation to at least one point on the surface of the human body located near the position of the eyepoint Exp. The haptic generation device 33 includes two haptic generation devices 33L and 33R that are arranged on the left and right sides of the top surface of the case 19, respectively, facing the positions of the eye points ExpL and ExpR.

触覚生成装置33L,33Rは、図4Aから図4Cに示すように、アイポイントExpL,ExpRの中央の幾らか上方、すなわち眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に位置合わせしたユーザ99の額の位置に触覚98を生成する。それにより、ユーザ99は、額に感じる触覚98を通じてアイポイントExpL,ExpRの位置を知り、それらに眼99L,99Rを位置合わせすることができる。 As shown in Figures 4A to 4C, the haptic generation devices 33L and 33R generate haptics 98 at a position on the forehead of the user 99 that is slightly above the center of the eyepoints ExpL and ExpR, i.e., at a position where the eyes 99L and 99R are aligned within the positions of the eyepoints ExpL and ExpR, respectively. This allows the user 99 to know the positions of the eyepoints ExpL and ExpR through the haptics 98 felt on the forehead and align the eyes 99L and 99R to them.

触覚生成装置33L,33Rは、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置、特にY軸方向の位置に応じて触覚98を生成する位置及びその強度を制御してもよい。図6Aから図6Cに、触覚98の生成位置及び強度の制御の一例を示す。検出部20がユーザ99を検知しない場合又は十分遠くに検知した場合、触覚生成装置33L,33Rは触覚98を生成しない。 The haptic generation devices 33L, 33R may control the position at which the haptic 98 is generated and its intensity according to the position of the user's 99's eyes 99L, 99R relative to the positions of the eyepoints ExpL, ExpR, particularly the position in the Y-axis direction. Figures 6A to 6C show an example of controlling the generation position and intensity of the haptic 98. If the detection unit 20 does not detect the user 99 or detects it sufficiently far away, the haptic generation devices 33L, 33R do not generate the haptic 98.

図6Aに示すように、誘導部30dは、検出部20によりユーザ99のアイポイントExpへの接近を検知した場合に触覚生成装置33L,33Rにより触覚98を生成する。ここでは、ユーザ99はまだ画像表示装置100から離れているため、触覚生成装置33L,33Rはユーザ99の額に弱い触覚を生成する。 As shown in FIG. 6A, when the detection unit 20 detects the approach of the user 99 to the eye point Exp, the guidance unit 30d generates a haptic sensation 98 using the haptic sensation generating devices 33L and 33R. Here, since the user 99 is still away from the image display device 100, the haptic sensation generating devices 33L and 33R generate a weak haptic sensation on the forehead of the user 99.

図6Bに示すようにユーザ99が画像表示装置100に接近すると、触覚生成装置33L,33Rは、検出部20によるユーザ99の位置の検出結果に基づいて触覚98をユーザ99の移動に合わせてアイポイントExpに向けて移動させるとともにその強度を上げる。それにより、ユーザ99は、眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて強くなる触覚98を額に受ける。 6B, when the user 99 approaches the image display device 100, the haptic generation devices 33L and 33R move the haptic 98 toward the eye point Exp in accordance with the movement of the user 99 based on the detection result of the position of the user 99 by the detection unit 20, and increase the strength of the haptic 98. As a result, the user 99 receives a haptic 98 on the forehead that becomes stronger as the eyes 99L and 99R approach the positions of the eye points ExpL and ExpR.

図6Cに示すように、ユーザ99が画像表示装置100に到達し、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置に入ると、触覚生成装置33L,33Rは、検出部20によりユーザ99の位置を検知して触覚98の強度をさらに上げる(又は最大強度に上げる)。このように、ユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて、ユーザ99の額の位置に合わせて触覚98を生成する位置をY軸方向に移動するとともに触覚98の強度を上げることで、ユーザ99は触覚98を通じてアイポイントExpL,ExpRの位置を知り眼99L,99RをアイポイントExpL,ExpRの位置に容易に入れることが可能となる。 As shown in FIG. 6C, when the user 99 reaches the image display device 100 and the eyes 99L, 99R enter the positions of the eyepoints ExpL, ExpR, respectively, the haptic generating devices 33L, 33R detect the position of the user 99 using the detection unit 20 and further increase the intensity of the haptic 98 (or increase it to the maximum intensity). In this way, as the eyes 99L, 99R of the user 99 approach the positions of the eyepoints ExpL, ExpR, the position at which the haptic 98 is generated is moved in the Y-axis direction to match the position of the user 99's forehead and the intensity of the haptic 98 is increased, so that the user 99 can know the positions of the eyepoints ExpL, ExpR through the haptic 98 and can easily place the eyes 99L, 99R at the positions of the eyepoints ExpL, ExpR.

なお、誘導部30dは、触覚生成装置33L,33Rにより、ユーザ99の属性に応じて触覚98の強度を変更してもよい。ユーザの属性は、年齢、性別及び体重のいずれか1つを含む。検出部20によりユーザの属性を検出し、その検出結果に応じて誘導部30dが、例えば、女性、子供に対して触覚98の強度を下げ、大柄なユーザに対しては強度を上げる。 The induction unit 30d may change the intensity of the haptic 98 according to the attributes of the user 99 using the haptic generating devices 33L and 33R. The user attributes include any one of age, sex, and weight. The detection unit 20 detects the user attributes, and according to the detection result, the induction unit 30d reduces the intensity of the haptic 98 for women and children, for example, and increases the intensity for a large user.

なお、触覚生成装置33L,33Rは、ユーザ99の額の位置に1つの触覚98を生成することに代えて、後述するようにユーザ99の左右のこめかみ又は頬の位置に2つの触覚98L,98Rを生成し、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置に応じてそれらを生成する位置をY軸方向に移動するとともに強度を制御してもよい。 In addition, instead of generating one haptic 98 at the forehead of the user 99, the haptic generating devices 33L, 33R may generate two haptics 98L, 98R at the left and right temples or cheeks of the user 99 as described below, and move the positions at which they are generated in the Y-axis direction and control the intensity according to the positions of the eyes 99L, 99R of the user 99 relative to the positions of the eyepoints ExpL, ExpR.

触覚生成装置33L,33Rは、検出部20により検出されたユーザ99の眼99L,99Rの向き及びアイポイントExp(ExpL、ExpR)の位置に基づいて、アイポイントExp(ExpL、ExpR)の位置の左及び/又は右に、すなわち眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に位置合わせしたユーザ99の左右のこめかみの位置にそれぞれ触覚98L,98Rを生成してよく、さらに、それぞれの触覚98L,98Rの強度を制御してもよい。図7A及び図7Bに、触覚98の生成位置及び強度の制御の別の例を示す。 Based on the orientation of the user's 99's eyes 99L, 99R and the position of eyepoint Exp (ExpL, ExpR) detected by the detection unit 20, the haptic generation devices 33L, 33R may generate haptics 98L, 98R to the left and/or right of the position of eyepoint Exp (ExpL, ExpR), i.e., at the positions of the left and right temples of the user 99 with the eyes 99L, 99R aligned within the positions of the eyepoints ExpL, ExpR, respectively, and may further control the intensity of each of the haptics 98L, 98R. Figures 7A and 7B show another example of controlling the generation position and intensity of the haptics 98.

図7Aに示すように、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に対して左方(白抜き矢印)を向いていることを検知した場合、触覚生成装置33L,33Rにより触覚98Lを弱く(又は強く)且つ触覚98Rを強く(又は弱く)生成する。それにより、ユーザ99は、頭部を右方に回転(黒塗り矢印)させようとする意識がはたらく力この結果、ユーザ99は、触覚98L,98Rを通じて頭部を右方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。 As shown in FIG. 7A, when the detection unit 20 detects that the eyes 99L, 99R of the user 99 are facing leftward (white arrow) relative to the positions of the eyepoints ExpL, ExpR, the guidance unit 30d generates a weak (or strong) haptic 98L and a strong (or weak) haptic 98R using the haptic generation devices 33L, 33R. This causes the user 99 to consciously rotate his/her head to the right (black arrow). As a result, the user 99 can turn his/her head to the right through the haptics 98L, 98R, thereby placing the eyes 99L, 99R within the positions of the eyepoints ExpL, ExpR, respectively.

図7Bに示すように、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRに対して右方(白抜き矢印)を向いていることを検知した場合、触覚生成装置33L,33Rにより触覚98Lを強く(又は弱く)且つ触覚98Rを弱く(又は強く)生成する。それにより、ユーザ99は、頭部を左方に回転(黒塗り矢印)させようとする意識がはたらく。この結果、ユーザ99は、触覚98L,98Rを通じて頭部を左方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。 As shown in FIG. 7B, when the detection unit 20 detects that the eyes 99L, 99R of the user 99 are facing to the right (white arrow) relative to the eyepoints ExpL, ExpR, the guidance unit 30d generates a strong (or weak) haptic 98L and a weak (or strong) haptic 98R using the haptic generation devices 33L, 33R. This causes the user 99 to be conscious of rotating his/her head to the left (black arrow). As a result, the user 99 can turn his/her head to the left through the haptics 98L, 98R, thereby placing the eyes 99L, 99R within the positions of the eyepoints ExpL, ExpR, respectively.

このように、触覚生成装置33L,33Rにより、アイポイントExpL,ExpRの位置の左及び右にそれぞれ触覚98L,98Rを生成してユーザ99の左右のこめかみに触覚を与えるとともに、ユーザ99の眼99L,99Rの向きの検出結果に基づいてそれらの触覚98L,98Rの強度を制御することにより、ユーザ99は、左右のこめかみに感じる触覚の強度を通じて眼99L,99Rの向きを決めてアイポイントExpL,ExpRの位置内に入れることができる。 In this way, the haptic generating devices 33L, 33R generate haptics 98L, 98R to the left and right of the positions of the eyepoints ExpL, ExpR, respectively, to provide haptics to the left and right temples of the user 99, and by controlling the strength of these haptics 98L, 98R based on the detection results of the orientation of the user 99's eyes 99L, 99R, the user 99 can determine the orientation of the eyes 99L, 99R through the strength of the haptics felt at the left and right temples, and place them within the positions of the eyepoints ExpL, ExpR.

なお、図7A及び図7Bを用いて説明した触覚98L,98Rの生成位置及び強度の制御によるユーザ99の頭部の回転を、図6Aから図6Cを用いて説明した触覚98の生成位置及び強度の制御によるユーザ99のアイポイントExpへの誘導に続けて実行してもよい。例えば、ユーザ99のX軸方向の位置に応じて触覚98を生成する位置及びその強度を制御してもよい。この場合、ユーザ99の眼99L,99Rが、アイポイントExpL,ExpRの位置に対して-X方向にずれていた場合、触覚生成装置33L,33Rにより触覚98Lを強く(又は弱く)且つ触覚98Rを弱く(又は強く)生成する。ユーザ99は、触覚98L,98Rを通じて+X方向に移動することで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。なお、触覚生成装置33L,33Rを駆動装置(図示しない)によりX軸方向、Y軸方向及びZ軸方向に移動可能、又はチルト可能としてもよい。それにより、ユーザ99が画像表示装置100から離れていた場合に、触覚生成装置33L,33Rを駆動してユーザ99の方向に風圧や圧力等を発生させることで、確実にユーザ99に対して風圧や圧力等の触覚を感じさせることができる。 The rotation of the user's 99 head by controlling the generation position and strength of the haptics 98L and 98R described with reference to Figures 7A and 7B may be performed following the guidance of the user's 99 to the eye point Exp by controlling the generation position and strength of the haptics 98 described with reference to Figures 6A to 6C. For example, the position at which the haptics 98 is generated and its strength may be controlled according to the position of the user 99 in the X-axis direction. In this case, if the user's 99 eyes 99L and 99R are shifted in the -X direction relative to the positions of the eye points ExpL and ExpR, the haptic generation devices 33L and 33R generate the haptics 98L strongly (or weakly) and the haptics 98R weakly (or strongly). The user 99 can move in the +X direction through the haptics 98L and 98R to bring the eyes 99L and 99R into the positions of the eye points ExpL and ExpR, respectively. The haptic generation devices 33L and 33R may be movable or tiltable in the X-axis, Y-axis, and Z-axis directions by a driving device (not shown). This allows the user 99 to reliably feel the haptic sensation of wind pressure, pressure, etc. by driving the haptic generation devices 33L and 33R to generate wind pressure, pressure, etc. in the direction of the user 99 when the user 99 is away from the image display device 100.

検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置内に入ったこと、例えば眼99L,99Rが予め定めた時間より長くアイポイントExpL,ExpRの位置内に留まったことを検知すると、誘導部30dは、触覚生成装置33L,33Rを停止する。これに続いて、表示部10が画像Imを表示してよい。 When the detection unit 20 detects that the eyes 99L, 99R of the user 99 have entered the positions of the eyepoints ExpL, ExpR, for example, that the eyes 99L, 99R have remained within the positions of the eyepoints ExpL, ExpR for longer than a predetermined time, the guidance unit 30d stops the tactile generation devices 33L, 33R. Following this, the display unit 10 may display the image Im.

図8に、第2の実施形態に係る画像表示方法のフローS200を示す。なお、フローS200は、検出部20がユーザ99の画像表示装置110への接近を検知することで開始する。 Figure 8 shows flow S200 of the image display method according to the second embodiment. Note that flow S200 starts when the detection unit 20 detects the approach of a user 99 to the image display device 110.

ステップS202では、検出部20により、アイポイントExp(ExpL,ExpR)の位置に対するユーザ99の眼99L,99Rの位置(X位置、Y位置、及びZ位置)及び向きを検出する。その検出結果は、誘導部30dに転送される。 In step S202, the detection unit 20 detects the position (X position, Y position, and Z position) and orientation of the user's 99 eyes 99L and 99R relative to the position of the eye point Exp (ExpL, ExpR). The detection result is transferred to the guidance unit 30d.

ステップS204では、検出部20により、ステップS202で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。眼99L,99RがアイポイントExpL,ExpRの位置から離れていると判断されるとステップS206に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS208に進む。 In step S204, the detection unit 20 determines whether the positions of the eyes 99L, 99R of the user 99 are away from the positions of the eyepoints ExpL, ExpR based on the detection results obtained in step S202. If it is determined that the eyes 99L, 99R are away from the positions of the eyepoints ExpL, ExpR, the process proceeds to step S206, and if it is determined that the eyes 99L, 99R are located within the positions of the eyepoints ExpL, ExpR, respectively, the process proceeds to step S208.

ステップS206では、誘導部30dにより、ステップS202で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて触覚生成装置33L,33Rを用いて触覚ガイドを生成して、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導する。 In step S206, the guidance unit 30d generates a tactile guide using the tactile generating devices 33L and 33R based on the detection results obtained in step S202 and the positions of the eyepoints ExpL and ExpR, and guides the eyes 99L and 99R of the user 99 relatively to the positions of the eyepoints ExpL and ExpR.

ステップS206の実行後、ステップS202~S206が、ステップS204で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。 After step S206 is executed, steps S202 to S206 are repeated until step S204 determines that the eyes 99L and 99R are located within the eyepoints ExpL and ExpR, respectively, that is, the user 99 has placed his or her eyes in the air.

それにより、誘導部30dは、検出部20によりユーザ99の眼99L,99RのアイポイントExpの位置への接近を検知すると、図6Aに示したように、触覚生成装置33L,33Rにより触覚98を生成する。誘導部30dは、検出部20によりユーザ99が画像表示装置100に接近するのを検知すると、図6Bに示したように、触覚生成装置33L,33Rにより、検出部20によるユーザ99の位置の検出結果に基づいて触覚98をユーザ99の移動に合わせてアイポイントExpの位置に向けて移動させるとともにその強度を上げる。誘導部30dは、検出部20によりユーザ99が画像表示装置100に到達し、眼99L,99RがアイポイントExpL,ExpRの位置に到達したのを検知すると、触覚生成装置33L,33Rにより、検出部20によりユーザ99の位置を検知して触覚98の強度をさらに上げる(又は最大強度に上げる)。 As a result, when the detection unit 20 detects that the eyes 99L, 99R of the user 99 are approaching the position of the eye point Exp, the guidance unit 30d generates a haptic 98 by the haptic generation devices 33L, 33R as shown in FIG. 6A. When the detection unit 20 detects that the user 99 is approaching the image display device 100, the guidance unit 30d moves the haptic 98 toward the position of the eye point Exp in accordance with the movement of the user 99 based on the detection result of the position of the user 99 by the detection unit 20 and increases its intensity as shown in FIG. 6B. When the detection unit 20 detects that the user 99 has reached the image display device 100 and that the eyes 99L, 99R have reached the positions of the eye points ExpL, ExpR, the guidance unit 30d further increases the intensity of the haptic 98 (or increases it to the maximum intensity) by the haptic generation devices 33L, 33R by detecting the position of the user 99 by the detection unit 20.

このように、触覚生成装置33L,33Rにより、ユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて、ユーザ99の額の位置に合わせて触覚98を生成する位置を移動するとともに触覚98の強度を上げることで、ユーザ99は触覚98を通じてアイポイントExpの位置を知り、眼99L,99RをアイポイントExpL,ExpRの位置に接近させることが可能となる。 In this way, the tactile generating devices 33L, 33R move the position at which the tactile 98 is generated to match the position of the user 99's forehead as the user's 99 eyes 99L, 99R approach the positions of the eyepoints ExpL, ExpR, and increase the intensity of the tactile 98, allowing the user 99 to know the position of the eyepoint Exp through the tactile 98 and to move the eyes 99L, 99R closer to the positions of the eyepoints ExpL, ExpR.

さらに、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に到達したがそれらに対して左方又は右方を向いていることを検知すると、図7A及び図7Bに示したように、触覚生成装置33L,33Rにより触覚98Lを弱く又は強く且つ触覚98Rを強く又は弱く生成する。それにより、ユーザ99は、頭部を右方又は左方に回転させようとする意識がはたらく。この結果、ユーザ99は、触覚98L,98Rを通じて頭部を右方又は左方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。 Furthermore, when the detection unit 20 detects that the eyes 99L, 99R of the user 99 have reached the positions of eyepoints ExpL, ExpR but are facing left or right relative to them, the guidance unit 30d generates a weak or strong haptic 98L and a strong or weak haptic 98R using the haptic generation devices 33L, 33R as shown in Figures 7A and 7B. This causes the user 99 to be conscious of turning his head to the right or left. As a result, the user 99 can turn his head to the right or left through the haptics 98L, 98R, thereby placing the eyes 99L, 99R within the positions of the eyepoints ExpL, ExpR, respectively.

このように、触覚生成装置33L,33Rにより、アイポイントExpL,ExpRの位置の左及び右にそれぞれ触覚98L,98Rを生成してユーザ99の左右のこめかみに触覚を与えるとともに、ユーザ99の眼99L,99Rの向きの検出結果に基づいてそれらの触覚98L,98Rの強度を制御することにより、ユーザ99は、左右のこめかみに感じる触覚の強度を通じて眼99L,99Rの向きを決めてアイポイントExpL,ExpRの位置内に入れることができる。 In this way, the haptic generating devices 33L, 33R generate haptics 98L, 98R to the left and right of the positions of the eyepoints ExpL, ExpR, respectively, to provide haptics to the left and right temples of the user 99, and by controlling the strength of these haptics 98L, 98R based on the detection results of the orientation of the user 99's eyes 99L, 99R, the user 99 can determine the orientation of the eyes 99L, 99R through the strength of the haptics felt at the left and right temples, and place them within the positions of the eyepoints ExpL, ExpR.

ステップS208では、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知すると、誘導部30dは、触覚生成装置33L,33Rを停止して触覚ガイドを終了する。なお、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知した場合、触覚生成装置33L,33Rが風圧又は圧力を断続的に変化させてもよい。ユーザ99は、風圧又は圧力の断続的な変化を触覚として感知することで、眼99L,99RのそれぞれがアイポイントExpL,ExpRの位置内に入ったことを認識することができる。 In step S208, when the detection unit 20 detects that the eyes 99L, 99R of the user 99 have entered the positions of eyepoints ExpL, ExpR, respectively, the guidance unit 30d stops the tactile generation devices 33L, 33R and ends the tactile guide. When the detection unit 20 detects that the eyes 99L, 99R of the user 99 have entered the positions of eyepoints ExpL, ExpR, respectively, the tactile generation devices 33L, 33R may intermittently change the wind pressure or pressure. The user 99 can recognize that the eyes 99L, 99R have entered the positions of eyepoints ExpL, ExpR by sensing the intermittent changes in wind pressure or pressure as a touch.

ステップS210では、表示部10により画像Im(ImL,ImR)を表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。 In step S210, the display unit 10 displays the image Im (ImL, ImR). This allows the user 99 to view the entire angle of view of the left and right eye images ImL, ImR with the left and right eyes, respectively. Here, if the display unit 10 displays parallax images as the left and right eye images ImL, ImR, the user 99 can view a stereoscopic image.

なお、フローS200は、検出部20によりユーザ99が画像表示装置110から離れたことを検知することで終了する。 Note that flow S200 ends when the detection unit 20 detects that the user 99 has moved away from the image display device 110.

第2の実施形態に係る画像表示装置110は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果及びアイポイントの位置に基づいて触覚ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30dと、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、アイポイントの位置に対するユーザの眼の位置を検出し、誘導部により、その検出結果に基づいて触覚ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、その誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。 The image display device 110 according to the second embodiment includes a display unit 10 having an optical unit 12 that has a focus on the input side at the position where an image Im is generated and forms an exit pupil on the output side where light forming the image is output, an optical element 14 that reflects or transmits the light output from the optical unit to form an eye point Exp at a conjugate position of the exit pupil, a detection unit 20 that detects the position of the user's eyes 99L, 99R, and a guidance unit 30d that generates a tactile guide based on the detection result of the detection unit and the position of the eye point and guides the user's eyes relatively to the position of the eye point. Since the image display device 100 does not have an eyepiece unit that makes physical contact, it is expected that some users will have difficulty placing their eyes on the display unit. However, the detection unit 20 detects the position of the user's eyes relative to the position of the eye point, and the guidance unit generates a tactile guide based on the detection result to guide the user's eyes relatively to the position of the eye point, so that the user can easily align their eyes within the position of the eye point formed in the air by the display unit according to the guidance (i.e., placing their eyes in the air).

図9A、図9B、及び図9Cに、第3の実施形態に係る画像表示装置120の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置120は、先述の画像表示装置100,110と同様に、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30ddを備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。表示部10及び検出部20は、先述の画像表示装置100,110におけるそれらと同様に構成される。ただし、表示部10のケース19は壁面W上に固定され、光学ユニット12(12L,12R)は、駆動装置34,35,36によりケース19の上面に設けられた開口(不図示)を介して下方に向けてケース19上に支持される。 9A, 9B, and 9C are schematic side, front, and top views of the configuration of the image display device 120 according to the third embodiment. The image display device 120, like the image display devices 100 and 110 described above, is a device that displays an image Im so that the user 99 can see it without physically contacting the components, and includes a display unit 10, a detection unit 20, and a guidance unit 30dd. The image Im may be a still image or a video, and may be a monochrome image or a color image. In addition, the left-right direction (user's eye width direction) is the X-axis direction, the front-back direction is the Y-axis direction, and the up-down direction is the Z-axis direction, based on the user 99 viewing the image Im. The display unit 10 and the detection unit 20 are configured in the same manner as those in the image display devices 100 and 110 described above. However, the case 19 of the display unit 10 is fixed onto the wall surface W, and the optical unit 12 (12L, 12R) is supported on the case 19 facing downwards through an opening (not shown) provided on the top surface of the case 19 by the driving devices 34, 35, and 36.

図10に、画像表示装置120の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30ddを含む。これらは互いに信号を送受信可能に接続されている。 Figure 10 shows the configuration of the control system 50 of the image display device 120. The control system 50 includes the display unit 10, the detection unit 20, and the guidance unit 30dd described above. These are connected to each other so that they can send and receive signals.

誘導部30ddは、検出部20によるユーザ99の眼99L,99Rの位置の検出結果に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では駆動装置34,35,36を含む。 The guidance unit 30dd is a unit that guides the eyes 99L, 99R of the user 99 relatively to the positions of the eye points ExpL, ExpR based on the detection results of the positions of the eyes 99L, 99R of the user 99 by the detection unit 20, and in this embodiment includes driving devices 34, 35, and 36.

駆動装置34は、光学ユニット12をXY方向に駆動する、特に本実施形態では左眼用及び右眼用光学ユニット12L,12Rを一体的に駆動する装置であり、X駆動装置34X及びY駆動装置34Yを有する。X駆動装置34X及びX駆動装置34Xとして、例えばリニアモータを採用してよい。X駆動装置34Xは、光学ユニット12L,12Rが固定された表示装置11L,11Rのそれぞれの±Y端部を保持してX軸方向に駆動する。Y駆動装置34Yは、X駆動装置34Xの±X端部を保持してY軸方向に駆動する。 The drive device 34 drives the optical unit 12 in the XY directions, and in this embodiment in particular drives the left-eye and right-eye optical units 12L, 12R as a unit, and has an X drive device 34X and a Y drive device 34Y. For example, a linear motor may be used as the X drive device 34X and the X drive device 34X. The X drive device 34X holds the ±Y ends of each of the display devices 11L, 11R to which the optical units 12L, 12R are fixed, and drives them in the X-axis direction. The Y drive device 34Y holds the ±X ends of the X drive device 34X and drives it in the Y-axis direction.

駆動装置35は、駆動装置34をZ軸方向に駆動する装置である。駆動装置35として、例えばリニアモータを採用してよい。駆動装置35は、ケース19の上面上に固定され、駆動装置34の-Y端部を保持してZ軸方向に駆動する。 The driving device 35 is a device that drives the driving device 34 in the Z-axis direction. For example, a linear motor may be used as the driving device 35. The driving device 35 is fixed onto the upper surface of the case 19, and holds the -Y end of the driving device 34 to drive it in the Z-axis direction.

誘導部30ddは、検出部20による検出結果に基づいて駆動装置34,35を制御して、光学ユニット12L,12Rを光軸10L,10R(Z軸に平行)に対して平行な方向及び/又は直交する方向に駆動する。光学ユニット12L,12RをZ軸方向に駆動すると、アイポイントExpL,ExpRの位置は光軸10L',10R'(Y軸に平行)に沿ってY軸方向に移動する(図9Aに示す矢印(実線)参照)。光学ユニット12L,12RをY軸方向に駆動すると、アイポイントExpL,ExpRの位置をZ軸方向に移動する(図9Aに示す矢印(点線)参照)。光学ユニット12L,12RをX軸方向に駆動すると、アイポイントExpL,ExpRの位置をX軸方向に移動する(図9B及び図9Cに示す矢印参照)。 The guidance unit 30dd controls the driving devices 34, 35 based on the detection results by the detection unit 20 to drive the optical units 12L, 12R in a direction parallel to and/or perpendicular to the optical axes 10L, 10R (parallel to the Z axis). When the optical units 12L, 12R are driven in the Z axis direction, the positions of the eye points ExpL, ExpR move in the Y axis direction along the optical axes 10L', 10R' (parallel to the Y axis) (see the arrow (solid line) shown in Figure 9A). When the optical units 12L, 12R are driven in the Y axis direction, the positions of the eye points ExpL, ExpR move in the Z axis direction (see the arrow (dotted line) shown in Figure 9A). When the optical units 12L, 12R are driven in the X axis direction, the positions of the eye points ExpL, ExpR move in the X axis direction (see the arrows shown in Figures 9B and 9C).

図11に示すように、誘導部30ddは、さらに、ハーフミラー13を光軸10L',10R'(Y軸に平行)に対して傾動する駆動装置36を含んでもよい。駆動装置36として、例えば回転モータを採用してよい。誘導部30ddは、検出部20による検出結果に基づいて駆動装置36を用いてハーフミラー13を上下に傾動することで、アイポイントExpL,ExpRの位置を上下動する(図11に示す矢印参照)。例えば、子供又は幼児など低身長のユーザ99を検知した場合、ハーフミラー13を下方に回動して、アイポイントExpL,ExpRの位置を下げる。さらに、誘導部30ddは、ハーフミラー13を左右に振ることで、アイポイントExpL,ExpRの位置を左右に移動してもよい。誘導部30ddにより、検出部20による検出結果に基づいて、光学ユニット12(12L,12R)をX軸方向、Y軸方向、Z軸方向に駆動する及び/又はハーフミラー13を傾動して、アイポイントExpL,ExpRの位置を前後、上下、左右に移動してユーザ99の眼99L,99Rの位置に合わせることができる。 As shown in FIG. 11, the guidance unit 30dd may further include a drive device 36 that tilts the half mirror 13 relative to the optical axes 10L', 10R' (parallel to the Y-axis). For example, a rotary motor may be used as the drive device 36. The guidance unit 30dd moves the positions of the eye points ExpL, ExpR up and down by tilting the half mirror 13 up and down using the drive device 36 based on the detection results by the detection unit 20 (see the arrows shown in FIG. 11). For example, when a short user 99 such as a child or infant is detected, the half mirror 13 is rotated downward to lower the positions of the eye points ExpL, ExpR. Furthermore, the guidance unit 30dd may move the positions of the eye points ExpL, ExpR left and right by swinging the half mirror 13 left and right. Based on the detection results from the detection unit 20, the guidance unit 30dd can drive the optical unit 12 (12L, 12R) in the X-axis, Y-axis, and Z-axis directions and/or tilt the half mirror 13 to move the positions of the eye points ExpL and ExpR forward/backward, up/down, and left/right to match the positions of the eyes 99L and 99R of the user 99.

図12に、第3の実施形態に係る画像表示方法のフローS300を示す。なお、フローS300は、検出部20がユーザ99の画像表示装置120への接近を検知することで開始する。 Figure 12 shows a flow S300 of the image display method according to the third embodiment. Note that flow S300 starts when the detection unit 20 detects the approach of a user 99 to the image display device 120.

ステップS302では、検出部20により、アイポイントExp(ExpL,ExpR)の位置に対するユーザ99の眼99L,99Rの位置(X位置、Y位置、及びZ位置)及び向きを検出する。その検出結果は、誘導部30ddに転送される。 In step S302, the detection unit 20 detects the position (X position, Y position, and Z position) and orientation of the user's 99 eyes 99L and 99R relative to the position of the eye point Exp (ExpL, ExpR). The detection result is transferred to the guidance unit 30dd.

ステップS304では、検出部20により、ステップS302で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。眼99L,99RがアイポイントExpL,ExpRの位置から離れていると判断されるとステップS306に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS308に進む。 In step S304, the detection unit 20 determines whether the positions of the eyes 99L, 99R of the user 99 are away from the positions of the eyepoints ExpL, ExpR based on the detection results obtained in step S302. If it is determined that the eyes 99L, 99R are away from the positions of the eyepoints ExpL, ExpR, the process proceeds to step S306, and if it is determined that the eyes 99L, 99R are located within the positions of the eyepoints ExpL, ExpR, respectively, the process proceeds to step S308.

ステップS306では、誘導部30ddにより、ステップS302で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて駆動装置34,35,36を制御して光学ユニット12(12L,12R)を駆動及び光学素子14を傾動することにより、ユーザ99の眼99L,99RをアイポイントExpL,ExpRの位置に相対的に誘導する。 In step S306, the guidance unit 30dd controls the driving devices 34, 35, and 36 based on the detection result obtained in step S302 and the positions of the eye points ExpL and ExpR to drive the optical unit 12 (12L, 12R) and tilt the optical element 14, thereby guiding the eyes 99L, 99R of the user 99 relatively to the positions of the eye points ExpL, ExpR.

ステップS306の実行後、ステップS302~S306が、ステップS304で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。 After step S306 is executed, steps S302 to S306 are repeated until step S304 determines that the eyes 99L and 99R are located within the eyepoints ExpL and ExpR, respectively, that is, the user 99 has placed his or her eyes in the air.

それにより、誘導部30ddは、光学ユニット12L,12RをZ軸方向に駆動することにより、アイポイントExpL,ExpRの位置を光軸10L',10R'(Y軸に平行)に沿ってY軸方向に移動し(図9Aに示す矢印(実線)参照)、光学ユニット12L,12RをY軸方向に駆動することにより、アイポイントExpL,ExpRの位置をZ軸方向に移動し(図9Aに示す矢印(点線)参照)、光学ユニット12L,12RをX軸方向に駆動することにより、アイポイントExpL,ExpRの位置をX軸方向に移動する(図9B及び図9Cに示す矢印参照)。さらに、誘導部30ddは、光学素子14を光軸10L',10R'(Y軸に平行)に対して上下に傾動することにより、アイポイントExpL,ExpRの位置を上下動する(図11に示す矢印参照)。 As a result, the guiding unit 30dd moves the positions of the eyepoints ExpL and ExpR in the Y-axis direction along the optical axes 10L' and 10R' (parallel to the Y-axis) by driving the optical units 12L and 12R in the Z-axis direction (see the arrow (solid line) in FIG. 9A), moves the positions of the eyepoints ExpL and ExpR in the Z-axis direction by driving the optical units 12L and 12R in the Y-axis direction (see the arrow (dotted line) in FIG. 9A), and moves the positions of the eyepoints ExpL and ExpR in the X-axis direction by driving the optical units 12L and 12R in the X-axis direction (see the arrows in FIG. 9B and FIG. 9C). Furthermore, the guiding unit 30dd moves the positions of the eyepoints ExpL and ExpR up and down by tilting the optical element 14 up and down with respect to the optical axes 10L' and 10R' (parallel to the Y-axis) (see the arrows in FIG. 11).

このように、駆動装置34,35,36により、光学ユニット12(12L,12R)をX軸方向、Y軸方向、Z軸方向に駆動する及び/又は光学素子14を傾動して、アイポイントExpL,ExpRの位置を前後、上下、左右に移動してユーザ99の眼99L,99Rの位置に合わせることができる。 In this way, the driving devices 34, 35, 36 can drive the optical unit 12 (12L, 12R) in the X-axis, Y-axis, and Z-axis directions and/or tilt the optical element 14 to move the positions of the eye points ExpL, ExpR forward/backward, up/down, and left/right to match the positions of the eyes 99L, 99R of the user 99.

ステップS308では、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知すると、誘導部30ddは、駆動装置34,35,36を停止して光学ユニット12(12L,12R)及び光学素子14を位置決めする。 In step S308, when the detection unit 20 detects that the eyes 99L, 99R of the user 99 are within the positions of the eye points ExpL, ExpR, respectively, the guidance unit 30dd stops the driving devices 34, 35, 36 to position the optical unit 12 (12L, 12R) and the optical element 14.

ステップS310では、表示部10により画像Im(ImL,ImR)を表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。 In step S310, the display unit 10 displays the image Im (ImL, ImR). This allows the user 99 to view the entire angle of view of the left and right eye images ImL, ImR with the left and right eyes, respectively. Here, if the display unit 10 displays parallax images as the left and right eye images ImL, ImR, the user 99 can view a stereoscopic image.

なお、フローS300は、検出部20によりユーザ99が画像表示装置120から離れたことを検知することで終了する。 Note that flow S300 ends when the detection unit 20 detects that the user 99 has moved away from the image display device 120.

第3の実施形態に係る画像表示装置120は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、アイポイントの位置に対するユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果に基づいて駆動装置34,35,36を制御して光学ユニットを駆動及び/又は光学素子を傾動して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30ddと、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、ユーザの眼の位置を検出し、誘導部により、その検出結果及びアイポイントの位置に基づいて光学ユニットを駆動及び/又は光学素子を傾動して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。 The image display device 120 of the third embodiment comprises a display unit 10 having an optical unit 12 having an input side focus at the position where an image Im is generated and forming an exit pupil on the output side from which light forming the image is output, and an optical element 14 which reflects or transmits light output from the optical unit to form an eyepoint Exp at a conjugate position of the exit pupil, a detection unit 20 which detects the position of the eyes 99L, 99R of a user 99 relative to the position of the eyepoint, and a guidance unit 30dd which controls drive devices 34, 35, 36 based on the detection result of the detection unit to drive the optical unit and/or tilt the optical element to guide the user's eyes relative to the position of the eyepoint. Since the image display device 100 does not have an eyepiece that is in physical contact, it is expected that some users will have difficulty placing their eyes on it. However, the detection unit 20 detects the position of the user's eyes, and the guidance unit drives the optical unit and/or tilts the optical element based on the detection result and the eyepoint position to guide the user's eyes relative to the eyepoint position, allowing the user to easily align their eyes within the eyepoint position formed in the air by the display unit (i.e., placing the eye on the screen in the air).

なお、上述の構成の画像表示装置100,110,120において、検出部20を用いてユーザによる情報入力を受けるよう構成してもよい。検出部20は、ステレオカメラ21を用いて、ユーザ99のうなずき、首振りのような顔の動き、指の形、動きのような指によるジェスチャ、眼の大きさ、視線、表情の変化、瞬きの回数のような生体反応を検出し、それにより暗証番号のような秘匿情報の入力を受け付けてもよい。また、検出部20は、顔、虹彩を検出してユーザ認証してもよい。 The image display devices 100, 110, 120 configured as described above may be configured to receive information input by a user using the detection unit 20. The detection unit 20 may use the stereo camera 21 to detect facial movements of the user 99, such as nodding or shaking of the head, finger gestures, such as finger shape and movement, eye size, line of sight, changes in facial expression, and the number of blinks, thereby accepting input of confidential information, such as a PIN number. The detection unit 20 may also detect the face and irises to authenticate the user.

また、図1Aから図1Cで示される、検出部20を除く画像表示装置100がXY平面に対して反転して配置されてもいてもよく、また、検出部20を含む画像表示装置100がXY平面に対して反転して配置されていてもよい。また、ユーザの眼の位置と、アイポイントの位置に基づいて、ユーザの眼をアイポイントの位置に相対的に誘導する代わりに、ユーザの眼の位置と、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置(アイポイントの位置)にリレー(すなわち、再形成)することにより形成される瞳の領域とを用いてユーザの眼を瞳の領域内に相対的に誘導してもよい。例えば、瞳の領域が十分に大きい場合は、ユーザの左眼及び右眼のそれぞれが、アイポイントの位置に形成される左右の瞳のそれぞれの領域内に入っていれば、左眼及び右眼がアイポイントの位置に形成される左右の瞳それぞれの中心に位置していなくとも、ユーザは、表示部10により表示される画像Im(ImL,ImR)をケラレの発生なく視認することができる。 Also, the image display device 100 excluding the detection unit 20 shown in FIG. 1A to FIG. 1C may be arranged inverted with respect to the XY plane, or the image display device 100 including the detection unit 20 may be arranged inverted with respect to the XY plane. Also, instead of guiding the user's eye relatively to the eyepoint position based on the position of the user's eye and the position of the eyepoint, the user's eye may be relatively guided within the pupil area using the position of the user's eye and the pupil area formed by relaying (i.e., re-forming) the exit pupils (not shown) of the optical units 12L and 12R to their conjugate positions (the position of the eyepoint). For example, if the pupil area is sufficiently large, as long as the user's left eye and right eye are each within the respective left and right pupil areas formed at the position of the eyepoint, the user can view the image Im (ImL, ImR) displayed by the display unit 10 without vignetting even if the left eye and right eye are not located at the center of the left and right pupils formed at the position of the eyepoint.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.

10…表示部、10L,10R…光軸、11…表示装置、11L…左眼用表示画面、11R…右眼用表示画面、12…光学ユニット、12L…左眼用光学ユニット、12R…右眼用光学ユニット、13…ハーフミラー、14…光学素子、19…ケース、20…検出部、21…ステレオカメラ、30,30d,30dd…誘導部、31…表示モニタ、32…スピーカ、33…触覚生成装置、33,33L,33R…触覚生成装置、34,35,36…駆動装置、34X…X駆動装置、34Y…Y駆動装置、50…制御系、98…触覚、98L,98R…触覚、99…ユーザ、99L,99R…眼、100,110,120…画像表示装置、Exp,ExpL,ExpR…アイポイント、Im…画像、ImL…左眼用画像、ImR…右眼用画像、W…壁面。 10...display unit, 10L, 10R...optical axis, 11...display device, 11L...display screen for left eye, 11R...display screen for right eye, 12...optical unit, 12L...optical unit for left eye, 12R...optical unit for right eye, 13...half mirror, 14...optical element, 19...case, 20...detection unit, 21...stereo camera, 30, 30d, 30dd...guidance unit, 31...display monitor, 32...speaker, 33...tactile Generation device, 33, 33L, 33R...tactile generation device, 34, 35, 36...drive device, 34X...X drive device, 34Y...Y drive device, 50...control system, 98...tactile sense, 98L, 98R...tactile sense, 99...user, 99L, 99R...eyes, 100, 110, 120...image display device, Exp, ExpL, ExpR...eye point, Im...image, ImL...image for left eye, ImR...image for right eye, W...wall surface.

Claims (17)

画像が生成される位置に入力側の焦点を有し、前記画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、該光学ユニットから出力される光を反射又は透過して、前記射出瞳の共役位置にアイポイントを形成する光学素子と、を有する表示部と、
ユーザの眼の位置を検出する検出部と、
前記検出部が検出したユーザの眼の位置とアイポイントの位置に基づいて、前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する誘導部と、
を備え
前記誘導部は、前記アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する触覚生成装置を有す画像表示装置。
a display unit having an optical unit having an input side focal point at a position where an image is generated and forming an exit pupil at an output side from which light forming the image is output, and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil;
A detection unit that detects the position of a user's eyes;
A guidance unit that guides the user's eyes relatively to the position of the eye point based on the position of the user's eyes and the position of the eye point detected by the detection unit;
Equipped with
The guidance unit includes a tactile sense generating device that generates a tactile sense at least at one location near the position of the eyepoint .
前記触覚生成装置は、圧力又は振動により前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する、請求項に記載の画像表示装置。 The image display device according to claim 1 , wherein the haptic sense generating device guides the user's eye relative to the position of the eye point by pressure or vibration. 前記触覚生成装置は、前記アイポイントの位置の上方に触覚を生成する、請求項1又は2に記載の画像表示装置。 The image display device according to claim 1 , wherein the haptic sense generating device generates a haptic sense above the position of the eyepoint. 前記触覚生成装置は、前記アイポイントの位置に対する前記ユーザの眼の位置に応じて触覚を生成する位置又は強度を制御する、請求項に記載の画像表示装置。 The image display device according to claim 3 , wherein the haptic sense generating device controls a position or intensity at which a haptic sense is generated depending on a position of the user's eye relative to the position of the eyepoint. 前記触覚生成装置は、前記ユーザの属性に応じて前記触覚の強度を変更し、ユーザの属性は、年齢、性別及び体重のいずれか1つを含む、請求項に記載の画像表示装置。 The image display device according to claim 4 , wherein the haptic sense generating device changes an intensity of the haptic sense in accordance with an attribute of the user, the attribute of the user including any one of age, sex, and weight. 前記検出部は、ユーザの眼の向きをさらに検出し、
前記触覚生成装置は、前記検出部が検出したユーザの眼の向きとアイポイントの位置に基づいて、前記アイポイントの位置の左又は右にそれぞれ触覚を生成する、請求項からのいずれか一項に記載の画像表示装置。
The detection unit further detects an orientation of the user's eyes,
The image display device according to claim 1 , wherein the haptic sense generating device generates a haptic sense to the left or right of the eye point position based on the user's eye direction and eye point position detected by the detection unit.
前記検出部は、ユーザの眼の向きをさらに検出し、前記触覚生成装置は、前記アイポイントの位置の左及び右にそれぞれ触覚を生成し、前記検出部が検出したユーザの眼の向きと前記アイポイントの位置に基づいて、それぞれの触覚の強度を制御する、請求項からのいずれか一項に記載の画像表示装置。 6. The image display device according to claim 1, wherein the detection unit further detects the direction of the user's eyes, and the tactile generation device generates tactile sensations to the left and right of the eye point position, and controls the intensity of each tactile sensation based on the direction of the user's eyes and the eye point position detected by the detection unit. 前記誘導部は、前記検出部によりユーザの眼の前記アイポイントの位置への接近を検知した場合に前記触覚生成装置により触覚を生成する、請求項からのいずれか一項に記載の画像表示装置。 The image display device according to claim 1 , wherein the guidance unit generates a tactile sensation by the tactile sensation generating device when the detection unit detects that the user's eye is approaching the position of the eyepoint . 前記誘導部は、前記検出部によりユーザの眼が前記アイポイントの位置内に入ったことを検知した場合に前記触覚生成装置を停止する、請求項からのいずれか一項に記載の画像表示装置。 The image display device according to claim 1 , wherein the guidance unit stops the haptic sense generating device when the detection unit detects that the user's eye has entered within the position of the eyepoint . 前記誘導部は、前記光学ユニットを駆動する駆動装置を含み、前記検出部による検出結果に基づいて前記駆動装置を制御して、前記光学ユニットを光軸に対して平行な方向及び/又は交差する方向に駆動する、請求項1からのいずれか一項に記載の画像表示装置。 10. The image display device according to claim 1, wherein the guidance unit includes a driving device that drives the optical unit, and controls the driving device based on a detection result by the detection unit to drive the optical unit in a direction parallel to and / or a direction intersecting the optical axis. 前記検出部は、ユーザの眼の向きをさらに検出し、
前記誘導部は、前記検出部による検出結果に基づいて前記駆動装置を制御して、前記光学素子を光軸に対して傾動する、請求項10に記載の画像表示装置。
The detection unit further detects an orientation of the user's eyes,
The image display device according to claim 10 , wherein the guidance section controls the drive device based on a detection result by the detection section to tilt the optical element with respect to an optical axis.
前記駆動装置は、ユーザの左眼及び右眼に対応する前記光学ユニットを一体で駆動する、請求項10又は11に記載の画像表示装置。 The image display device according to claim 10 , wherein the driving device drives the optical units corresponding to the left and right eyes of a user as a unit. 前記誘導部は、視覚及び/又は音声により、ユーザの眼の前記アイポイントの位置に対する相対位置を案内する、請求項1から12のいずれか一項に記載の画像表示装置。 The image display device according to claim 1 , wherein the guiding unit guides the user's eye relative to the position of the eye point by visual and/or audio. 前記光学素子は、前記光学ユニットから出力される光を反射する再帰性反射素子であり、
前記表示部は、前記光の光路における前記光学素子及び前記光学ユニットの間にハーフミラーをさらに有する、請求項1から13のいずれか一項に記載の画像表示装置。
the optical element is a retroreflective element that reflects light output from the optical unit,
The image display device according to claim 1 , wherein the display unit further comprises a half mirror between the optical element and the optical unit in an optical path of the light.
前記光学素子は、複数の反射面が積層された積層部を前記複数の反射面が互いに交差するように複数積層した再帰性透過素子である、請求項1から請求項13のいずれか一項に記載の画像表示装置。 14. The image display device according to claim 1, wherein the optical element is a retrotransmissive element in which a laminated portion, in which a plurality of reflective surfaces are laminated, is laminated such that the plurality of reflective surfaces intersect with each other. 前記表示部は、ユーザの左眼及び右眼に対する2つのアイポイントをそれぞれ形成する、請求項1から15のいずれか一項に記載の画像表示装置。 The image display device according to claim 1 , wherein the display unit forms two eyepoints for a left eye and a right eye of a user. ユーザの眼の位置を検出する段階と、
前記検出する段階で検出したユーザの眼の位置と、画像が生成される位置に入力側の焦点を有し、前記画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、該光学ユニットから出力される光を反射又は透過して、前記射出瞳の共役位置にアイポイントを形成する光学素子と、により空中に形成されるアイポイントの位置と、に基づいて、前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する段階と、
前記画像を表示する段階と、
を備え
前記誘導する段階では、さらに、前記アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する、画像表示方法。
detecting a position of a user's eyes;
a step of guiding the user's eye relatively to the position of the eyepoint based on the position of the user's eye detected in the detection step, and the position of an eyepoint formed in the air by an optical unit having an input side focus at a position where an image is generated and forming an exit pupil on an output side from which light forming the image is output, and an optical element that reflects or transmits the light output from the optical unit to form an eyepoint at a conjugate position of the exit pupil;
displaying the image;
Equipped with
The image display method , in the guiding step, further comprises generating a haptic sensation at at least one location in the vicinity of the eyepoint position .
JP2021027327A 2021-02-24 2021-02-24 Image display device and method Active JP7559605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027327A JP7559605B2 (en) 2021-02-24 2021-02-24 Image display device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027327A JP7559605B2 (en) 2021-02-24 2021-02-24 Image display device and method

Publications (2)

Publication Number Publication Date
JP2022128876A JP2022128876A (en) 2022-09-05
JP7559605B2 true JP7559605B2 (en) 2024-10-02

Family

ID=83150623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027327A Active JP7559605B2 (en) 2021-02-24 2021-02-24 Image display device and method

Country Status (1)

Country Link
JP (1) JP7559605B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7661149B2 (en) * 2021-06-22 2025-04-14 三菱電機エンジニアリング株式会社 Aerial image display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088486A1 (en) 2011-12-12 2013-06-20 パイオニア株式会社 Display device, display method, and display program
JP2013172388A (en) 2012-02-22 2013-09-02 Nikon Corp Display device and program
JP2015064434A (en) 2013-09-24 2015-04-09 アイシン・エィ・ダブリュ株式会社 Head-up display device
JP2017142790A (en) 2017-02-01 2017-08-17 セイコーエプソン株式会社 Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2018022129A (en) 2016-07-21 2018-02-08 Tianma Japan株式会社 Stereoscopic display device and control method
WO2019220856A1 (en) 2018-05-14 2019-11-21 株式会社ニコン Image display device, image display system, image display method, and image processing program
US10926638B1 (en) 2019-10-23 2021-02-23 GM Global Technology Operations LLC Method and apparatus that reformats content of eyebox

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088486A1 (en) 2011-12-12 2013-06-20 パイオニア株式会社 Display device, display method, and display program
JP2013172388A (en) 2012-02-22 2013-09-02 Nikon Corp Display device and program
JP2015064434A (en) 2013-09-24 2015-04-09 アイシン・エィ・ダブリュ株式会社 Head-up display device
JP2018022129A (en) 2016-07-21 2018-02-08 Tianma Japan株式会社 Stereoscopic display device and control method
JP2017142790A (en) 2017-02-01 2017-08-17 セイコーエプソン株式会社 Head mounting type display device, control method of head mounting type display device, and work supporting system
WO2019220856A1 (en) 2018-05-14 2019-11-21 株式会社ニコン Image display device, image display system, image display method, and image processing program
US10926638B1 (en) 2019-10-23 2021-02-23 GM Global Technology Operations LLC Method and apparatus that reformats content of eyebox

Also Published As

Publication number Publication date
JP2022128876A (en) 2022-09-05

Similar Documents

Publication Publication Date Title
JP6822472B2 (en) Display devices, programs, display methods and controls
JP6339239B2 (en) Head-mounted display device and video display system
US7193584B2 (en) Wearable display apparatus
JP6378781B2 (en) Head-mounted display device and video display system
US5612709A (en) Multi-eye image displaying apparatus
CN110300567B (en) Vision training device for improving fusion function
KR20180037887A (en) Smart glasses
US20070097319A1 (en) Stereoscopic display
US6967781B2 (en) Image display apparatus for displaying image in variable direction relative to viewer
JP3900578B2 (en) Follow-up virtual image display system
KR102269833B1 (en) Smart glasses
JPH06235885A (en) Stereoscopic picture display device
CN112285934B (en) Image display device and wearable equipment
JP2015087698A (en) Virtual image display device
JP2004191962A (en) Image display device
JP2018203245A (en) Display system, electronic mirror system, and mobile body
JP7559605B2 (en) Image display device and method
JP2001290101A (en) Depth direction viewpoint adjustment intention detection and will drive method and automatic perspective correction glasses
TWI846280B (en) Near-to-eye display device and viewing angle adjusting method for the near-to-eye display device
JPH09218376A (en) 3D display device
JP2006011145A (en) Binocular microscope apparatus
CN110727112B (en) A variable-focus retinal scanning imaging three-dimensional display device
JPH01259348A (en) Three-dimensional image display device
JPH0341807B2 (en)
JPH0756517A (en) Eyeglass type image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240902

R150 Certificate of patent or registration of utility model

Ref document number: 7559605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150