[go: up one dir, main page]

WO2022018988A1 - 映像表示装置、映像表示システム、及び映像表示方法 - Google Patents

映像表示装置、映像表示システム、及び映像表示方法 Download PDF

Info

Publication number
WO2022018988A1
WO2022018988A1 PCT/JP2021/021487 JP2021021487W WO2022018988A1 WO 2022018988 A1 WO2022018988 A1 WO 2022018988A1 JP 2021021487 W JP2021021487 W JP 2021021487W WO 2022018988 A1 WO2022018988 A1 WO 2022018988A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
video display
display device
unit
Prior art date
Application number
PCT/JP2021/021487
Other languages
English (en)
French (fr)
Inventor
みどり 金谷
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/005,122 priority Critical patent/US20230262192A1/en
Priority to DE112021002510.4T priority patent/DE112021002510T5/de
Publication of WO2022018988A1 publication Critical patent/WO2022018988A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • G02B27/024Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies
    • G02B27/026Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies and a display device, e.g. CRT, LCD, for adding markings or signs or to enhance the contrast of the viewed object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/105Scanning systems with one or more pivoting mirrors or galvano-mirrors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Definitions

  • This technology relates to a video display device, a video display system, and a video display method.
  • Patent Document 1 an application information acquisition unit that acquires a window position on a display screen and a control unit that terminates an application of a window whose window position acquired by the application information acquisition unit satisfies a predetermined condition.
  • An information processing device including the above is disclosed.
  • This Patent Document 1 describes a technique of determining a user's preference by a machine learning method and presenting recommended contents or the like to the user.
  • a head-mounted display or the like that allows the user to visually recognize the image by projecting the image light onto the pupil of the user is also used.
  • Patent Document 2 "a modulated light output unit that outputs light as modulated light modulated according to image information, and a scanning unit that outputs modulated light output from the modulated light output unit as scanning light.
  • An image display device provided with a transfer optical system provided after the scanning unit and guiding the scanning light to the observer's pupil, and at least the transfer optics of the scanning unit and the transfer optical system. A part of the system is provided, and a head-mounted portion mounted on the observer's head and at least the modulated light output portion of the modulated light output portion and the scanning portion are provided, and the observer's head is provided.
  • An image display device characterized by having a body-carrying unit that can be carried on the body is disclosed.
  • Patent Document 1 If the digital signage device used in Patent Document 1 or the like is provided to a facility or the like as an infrastructure, it is useful because the user does not have to carry a video display device. However, if the digital signage device displays personal information or confidential information about the user, this personal information may be stolen by others.
  • the head-mounted display used in Patent Document 2 or the like has a problem that the burden on the user is heavy because the head-mounted portion includes a drive portion.
  • the main purpose of this technology is to provide a video display device, a video display system, and a video display method that prevent leakage of personal information or confidential information and reduce the burden on the user.
  • the present technology includes an image projection unit that obtains identification information that identifies a user and position information including the position of the head of the user, and projects the image light associated with the identification information toward the position.
  • a video display device Provides a video display device.
  • the image light may be projected into the pupil of the user.
  • the image light may be coherent light.
  • the image light may be laser light.
  • the image projection unit may obtain the position information based on the captured image including the user.
  • the image projection unit may obtain the position information based on the difference between the transmission time of the infrared rays transmitted to the user and the reception time of the reflected infrared rays.
  • the image projection unit may project the image light by adjusting the inclination of the optical axis of the image light based on the position information.
  • the image display device may further include an eyepiece optical unit having an optical element that concentrates the image light and projects it onto the pupil of the user.
  • the eyepiece optical unit may include a tag containing the identification information.
  • the optical element may have a diffraction grating that diffracts the image light.
  • the optical element may be arranged on the optical axis of the image light.
  • the eyepiece optical unit may be attached to the user's head.
  • the eyepiece optical unit may be carried by the user.
  • the image projection unit may project the image light by adjusting the inclination of the optical axis of the image light based on the unique information possessed by the optical element.
  • the image projection unit has an image display unit that displays an image on the screen, and a virtual image reproduced by projecting the image light into the pupil of the user is superimposed and displayed on the screen. good. Further, the present technology obtains identification information for identifying a user and position information including the position of the head of the user, and projects an image light associated with the identification information toward the position. And an eyepiece optical unit having an optical element that concentrates the image light and projects it onto the pupil of the user, and the image projection unit and the eyepiece optical unit are separately arranged. , Provides a video display system. Each of the plurality of image projection units is connected via an information communication network, and the identification information and / or information regarding the image light may be communicated via the information communication network. Further, the present technology includes obtaining identification information for identifying a user and position information including the position of the head of the user, and projecting image light associated with the identification information toward the position. , Provides a video display method.
  • the present technology will be described in the following order. 1.
  • First Embodiment of the present technology (Example 1 of a video display device) 2.
  • a second embodiment of the present technology (example 2 of a video display device) 3.
  • Third Embodiment of the present technology (Example 3 of a video display device) 4.
  • Fourth Embodiment of the present technology (Example 4 of a video display device) 5.
  • Fifth Embodiment of the present technology (Example 5 of a video display device) 6.
  • a sixth embodiment of the present technology (example 1 of a video display system) 7. Seventh Embodiment of this technology (Example 2 of video display system) 8.
  • Eighth embodiment of the present technology (video display method) 9. Examples of this technology
  • FIG. 1 is a conceptual diagram of a video display device 10 according to an embodiment of the present technology.
  • the image display device 10 according to the present embodiment includes an image projection unit 1.
  • the image projection unit 1 can be positioned below the user's line-of-sight direction.
  • the image projection unit 1 may be positioned above the user's line-of-sight direction.
  • the image projection unit 1 projects the image light 4 toward the head of the user 3. Since the video light 4 is associated with the user 3, it may be different for each user 3.
  • the image projection unit 1 can associate the image light 4 with the user 3 by using the identification information that identifies the user 3.
  • the image projection unit 1 obtains position information including the position of the user's head by, for example, a camera or a photodetector. As a result, the image projection unit 1 can project the image light 4 toward the head of the user 3.
  • the image light 4 may be projected onto the pupil of the user 3.
  • the image light 4 projected on the pupil is imaged on the retina of the user 3.
  • the virtual image 5 appears to float in space.
  • a Maxwell optical system or a laser scanning optical system can be used as a technique for forming an image on the retina.
  • the Maxwell optical system is a method in which image light is passed through the center of the pupil to form an image on the retina.
  • the laser scanning optical system is a method of scanning red, green, and blue light at high speed and writing an image on the retina.
  • the laser scanning optical system is not affected by the resolution of the image and can bring the image as close to the human field of view as possible.
  • digital signage devices using displays such as liquid crystals and organic EL have become widespread.
  • This digital signage device is used, for example, for advertising activities and information provision.
  • the digital signage device can, for example, provide a video about a user to the user.
  • the video provided to the user may include personal information or confidential information about the user.
  • the video provided to the user may include a number to prompt the user to enter an account number.
  • the video provided to the user may include the contents described in the questionnaire. Therefore, there is a problem that such personal information or confidential information may be stolen by others.
  • the image projection unit 1 obtains identification information for identifying the user 3 and position information including the position of the head of the user 3 and associates the identification information with the identification information.
  • the image light 4 to be generated is projected toward the position (head of the user 3). Since the image produced by the image light 4 can be visually recognized only by the user 3, the image display device 10 can prevent the image from being stolen by another person other than the user 3. Therefore, when the personal information or confidential information about the user 3 is included in this video, the video display device 10 can prevent the leakage of the personal information or the confidential information.
  • the image projection unit 1 is provided as an infrastructure, for example, and can be placed in a facility or the like. As a result, the user 3 does not have to carry the image projection unit 1, so that the burden on the user 3 is reduced. The user 3 is freed from worrying about the power consumption of the image projection unit 1.
  • the image projection unit 1 uses communication technology such as Wi-Fi or LTE (Long Term Evolution) to perform information communication. At this time, the radio wave may become unstable and communication may not be possible.
  • the image projection unit 1 is arranged in a facility or the like as an infrastructure, a stable information communication network can be constructed. As a result, the image projection unit 1 enables high-speed access to the image data that is the source of the image light 4, and can provide a clear and high-resolution image.
  • the video display device 10 can provide the user with a new video experience that has never existed before, more safely and easily.
  • FIG. 2 is a block diagram showing a configuration of an image projection unit 1 according to an embodiment of the present technology.
  • the image projection unit 1 according to the embodiment of the present technology includes, for example, a projection optical system 11, a position information acquisition unit 12, an optical axis adjustment unit 13, and an identification information acquisition unit 14.
  • a storage unit 15, a communication unit 16, and a control unit 17 can be provided.
  • the projection optical system 11 that projects video light may include, for example, a light source unit that outputs video light (not shown) and an optical scanning unit that scans the output video light two-dimensionally (not shown). can.
  • the video light output by the light source unit is intensity-modulated based on the video data stored in, for example, the storage unit 15, and can be output as a luminous flux composed of, for example, red, green, and blue light.
  • the optical scanning unit may include, for example, a MEMS mirror. The optical scanning unit can move the direction of the image light output by the light source unit at high speed so that the image is formed on the retina.
  • the projection optical system 11 is two-dimensional by changing the color of the image light output by the light source unit by one dot while changing the angle of the MEMS mirror included in the optical scanning unit by, for example, one dot. Images can be displayed.
  • the image light projected by the projection optical system 11 may be coherent light.
  • Coherent light has the characteristic that light rays are parallel and difficult to spread. This has the effect that the virtual image 5 is easy to focus at any distance from the eyes of the user 3.
  • the video light output by the light source unit does not have to be ideal coherent light.
  • the image light may be, for example, laser light.
  • Laser light is as close as possible to coherent light, and has the characteristics that the light rays are parallel and difficult to spread. This has the effect that the virtual image 5 is easy to focus at any distance from the eyes of the user 3. This can be achieved by using a semiconductor laser (LD: Laser Diode) for the light source unit.
  • LD Laser Diode
  • a light emitting diode (LED: Light Emission Diode) may be used for the light source unit.
  • LED Light Emission Diode
  • the projection optical system 11 may project different image light to each of the eyes of the user 3. For example, based on the parallax of both eyes of the user 3, the projection optical system 11 can project different image light to each of the eyes. Thereby, for example, the user can recognize the three-dimensional position of the presented image by binocular vision, for example. For example, a three-dimensional virtual image 5 appears to emerge in the external landscape seen by the user.
  • the position information acquisition unit 12 obtains position information including the position of the head of the user 3. As a result, the image light can be projected toward the position of the head of the user 3.
  • the position information acquisition unit 12 can include, for example, an image sensor.
  • the image sensor for example, CMOS or CCD may be used.
  • the image sensor acquires a captured image including the user 3. That is, in the present technology, the position information acquisition unit 12 can acquire the position information of the head of the user 3 based on the captured image obtained by the image sensor included in the position information acquisition unit 12.
  • the captured image may include the image of the eyes of the user 3.
  • the position information acquisition unit 12 can obtain three-dimensional position information of the eyes by processing the captured image.
  • the position information acquisition unit 12 can obtain this three-dimensional position information by the pupil recognition technique.
  • the pupil recognition technique a technique known in the art may be used.
  • the optical axis adjusting unit 13 can adjust the inclination of the optical axis of the video light based on the position information obtained by the position information acquisition unit 12. As a result, even if the position of the head of the user 3 is changed, the image light can be projected following the position of the head of the user 3.
  • the optical axis adjusting unit 13 may be included in the projection optical system 11.
  • the optical axis adjusting unit 13 can include, for example, a galvano scanner.
  • the galvano scanner can include a galvano mirror capable of reflecting image light in a specific direction, a motor for adjusting the inclination of the galvano mirror, and a motor control unit for controlling the motor.
  • the motor can be configured by, for example, a voice coil motor, a DC motor, a stepping motor, or the like.
  • the motor control unit can be configured by, for example, a microcomputer equipped with firmware.
  • the identification information acquisition unit 14 obtains identification information that identifies the user. As a result, the user can visually recognize the image associated with the self.
  • the identification information acquisition unit 14 can include, for example, a touch panel.
  • the touch panel can prompt the user to input the identification number.
  • the storage unit 15 can store video data related to the video visually recognized by the user. Further, this video data is stored in association with the identification information that identifies the user. Specifically, for example, the file name of the video data may include the identification information, or a database management system (DBMS: Database Management System) or the like may be used.
  • DBMS Database Management System
  • the storage unit 15 can be realized by using, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the communication unit 16 has a function of communicating via an information communication network by using communication technology such as Wi-Fi, Bluetooth (registered trademark), LTE (LongTermEvolution) and the like.
  • the image projection unit 1 can acquire, for example, image data and identification information stored in a computer device other than the image projection unit 1 via the information communication network.
  • the control unit 17 can control the operation of the components included in the image projection unit 1.
  • the control unit 17 can be realized by using, for example, a microcomputer or the like.
  • FIG. 3 is a flowchart showing an example of the procedure of the control unit 17 according to the embodiment of the present technology.
  • step S11 the control unit 17 stores the video data associated with the identification information stored in the storage unit 15 or the like based on the identification information obtained by the identification information acquisition unit 14. Refer to.
  • step S12 the control unit 17 instructs the projection optical system 11 to convert the video data into video light.
  • step S13 the control unit 17 instructs the projection optical system 11 to project the video light toward the position obtained by the position information acquisition unit 12.
  • FIG. 4 is a conceptual diagram of a video display device 10 according to an embodiment of the present technology.
  • the image display device 10 according to the present embodiment can further include an eyepiece optical unit 2 having an optical element 21 that concentrates the image light and projects it onto the pupil of the user 3.
  • the eyepiece optical unit 2 can be attached to the head of the user 3.
  • the embodiment of the eyepiece optical unit 2 may be, for example, eyeglasses, goggles, a helmet, or the like.
  • the optical element 21 of the eyepiece optical unit 2 is separated from the image projection unit 1 and is arranged in front of the user 3. That is, the optical element 21 is arranged on the optical axis of the image light.
  • the image light projected from the image projection unit 1 passes through the optical element 21 and reaches the eyes of the user 3.
  • the image light passes through the pupil of the user 3 and is imaged on the retina.
  • the virtual image 5 appears to float in space. Since the image light is imaged on the retina, the visual field is easily secured and the image is hard to disappear even when the pupil or the optical element 21 is displaced.
  • the optical element 21 may be, for example, a hologram lens or the like.
  • the optical element 21 may have a diffraction grating that diffracts the image light projected from the image projection unit 1.
  • the diffraction grating is used to diffract the image light projected from the image projection unit 1 and bring it to the eyes of the user 3.
  • the traveling direction of the image light projected from the image projection unit 1 is changed by the optical element 21 and guided to the eyes of the user 3.
  • the user can visually recognize the image by the image light from the image projection unit 1 in a state where the image projection unit 1 is not present in the line-of-sight direction of the user 3.
  • the image projection unit 1 may be located near the same height as the line-of-sight direction of the user 3.
  • the image projection unit 1 and the outside world landscape can be limited. It is possible to prevent the user from worrying about the overlap with.
  • the optical element 21 can act as a lens for light in the wavelength range of video light and have an optical property of transmitting light having a wavelength outside the wavelength range. Due to the optical characteristics, the user 3 can visually recognize, for example, the scenery ahead in the line-of-sight direction through the optical element 21, and can visually recognize the image by the image light. Further, since the optical element 21 has the optical characteristics, the eyepiece optical unit 2 can be used for the use of the eyepiece optical unit 2 itself, for example, as an eyeglass when the image projection is not performed. ..
  • the optical element 21 having the optical characteristics examples include a hologram lens, preferably a film-shaped hologram lens, and more preferably a transparent film-shaped hologram lens.
  • Techniques known in the art can impart desired optical properties to hologram lenses.
  • the hologram lens a commercially available hologram lens may be used, or the hologram lens may be manufactured by a technique known in the art.
  • a hologram lens can be laminated as an optical element 21 on one surface of the lens of the eyepiece optical unit 2.
  • the surface may be a surface on the outside landscape side or a surface on the eyeball side.
  • the image display device 10 according to the present technology can be used by attaching the optical element 21 to the eyepiece optical unit 2 appropriately selected by a user or a person skilled in the art. Therefore, the range of selection of the eyepiece optical unit 2 that can be adopted in the present technology is very wide.
  • the optical element 21 only needs to bend the image light, for example, a generally used convex lens or the like may be used for the optical element 21.
  • a hologram lens because the convex lens makes it difficult to visually recognize the landscape ahead of the user 3 in the line-of-sight direction.
  • the optical element 21 bends the image light in FIG. 4, in the present technology, the image light may reach the eyes of the user 3 directly without going through the optical element 21.
  • this can be realized by having the image projection unit 1 having a lens unit having a long F.
  • the image display device 10 can identify the user by using the eyepiece optical unit 2.
  • FIG. 5 is a schematic view of an eyepiece optical unit 2 according to an embodiment of the present technology.
  • the eyepiece optical unit 2 can include an optical element 21 that concentrates video light and projects it onto the pupil of the user, and a tag 22 that includes identification information that identifies the user.
  • the image projection unit 1 can project the image light associated with the user to the user.
  • the mode of the tag 22 can be freely selected according to the concept of the video display device 10.
  • the tag 22 may be, for example, a code or an IC tag (RF tag).
  • the code may be, for example, a bar code, a two-dimensional code, a three-dimensional code, a code expressed in color, or the like.
  • the IC tag is, for example, a passive tag type that does not have a built-in battery and operates by converting received radio waves into electric power, an active tag type that has a built-in battery and obtains information by transmitting radio waves by itself, and a passive tag. Examples include the semi-active tag type, which is a hybrid of the type and the active tag type. Further, a printed IC tag that prints the IC tag on the eyepiece optical unit 2 may be used. This makes it possible to improve the design of the eyepiece optical unit 2.
  • the image projection unit 1 can include an identification information acquisition unit 14 for reading the tag 22.
  • the identification information acquisition unit 14 may be a reader that reads a code, an IC tag, or the like, as used in, for example, a POS (Point Of Sale) system.
  • the IC tag can communicate even if the distance from the reader is farther than in the case of the code. Therefore, the user 3 may approach the image projection unit 1 to some extent.
  • the position information acquisition unit 12 that acquires the position of the user can acquire an captured image including, for example, the eyepiece optical unit 2.
  • the captured image may include, for example, a frame of the spectacles, a mark attached to the spectacles (not shown), and the like.
  • the position information acquisition unit 12 can acquire the three-dimensional position information of the user 3's eyes by processing the captured image.
  • the number of the marks may be, for example, one, two, three, or four, or more.
  • the position of the mark can be selected inconspicuously. This makes it possible to improve the design of the eyepiece optical unit 2.
  • the position information acquisition unit 12 may acquire three-dimensional position information of the eyepiece optical unit 2 by using TOF (Time-of-Flight) technology. This will be described with reference to FIG.
  • FIG. 6 is a schematic diagram illustrating the function of the image projection unit 1 according to the embodiment of the present technology.
  • the position information acquisition unit 12 can further include a transmission unit 121 and a reception unit 122.
  • a transmission unit 121 which is a light source.
  • This infrared ray hits the eyepiece optical unit 2 or the like worn by the user, is reflected, and is received by the receiving unit 122.
  • the position information acquisition unit 12 obtains three-dimensional position information of the eyepiece optical unit 2 based on the difference between the transmission time of the infrared rays transmitted to the user and the reception time of the reflected infrared rays. This three-dimensional position information can be calculated based on the difference and the velocity of infrared rays.
  • the optical axis adjusting unit 13 can adjust the inclination of the optical axis of the image light 4 based on the three-dimensional position information of the eyepiece optical unit 2. As a result, the image light 4 can be projected onto the pupil of the user.
  • the eyepiece optical unit 2 does not have to include a projection optical system. Further, the eyepiece optical unit 2 does not have to include, for example, the projection optical system, a power source, and a device driven by electric power, which are components necessary for projecting video light. As a result, the eyepiece optical unit 2 can be made smaller and / or lighter. As a result, the burden on the user is reduced.
  • the manufacturing cost of the eyepiece optical unit 2 can be reduced, and the degree of freedom in the design of the eyepiece optical unit 2 is increased. Further, the image projection unit 1 having an expensive manufacturing cost is provided as an infrastructure, and the eyepiece optical unit 2 having an inexpensive manufacturing cost is purchased or distributed, so that the cost of the entire image display device 10 is reduced. As a result, the video display device 10 can be widely used.
  • FIG. 7 is a schematic view of the eyepiece optical unit 2 according to the embodiment of the present technology.
  • the eyepiece optical unit 2 may have a size and shape similar to that of a credit card, for example.
  • the eyepiece optical unit 2 can include an optical element 21 that concentrates video light and projects it onto the pupil of the user, and a tag 22 that includes identification information that identifies the user.
  • the optical element 21 and the tag 22 those described in the second embodiment can be used.
  • the eyepiece optical unit 2 according to the present embodiment can be carried by the user.
  • the user can hold the eyepiece optical unit 2 so that the optical element 21 is arranged in front of the eyes.
  • the user can visually recognize the image by the image light.
  • the hologram lens can be laminated as the optical element 21 on one surface of the lens of the eyepiece optical unit 2. Since the optical element 21 is attached to the eyepiece optical unit 2 appropriately selected by the user or a person skilled in the art, the range of selection of the eyepiece optical unit 2 that can be adopted in the present technology is very wide.
  • the eyepiece optical unit 2 may have a size and shape close to that of a credit card as in the present embodiment, or may have a size and shape close to that of a fan, for example.
  • the form of the eyepiece optical unit 2 is not particularly limited and can be appropriately selected.
  • the eyepiece optical unit 2 having a low manufacturing cost can be purchased or distributed to users.
  • the optical element 21 included in the eyepiece optical unit 2 may have peculiar variations during manufacturing or use. In order to suppress the variation that occurs during the manufacture of the eyepiece optical unit 2, a large restriction arises, and as a result, it becomes expensive. Further, when the eyepiece optical unit 2 is used, for example, the position of the eyes varies depending on the user, so that the position of the optical element 21 and the position of the eyes vary. These variations cause the problem that the image light is not accurately projected onto the pupil.
  • the image projection unit 1 may adjust the inclination of the optical axis of the image light based on the unique information (information about the variation) possessed by the optical element 21. This will be described with reference to FIG. FIG. 8 is a flowchart showing an example of the procedure of the image projection unit 1 according to the embodiment of the present technology.
  • the identification information acquisition unit 14 included in the image projection unit 1 acquires the unique information possessed by the optical element 21.
  • the specific information includes, for example, information on the focal length and the degree of bending of each of the red, green, and blue lights.
  • the image display device 10 needs to adjust the focal length so as not to be affected by the focus adjustment function of the user's crystalline lens. Also, each of the red, green, and blue lights needs to be accurately bent.
  • the image projection unit 1 can adjust the inclination of the optical axis of the image light based on the specific information regarding the focal length, the degree of bending of the light, and the like.
  • the specific information can be included in the tag 22 included in the eyepiece optical unit 2.
  • the identification information acquisition unit 14 included in the image projection unit 1 can acquire the specific information by reading the tag 22.
  • step S22 the position information acquisition unit 12 included in the image projection unit 1 acquires the unique information possessed by the optical element 21.
  • the specific information includes, for example, information regarding the degree of deviation between the position of the optical element 21 and the position of the eyes.
  • the variation between the position of the optical element 21 and the eye position may be adjusted.
  • the image projection unit 1 can adjust the inclination of the optical axis of the image light based on the information regarding the position of the optical element 21 and the position of the eyes.
  • the specific information is obtained, for example, by processing a captured image.
  • step S23 the optical axis adjusting unit 13 included in the image projection unit 1 adjusts the inclination of the optical axis of the image light based on the unique information possessed by the optical element 21 to project the image light.
  • the image projection unit 1 can have an image display unit that displays an image on the screen. This will be described with reference to FIG. FIG. 9 is a conceptual diagram of a video display device 10 according to an embodiment of the present technology.
  • the image projection unit 1 has an image display unit 18 for displaying an image on a screen.
  • the image projection unit 1 projects the image light 4 toward the user 3.
  • the virtual image 5 reproduced by projecting the image light 4 onto the pupil of the user 3 is superimposed and displayed on the screen of the image display unit 18.
  • the image display device 10 may further include an eyepiece optical unit (not shown) described in another embodiment.
  • the image display unit 18 may be arranged separately from the image projection unit 1.
  • the virtual image 5 includes an image associated with the user.
  • the video display unit 18 displays a common video that is not associated with the user.
  • the video associated with the user and the video not associated with the user are superimposed and displayed.
  • the image display device 10 can flexibly change the image according to the user. Further, the image display device 10 can prevent the image from being stolen by another person.
  • a map of a certain place is displayed on the video display unit 18.
  • the virtual image associated with the user indicates the user's destination.
  • a map of a certain place and the destination of the user are superimposed and displayed. As a result, the user can reach the destination without the destination being known to others.
  • FIG. 10 is a conceptual diagram of a video display system 1000 according to an embodiment of the present technology.
  • the video display system 1000 according to one embodiment of the present technology can use the techniques according to the other embodiments described above. Therefore, the components having the same functions as those of the other embodiments are designated by the same names and reference numerals, and detailed description thereof will be omitted.
  • the image display system 1000 includes an image projection unit 1 and an eyepiece optical unit 2.
  • the image projection unit 1 obtains the identification information that identifies the user 3 and the position information including the position of the head of the user 3, and projects the image light associated with the identification information toward the position.
  • the eyepiece optical unit 2 has an optical element that concentrates the image light and projects it onto the pupil of the user 3.
  • Each of the image projection unit 1 and the eyepiece optical unit 2 is arranged separately.
  • FIG. 11 is a block diagram showing a configuration of a video display system 1000 according to an embodiment of the present technology.
  • the image projection unit 1 is provided, for example, as an infrastructure, and can be arranged in, for example, a public facility.
  • the information communication network 100 is, for example, a wired network such as a LAN (Local Area Network) or WAN (Wide Area Network), a wireless LAN (WLAN: Wireless Local Area Network), or a wireless WAN (WWAN: Wireless Wide Area) via a base station. It can be realized by a wireless network such as Network) or the Internet using a communication protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).
  • the identification information and / or the information related to the video light can be communicated via the information communication network 100.
  • the information regarding the video light may be, for example, video data.
  • the user can visually recognize the image at any place where the image projection unit 1 is arranged.
  • this video can be updated as needed.
  • the number of image projection units 1 is not particularly limited. Further, there may be an image projection unit 1 that is not connected to the information communication network 100.
  • the video display system 1000 may include a computer device (not shown) such as a server.
  • the computer device can store the identification information and / or the information related to the video light, and can provide the video projection unit 1 via the information communication network 100.
  • the computer device is, for example, a camera, a projector, a smartphone terminal, a tablet terminal, a mobile phone terminal, a PDA (Personal Digital Assistant), a PC (Personal Computer), a portable music player, a portable game machine, a POS system, or a wearable terminal (for example).
  • HMD Head Mounted Display, glasses-type HMD, clock-type terminal, band-type terminal, etc. may be used.
  • FIG. 12 is a flowchart showing an example of a procedure of a video display method according to an embodiment of the present technology.
  • step S1 the computer device obtains identification information for identifying a user.
  • step S2 the computer device obtains position information including the position of the user's head.
  • step S3 the computer device projects the image light associated with the identification information toward the position.
  • the video display device 10 (including the video display system 1000; the same applies hereinafter) according to the embodiment of the present technology can be used, for example, as digital signage.
  • the image display device 10 can provide the user with an image including operation information associated with the user.
  • the video display device 10 can provide the user with a video including, for example, operation information regarding the user's commuting route. The image may be superimposed and displayed on the route map. Further, the video display device 10 can provide the user with a video including operation information in the language used by the user (for example, English, Chinese, Korean, etc.).
  • the video display device 10 can provide the user with a video including information about an artist associated with the user.
  • the video display device 10 can provide the user with a video including schedule information of an artist who is interested in the user, for example.
  • the image may be superimposed on a map of the place where the outdoor festival is held.
  • the video display device 10 can provide a special video to a specific user.
  • the image display device 10 can provide the user with an image including product information associated with the user.
  • the video display device 10 can provide the user with a video including information about the placement location of the product purchased by the user, for example.
  • the image may be superimposed and displayed on the floor map of the store.
  • the image display device 10 can provide the user with an image including food information associated with the user.
  • the image display device 10 can provide the user with an image including, for example, food information about food allergies possessed by the user, food information preferred by the user, and the like.
  • the video may be superimposed and displayed on the menu.
  • the video display device 10 according to an embodiment of the present technology can be used, for example, as an agent.
  • the image display device 10 provided in a robot or the like can provide the user with an image including information associated with the user.
  • the image display device 10 can prevent the image from being stolen by another person.
  • the video display device 10 can provide the user with a video including a chat screen, an email screen, and the like regarding the user.
  • the video display device 10 can provide the user with a video including information about a user's visitor.
  • the image display device 10 can provide the user with an image including information according to the user.
  • the image display device 10 can provide an image to the user without obstructing the user's field of view.
  • the image display device 10 can provide an image to the user as a sub screen.
  • the video display device 10 can be used for, for example, an intelligent speaker.
  • the video display device 10 according to an embodiment of the present technology can be used, for example, in a system that requires high security requirements.
  • the video display device 10 can be used, for example, to prompt the user to input personal information.
  • the video display device 10 can provide the user with a video including information necessary for inputting personal information. Specific examples include filling out documents at the city hall, filling out questionnaires at hospitals, signing proof that delivery has been received, signing credit cards at store cashiers, business negotiations at cafes, and sales positions.
  • the video display device 10 can be used for business records and the like.
  • the video display device 10 can be used, for example, to prompt the user to input a personal identification number.
  • the video display device 10 can provide the user with a video in which numbers required for inputting a personal identification number are randomly arranged, for example.
  • the video display device 10 is used for automated teller machines (ATMs) at banks, credit card payments at store cashiers, coin lockers at stations, and unlocking of smartphone terminals.
  • ATMs automated teller machines
  • the video display device 10 can be used, for example, to prompt the user to input information necessary for payment of the usage fee.
  • the image display device 10 can provide the image to the user so that the image including the personal information about the user and the image in which the numbers necessary for inputting the personal identification number are randomly arranged are superimposed and displayed.
  • the video display device 10 can be used for a reception machine or a payment machine in a medical institution, an information terminal or a payment machine in a store, a payment machine in a leisure facility, or the like.
  • the configuration mentioned in the above embodiment can be selected or changed to another configuration as appropriate.
  • An image display device including an image projection unit that obtains identification information for identifying a user, position information including a position of the head of the user, and projects image light associated with the identification information toward the position. .. [2] The image light is projected onto the pupil of the user.
  • the video display device according to [1].
  • the image light is coherent light,
  • the image light is a laser light.
  • the video display device according to any one of [1] to [3].
  • the image projection unit obtains the position information based on the captured image including the user.
  • the video display device according to any one of [1] to [4].
  • the image projection unit obtains the position information based on the difference between the transmission time of the infrared rays transmitted to the user and the reception time of the reflected infrared rays.
  • the video display device according to any one of [1] to [5].
  • the image projection unit adjusts the inclination of the optical axis of the image light based on the position information to project the image light.
  • the video display device according to any one of [1] to [6].
  • the video display device according to any one of [1] to [7].
  • the eyepiece optical unit includes a tag containing the identification information.
  • the optical element has a diffraction grating that diffracts the image light.
  • the video display device according to [8] or [9].
  • the optical element is arranged on the optical axis of the image light.
  • the video display device according to any one of [8] to [10].
  • the eyepiece optical unit is attached to the user's head.
  • the video display device according to any one of [8] to [11].
  • the eyepiece optical unit is carried by the user.
  • the image projection unit adjusts the inclination of the optical axis of the image light based on the unique information possessed by the optical element to project the image light.
  • the video display device has an image display unit that displays an image on the screen. A virtual image reproduced by projecting the image light onto the pupil of the user is superimposed and displayed on the screen.
  • the video display device according to any one of [1] to [14].
  • An image projection unit that obtains identification information that identifies the user, position information including the position of the head of the user, and projects the image light associated with the identification information toward the position. It includes an eyepiece optical unit having an optical element that concentrates the image light and projects it onto the pupil of the user.
  • An image display system in which the image projection unit and the eyepiece optical unit are arranged separately.
  • Each of the plurality of image projection units is connected via an information communication network, and is connected to each other.
  • the identification information and / or the information about the video light is communicated via the information communication network.
  • the video display system according to [16].
  • An image display method comprising obtaining identification information for identifying a user, position information including a position of the head of the user, and projecting an image light associated with the identification information toward the position.
  • Image display device 1 Image projection unit 11 Projection optical system 12 Position information acquisition unit 13 Optical axis adjustment unit 14 Identification information acquisition unit 15 Storage unit 16 Communication unit 17 Control unit 18 Image display unit 2 Eyepiece optical unit 21 Optical element 22 Tag 3 User 4 Video light 5 Virtual image 100 Information communication network 1000 Video display system S3 Projecting video light associated with identification information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

個人情報又は機密情報の漏洩を防止し、かつ、ユーザの負担を低減する映像表示装置、映像表示システム、及び映像表示方法を提供する。 本技術は、ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部を備える、映像表示装置を提供し、ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部と、前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部と、を含んでおり、前記映像投射部及び前記接眼光学部のそれぞれは、分離して配されている、映像表示システムを提供する。

Description

映像表示装置、映像表示システム、及び映像表示方法
 本技術は、映像表示装置、映像表示システム、及び映像表示方法に関する。
 従来、例えばディスプレイやプロジェクタなどによって映像(例えば画像や文字などを含む)を表示するデジタルサイネージ装置が利用されている。
 例えば特許文献1では、「表示画面上のウィンドウの位置を取得するアプリケーション情報取得部と、前記アプリケーション情報取得部により取得された前記ウィンドウの位置が所定の条件を満たすウィンドウのアプリケーションを終了させる制御部と、を備える情報処理装置」が、開示されている。この特許文献1では、機械学習手法によりユーザの嗜好を判断して、推薦されるコンテンツ等をユーザに提示する技術について説明されている。
 また、映像光をユーザの瞳孔に投射することによって当該ユーザに映像を視認させるヘッドマウントディスプレイ(HMD)なども利用されている。
 例えば特許文献2では、「光を画像情報に応じて変調した被変調光として出力する被変調光出力部と、該被変調光出力部から出力された被変調光を走査光として出力する走査部と、該走査部の後段に設けられて該走査光を観察者の瞳孔に導く転送光学系とを備えた画像表示装置であって、前記走査部と前記転送光学系のうちの少なくとも前記転送光学系の一部が設けられ、観察者の頭部に装着される頭部装着部と、前記被変調光出力部と前記走査部のうちの少なくとも前記被変調光出力部が設けられ、観察者の身体に携帯可能な身体携帯部とを備えたことを特徴とする画像表示装置」が、開示されている。
特開2015-114970号公報 特開2005-309264号公報
 特許文献1などで用いられているデジタルサイネージ装置がインフラとして施設などに提供されていれば、ユーザは映像表示装置を持ち歩かなくてよいため有益である。しかし、ユーザに関する個人情報又は機密情報などをデジタルサイネージ装置が表示すると、この個人情報が他人に盗み見られるおそれがある。
 特許文献2などで用いられているヘッドマウントディスプレイは、頭部装着部が駆動部を備えるため、ユーザにとって負担が大きいという問題がある。
 そこで、本技術は、個人情報又は機密情報の漏洩を防止し、かつ、ユーザの負担を低減する映像表示装置、映像表示システム、及び映像表示方法を提供することを主目的とする。
 本技術は、ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部を備える、映像表示装置を提供する。
 前記映像光は、前記ユーザの瞳孔に投射されてよい。
 前記映像光は、コヒーレント光であってよい。
 前記映像光は、レーザー光であってよい。
 前記映像投射部は、前記ユーザが含まれる撮像画像に基づいて、前記位置情報を得てよい。
 前記映像投射部は、前記ユーザに向かって送信された赤外線の送信時刻と、反射された前記赤外線の受信時刻と、の差分に基づいて、前記位置情報を得てよい。
 前記映像投射部は、前記位置情報に基づいて、前記映像光の光軸の傾きを調整して前記映像光を投射してよい。
 前記映像表示装置は、前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部を更に備えてよい。
 前記接眼光学部は、前記識別情報を含むタグを備えてよい。
 前記光学素子は、前記映像光を回折する回折格子を有してよい。
 前記光学素子は、前記映像光の光軸上に配されてよい。
 前記接眼光学部は、前記ユーザの頭部に装着されてよい。
 前記接眼光学部は、前記ユーザによって携帯されてよい。
 前記映像投射部は、前記光学素子が有する特有の情報に基づいて、前記映像光の光軸の傾きを調整して前記映像光を投射してよい。
 前記映像投射部は、映像を画面に表示する映像表示部を有しており、前記映像光が前記ユーザの瞳孔に投射されることによって再生される虚像が、前記画面に対して重畳表示されてよい。
 また、本技術は、ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部と、前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部と、を含んでおり、前記映像投射部及び前記接眼光学部のそれぞれは、分離して配されている、映像表示システムを提供する。
 複数の前記映像投射部のそれぞれは、情報通信ネットワークを介して接続されており、前記識別情報及び/又は前記映像光に関する情報が、前記情報通信ネットワークを介して通信されていてよい。
 また、本技術は、ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射することを含む、映像表示方法を提供する。
本技術の一実施形態に係る映像表示装置10の概念図である。 本技術の一実施形態に係る映像投射部1の構成を示すブロック図である。 本技術の一実施形態に係る制御部17の手順の一例を示すフローチャートである。 本技術の一実施形態に係る映像表示装置10の概念図である。 本技術の一実施形態に係る接眼光学部2の概略図である。 本技術の一実施形態に係る映像投射部1の機能を説明する概略図である。 本技術の一実施形態に係る接眼光学部2の概略図である。 本技術の一実施形態に係る映像投射部1の手順の一例を示すフローチャートである。 本技術の一実施形態に係る映像表示装置10の概念図である。 本技術の一実施形態に係る映像表示システム1000の概念図である。 本技術の一実施形態に係る映像表示システム1000の構成を示すブロック図である。 本技術の一実施形態に係る映像表示方法の手順の一例を示すフローチャートである。
 以下、本技術を実施するための好適な形態について説明する。以下に説明する実施形態は、本技術の代表的な実施形態の一例を示したものであり、これにより本技術の範囲が狭く解釈されることはない。また、概念図及び概略図は必ずしも厳密に図示されたものではない。
 本技術の説明は以下の順序で行う。
 1.本技術の第1の実施形態(映像表示装置の例1)
 2.本技術の第2の実施形態(映像表示装置の例2)
 3.本技術の第3の実施形態(映像表示装置の例3)
 4.本技術の第4の実施形態(映像表示装置の例4)
 5.本技術の第5の実施形態(映像表示装置の例5)
 6.本技術の第6の実施形態(映像表示システムの例1)
 7.本技術の第7の実施形態(映像表示システムの例2)
 8.本技術の第8の実施形態(映像表示方法)
 9.本技術の実施例
[1.本技術の第1の実施形態(映像表示装置の例1)]
[(1)本実施形態の概要]
 本技術の一実施形態に係る映像表示装置10について図1を参照しつつ説明する。図1は、本技術の一実施形態に係る映像表示装置10の概念図である。図1に示されるとおり、本実施形態に係る映像表示装置10は、映像投射部1を備える。
 映像投射部1は、ユーザの視線方向よりも下方に位置されることができる。なお、ユーザの視線方向よりも上方に映像投射部1が位置されてもよい。
 映像投射部1は、映像光4をユーザ3の頭部に向かって投射する。この映像光4は、ユーザ3に関連付けられるため、ユーザ3ごとに異なっていてよい。映像投射部1は、ユーザ3を識別する識別情報を用いて、映像光4とユーザ3とを関連付けることができる。
 映像投射部1は、例えばカメラやフォトディテクタなどによってユーザの頭部の位置を含む位置情報を得る。これにより、映像投射部1は、映像光4をユーザ3の頭部に向かって投射することができる。
 より詳しく説明すると、映像光4は、ユーザ3の瞳孔に投射されてよい。瞳孔に投射された映像光4は、ユーザ3の網膜上にて結像する。これにより、虚像5が空間に浮かんで見える。
 映像を網膜上で結像させる技術として、例えばマクスウェル光学系、又はレーザー走査光学系などが用いられることができる。マクスウェル光学系は、映像光を瞳孔の中心に通して網膜上に結像させる方式である。レーザー走査光学系は、赤、緑、及び青の光を高速に走査して網膜上に映像を書き込む方式である。レーザー走査光学系は、映像の解像度に影響されず、映像を限りなく人間の視野に近づけることができる。
 レンズの役割を果たす水晶体のピント調節機能が低下すると、近視や遠視などが起こるという問題がある。しかし本技術では、網膜に直接映像が投影されるため、ユーザ3は鮮明な映像を視認できる。ユーザ3が視認する映像は、虚像5として表示される。ユーザ3は、虚像5及びその背景の両方に同時にピントを合わせて視認できる。
 近年、液晶や有機ELなどによるディスプレイを用いたデジタルサイネージ装置が広く普及してきている。このデジタルサイネージ装置は、例えば広告宣伝活動や情報提供などに用いられている。デジタルサイネージ装置は、例えばユーザに関する映像を当該ユーザに提要できる。
 このとき、ユーザに提供される映像に、ユーザに関する個人情報又は機密情報などが含まれる場合がある。例えばデジタルサイネージ装置が銀行に設置されている場合、ユーザに提供される映像に、口座番号の入力を促すための番号が含まれうる。また、例えばデジタルサイネージ装置が病院に設置されている場合、ユーザに提供される映像に、問診票への記載内容が含まれうる。そのため、このような個人情報又は機密情報が他人に盗み見られるおそれがあるという問題がある。
 この問題を解決するために、本実施形態に係る映像投射部1は、ユーザ3を識別する識別情報と、ユーザ3の頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光4を前記位置(ユーザ3の頭部)に向かって投射する。この映像光4による映像はユーザ3のみが視認できるため、映像表示装置10は、この映像がユーザ3ではない他人に盗み見みられることを防止できる。よって、ユーザ3に関する個人情報又は機密情報がこの映像に含まれている場合、映像表示装置10は、個人情報又は機密情報の漏洩を防止できる。
 映像投射部1は、例えばインフラとして提供され、施設などに配置されることができる。これにより、ユーザ3は、映像投射部1を持ち歩かなくてよいため、ユーザ3の負担が軽減される。ユーザ3は、映像投射部1の消費電力の心配から解放される。
 また、ユーザ3が映像投射部1を持ち歩く場合、映像投射部1は例えばWi-FiやLTE(Long Term Evolution)などの通信技術を利用して情報通信を行うことになる。このとき、電波が不安定になり通信できないおそれがある。一方で、映像投射部1がインフラとして施設などに配置されていれば、安定した情報通信ネットワークが構築されることができる。その結果、映像投射部1は、映像光4の元となる映像データに対する高速なアクセスが可能となり、鮮明かつ高解像度の映像が提供できる。
 このようにして、映像表示装置10は、従来にはない新しい映像体験をより安全かつ手軽にユーザに提供できる。
 また、ユーザ3に関する個人情報又は機密情報などが蓄積され、有効に活用されることができる。
 なお、上述した効果は、後述する他の実施形態によっても得られる。よって、他の実施形態においては、効果についての再度の記載を省略する。
[(2)映像投射部]
 本技術の一実施形態に係る映像投射部1の構成について図2を参照しつつ説明する。図2は、本技術の一実施形態に係る映像投射部1の構成を示すブロック図である。図2に示されるとおり、本技術の一実施形態に係る映像投射部1は、例えば、投射光学系11と、位置情報取得部12と、光軸調整部13と、識別情報取得部14と、記憶部15と、通信部16と、制御部17と、を備えることができる。
 映像光を投射する投射光学系11は、例えば、映像光を出力する光源部(図示省略)と、出力された映像光を二次元に走査する光走査部(図示省略)と、を含むことができる。光源部が出力する映像光は、例えば記憶部15などに記憶されている映像データに基づいて強度変調され、例えば赤、緑、及び青の光からなる光束として出力されることができる。光走査部は、例えばMEMSミラーを含んでいてよい。光走査部は、光源部が出力した映像光の方向を、網膜上に映像が形成されるように高速に移動させることができる。
 より詳しく説明すると、投射光学系11は、光走査部が含むMEMSミラーの角度を例えば1ドットずつ変化させながら、光源部が出力する映像光の色を1ドットずつ変化させることにより、2次元の画像を表示できる。
 投射光学系11が投射するする映像光は、コヒーレント光であってよい。コヒーレント光は、光線が平行であり広がりにくいという特徴を有する。これにより、虚像5がユーザ3の目からどの距離にあってもピントが合いやすいという効果が生じる。
 なお、光源部が出力する映像光は、理想的なコヒーレント光でなくてもよい。映像光は、例えばレーザー光であってもよい。レーザー光は、コヒーレント光に限りなく近く、光線が平行であり広がりにくいという特徴を有する。これにより、虚像5がユーザ3の目からどの距離にあってもピントが合いやすいという効果が生じる。光源部に半導体レーザ(LD:Laser Diode)が用いられることにより、これが実現できる。
 本技術の好ましい実施態様に従い、光源部に例えば発光ダイオード(LED:Light Emission Diode)などが用いられてもよい。
 本技術の好ましい実施態様に従い、投射光学系11は、ユーザ3の両目のそれぞれに異なる映像光を投射してもよい。例えば、ユーザ3の両眼の視差に基づいて、投射光学系11は、両目のそれぞれに異なる映像光を投射できる。これにより、例えばユーザが、例えば両眼視によって、提示される映像の三次元的な位置を認識できる。例えばユーザが見ている外界風景中に、三次元的な虚像5が浮かび上がって見える。
 位置情報取得部12は、ユーザ3の頭部の位置を含む位置情報を得る。これにより、映像光がユーザ3の頭部の位置に向かって投射されることができる。
 位置情報取得部12は、例えばイメージセンサなどを含むことができる。イメージセンサとして、例えばCMOS又はCCDなどが用いられてよい。イメージセンサによって、ユーザ3が含まれる撮像画像が取得される。すなわち、本技術において、位置情報取得部12が含むイメージセンサにより得られた撮像画像に基づいて、位置情報取得部12は、ユーザ3の頭部の位置情報を得ることができる。
 撮像画像には、ユーザ3の目の画像が含まれてよい。これにより、位置情報取得部12は、当該撮像画像を処理することによって、目の三次元的位置情報を得ることができる。なお、位置情報取得部12は、この三次元的位置情報を瞳認識技術により得ることができる。瞳認識技術として、当技術分野で既知の技術が用いられてよい。
 光軸調整部13は、位置情報取得部12が得た位置情報に基づいて、映像光の光軸の傾きを調整できる。これにより、ユーザ3の頭部の位置が変更されても、映像光がユーザ3の頭部の位置に追従して投射されることができる。なお、光軸調整部13は、投射光学系11に含まれていてもよい。
 光軸調整部13は、例えばガルバノスキャナを含むことができる。ガルバノスキャナは、映像光を特定の方向に反射させることができるガルバノミラーと、当該ガルバノミラーの傾きを調整するモーターと、モーターを制御するモーター制御部と、を含むことができる。当該モーターは、例えばボイスコイルモーター、DCモーター、又はステッピングモーターなどにより構成されることができる。当該モーター制御部は、例えばファームウェアが搭載されているマイクロコンピュータなどにより構成されることができる。
 識別情報取得部14は、ユーザを識別する識別情報を得る。これにより、ユーザは、自己に関連付けられる映像を視認できる。
 識別情報取得部14は、例えばタッチパネルを含むことができる。タッチパネルは、識別番号の入力をユーザに促すことができる。
 記憶部15は、ユーザが視認する映像に関する映像データを記憶できる。さらに、この映像データは、ユーザを識別する識別情報と関連付けられて記憶される。具体的には、例えば映像データのファイル名に識別情報が含まれていてもよいし、データベース管理システム(DBMS:Database Management System)などが用いられてもよい。
 記憶部15は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)などが用いられることにより実現できる。
 通信部16は、例えばWi-Fi、Bluetooth(登録商標)、LTE(Long Term Evolution)等の通信技術を利用して、情報通信ネットワークを介して通信する機能を有する。これにより、映像投射部1は、例えば映像投射部1ではないコンピュータ装置に記憶されている映像データや識別情報などを、情報通信ネットワークを介して取得できる。
 制御部17は、映像投射部1が備える構成要素の動作を制御できる。制御部17は、例えばマイクロコンピュータなどが用いられることにより実現できる。
 制御部17の手順について図3を参照しつつ説明する。図3は、本技術の一実施形態に係る制御部17の手順の一例を示すフローチャートである。
 図3に示されるとおり、まず、ステップS11において、制御部17は、識別情報取得部14が得た識別情報に基づいて、記憶部15などに記憶されている、当該識別情報に関連付けられる映像データを参照する。
 次に、ステップS12において、制御部17は、前記映像データを映像光に変換するように投射光学系11に指示する。
 最後に、ステップS13において、制御部17は、前記映像光を、位置情報取得部12が得た位置に向かって投射するように投射光学系11に指示する。
[2.本技術の第2の実施形態(映像表示装置の例2)]
 本技術の一実施形態に係る映像表示装置10について図4を参照しつつ説明する。図4は、本技術の一実施形態に係る映像表示装置10の概念図である。図4に示されるとおり、本実施形態に係る映像表示装置10は、映像光を集中させてユーザ3の瞳孔に投射する光学素子21を有する接眼光学部2を更に備えることができる。
 接眼光学部2は、ユーザ3の頭部に装着されることができる。接眼光学部2の実施形態は、例えば眼鏡、ゴーグル、ヘルメットなどであってよい。
 接眼光学部2が有する光学素子21は、映像投射部1と分離されており、かつ、ユーザ3の目の前に配される。すなわち、光学素子21は、映像光の光軸上に配される。映像投射部1から投射された映像光は、光学素子21を通ってユーザ3の目に到達する。映像光は、ユーザ3の瞳孔を通り、網膜上で結像する。これにより、虚像5が空間に浮かんで見える。映像光が網膜上で結像するため、瞳孔又は光学素子21がずれた場合であっても、視野が確保されやすく、画像が消えにくい。
 光学素子21は、例えばホログラムレンズなどであってよい。光学素子21は、映像投射部1から投射された映像光を回折する回折格子を有していてよい。当該回折格子は、映像投射部1から投射された映像光を回折して、ユーザ3の目に到達させるために用いられる。
 より詳しく説明すると、映像投射部1から投射された映像光の進行方向が、光学素子21により変更されて、ユーザ3の目に導かれる。これにより、ユーザ3の視線方向に映像投射部1が無い状態で、映像投射部1からの映像光による映像をユーザが視認できる。
 なお、本技術の他の実施態様に従い、映像投射部1は、ユーザ3の視線方向と同じ高さ付近に位置されていてもよい。この場合、例えば映像が表示される位置などをユーザ3の視野内の一部(例えば上半分、下半分、左半分、又は右半分など)に限定することなどによって、映像投射部1と外界風景との重なりをユーザが気にならなくすることができる。
 好ましくは、光学素子21は、映像光の波長範囲の光に対してはレンズとして働き、且つ、当該波長範囲外の波長の光は透過させる光学特性を有すことができる。当該光学特性によって、ユーザ3は、光学素子21を介して例えば視線方向の先の風景を視認し、且つ、当該映像光による映像を視認できる。また、光学素子21が当該光学特性を有することにより、接眼光学部2は、映像投射が行われていない場合は、例えば眼鏡としての用途など、当該接眼光学部2自体の用途のために利用できる。
 前記光学特性を有する光学素子21として、例えばホログラムレンズ、好ましくはフィルム状のホログラムレンズ、より好ましくは透明なフィルム状ホログラムレンズを挙げることができる。当技術分野で既知の技法により、ホログラムレンズに所望の光学特性を付与することができる。ホログラムレンズとして、市販入手可能なホログラムレンズが用いられてよく、又は、ホログラムレンズは、当技術分野において公知の技法により製造されてもよい。
 例えば、接眼光学部2が有するレンズの一方の面に、光学素子21としてホログラムレンズが積層されることができる。当該面は、外界風景側の面でもよいし、眼球側の面でもよい。光学素子21が、ユーザ又は当業者により適宜選択された接眼光学部2に貼り付けられることで、本技術に係る映像表示装置10が利用できる。そのため、本技術において採用可能な接眼光学部2の選択の幅は非常に広い。
 なお、光学素子21は映像光を屈曲すればよいため、例えば一般的に用いられている凸レンズなどが光学素子21に用いられてもよい。ただし、凸レンズはユーザ3の視線方向の先にある風景の視認が困難になるため、ホログラムレンズが用いられることがより好ましい。
 なお、光学素子21は、図4において映像光を屈曲させているが、本技術において映像光は、光学素子21を介することなく、ユーザ3の目に直接到達されてもよい。例えば、映像投射部1が、Fの長いレンズ部を有することにより、これが実現されうる。
 接眼光学部2を用いて、映像表示装置10はユーザを識別できる。このことについて図5を参照しつつ説明する。図5は、本技術の一実施形態に係る接眼光学部2の概略図である。図5に示されるとおり、接眼光学部2は、映像光を集中させてユーザの瞳孔に投射する光学素子21と、ユーザを識別する識別情報を含むタグ22と、を備えることができる。接眼光学部2がタグ22を備えることにより、映像投射部1は、ユーザに関連付けられる映像光を当該ユーザに投射できる。
 タグ22の様態は、映像表示装置10のコンセプトに応じて自由に選択されることができる。タグ22は、例えばコードであってもよいし、ICタグ(RFタグ)でもよい。コードは、例えばバーコード、2次元コード、3次元コード、色で表現されたコードなどであってよい。ICタグは、例えば電池が内蔵されておらず、受信した電波を電力に変換して作動するパッシブタグ型、電池が内蔵されており、自ら電波を送信して情報を得るアクティブタグ型、パッシブタグ型とアクティブタグ型のハイブリッドであるセミアクティブタグ型などが挙げられる。さらには、ICタグを接眼光学部2に印刷するプリンテッドICタグが用いられてもよい。これにより、接眼光学部2のデザイン性を高めることができる。
 映像投射部1は、タグ22を読み取るための識別情報取得部14を備えることができる。識別情報取得部14は、例えばPOS(Point Of Sale)システムで用いられているような、コードやICタグなどを読み取るリーダーであってよい。
 なお、ICタグは、コードの場合と比べて、リーダーとの距離がより離れていても通信が成立する。そのため、ユーザ3は、映像投射部1にある程度近づけばよい。
 ユーザの位置を取得する位置情報取得部12は、例えば接眼光学部2を含む撮像画像を取得することができる。接眼光学部2の形状が例えば眼鏡であるとき、前記撮像画像には、例えば前記眼鏡のフレームや、前記眼鏡に付されているマーク(図示省略)などが含まれてよい。これにより、位置情報取得部12は、前記撮像画像を処理することによって、ユーザ3の目の三次元的位置情報を取得できる。
 前記マークの数は、例えば1つ、2つ、3つ、若しくは4つ、又はそれより多くてもよい。複数のマークが用いられることにより、より正確な三次元的位置情報が取得される。マークの位置は、目立たないように選択されうる。これにより、接眼光学部2のデザイン性を高めることができる。
 あるいは、位置情報取得部12は、TOF(Time-of-Flight)技術を用いて、接眼光学部2の三次元的位置情報を取得してもよい。このことについて図6を参照しつつ説明する。図6は、本技術の一実施形態に係る映像投射部1の機能を説明する概略図である。
 図6に示されるとおり、位置情報取得部12は、送信部121及び受信部122を更に備えることができる。まず、光源である送信部121から例えば赤外線がユーザに向かって投射される。この赤外線は、ユーザが装着している接眼光学部2などに当たって反射され、受信部122によって受信される。位置情報取得部12は、前記ユーザに向かって送信された赤外線の送信時刻と、反射された赤外線の受信時刻と、の差分に基づいて、接眼光学部2の三次元的位置情報を得る。この三次元的位置情報は、前記差分と、赤外線の速度と、に基づいて、算出されることができる。
 光軸調整部13は、接眼光学部2の三次元的位置情報に基づいて、映像光4の光軸の傾きを調整できる。これにより、映像光4がユーザの瞳孔に投射されることができる。
 接眼光学部2には、投射光学系が含まれていなくてよい。さらには、接眼光学部2には、映像光を投射するために必要な構成要素である、例えば前記投射光学系、電源、及び電力により駆動する装置などが含まれなくてよい。これにより、接眼光学部2が小型化及び/又は軽量化されることができる。その結果、ユーザの負担が軽減される。
 また、映像光を投射するために必要な構成要素が含まれなくてよいため、接眼光学部2の製造コストの低減が可能となり、接眼光学部2のデザインの自由度が高まる。さらに、製造コストが高価な映像投射部1がインフラとして提供され、製造コストが安価な接眼光学部2が購入又は配布されることにより、映像表示装置10全体のコストが低減される。その結果、映像表示装置10は広く普及されることができる。
[3.本技術の第3の実施形態(映像表示装置の例3)]
 接眼光学部2の他の実施形態について図7を参照しつつ説明する。図7は、本技術の一実施形態に係る接眼光学部2の概略図である。
 図7に示されるとおり、本実施形態に係る接眼光学部2は、例えばクレジットカードに近い大きさ及び形状であってよい。接眼光学部2は、映像光を集中させてユーザの瞳孔に投射する光学素子21と、ユーザを識別する識別情報を含むタグ22と、を備えることができる。光学素子21及びタグ22は、第2の実施形態において説明したものを用いることができる。
 本実施形態に係る接眼光学部2は、ユーザによって携帯されることができる。ユーザは、光学素子21が目の前に配されるように接眼光学部2をかざすことができる。これにより、ユーザは、映像光による映像を視認できる。
 上述したように、接眼光学部2が有するレンズの一方の面に、光学素子21としてホログラムレンズが積層されることができる。光学素子21が、ユーザ又は当業者により適宜選択された接眼光学部2に貼り付けられるため、本技術において採用可能な接眼光学部2の選択の幅は非常に広い。接眼光学部2は、本実施形態のようなクレジットカードに近い大きさ及び形状であってもよいし、例えばうちわに近い大きさ及び形状であってもよい。接眼光学部2の形態は特に限られず、適宜選択されることができる。製造コストが安価な接眼光学部2は、ユーザに購入又は配布されることができる。
[4.本技術の第4の実施形態(映像表示装置の例4)]
 接眼光学部2が有する光学素子21には、製造時又は使用時などにおいて特有のばらつきが生じるおそれがある。接眼光学部2の製造時に生じるばらつきを抑えるためには、大きな制約が生じ、結果として高価なものになってしまう。また、接眼光学部2の使用時には、例えば目の位置はユーザによってばらつきがあるため、光学素子21の位置と目の位置にばらつきが生じてしまう。これらのばらつきによって、映像光が瞳孔に正確に投射されないという問題が生じる。
 この問題を解決するために、映像投射部1は、光学素子21が有する特有の情報(ばらつきに関する情報)に基づいて、映像光の光軸の傾きを調整してもよい。このことについて図8を参照しつつ説明する。図8は、本技術の一実施形態に係る映像投射部1の手順の一例を示すフローチャートである。
 図8に示されるとおり、まず、ステップS21において、映像投射部1が備える識別情報取得部14は、光学素子21が有する特有の情報を取得する。当該特有の情報には、例えば焦点距離や、赤、緑、及び青のそれぞれの光の屈曲の度合いなどに関する情報が含まれる。
 本技術に係る映像表示装置10は、ユーザの水晶体のピント調節機能に影響されないように焦点距離を調整する必要がある。また、赤、緑、及び青のそれぞれの光は、正確に屈曲される必要がある。
 映像投射部1は、当該焦点距離や、光の屈曲の度合いなどに関する特有の情報に基づいて、映像光の光軸の傾きを調整できる。前記特有の情報は、接眼光学部2が備えるタグ22に含まれることができる。映像投射部1が備える識別情報取得部14は、タグ22を読み取ることにより、前記特有の情報を取得できる。
 次に、ステップS22において、映像投射部1が備える位置情報取得部12は、光学素子21が有する特有の情報を取得する。当該特有の情報には、例えば光学素子21の位置と目の位置とのずれの度合いなどに関する情報が含まれる。
 例えば複数のユーザに対して一律の接眼光学部2が配布されるとき、例えば目の位置はユーザによってばらつきがあるため、光学素子21の位置と目の位置とのばらつきを調整が生じてしまう。
 映像投射部1は、光学素子21の位置と目の位置に関する情報に基づいて、映像光の光軸の傾きを調整できる。前記特有の情報は、例えば撮像画像を処理することによって得られる。
 最後に、ステップS23において、映像投射部1が備える光軸調整部13は、光学素子21が有する特有の情報に基づいて、映像光の光軸の傾きを調整して映像光を投射する。
 このように、光学素子21が有するばらつきに関する情報を映像投射部1にフィードバックすることにより、映像光の光軸の傾きが補正される。その結果、映像表示装置10の性能が向上する。
[5.本技術の第5の実施形態(映像表示装置の例5)]
 映像投射部1は、映像を画面に表示する映像表示部を有することができる。このことについて図9を参照しつつ説明する。図9は、本技術の一実施形態に係る映像表示装置10の概念図である。
 図9に示されるとおり、本実施形態に係る映像投射部1は、映像を画面に表示する映像表示部18を有している。映像投射部1は、映像光4をユーザ3に向かって投射する。映像光4がユーザ3の瞳孔に投射されることによって再生される虚像5が、映像表示部18の画面に対して重畳表示される。
 なお、本技術の好ましい実施態様に従い、映像表示装置10は、他の実施形態において説明した接眼光学部(図示省略)を更に備えていてもよい。
 また、映像表示部18は、映像投射部1とは分離して配されてもよい。
 虚像5には、ユーザに関連付けられている映像が含まれる。映像表示部18には、ユーザに関連付けられていない共通の映像が表示される。ユーザに関連付けられる映像と、ユーザに関連付けられていない映像とが重畳表示される。これにより、映像表示装置10は、ユーザに対応して映像を柔軟に変化させることができる。また、映像表示装置10は、その映像が他人に盗み見られることを防止できる。
 例えば、映像表示部18には、ある場所の地図が表示されている。ユーザに関連付けられる虚像には、当該ユーザの目的地が表示されている。ある場所の地図と、前記ユーザの目的地と、が重畳表示される。これにより、前記ユーザは、前記目的地を他人に知られることなく、前記目的地に到達できる。
[6.本技術の第6の実施形態(映像表示システムの例1)]
 本技術の一実施形態に係る映像表示システムについて図10を参照しつつ説明する。図10は、本技術の一実施形態に係る映像表示システム1000の概念図である。なお、本技術の一実施形態に係る映像表示システム1000は、上述した他の実施形態に係る技術を利用できる。したがって、他の実施形態と同様の機能を有する構成要素については同様の名称及び符号を付して、詳細な説明は省略する。
 図10に示されるとおり、本技術の一実施形態に係る映像表示システム1000は、映像投射部1と、接眼光学部2と、を含んでいる。映像投射部1は、ユーザ3を識別する識別情報と、ユーザ3の頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する。接眼光学部2は、前記映像光を集中させてユーザ3の瞳孔に投射する光学素子を有する。映像投射部1及び接眼光学部2のそれぞれは、分離して配されている。
[7.本技術の第7の実施形態(映像表示システムの例2)]
 本技術の一実施形態に係る複数の映像投射部のそれぞれは、情報通信ネットワークを介して接続されていてよい。このことについて図11を参照しつつ説明する。図11は、本技術の一実施形態に係る映像表示システム1000の構成を示すブロック図である。
 図11に示されるとおり、複数の映像投射部1が、情報通信ネットワーク100を介して接続されている。映像投射部1は、例えばインフラとして提供され、例えば公共施設などに配置されることができる。
 情報通信ネットワーク100は、例えば、LAN(Local Area Network)又はWAN(Wide Area Network)等の有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)又は基地局を介した無線WAN(WWAN:Wireless Wide Area Network)等の無線ネットワーク、あるいはTCP/IP(Transmission Control Protocol/Internet Protocol)等の通信プロトコルを用いたインターネット等により実現できる。
 情報通信ネットワーク100を介して、前記識別情報及び/又は前記映像光に関する情報が通信されることができる。前記映像光に関する情報とは、例えば映像データであってよい。これにより、ユーザは、映像投射部1が配置されているあらゆる場所で映像を視認できる。また、この映像は必要に応じて更新されることができる。
 なお、映像投射部1の数は特に限定されない。また、情報通信ネットワーク100に接続されていない映像投射部1があってもよい。
 なお、本実施形態に係る映像表示システム1000は、例えばサーバなどのコンピュータ装置(図示省略)を含んでいてもよい。コンピュータ装置は、前記識別情報及び/又は前記映像光に関する情報を記憶でき、情報通信ネットワーク100を介して映像投射部1に提供できる。
 コンピュータ装置は、例えばカメラ、プロジェクタ、スマートフォン端末、タブレット端末、携帯電話端末、PDA(Personal Digital Assistant)、PC(Personal Computer)、携帯用音楽プレーヤー、携帯用ゲーム機、POSシステム、又はウェアラブル端末(例えばHMD:Head Mounted Display、メガネ型HMD、時計型端末、バンド型端末など)であってよい。
[8.本技術の第8の実施形態(映像表示方法)]
 本技術の一実施形態に係る映像表示方法は、コンピュータ装置が用いられることにより実現される。本技術の一実施形態に係る映像表示方法について図12を参照しつつ説明する。図12は、本技術の一実施形態に係る映像表示方法の手順の一例を示すフローチャートである。
 図12に示されるとおり、まずステップS1において、前記コンピュータ装置は、ユーザを識別する識別情報を得る。
 次に、ステップS2において、前記コンピュータ装置は、前記ユーザの頭部の位置を含む位置情報を得る。
 最後に、ステップS3において、前記コンピュータ装置は、前記識別情報に関連付けられる映像光を前記位置に向かって投射する。
 本実施形態に係る映像表示方法は、上述した他の実施形態に係る技術を利用してもよい。そのため、上記の実施形態において説明した技術については、再度の説明を省略する。
[9.本技術の実施例]
 本技術の実施例について説明する。なお、以下に説明する内容は一例であり、これ以外の実施例があってよい。
[(1)デジタルサイネージ]
 本技術の一実施形態に係る映像表示装置10(映像表示システム1000を含む。以下同様)は、例えばデジタルサイネージとして用いられることができる。
 例えば駅などにおいて、映像表示装置10は、ユーザに関連付けられる運行情報を含む映像を当該ユーザに提供できる。映像表示装置10は、例えばユーザの通勤経路に関する運行情報を含む映像を当該ユーザに提供できる。前記映像は、路線図に重畳表示されてよい。さらに、映像表示装置10は、ユーザが用いる言語(例えば英語、中国語、又は韓国語など)で運行情報を含む映像を当該ユーザに提供できる。
 例えば野外フェスティバルなどにおいて、映像表示装置10は、ユーザに関連付けられるアーティストに関する情報を含む映像を当該ユーザに提供できる。映像表示装置10は、例えばユーザが興味あるアーティストが演奏するスケジュール情報を含む映像を当該ユーザに提供できる。前記映像は、野外フェスティバルが開催される場所の地図に重畳表示されてよい。または、映像表示装置10は、特定のユーザに対して特別な映像を提供できる。
 例えば店舗などにおいて、映像表示装置10は、ユーザに関連付けられる商品情報を含む映像を当該ユーザに提供できる。映像表示装置10は、例えばユーザが購入する商品の配置場所に関する情報を含む映像を当該ユーザに提供できる。前記映像は、店舗のフロアマップに重畳表示されてよい。
 例えば飲食店などにおいて、映像表示装置10は、ユーザに関連付けられる食べ物情報を含む映像を当該ユーザに提供できる。映像表示装置10は、例えばユーザが有する食物アレルギーに関する食べ物情報や、ユーザが好む食べ物情報などを含む映像を当該ユーザに提供できる。前記映像は、メニューに重畳表示されてよい。
[(2)エージェント]
 本技術の一実施形態に係る映像表示装置10は、例えばエージェントとして用いられることができる。
 例えばロボットなどに設けられている映像表示装置10は、ユーザに関連付けられる情報を含む映像を当該ユーザに提供できる。映像表示装置10は、前記映像が他人に盗み見られることを防止できる。
 例えばカフェなどにおいて、映像表示装置10は、ユーザに関するチャット画面やメール画面などを含む映像を当該ユーザに提供できる。
 例えば企業の受付スペースなどにおいて、映像表示装置10は、ユーザの訪問相手に関する情報を含む映像を当該ユーザに提供できる。
 例えば商用展示スペースなどにおいて、映像表示装置10は、ユーザに応じた情報を含む映像を当該ユーザに提供できる。
 例えば自転車の運転中やトレーニングジムなどにおいて、映像表示装置10は、ユーザの視界をさえぎることなく映像を当該ユーザに提供できる。
 例えばスマートフォン端末やPCなどの使用中に、映像表示装置10は、サブスクリーンとして映像をユーザに提供できる。
 その他、映像表示装置10は、例えばインテリジェントスピーカーなどに用いられることができる。
[(3)セキュリティ]
 本技術の一実施形態に係る映像表示装置10は、例えば高度なセキュリティ要件が求められるシステムなどに用いられることができる。
 映像表示装置10は、例えば個人情報の入力をユーザに促すために用いられることができる。映像表示装置10は、個人情報の入力に必要な情報を含む映像を当該ユーザに提供できる。具体的な例を挙げると、市役所における書類への記入、病院における問診票への記入、宅配物を受領したことを証明する署名、店舗のレジにおけるクレジットカードの署名、カフェにおける商談、及び営業職の業務記録などに映像表示装置10が用いられることができる。
 映像表示装置10は、例えば暗証番号の入力をユーザに促すために用いられることができる。映像表示装置10は、例えば暗証番号の入力に必要な番号がランダムに配置されている映像を当該ユーザに提供できる。具体的な例を挙げると、銀行における現金自動預け払い機(ATM:Automated Teller Machine)、店舗のレジにおけるクレジットカード決済、駅などにおけるコインロッカー、スマートフォン端末などのロック解除などに映像表示装置10が用いられることができる。
 映像表示装置10は、例えば利用料金の精算に必要な情報などの入力をユーザに促すために用いられることができる。映像表示装置10は、ユーザに関する個人情報を含む映像と、暗証番号の入力に必要な番号がランダムに配置されている映像と、が重畳表示されるように当該ユーザに映像を提供できる。具体的な例を挙げると、医療機関における受付機や精算機、店舗における情報端末や精算機、レジャー施設における精算機などに映像表示装置10が用いられることができる。
 これ以外にも、本技術の主旨を逸脱しない限り、上記実施の形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりできる。
 なお、本明細書中に記載した効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
 なお、本技術は、以下のような構成をとることもできる。
[1]
 ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部を備える、映像表示装置。
[2]
 前記映像光は、前記ユーザの瞳孔に投射される、
 [1]に記載の映像表示装置。
[3]
 前記映像光は、コヒーレント光である、
 [1]又は[2]に記載の映像表示装置。
[4]
 前記映像光は、レーザー光である、
 [1]~[3]のいずれか一つに記載の映像表示装置。
[5]
 前記映像投射部は、前記ユーザが含まれる撮像画像に基づいて、前記位置情報を得る、
 [1]~[4]のいずれか一つに記載の映像表示装置。
[6]
 前記映像投射部は、前記ユーザに向かって送信された赤外線の送信時刻と、反射された前記赤外線の受信時刻と、の差分に基づいて、前記位置情報を得る、
 [1]~[5]のいずれか一つに記載の映像表示装置。
[7]
 前記映像投射部は、前記位置情報に基づいて、前記映像光の光軸の傾きを調整して前記映像光を投射する、
 [1]~[6]のいずれか一つに記載の映像表示装置。
[8]
 前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部を更に備える、
 [1]~[7]のいずれか一つに記載の映像表示装置。
[9]
 前記接眼光学部は、前記識別情報を含むタグを備える、
 [8]に記載の映像表示装置。
[10]
 前記光学素子は、前記映像光を回折する回折格子を有する、
 [8]又は[9]に記載の映像表示装置。
[11]
 前記光学素子は、前記映像光の光軸上に配される、
 [8]~[10]のいずれか一つに記載の映像表示装置。
[12]
 前記接眼光学部は、前記ユーザの頭部に装着される、
 [8]~[11]のいずれか一つに記載の映像表示装置。
[13]
 前記接眼光学部は、前記ユーザによって携帯される、
 [8]~[12]のいずれか一つに記載の映像表示装置。
[14]
 前記映像投射部は、前記光学素子が有する特有の情報に基づいて、前記映像光の光軸の傾きを調整して前記映像光を投射する、
 [8]~[13]のいずれか一つに記載の映像表示装置。
[15]
 前記映像投射部は、映像を画面に表示する映像表示部を有しており、
 前記映像光が前記ユーザの瞳孔に投射されることによって再生される虚像が、前記画面に対して重畳表示される、
 [1]~[14]のいずれか一つに記載の映像表示装置。
[16]
 ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部と、
 前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部と、を含んでおり、
 前記映像投射部及び前記接眼光学部のそれぞれは、分離して配されている、映像表示システム。
[17]
 複数の前記映像投射部のそれぞれは、情報通信ネットワークを介して接続されており、
 前記識別情報及び/又は前記映像光に関する情報が、前記情報通信ネットワークを介して通信されている、
 [16]に記載の映像表示システム。
[18]
 ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射することを含む、映像表示方法。
10 映像表示装置
1  映像投射部
11 投射光学系
12 位置情報取得部
13 光軸調整部
14 識別情報取得部
15 記憶部
16 通信部
17 制御部
18 映像表示部
2  接眼光学部
21 光学素子
22 タグ
3  ユーザ
4  映像光
5  虚像
100 情報通信ネットワーク
1000 映像表示システム
S3 識別情報に関連付けられる映像光を投射すること

Claims (18)

  1.  ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部を備える、映像表示装置。
  2.  前記映像光は、前記ユーザの瞳孔に投射される、
     請求項1に記載の映像表示装置。
  3.  前記映像光は、コヒーレント光である、
     請求項1に記載の映像表示装置。
  4.  前記映像光は、レーザー光である、
     請求項1に記載の映像表示装置。
  5.  前記映像投射部は、前記ユーザが含まれる撮像画像に基づいて、前記位置情報を得る、
     請求項1に記載の映像表示装置。
  6.  前記映像投射部は、前記ユーザに向かって送信された赤外線の送信時刻と、反射された前記赤外線の受信時刻と、の差分に基づいて、前記位置情報を得る、
     請求項1に記載の映像表示装置。
  7.  前記映像投射部は、前記位置情報に基づいて、前記映像光の光軸の傾きを調整して前記映像光を投射する、
     請求項1に記載の映像表示装置。
  8.  前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部を更に備える、
     請求項1に記載の映像表示装置。
  9.  前記接眼光学部は、前記識別情報を含むタグを備える、
     請求項8に記載の映像表示装置。
  10.  前記光学素子は、前記映像光を回折する回折格子を有する、
     請求項8に記載の映像表示装置。
  11.  前記光学素子は、前記映像光の光軸上に配される、
     請求項8に記載の映像表示装置。
  12.  前記接眼光学部は、前記ユーザの頭部に装着される、
     請求項8に記載の映像表示装置。
  13.  前記接眼光学部は、前記ユーザによって携帯される、
     請求項8に記載の映像表示装置。
  14.  前記映像投射部は、前記光学素子が有する特有の情報に基づいて、前記映像光の光軸の傾きを調整して前記映像光を投射する、
     請求項8に記載の映像表示装置。
  15.  前記映像投射部は、映像を画面に表示する映像表示部を有しており、
     前記映像光が前記ユーザの瞳孔に投射されることによって再生される虚像が、前記画面に対して重畳表示される、
     請求項1に記載の映像表示装置。
  16.  ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射する映像投射部と、
     前記映像光を集中させて前記ユーザの瞳孔に投射する光学素子を有する接眼光学部と、を含んでおり、
     前記映像投射部及び前記接眼光学部のそれぞれは、分離して配されている、映像表示システム。
  17.  複数の前記映像投射部のそれぞれは、情報通信ネットワークを介して接続されており、
     前記識別情報及び/又は前記映像光に関する情報が、前記情報通信ネットワークを介して通信されている、
     請求項16に記載の映像表示システム。
  18.  ユーザを識別する識別情報と、前記ユーザの頭部の位置を含む位置情報と、を得て、前記識別情報に関連付けられる映像光を前記位置に向かって投射することを含む、映像表示方法。
PCT/JP2021/021487 2020-07-21 2021-06-07 映像表示装置、映像表示システム、及び映像表示方法 WO2022018988A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/005,122 US20230262192A1 (en) 2020-07-21 2021-06-07 Video display device, video display system, and video display method
DE112021002510.4T DE112021002510T5 (de) 2020-07-21 2021-06-07 Videoanzeigevorrichtung, videoanzeigesystem und videoanzeigeverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-124441 2020-07-21
JP2020124441 2020-07-21

Publications (1)

Publication Number Publication Date
WO2022018988A1 true WO2022018988A1 (ja) 2022-01-27

Family

ID=79728664

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/021487 WO2022018988A1 (ja) 2020-07-21 2021-06-07 映像表示装置、映像表示システム、及び映像表示方法

Country Status (3)

Country Link
US (1) US20230262192A1 (ja)
DE (1) DE112021002510T5 (ja)
WO (1) WO2022018988A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07135623A (ja) * 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
JP2012168297A (ja) * 2011-02-10 2012-09-06 Sony Corp 表示装置
JP2018028579A (ja) * 2016-08-16 2018-02-22 日本電気株式会社 表示装置および表示方法
JP2018159740A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 表示制御装置、表示制御方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353422B1 (en) * 2000-03-31 2002-03-05 Stephen G. Perlman Virtual display system and method
JP4590916B2 (ja) 2004-04-26 2010-12-01 ブラザー工業株式会社 画像表示装置
TWI588535B (zh) * 2014-11-20 2017-06-21 英特爾股份有限公司 可調式焦距平面光學系統
CN106470332A (zh) * 2015-08-19 2017-03-01 深圳富泰宏精密工业有限公司 监视系统及具有该监视系统的可穿戴装置
TWI746805B (zh) * 2017-04-04 2021-11-21 國立大學法人福井大學 映像生成裝置及映像生成方法
US11209966B2 (en) * 2019-01-24 2021-12-28 Disney Enterprises, Inc. Extended on-screen gameplay via augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07135623A (ja) * 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
JP2012168297A (ja) * 2011-02-10 2012-09-06 Sony Corp 表示装置
JP2018028579A (ja) * 2016-08-16 2018-02-22 日本電気株式会社 表示装置および表示方法
JP2018159740A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 表示制御装置、表示制御方法およびプログラム

Also Published As

Publication number Publication date
DE112021002510T5 (de) 2023-03-02
US20230262192A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
US12266064B2 (en) Modification of peripheral content in world-locked see-through computer display systems
JP6632979B2 (ja) 拡張現実感のための方法とシステム
US8873149B2 (en) Projection optical system for coupling image light to a near-eye display
JP6144681B2 (ja) 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ
US20160196603A1 (en) Product augmentation and advertising in see through displays
US20180365492A1 (en) Methods and systems for wearable computing device
KR101737062B1 (ko) 바이저 헤드업 표시장치
Manduchi et al. (Computer) vision without sight
JP6476643B2 (ja) 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US20130083007A1 (en) Changing experience using personal a/v system
US20130083008A1 (en) Enriched experience using personal a/v system
US20110018903A1 (en) Augmented reality device for presenting virtual imagery registered to a viewed surface
CN105103082A (zh) 由人触发的全息提醒
JP2013521576A (ja) 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP6705124B2 (ja) 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US20170308157A1 (en) Head-mounted display device, display system, control method for head-mounted display device, and computer program
CN103076875A (zh) 具有全息对象的个人音频/视频系统
US20230296906A1 (en) Systems and methods for dynamic image processing
CN112204453B (zh) 影像投射系统、影像投射装置、影像显示光衍射光学元件、器具以及影像投射方法
WO2022018988A1 (ja) 映像表示装置、映像表示システム、及び映像表示方法
WO2022107523A1 (ja) 映像表示装置、映像表示システム、及び映像表示方法
JP2017199954A (ja) 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、およびコンピュータープログラム
JP2018097144A (ja) 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、およびコンピュータープログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21845620

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 21845620

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP