[go: up one dir, main page]

WO2018078777A1 - 空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法 - Google Patents

空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法 Download PDF

Info

Publication number
WO2018078777A1
WO2018078777A1 PCT/JP2016/081937 JP2016081937W WO2018078777A1 WO 2018078777 A1 WO2018078777 A1 WO 2018078777A1 JP 2016081937 W JP2016081937 W JP 2016081937W WO 2018078777 A1 WO2018078777 A1 WO 2018078777A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video display
aerial
light
input operation
Prior art date
Application number
PCT/JP2016/081937
Other languages
English (en)
French (fr)
Inventor
利樹 石井
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2016/081937 priority Critical patent/WO2018078777A1/ja
Publication of WO2018078777A1 publication Critical patent/WO2018078777A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • the present invention relates to an apparatus and a method for forming and displaying an image in the air.
  • Patent Document 1 states that “a display that displays a light-emitting image A, and an image A that is input with the image A of the display and forms an image B that is at least the same as the image A in one space. There is a description of “a member and an optical position input unit arranged in the one space where the image B is displayed (summary excerpt)”.
  • Patent Document 1 The apparatus described in Patent Document 1 is provided with a frame that forms optical position input means around an aerial image. Therefore, the user visually recognizes the aerial image in the frame, and the problem that the floating feeling of the aerial image is impaired remains.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that enables an input operation to an aerial image with a natural operation feeling without impairing the floating feeling of the aerial image.
  • an aerial video display system includes a video display device including a video display device that displays a video based on an acquired video signal on a screen, and video light including the video displayed on the screen in the air.
  • An image forming member that forms an image on a real image, a wavelength selective reflection member that is disposed on the image light incident surface side of the image forming member, has a property of transmitting visible light and reflecting non-visible light
  • An imaging device that receives the invisible light reflected by the detection object that performs an input operation and picks up a detection object image including a non-visible light image
  • the video display device includes: An operation based on the input operation content analyzed by the input operation determination unit and the input operation determination unit that acquires the detected object image, analyzes the detected object image, and analyzes the input operation content of the detected object
  • a main control unit that outputs a control signal; Generating a video signal reflecting the contents of the input operation according to the operation control signal, and outputting the generated video signal to the video display, wherein the wavelength selective reflection member has the real image at a viewing angle of the imaging device. It is arranged at the position to enter.
  • the figure which shows component arrangement seen from the side of the aerial image display system Diagram showing optical path of image light 1 is a block diagram showing the configuration of a video display device and a wavelength selective imaging device according to a first embodiment.
  • the figure which shows the optical characteristic of a wavelength selection reflection member Flow diagram showing operation of aerial video display system
  • the block diagram of the aerial image display system in 4th Embodiment The figure which shows component arrangement seen from the side of the aerial image display system Schematic diagram showing the relationship between focal length and imaging distance in the case of a reference focal length Schematic diagram showing the relationship between focal length and imaging distance when the focal length changes Schematic diagram showing the relationship between drive signals and video signals generated by the drive controller Schematic diagram showing the relationship between drive signals and video signals generated by the drive controller Flow diagram showing operation for stereoscopic display of aerial video in aerial video display system
  • FIG. 1 is a diagram showing a component arrangement as viewed from the side of the aerial video display system according to the first embodiment.
  • the aerial image display system shown in FIG. 1 displays an aerial image and detects an operation body that performs an input operation on the aerial image, and transmits image light (visible light) to form an image.
  • the detection light (invisible light) reflected by the operating body includes a wavelength selective imaging device 210 that reflects without imaging, and an image display device 200 and a holder 300 that holds the wavelength selective imaging device 210.
  • the operation body is used for performing an input operation, and may be of any type, such as a user's finger or hand, a pointer held by the user, or the like.
  • the video display device 200 analyzes an image obtained by imaging the operation body, detects the operation content indicated by the operation body, displays a video according to the operation content, or terminates the operation of the video display device 200. Since the operating body is a detection target when viewed from the video display device 200, it is hereinafter referred to as a detection target.
  • the holder 300 includes a first storage unit 301 that stores the video display device 200 and a second storage unit 302 that stores the wavelength selective imaging device 210.
  • the penetration rate of tablet terminals and mobile phones has increased, and the price has been reduced.
  • a camera is generally built on the same side as the display of the main body in order to photograph a user.
  • An inexpensive aerial image display system can be configured.
  • the aerial video display system according to the present embodiment can be configured by installing the wavelength selective imaging device 210 and the information terminal held by the user in the holder 300.
  • the video display device 200 includes a video display 204 of a liquid crystal panel on one surface of a casing, a light irradiator 205 that irradiates light having a wavelength used for capturing a detection target image, and an image pickup device including a visible light camera. 206. That is, the light irradiator 205 and the image pickup device 206 are disposed in the same plane as the video display device 204 of the video display device 200.
  • the wavelength selective imaging device 210 is installed on the surface of the wavelength selective imaging device 210 that faces the video display device 200, and an imaging member 211 that forms the image light emitted from the video display device 204 into an aerial image.
  • a wavelength selective reflection member 212 that transmits visible light and selectively reflects non-visible light is included. That is, the wavelength selective reflection member 212 is a member that selectively reflects light having a wavelength that is not used for displaying an aerial image.
  • FIG. 2 is a diagram showing an optical path of image light. The principle of forming an image in the air will be described with reference to FIG.
  • the video display 204 of the video display device 200 is arranged substantially parallel to the wavelength selective imaging device 210.
  • the wavelength selective imaging device 210 includes a mirror 102, a Fresnel lens 101 disposed on the mirror 102, and a wavelength selective reflection member 212 disposed on the Fresnel lens 101.
  • the mirror 102 and the Fresnel lens 101 are examples of the imaging member 211.
  • a configuration example using a Fresnel lens for thinning is shown, but a normal lens may be used.
  • the infrared light emitted from the light irradiator 205 is reflected by the wavelength selective reflection member 212 and illuminates the vicinity of the real image 103.
  • the wavelength selective reflection member 212 When an input operation is performed on the real image 103 by a user's finger or the like, a part of infrared light diffused by the finger or the like is reflected again by the wavelength selective reflection member 212 and enters the image pickup device 206, and the detected object image Is imaged. If the wavelength selective reflection member 212 is not provided, the detected object image is formed by the Fresnel lens 101, so that it is difficult to capture the detected object image by the imaging device 206.
  • the wavelength selective imaging device 210 can be configured to be thin. However, if the image display device 200 and the incident surface of the mirror 102 are not arranged in parallel, and the detected object image does not fall within the viewing angle of the image pickup device 206, the mirror 102 and the wavelength selective reflection member 212 are angled. The input image may be appropriately captured by the image capturing device 206.
  • an inner camera may be used as the image pickup device 206.
  • Some general-purpose portable terminal devices have an infrared cut filter built-in, but even if the infrared cut filter attenuates the infrared ray, the infrared ray that has passed through the infrared cut filter must be transmitted unless the infrared ray is completely blocked.
  • the detected object image can be captured by detection.
  • the detected object image may be captured using the infrared imaging mode.
  • the image display device 200 includes the light irradiator 205.
  • the video display device 200 may not include the light irradiator 205.
  • FIG. 3 is a block diagram showing the configuration of the video display device and the wavelength selective imaging device according to the first embodiment.
  • the video display device 200 includes a controller 209, a power source 202, a video display 204, a light irradiator 205, and an imager 206.
  • the controller 209 includes a main control unit 201, a video generation unit 203, and an input operation determination unit 207.
  • the video display device 200 sends an operation control signal to the video generation unit 203 by the main control unit 201.
  • the video information generated by the video generation unit 203 is displayed as a video on the screen of the video display 204.
  • Visible light is emitted from the screen of the video display 204. This visible light includes the image displayed on the screen. Therefore, in the following, visible light issued from the screen is referred to as image light.
  • the image light is imaged in the air by the imaging member 211 of the wavelength selective imaging device 210. Accordingly, the user visually recognizes the video displayed on the video display 204 as an aerial video.
  • the video display device 200 drives the light irradiator 205 to irradiate light with the main control unit 201 in order to image an operation with a finger or the like.
  • This light is preferably light having a wavelength that cannot be visually recognized by the user so as not to hinder the user's image recognition.
  • the light is infrared light.
  • Infrared light emitted from the light irradiator 205 is reflected by the wavelength selective reflection member 212 of the wavelength selective imaging device 210 and irradiated to a detection object, for example, a finger at the imaging position of the image. Part of the infrared light diffused by the finger is reflected again by the wavelength selective reflection member 212 and imaged by the imager 206 of the video display device 200.
  • the video display device 200 analyzes the detected object image of the finger by infrared light received by the imager 206 by the input operation determination unit 207, and determines which position of the video displayed at the imaging position is the finger. Is converted into coordinate information or the like indicating whether or not. This coordinate information may be expressed in relative coordinates with respect to the aerial image. For example, a known video for coordinate acquisition, for example, an aerial video showing a point, is displayed at the start of the input operation, and the video display device 200 prompts the user to touch the aerial video.
  • the main control unit 201 knows at which coordinates on the display surface of the video display 204 the known image for coordinate acquisition is displayed, the coordinates on the display surface are represented as P (x, y). To do.
  • a conversion matrix for converting the two-dimensional coordinate system of the detected object image into the two-dimensional screen coordinate system can be obtained by pointing the user to three or more points for calibration.
  • the input operation determination unit 207 performs the calculation of the above formula (1), and converts the coordinates indicated by the detected object image captured by the image capturing device 206 into the screen coordinate system on the video display device 204. Then, the detected object analyzes the instruction content of the input operation performed on the aerial video.
  • the video display device 200 sends the information analyzed by the input operation determination unit 207 to the main control unit 201, and the next video to be displayed based on the video displayed immediately before by the main control unit 201 and the information operated by the user on the video. Information is determined and an instruction is sent to the video generation unit 203. Thereafter, the same operation is repeated until an end instruction is issued.
  • the video generation unit 203 generates a menu screen for displaying a moving image, irradiates it as video light from the video display 204, and displays the menu screen as an aerial video. It is assumed that the menu screen includes a playback button.
  • the input operation determination unit 207 acquires the coordinates of the screen coordinate system of the menu screen from the video display 204 in advance.
  • the image pickup device 206 captures an infrared light image of the finger touching the playback button.
  • the input operation determination unit 207 obtains the coordinates of the finger indicated by the infrared light image by the above formula (1), analyzes that the finger is an operation of touching the playback button, and outputs the analysis result to the main control unit 201. To do.
  • the main control unit 201 outputs to the video generation unit 203 an operation control signal for generating an operation indicated by the analysis result, that is, a video in which a moving image is reproduced.
  • the video generation unit 203 generates a video showing the playback video, the video light indicating the playback video is emitted from the video display 204, and the playback video is displayed in the air.
  • Each component included in the video display device 200 is powered by a power source 202 in the video display device 200.
  • the video display device 200 and the wavelength selective imaging device 210 have been described as separate configurations.
  • the stability of the arrangement is improved. May be.
  • the video display device 200 may be divided into a video display 204 and an image pickup device 206.
  • the light irradiator 205 is used to accurately recognize the finger of the user performing the input operation.
  • the light irradiator 205 is not necessarily required and is included in the external environment light. May be used, or irradiation may be performed using a part of the wavelength included in the video display.
  • the video may be generated internally, or may be supplied from outside by wired or wireless.
  • FIG. 4 is a diagram showing the optical characteristics of the wavelength selective reflection member 212.
  • the horizontal axis of the graph of FIG. 4 is the wavelength, and the solid line represents the reflectance.
  • Distributions drawn by dotted lines at positions corresponding to blue, green, red, and infrared in the graph schematically represent the intensity distribution of the wavelengths output from the video display 204 and the light irradiator 205.
  • the reflectance is as small as possible so that it can be transmitted.
  • the image on the image display 204 can pass through the wavelength selective reflection member 212 and be imaged as the real image 103 by the imaging member 211.
  • the reflectance is as high as possible for infrared light having a wavelength longer than that of red. For this reason, in FIG. 1, since infrared light does not pass through the imaging member 211, a detection object image can be acquired.
  • FIG. 5 is a flowchart showing the operation of the aerial video display system.
  • the main control unit 201 initializes each processing unit and processor of the video display device 200 such as the input operation determination unit 207.
  • step S ⁇ b> 502 the main control unit 201 causes the video generation unit 203 to generate a video and displays the video on the screen of the video display 204. Thereby, image light is irradiated.
  • step S503 the main control unit 201 causes the light irradiator 205 to emit infrared light. Note that when using external light, this step and step S505 described later may be omitted.
  • step S504 the main control unit 201 causes the image pickup device 206 to pick up a detected object image.
  • step S505 the main control unit 201 causes the light irradiator 205 to stop infrared light irradiation.
  • the input operation determination unit 207 may increase the determination accuracy of the input operation by extracting only the infrared light component corresponding to the subject image from the captured subject image.
  • the input operation determination unit 207 may identify a specularly reflected portion of the captured image, extract only the specific portion, and reduce the processing.
  • the input operation determination unit 207 may increase the determination accuracy of the input operation by enlarging and capturing the range in which the image of the input operation is reflected using the optical zoom function of the imager 206.
  • step S ⁇ b> 507 the input operation determination unit 207 calculates the coordinates of the detected object image or analyzes the movement of the detected object image (corresponding to a change in coordinates), and the user performs the operation based on the detected object image.
  • the content of the input operation is determined, and information indicating the content of the input operation is output to the main control unit 201.
  • step S508 the main control unit 201 determines whether the operation is an end operation from the video displayed on the video display unit 204 and the input operation information recognized by the input operation determination unit 207. If it is determined that the operation is to end (S508 / Yes), the main control unit 201 stops displaying the video and ends.
  • the main control unit 201 does not determine that the operation is an end operation (S508 / No)
  • the video generation unit 203 generates a video to be displayed next in S509, and the video display 204 displays the video in S502.
  • FIG. 5 shows the operation of stopping the irradiation of the infrared light every time the object image is captured.
  • the infrared light is irradiated at the initialization stage. Irradiation of infrared light may be stopped when an end operation is performed.
  • movement which performs image display and imaging of a to-be-detected body image alternately was shown, it does not necessarily need to perform alternately, but after repeating the image display of multiple times, the imaging of the to-be-detected body image is performed once.
  • the detected object image may be captured a plurality of times for each image display.
  • the detected object image composed of the invisible light image reflected by the detected object is captured, and the input operation performed by the detected object is analyzed to perform the following processing.
  • the display change or end operation of the aerial video can be performed, so that there is no need to arrange a member for detecting an input operation performed on the aerial video around the aerial video. Therefore, the member for detecting the input operation does not hinder the viewing of the aerial image, and the floating feeling of the aerial image can be emphasized.
  • FIG. 6 is a diagram showing a component arrangement as viewed from the side of the aerial video display system according to the second embodiment.
  • a two-plane orthogonal reflector 601 is used as the imaging member 211.
  • the two-surface orthogonal reflector 601 includes a mirror 601b and a half mirror 601a having a reflection surface orthogonal to the reflection surface of the mirror 601b.
  • Light that diffuses from a certain point and enters the two-surface orthogonal reflector 601 is Reflected twice and imaged at a plane symmetric with the two-plane orthogonal reflector 601.
  • the infrared light emitted from the light irradiator 205 is reflected by the wavelength selective reflection member 212 to illuminate the user's finger or the like near the real image.
  • a part of infrared light diffused by a finger or the like can be reflected by the wavelength selective reflection member 212 and imaged by the imager 206.
  • infrared light that is not reflected by the mirror 601b of the two-plane orthogonal reflector 601 but transmitted through the half mirror 601a may be used, or the two-plane orthogonal reflector 601 is transmitted without reflecting the infrared light. You may comprise using the raw material to do.
  • the wavelength selective reflection member 212 may reflect only infrared light, or may be a normal mirror that reflects both visible light and infrared light. When only infrared light is reflected, an effect of being visually transparent is obtained, and when both infrared light and visible light are reflected, an effect of increasing a viewing angle of a real image formed by the two-plane orthogonal reflector 601 is obtained. Is obtained.
  • the wavelength selective reflection member 212 may be disposed so as to be inclined with respect to the incident surface of the mirror 601b of the two-plane orthogonal reflector 601 so that an input image can be appropriately captured by the imager 206.
  • an aerial image can be displayed and an input operation on the aerial image can be realized.
  • the two-plane orthogonal reflector does not have a holder and can be installed independently, the type of the video display device can be changed without being restricted by the size of the first accommodating portion of the holder. For example, even a relatively small device such as a smartphone or a relatively large device such as a tablet terminal can be used as a component of an aerial video display system.
  • FIG. 7 is a diagram showing the component arrangement as viewed from the side of the aerial video display system in the third embodiment.
  • a half mirror 701 and a retroreflective sheet 702 are used as the imaging member 211.
  • the retroreflective sheet 702 has fine corner cubes and glass beads spread on the surface, and can reflect light incident on the sheet in a direction opposite to the incident direction.
  • the image displayed on the image display 204 reflects half of the amount of light by the half mirror 701 and is transmitted through the wavelength selective reflection member 212, retroreflected by the retroreflective sheet 702, and again through the wavelength selective reflection member 212, Half of the amount of light passes through the half mirror 701 and forms an image at a position symmetrical to the half mirror 701.
  • the wavelength selective reflection member 212 substantially parallel to the retroreflection sheet 702 on the incident surface side of the retroreflection sheet 702, the infrared light emitted from the light irradiator 205 is transmitted by the wavelength selection reflection member 212.
  • the user's finger or the like near the real image is reflected and illuminated, and a part of infrared light diffused by the finger or the like is reflected by the wavelength selective reflection member 212 and can be imaged by the imager 206.
  • the wavelength selective reflection member 212 may be arranged to be inclined with respect to the upper surface of the retroreflective sheet 702 so that an input image can be appropriately captured by the imager 206.
  • an aerial image can be displayed and an input operation for the aerial image can be realized.
  • FIG. 8 is a block diagram of the aerial video display system according to the fourth embodiment, and a description of blocks common to FIG. 3 of the first embodiment is omitted.
  • the aerial image is a plane image, but in the fourth embodiment, the aerial image is displayed in a three-dimensional manner by changing the image formation position of the aerial image and changing the image according to the image formation position as described later. To do.
  • the video display device 200a according to the fourth embodiment further includes a drive controller 801 in the video display device 200 according to the first embodiment.
  • the wavelength selective imaging apparatus 210a according to the fourth embodiment further includes a focal length varying device 802 in addition to the wavelength selective imaging apparatus 210 according to the first embodiment.
  • the main control unit 201 sends information on a position where an aerial image is formed to the drive controller 801.
  • the drive controller 801 generates a drive waveform from information on the position to be imaged, and drives the variable focal length device 802 of the wavelength selective imaging device 210.
  • the focal length varying device 802 is composed of components whose focal length changes according to the voltage
  • the drive controller 801 generates a voltage waveform that provides a desired focal length.
  • the focal length varying device 802 changes the focal length based on the drive waveform and the power received from the power source 202 of the video display device 200.
  • the main control unit 201 When the main control unit 201 sends an operation control signal to the video generation unit 203, the main control unit 201 also sends information on the position at which the aerial video is formed, and generates a video corresponding to the position at which the video generation unit 203 forms an image, thereby creating Aerial images.
  • a power source may be provided in the wavelength selective imaging apparatus 210 and the focal length varying apparatus 802 may be driven.
  • the drive controller 801 and the focal length variable device 802 may be connected by a control line to send information, or the image display device 200 and the wavelength selective imaging device 210 are each provided with a wireless transmission device to send information. Also good.
  • the wavelength selective imaging device 210 is provided with a drive controller 801 and repeats a periodic focal length changing operation irrespective of the control of the video display device 200, for example, displays a marker corresponding to the focal length, and performs imaging.
  • the image display device 200 may be controlled to automatically synchronize with the wavelength selective imaging device 210 and display an image by imaging the marker by the device 206.
  • the video display device 200 and the wavelength selective imaging device 210 have been described as separate configurations. However, as in the first embodiment, these may be integrated, or the video display device 200a may display video.
  • the imager 204 and the imager 206 may be separately configured.
  • FIG. 9 is a diagram showing the arrangement of components viewed from the side of the aerial image display system according to the fourth embodiment. The principle of image formation in the air will be described with reference to FIG.
  • variable focal length device 802 is disposed between the wavelength selective reflection member 212 and the Fresnel lens 101.
  • a first contact 311 that is electrically connected to the video display device 200a is provided at the bottom of the first housing 301 of the holder 300a.
  • a second contact 312 that is electrically connected to the wavelength selective imaging device 210 a is provided at the bottom of the second housing portion 302.
  • the first contact 311 and the second contact 312 are electrically connected by the control line 313 and the power line 314, respectively.
  • the drive signal output from the video display device 200a is output to the focal length variable device 802 through the control line 313.
  • power is supplied from the video display device 200 a to the variable focal length device 802 via the power line 314.
  • the focal length varying device 802 As an example of the focal length varying device 802, a configuration including a Fresnel lens, a dual-frequency liquid crystal, and two transparent electrodes sandwiching these may be used. Then, the focal length may be changed based on the frequency of the applied voltage. (See, for example, Shiro Suyama, “Three-dimensional display method using a high-speed dual-frequency liquid crystal lens” Optical Volume 30 No. 1 (2001))
  • the image displayed by the image display 204 is affected by the refraction of the focal length varying device 802 in addition to the refraction of the Fresnel lens 101, so that the image forming position changes.
  • FIG. 9 shows an example in which the imaging position is changed in four stages of real images 902a, 902b, 902b, and 902d as an example.
  • the user recognizes the image as a three-dimensional aerial image by changing the image display according to the position where the image is formed.
  • FIG. 9 shows a configuration including the Fresnel lens 101 and the mirror 102 as an example of the imaging member 211, the two-plane orthogonal reflector 601 (see FIG. 6) as in the second embodiment, or the configuration of the third embodiment.
  • an optical component is used so that the focal length varying device 802 acts on a wavelength displayed as an aerial image and the focal length varying device 802 does not act on infrared light for recognition of an input operation. Or wavelength selectivity.
  • the wavelength selective reflection member 212, the light irradiator 205, and the imager 206 are not necessary for the purpose of simply displaying a three-dimensional aerial image without recognizing the input operation. In this case, it is also possible to use only the Fresnel lens 101 as the imaging member 211 and form a real image on the opposite side of the Fresnel lens 101.
  • FIG. 10 is a schematic diagram showing the relationship between the focal length and the imaging distance.
  • FIG. 10A shows a reference focal length
  • FIG. 10B shows a case where the focal length changes.
  • f 0 is the reference focal length
  • x 0 is the distance between the focal position on the image side of the lens and the position of the image displayed by the image display 204
  • y is the height from the optical axis of the image
  • x 0 ′ represents the distance between the focal position on the real image side of the lens and the position of the real image
  • y ′ represents the height of the real image from the optical axis.
  • FIG. 10A f 0 is the reference focal length
  • x 0 is the distance between the focal position on the image side of the lens and the position of the image displayed by the image display 204
  • y is the height from the optical axis of the image
  • x 0 ′ represents the distance between the focal position on the real image side of the lens and the position of the real image
  • f 1 is a variable focal length
  • x 1 is the distance between the focal position on the image side of the lens and the position of the image displayed on the video display 204
  • x 1 ′ is the focal position on the real image side of the lens.
  • the distance between the real image position is defined as the horizontal magnification m 0 and is expressed by the equation (2).
  • Formula (3) which is Newton's lens formula, is derived from the relationship between x 0 , x 0 ′, and f 0 in Formula (2).
  • FIG. 11 is a schematic diagram showing the relationship between the drive signal generated by the drive controller 801 and the video signal.
  • the focal length and the real image position are proportional to the drive signal.
  • a 3D image at a certain time is displayed by changing the real image position in 4 frames, and the 3D image every 4 frames is referred to as one unit frame.
  • the number of the video signal in the figure represents the number of unit frames ⁇ the real image position.
  • the range in which the real image position is changed is divided into four, and an image of the average real image position in each real image position range is output as an image of the real image position. After outputting four frames of video, that is, one unit frame, the real image position is returned and the operation of changing the real image position is repeated again.
  • FIG. 12 is a schematic diagram showing the relationship between the drive signal generated by the drive controller 801 and the video signal, and the drive signal is an example of a sine wave.
  • FIG. 13 is a flowchart showing an operation for stereoscopically displaying an aerial image in the aerial image display system.
  • step S1201 the main control unit 201 initializes each processing unit and processing unit of the video display device 200.
  • the main control unit 201 represents the real image position by i.
  • step S1202 the video generation unit 203 generates a video signal corresponding to the real image position i.
  • step S1203 the drive controller 801 controls the focal length varying device 802 so that the focal length corresponds to the real image position i.
  • step S1204 the video display 204 displays a video.
  • step S1205 the input operation determination unit 207 performs input operation determination processing.
  • the input operation can be recognized by performing the processing corresponding to S503 to S507 in FIG. 5 described in the first embodiment.
  • step S1206 the main control unit 201 changes the real image position i to the next position.
  • step S1207 the main control unit 201 determines whether the operation is an end operation from the video displayed on the video display unit 204 and the input operation information recognized by the input operation determination unit 207. If the main control unit 201 determines that the operation is an end operation (S1207 / Yes), the video display is stopped and the process ends.
  • the main control unit 201 determines whether the real image position i is larger than the number n of divisions of the real image position. If larger (S1208 / Yes), the main control unit 201 initializes the real image position in S1209 and returns to S1202. If not (S1208 / No), the process returns to S1202. Thereafter, the operation is repeated.
  • the recognition of the input operation does not necessarily need to be synchronized with the video signal, and may be performed as a separate process, or may be performed at a cycle faster than the frame or a cycle slower than every several frames.
  • a TOF (Time of Flight) system camera since it is a three-dimensional aerial image, it is preferable to determine the input operation in three dimensions. For this reason, a TOF (Time of Flight) system camera, a stereo camera, a camera that determines the distance from the in-focus position by changing the focal length, and a camera that uses computational photography are three-dimensional measuring devices as the imager 206 The distance may be determined from the difference in the enlargement / reduction ratio from the reference finger size even with information captured by a normal camera.
  • TOF Time of Flight
  • a drive signal for changing the focal length is output from the video display device to the wavelength selective imaging device via the control line in the holder, but the drive signal is wirelessly communicated regardless of the presence or absence of the holder. May be transmitted to the wavelength selective imaging apparatus.
  • the wavelength selective reflection member is integrally formed on the incident surface of the imaging member.
  • the imaging member and the wavelength selective reflection member are configured separately. May be.
  • the wavelength selective reflection member may be formed in a film shape and affixed to the image light incident surface of the imaging member.
  • the wavelength selective reflection member may be formed in a plate shape, and the user may install it on the image light incident surface side of the imaging member when displaying an aerial image.
  • 200 video display device
  • 200a video display device
  • 210 wavelength selective imaging device
  • 210a wavelength selective imaging device
  • 211 wavelength selective reflecting member
  • 212 imaging member
  • 801 drive controller
  • 802 focus Variable distance device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)

Abstract

空中映像表示システムは、取得した映像信号に基づく映像を画面に表示する映像表示器を備えた映像表示装置と、画面に表示された映像を含む映像光を空中で実像に結像させる結像部材と、結像部材における映像光の入射面側に配置され、可視光は透過しかつ非可視光は反射する特性を有する波長選択反射部材と、実像に対して入力操作を行う被検出体が反射した非可視光を受光し、非可視光像からなる被検出体像を撮像する撮像器と、を備える。映像表示装置は、撮像器から被検出体像を取得し、被検出体像を解析して被検出体の入力操作内容を解析する入力操作判定部と、入力操作判定部が解析した入力操作内容に基づく動作制御信号を出力する主制御部と、動作制御信号に従って入力操作内容を反映した映像信号を生成し、映像表示器に出力する映像生成部と、を含み、波長選択反射部材は、実像が撮像器の視野角に入る位置に配置される。

Description

空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法
 本発明は、映像を空中に結像させて表示する装置及び方法に関する。
 特許文献1には、「発光性を有する画像Aを表示する表示器と、前記表示器の画像Aを入力し前記画像Aと少なくとも要部が同一の画像Bを一空間に結像する結像部材と、前記画像Bが表示される前記一空間に配置された光学式の位置入力手段とを有する(要約抜粋)」との記載がある。
国際公開第2014/038303号
 特許文献1に記載の装置は、空中映像の周囲に光学式の位置入力手段を形成する枠が設置される。そのためユーザは枠の中に空中映像を視認することとなり、空中映像が有する浮遊感が損なわれるという課題が残る。
 本発明は上記課題に鑑みてなされたものであり、空中映像の浮遊感を損ねることなく、自然な操作感で空中映像への入力操作が可能な技術を提供することを目的とする。
 上記課題は、例えば請求項の範囲に記載の発明により解決される。その一例をあげるならば、空中映像表示システムは、取得した映像信号に基づく映像を画面に表示する映像表示器を備えた映像表示装置と、前記画面に表示された映像を含む映像光を空中で実像に結像させる結像部材と、前記結像部材における前記映像光の入射面側に配置され、可視光は透過しかつ非可視光は反射する特性を有する波長選択反射部材と、前記実像に対して入力操作を行う被検出体が反射した前記非可視光を受光し、非可視光像からなる被検出体像を撮像する撮像器と、を備え、前記映像表示装置は、前記撮像器から前記被検出体像を取得し、当該被検出体像を解析して前記被検出体の入力操作内容を解析する入力操作判定部と、前記入力操作判定部が解析した前記入力操作内容に基づく動作制御信号を出力する主制御部と、前記動作制御信号に従って前記入力操作内容を反映した映像信号を生成し、前記映像表示器に出力する映像生成部と、を含み、前記波長選択反射部材は、前記実像が前記撮像器の視野角に入る位置に配置される、ことを特徴とする。
 本発明によれば、空中映像の浮遊感を損ねることなく、自然な操作感で空中映像への入力操作が可能な技術を提供することができる。なお、上述した以外の目的、構成、効果は以下の実施形態において明らかにされる。
空中映像表示システムの側面から見た部品配置を示す図 映像光の光路を示す図 第1実施形態に係る映像表示装置及び波長選択結像装置の構成を示すブロック図 波長選択反射部材の光学特性を示す図 空中映像表示システムの動作を表すフロー図 第2実施形態における空中映像表示システムの側面から見た部品配置を示す図 第3実施形態における空中映像表示システムの側面から見た部品配置を示す図 第4実施形態における空中映像表示システムのブロック図 空中映像表示システムの側面から見た部品配置を示す図 基準となる焦点距離の場合の焦点距離と結像距離の関係を示す模式図 焦点距離が変化した場合の焦点距離と結像距離の関係を示す模式図 駆動制御器で生成する駆動信号と映像信号の関係を示す模式図 駆動制御器で生成する駆動信号と映像信号の関係を示す模式図 空中映像表示システムにおいて空中映像を立体的に表示するための動作を表すフロー図
<第1実施形態>
 本発明における第1実施形態について説明する。図1は第1実施形態に係る空中映像表示システムの側面から見た部品配置を示す図である。
 図1に示す空中映像表示システムは、空中映像を表示すると共にその空中映像に対して入力操作を行う操作体を検出する映像表示装置200と、映像光(可視光)は透過させて結像させ、操作体が反射した検出光(非可視光)は結像させることなく反射する波長選択結像装置210と、映像表示装置200及び波長選択結像装置210を保持するホルダー300とを含む。上記操作体とは入力操作を行うものであり、例えばユーザの指や手、ユーザが把持したポインタ等、その種類は問わない。映像表示装置200は操作体を撮像した像を解析し、操作体が示す操作内容を検出して操作内容に応じた映像を表示させたり、映像表示装置200の動作を終了させたりする。操作体は映像表示装置200から見ると検出対象物となるので、以下では被検出体という。
 ホルダー300は、映像表示装置200を収容する第1収容部301と、波長選択結像装置210を収容する第2収容部302とを備える。
 近年、タブレット端末や携帯電話は普及率が拡大し、低価格化が進んでいる。これらの情報端末では、ユーザを撮影するために本体のディスプレイと同一面側にカメラを内蔵することが一般的になってきているため、映像表示装置200をこれらの情報端末で構成することにより低価格な空中映像表示システムを構成することができる。この場合、波長選択結像装置210と、ユーザが保有する情報端末をホルダー300に設置することで、本実施形態に係る空中映像表示システムを構成することができる。
 映像表示装置200は、筐体の一表面に液晶パネルの映像表示器204と、被検出体像を撮像するために用いる波長の光を照射する光照射器205と、可視光カメラからなる撮像器206とを備える。つまり、光照射器205と撮像器206は映像表示装置200の映像表示器204と同一面内に配置される。
 波長選択結像装置210は、映像表示器204から照射された映像光を空中映像に結像させる結像部材211と、波長選択結像装置210において映像表示装置200に対向する面に設置され、可視光は透過し、非可視光は選択的に反射する波長選択反射部材212とを含む。すなわち、波長選択反射部材212は空中映像の表示には用いない波長の光を選択的に反射する部材である。
 図2は映像光の光路を示す図である。図2を用いて空中に映像が結像する原理を説明する。
 映像表示装置200の映像表示器204は波長選択結像装置210とほぼ平行に配置される。波長選択結像装置210は、ミラー102と、ミラー102上に配置されたフレネルレンズ101と、フレネルレンズ101上に配置された波長選択反射部材212を含んで構成される。ミラー102とフレネルレンズ101とは結像部材211の一例であり、本実施形態では薄型化のためにフレネルレンズを用いた構成例を示したが、通常のレンズを用いても構わない。
 映像表示器204の画面に映像が表示されると画面からは映像光が発光される。映像光は波長選択反射部材212を透過し、フレネルレンズ101で屈折し、ミラー102で反射する。反射した映像光は、再度、フレネルレンズ101で屈折し、波長選択反射部材212を透過し、空中に実像103として結像する。ユーザは実像103を見ることにより、空中映像として認識する。
 図1に戻り、実像に対して操作入力を行う被検出体像を撮像する原理を説明する。
 光照射器205から出射した赤外光は、波長選択反射部材212により反射され実像103の近傍を照らす。
 実像103に対するユーザの手指等による入力操作があった場合には、手指等で拡散した赤外光の一部が再度波長選択反射部材212で反射されて撮像器206に入射し、被検出体像が撮像される。仮に波長選択反射部材212が無い場合には、被検出体像がフレネルレンズ101で結像してしまうため、撮像器206で被検出体像として撮像することが難しい。
 波長選択反射部材212はミラー102の反射面に対して平行に配置すると波長選択結像装置210を薄型で構成できる。ただし、映像表示装置200とミラー102の入射面とを平行ではない配置にし、被検出体像が撮像器206の視野角に入らなくなる場合には、ミラー102と波長選択反射部材212に角度をつけて配置し、入力画像が適切に撮像器206で撮像できるようにしてもよい。
 上記映像表示装置200として、汎用の携帯端末装置、例えばスマートフォンやタブレット端末を用いる場合、撮像器206としてインナーカメラを用いてもよい。汎用の携帯端末装置には赤外線カットフィルタが内蔵されているものもあるが、赤外線カットフィルタにより赤外線が減衰することはあっても、完全に赤外線が遮蔽されない限り、赤外線カットフィルタを透過した赤外線を検出して被検出体像を撮像することができる。
 また、携帯端末装置に赤外線撮像モードと可視光撮像モードとがある場合には、赤外線撮像モードを用いて被検出体像を撮像してもよい。
 更に、本実施形態では映像表示装置200に光照射器205を備えたが、外光に含まれる赤外光を用いて被検出体像を撮像する場合、即ち外光に含まれる赤外光のうち、被検出体像が反射した赤外光を撮像器206で撮像する場合には、映像表示装置200は光照射器205を備えなくてもよい。
 図3は、第1実施形態に係る映像表示装置及び波長選択結像装置の構成を示すブロック図である。
 映像表示装置200は、制御器209、電源202、映像表示器204、光照射器205、及び撮像器206を含む。制御器209は、主制御部201、映像生成部203、及び入力操作判定部207を含む。
 映像表示装置200は主制御部201により映像生成部203に動作制御信号を送る。映像生成部203により生成した映像情報は映像表示器204の画面に映像として表示される。映像表示器204の画面から可視光が発光される。この可視光には画面に表示されている映像を含まれる。よって、以下では画面から発行する可視光を映像光と称する。映像光は波長選択結像装置210の結像部材211によって空中に結像する。これにより、ユーザは映像表示器204に表示された映像を、空中映像として視認する。
 映像表示と同時に、映像表示装置200は主制御部201により、手指等による操作を撮像するために光照射器205を駆動し、光照射する。この光はユーザの映像認識を妨げないためにユーザが視認できない波長の光であることが望ましく、ここでは一例として赤外光であるとして説明する。
 光照射器205から照射された赤外光は、波長選択結像装置210の波長選択反射部材212によって反射し、映像の結像位置にある被検出体、例えば手指照射する。手指で拡散した赤外光の一部は再度、波長選択反射部材212で反射され、映像表示装置200の撮像器206によって撮像される。
 映像表示装置200は撮像器206で赤外光を受光して撮像した手指の赤外光による被検出体像を入力操作判定部207により解析し、結像位置に表示した映像のどの位置を手指が指し示しているかを示す座標情報等に変換する。この座標情報は、空中映像に対する相対座標で表されてもよい。例えば、入力操作の開始時に座標取得用の既知の映像、例えば点を示す空中映像を表示させ、映像表示装置200からユーザに対して空中映像にタッチをするよう促す。ここで、座標取得用の既知の映像は、映像表示器204の表示面のどの座標に表示されているかが主制御部201からは分かるので、表示面上の座標をP(x,y)とする。この既知の映像をタッチした手指の赤外線像からなる被検出体像を撮像し、その座標をP’(s,t)とすると、下式(1)により、被検出体像の座標系を映像表示器の画面座標系に変換するための変換式が得られる。
Figure JPOXMLDOC01-appb-M000002
 上記において、キャリブレーション用の点を3点以上ユーザに指し示すことにより、被検出体像の2次元座標系を、2次元画面座標系に変換する変換行列を求めることができる。
 入力操作判定部207は、上記式(1)の演算を行い、撮像器206が撮像した被検出体像が指示した座標を映像表示器204上の画面座標系に変換する。そして、被検出体が、空中映像に対して行った入力操作の指示内容を解析する。
 映像表示装置200は入力操作判定部207で解析した情報を主制御部201に送り、主制御部201により直前に表示した映像とそれに対してユーザが操作した情報を基に、次に表示する映像情報を判定し、映像生成部203に指示を送る。以降は、終了指示があるまで、同様の動作を繰り返す。
 入力操作の一例として、例えば、動画を表示させるためのメニュー画面を映像生成部203が生成し、映像表示器204から映像光として照射し、メニュー画面を空中映像表示したとする。メニュー画面には再生ボタンが含まれているものとする。入力操作判定部207は、映像表示器204からメニュー画面の画面座標系の座標を予め取得しておく。ユーザが空中映像表示されたメニュー画面の再生ボタンに触れる操作をすると、撮像器206が再生ボタンに触れた手指の赤外光像を撮像する。入力操作判定部207は、上記式(1)により赤外光像が示す手指の座標を求め、その手指が再生ボタンに触れる操作であることと解析し、その解析結果を主制御部201へ出力する。主制御部201は、解析結果が示す操作、即ち動画を再生させた映像を生成させるための動作制御信号を映像生成部203に出力する。映像生成部203は、再生動画を示す映像を生成し、映像表示器204から再生動画を示す映像光が射出され、再生動画が空中映像表示される。
 映像表示装置200に含まれる各構成要素は、いずれも映像表示装置200内の電源202によって電源が供給される。
 上記の説明では映像表示装置200と波長選択結像装置210を別々の構成として説明したが、これらを一体の構成として映像表示装置200が固定された空中映像表示システムとして、配置の安定性を高めてもよい。
 また、映像表示装置200を映像表示器204と撮像器206とに分けた構成としてもよい。
 また、上記説明では入力操作をするユーザの手指を精度良く認識するために光照射器205を用いた構成で説明したが、光照射器205は必ずしも必要な構成ではなく、外部の環境光に含まれる光を用いても構わないし、映像表示器に含まれる波長の一部を用いて照射しても構わない。
 また、映像は内部で生成しても良いし、外部から有線もしくは無線で供給しても構わない。
 図4は波長選択反射部材212の光学特性を示す図である。図4のグラフの横軸は波長であり、実線で反射率を表す。グラフ中の青、緑、赤、赤外線に対応する位置に点線で描かれている分布は映像表示器204及び光照射器205から出力されている波長の強度分布を模擬的に表す。映像表示に用いる青、緑、赤に対応する波長に対しては可能な限り小さい反射率とし、透過するようにする。このため、図1及び図2において映像表示器204の映像は波長選択反射部材212を透過し、結像部材211によって実像103として結像させることができる。赤色よりも波長が長い赤外光に対しては可能な限り高い反射率とする。このため、図1において赤外光は結像部材211を介さないため、被検出体像を取得することができる。
 なお、前述の通り、必ずしも赤外光を反射する特性とする必要は無く、外部の環境光に含まれる光や映像表示器に含まれる波長の一部のみを反射させ、入力操作の認識をする構成としてもよい。
 図5は空中映像表示システムの動作を表すフロー図である。
 S501で主制御部201は、入力操作判定部207等、映像表示装置200の各処理部、処理器を初期化する。
 S502で主制御部201は、映像生成部203に映像を生成させ、映像表示器204の画面に映像を表示させる。これにより映像光が照射される。
 S503で主制御部201は、光照射器205に赤外光を照射させる。なお、外光を使う場合には、本ステップ及び後述するステップS505は省略してもよい。
 S504で主制御部201は、撮像器206に被検出体像を撮像させる。
 S505で主制御部201は、光照射器205に赤外光照射を停止させる。
 撮像した被検体像には、青、緑、赤の波長を有する被検体像以外の画像が赤外光の被検体像に重畳されている。そこで、S506で入力操作判定部207は、撮像した被検体像から被検体像に対応する赤外光成分のみを抽出することで入力操作の判定精度を上げてもよい。
 また、撮像した画像には撮像器206と波長選択反射部材212の配置により、特定の範囲に入力操作の画像が映っている。そこで入力操作判定部207は、撮像した画像の内、鏡面反射した部分を特定し、特定箇所のみを抽出して処理を軽くしても良い。
 また、入力操作判定部207は入力操作の画像が映っている範囲を撮像器206の光学ズームの機能を用いて拡大して撮像することにより入力操作の判定精度を上げても良い。
 S507で入力操作判定部207は被検出体像の座標を演算したり、被検出体像の動き(座標の変化に相当する)を解析することにより、被検出体像を基にユーザが行った入力操作の内容を判定し、その入力操作の内容を示す情報を主制御部201へ出力する。
 S508で映像表示器204により表示している映像と入力操作判定部207により認識した入力操作の情報から、主制御部201は終了操作か判定する。終了操作と判定した場合は(S508/Yes)、主制御部201は映像表示を止めて終了する。
 主制御部201が終了操作と判定しない場合は(S508/No)、S509において映像生成部203に次に表示する映像を生成させ、S502で映像表示器204に映像を表示させる。
 図5では被検出体像を撮像するたびに赤外光の照射を停止する動作を示したが、赤外光の連続照射による電力消費が十分に小さい場合には、初期化の段階で赤外光を照射し、終了操作となった場合に赤外光の照射を停止する動作としても構わない。
 また、画像表示と被検出体像の撮像とを交互に実施する動作を示したが、必ずしも交互に実施する必要は無く、複数回の画像表示を繰り返した後に1回の被検出体像の撮像をしても良いし、逆に1回の画像表示の度に複数回の被検出体像の撮像をしても良い。
 以上、本実施形態によれば、被検出体で反射した非可視光像からなる被検出体像を撮像し、これを解析して被検出体が行った入力操作を解析して次の処理、例えば空中映像の表示変更や終了操作を行えるので、空中映像に対して行った入力操作を検出するための部材を空中映像の周囲に配置させる必要がない。そのため、入力操作を検出するための部材が空中映像の視認を妨げることがなく、空中映像の浮遊感を際立たせることができる。
<第2実施形態>
 図6は第2実施形態における空中映像表示システムの側面から見た部品配置を示す図である。
 第2実施形態では、結像部材211として二面直交リフレクタ601を用いる。二面直交リフレクタ601はミラー601bと、ミラー601bの反射面に対して直交する反射面を有するハーフミラー601aと、を備えており、ある点から拡散して二面直交リフレクタ601に入射した光は2回反射して、二面直交リフレクタ601と面対称の位置に結像する。
 ここで、ミラー601bの反射面上に波長選択反射部材212を配置することにより、光照射器205から出射した赤外光は波長選択反射部材212で反射して実像付近のユーザの手指等を照らし、また、手指等で拡散した赤外光の一部を波長選択反射部材212で反射して撮像器206で撮像することができる。この際、二面直交リフレクタ601のミラー601bで反射せずにハーフミラー601aを透過する赤外光を用いても良いし、二面直交リフレクタ601を赤外光に対しては反射せずに透過する素材を用いて構成してもよい。
 また、波長選択反射部材212は赤外光のみを反射するようにしても良いし、可視光も赤外光も反射する通常のミラーとしても構わない。赤外光のみを反射する場合は、目視では透明に見える効果が得られ、赤外光も可視光も反射する場合には、二面直交リフレクタ601により結像する実像の視野角を大きくする効果が得られる。
 第1実施形態と同様に、波長選択反射部材212は入力画像が適切に撮像器206で撮像できるように二面直交リフレクタ601のミラー601bの入射面に対して傾斜して配置してもよい。
 以上の構成を用いて第1実施形態と同様の制御をすることにより、空中映像を表示し、空中映像に対する入力操作を実現することができる。また二面直交リフレクタは、ホルダーがなく自立して設置できるのでホルダーの第1収容部の大きさに制約されることなく、映像表示装置の種類を変えることができる。例えば、スマートフォンのような比較的小型な装置であっても、またタブレット端末のような比較的大きな装置であっても空中映像表示システムの部品として用いることができる。
<第3実施形態>
 図7は第3実施形態における空中映像表示システムの側面から見た部品配置を示す図である。
 第3実施形態では結像部材211としてハーフミラー701と再帰性反射シート702を用いる。再帰性反射シート702は微小なコーナーキューブやガラスビーズが表面に敷き詰められており、シートに入射した光を入射とは逆方向に再帰反射することができる。映像表示器204に表示された映像はハーフミラー701で光量の半分が反射し波長選択反射部材212を透過し、再帰性反射シート702で再帰反射し、再度、波長選択反射部材212を透過し、ハーフミラー701で光量の半分が透過し、ハーフミラー701と面対称の位置に結像する。
 ここで、再帰性反射シート702の入射面側に再帰性反射シート702とほぼ平行に波長選択反射部材212を配置することにより、光照射器205から出射した赤外光は波長選択反射部材212で反射して実像付近のユーザの手指等を照らし、また、手指等で拡散した赤外光の一部を波長選択反射部材212で反射して撮像器206で撮像することができる。
 第1実施形態と同様に、波長選択反射部材212は入力画像が適切に撮像器206で撮像できるように再帰性反射シート702の上面に対して傾斜させて配置してもよい。
 以上の構成を用いて第1実施形態同様の制御をすることにより、空中映像を表示し、空中映像に対する入力操作を実現することができる。
<第4実施形態>
 図8は第4実施形態における空中映像表示システムのブロック図であり、第1実施形態の図3と共通のブロックについては説明を省略する。第1実施形態では空中映像は平面像であるが、第4実施形態では後述するように空中映像の結像位置を変え、結像位置に応じて映像を変えることで空中映像を立体的に表示する。
 第4実施形態に係る映像表示装置200aは、第1実施形態に係る映像表示装置200に駆動制御器801を更に含むものである。第4実施形態に係る波長選択結像装置210aは、第1実施形態に係る波長選択結像装置210に焦点距離可変装置802を更に含むものである。
 主制御部201は駆動制御器801に空中映像を結像させる位置の情報を送る。駆動制御器801は結像させる位置の情報から駆動波形を生成し、波長選択結像装置210の焦点距離可変装置802を駆動する。例として焦点距離可変装置802が電圧に応じて焦点距離が変わる部品で構成されていれば、駆動制御器801は所望の焦点距離となるような電圧波形を生成する。焦点距離可変装置802は駆動波形と映像表示装置200の電源202から受け取った電力により焦点距離を変更する。
 主制御部201は映像生成部203に動作制御信号を送る際に空中映像を結像させる位置の情報も送り、映像生成部203が結像させる位置に応じた映像を生成することで、立体的な空中映像を表示する。
 なお、波長選択結像装置210内に電源を備え、焦点距離可変装置802を駆動してもよい。また、駆動制御器801と焦点距離可変装置802は制御線で接続して情報を送っても良いし、映像表示装置200と波長選択結像装置210にそれぞれ無線伝送装置を備えて情報を送ってもよい。
 また、波長選択結像装置210に駆動制御器801を備えて、映像表示装置200の制御とは無関係に周期的な焦点距離の変化動作を繰り返し、例えば焦点距離に応じたマーカーを表示し、撮像器206によりこのマーカーを撮像することで映像表示装置200が波長選択結像装置210と自動的に同期を取って映像を表示するように制御をしてもよい。
 また、上記の説明では映像表示装置200と波長選択結像装置210を別々の構成として説明したが、第1実施形態と同様にこれらを一体の構成としてもよいし、映像表示装置200aを映像表示器204と撮像器206に分けて構成しても構わない。
 図9は第4実施形態に係る空中映像表示システムの側面から見た部品配置を示す図であり、図9を用いて空中に映像が結像する原理を説明する。
 図9と図1に示した第1実施形態の構成との違いは、波長選択反射部材212とフレネルレンズ101との間に焦点距離可変装置802を配置している点である。
 またホルダー300aの第1収容部301の底部には映像表示装置200aと電気的に接続する第1接点311を備える。同様に、第2収容部302の底部には波長選択結像装置210aと電気的に接続する第2接点312備える。第1接点311及び第2接点312とは、制御線313及び電力線314のそれぞれにより電気的に接続される。そして映像表示装置200aから出力された駆動信号は、制御線313を通って焦点距離可変装置802に出力される。また映像表示装置200aから焦点距離可変装置802に対して電力線314を介して給電される。
 焦点距離可変装置802の一例として、フレネルレンズと二周波液晶とこれらをはさむ2枚の透明電極とを含む構成としてもよい。そして、印加電圧の周波数に基づいて焦点距離を変化させてもよい。(例えば陶山史朗、”高速な二周波液晶レンズによる3次元表示方式”光学 30巻1号 (2001)参照)
 映像表示器204によって表示された映像はフレネルレンズ101の屈折に加えて焦点距離可変装置802の屈折の作用を受けるため、結像する位置が変化する。図9では例として実像902a、902b、902b、902dの4段階で結像位置が変化している例を示している。結像する位置に応じて映像表示を変化させることによりユーザは、立体的な空中映像として認識する。
 なお、図9では結像部材211の一例としてフレネルレンズ101及びミラー102を含む構成を示したが、第2実施形態のように二面直交リフレクタ601(図6参照)や、第3実施形態のようにハーフミラー701と再帰性反射シート702(図7参照)で構成することも可能である。いずれの場合でも空中映像として表示する波長に対しては焦点距離可変装置802を作用させ、入力操作の認識のための赤外光に対しては焦点距離可変装置802を作用させないように、光学部品を配置、又は波長選択性を持たせる。
 なお、入力操作の認識をせず、単に立体的な空中映像を表示する目的であれば、波長選択反射部材212、光照射器205、撮像器206は不要である。また、この場合、結像部材211としてフレネルレンズ101のみを用い、フレネルレンズ101の反対側に実像を結像させる構成も可能である。
 図10は焦点距離と結像距離の関係を示す模式図であり、図10Aは基準となる焦点距離の場合、図10Bは焦点距離が変化した場合を示す。図10Aにおいて、fは基準の焦点距離、xはレンズの映像側の焦点位置と映像表示器204により表示されている映像の位置との距離、yは映像の光軸からの高さ、x’はレンズの実像側の焦点位置と実像の位置との距離、y’は実像の光軸からの高さを表す。図10Bにおいて、fは可変した焦点距離、xはレンズの映像側の焦点位置と映像表示器204により表示されている映像の位置との距離、x’はレンズの実像側の焦点位置と実像の位置との距離を表す。映像表示器により表示されている映像と実像の大きさの比率は横倍率mとして定義され、数式(2)で表される。
Figure JPOXMLDOC01-appb-M000003
 数式(2)におけるx、x’、fの関係からニュートンのレンズ公式である数式(3)が導出される。
Figure JPOXMLDOC01-appb-M000004
 同様にして焦点距離を変更した場合の横倍率mとニュートンのレンズ公式は数式(4)(5)として導出される。
Figure JPOXMLDOC01-appb-M000005
 ここでレンズと映像表示器204により表示されている映像のとの距離は不変であることから、x+f=x+fであり、焦点距離の可変量をΔfとすると、f=f+Δfと表され、これらを数式(4)(5)に代入することで、それぞれ数式(6)(7)が導出される。
Figure JPOXMLDOC01-appb-M000006
 もとの実像の位置からのずれをΔxとすると、Δx=(f+x’)-(f+x’)であり、これに数式(3)(7)の関係を代入すると数式(8)が導出される。
Figure JPOXMLDOC01-appb-M000007
 数式(6)から実像の倍率を計算し、数式(8)から実像が結像する位置を計算することによって、所望の立体表示となるように制御することができる。
 一例として、等倍の表示を基準とする場合には、x=fとし、また、焦点距離の可変量をkを係数としてΔf=kfと表して、これらを数式(6)(7)(8)に代入することで、数式(9)(10)(11)が導出される。
Figure JPOXMLDOC01-appb-M000008
 図11は駆動制御器801で生成する駆動信号と映像信号の関係を示す模式図である。図では例として駆動信号に焦点距離と実像位置が比例するものとして表している。
 ここではある時刻の立体映像を4フレームで実像位置を変えて表示するものとし、この4フレーム毎の立体映像を1ユニットフレームと呼ぶこととする。図中の映像信号の番号はユニットフレーム数-実像位置を表すものとする。実像位置を変える範囲を4分割し、それぞれの実像位置の範囲における平均的な実像位置の映像をその実像位置の映像として出力する。4フレームの映像、すなわち1ユニットフレームを出力した後、実像位置を戻し、再度、実像位置を変える動作を繰り返す。
 図12は駆動制御器801で生成する駆動信号と映像信号の関係を示す模式図であり、駆動信号が正弦波の例である。
 一般的に映像信号をフレーム毎に時間を変えるのは難しいため、1フレームの時間を固定すると、表示する実像位置の範囲は等間隔ではなくなる。そこで、それぞれの実像位置の範囲における平均的な実像位置の映像をその実像位置の映像として出力して対応する。また、実像の位置は正から負の方向に変わった後、負から正の方向に反転するため、フレームユニット内における実像位置の出力順序も反転させる。
 図13は空中映像表示システムにおいて空中映像を立体的に表示するための動作を表すフロー図である。
 S1201で主制御部201は映像表示装置200の各処理部、処理器を初期化する。ここで主制御部201は実像位置をiで表すものとする。
 S1202で映像生成部203は実像位置iに対応する映像信号を生成する。
 S1203で駆動制御器801は焦点距離可変装置802を実像位置iに対応する焦点距離となるように制御する。
 S1204で映像表示器204が映像を表示する。
 S1205で入力操作判定部207は入力操作の判定処理を行う。例として第1実施形態で記載した図5のS503からS507に対応する処理を行うことで入力操作の認識が可能である。
 S1206で主制御部201は実像位置iを次の位置に変更する。
 S1207で映像表示器204により表示している映像と入力操作判定部207により認識した入力操作の情報から、主制御部201は終了操作かを判定する。主制御部201が終了操作と判定した場合は(S1207/Yes)、映像表示を止めて終了する。
 主制御部201は終了操作と判定しない場合は(S1207/No)、S1208で主制御部201は実像位置iが実像位置の分割数nよりも大きいか判定する。大きい場合には(S1208/Yes)、S1209で主制御部201は実像位置を初期化してS1202に戻る。大きくない場合には(S1208/No)、そのままS1202に戻る。以降は動作を繰り返す。
 なお、入力操作の認識は必ずしも映像信号と同期を取る必要は無く、別の処理としても良いし、フレームよりも速い周期、もしくは数フレーム毎の遅い周期で処理を行っても構わない。
 また、本実施形態では立体的な空中映像となるため、入力操作を3次元で判定することが好ましい。このため、撮像器206として3次元計測装置である、TOF(Time of Flight)方式のカメラ、ステレオカメラ、焦点距離を変えて合焦点位置から距離を判定するカメラ、コンピューテショナルフォトグラフィを利用したカメラ等を適用しても良いし、通常のカメラで撮像した情報であっても基準となる手指の大きさからの拡大縮小率の違いから遠近を判定してもよい。
 以上、本実施形態によれば、立体的な空中映像表示システムにおいても、空中映像の浮遊感を損ねることなく、自然な操作感で空中映像への入力操作が可能な技術を提供することができる。
 上記各実施形態は、本発明を限定するものではなく、本発明の趣旨を逸脱しない様々な変更態様は本発明の技術的範囲に含まれるものである。例えば、第4実施形態において映像表示装置からホルダー内の制御線を経由して波長選択結像装置に焦点距離を可変する駆動信号を出力したが、ホルダーの有無にかかわらず、駆動信号を無線通信により波長選択結像装置に送信してもよい。
 また上記実施形態に係る波長選択結像装置では、波長選択反射部材が結像部材における入射面上に一体形成された例について説明したが、結像部材と波長選択反射部材とは別体に構成されてもよい。例えば一体形成する場合は波長選択反射部材をフィルム状に形成し、それを結像部材における映像光の入射面に貼付してもよい。また別体に形成する場合は波長選択反射部材を板状に形成し、それを空中映像の表示時にユーザが結像部材における映像光の入射面側に設置してもよい。
200:映像表示装置、200a:映像表示装置、210:波長選択結像装置、210a:波長選択結像装置、211:波長選択反射部材、212:結像部材、801:駆動制御器、802:焦点距離可変装置

Claims (16)

  1.  取得した映像信号に基づく映像を画面に表示する映像表示器を備えた映像表示装置と、
     前記画面に表示された映像を含む映像光を空中で実像に結像させる結像部材と、
     前記結像部材における前記映像光の入射面側に配置され、可視光は透過しかつ非可視光は反射する特性を有する波長選択反射部材と、
     前記実像に対して入力操作を行う被検出体が反射した前記非可視光を受光し、非可視光像からなる被検出体像を撮像する撮像器と、を備え、
     前記映像表示装置は、
     前記撮像器から前記被検出体像を取得し、当該被検出体像を解析して前記被検出体の入力操作内容を解析する入力操作判定部と、
     前記入力操作判定部が解析した前記入力操作内容に基づく動作制御信号を出力する主制御部と、
     前記動作制御信号に従って前記入力操作内容を反映した映像信号を生成し、前記映像表示器に出力する映像生成部と、を含み、
     前記波長選択反射部材は、前記実像が前記撮像器の視野角に入る位置に配置される、
     ことを特徴とする空中映像表示システム。
  2.  取得した映像信号に基づく映像を画面に表示する映像表示器を備えた映像表示装置と、
     前記画面に表示された映像を含む映像光を空中で実像に結像させる結像部材と、
     前記結像部材における前記映像光の入射面側に配置され、可視光は透過しかつ非可視光は反射する特性を有する波長選択反射部材と、
     前記実像に対して入力操作を行う被検出体が反射した非可視光を受光し、非可視光像からなる被検体像を撮像する撮像器と、を備え、
     前記被検出体が反射した前記非可視光は、前記結像部材により結像されることなく前記撮像器に入射する、
     ことを特徴とする空中映像表示システム。
  3.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記映像表示装置は、前記非可視光を照射する光照射器を更に備え、
     前記波長選択反射部材は、前記光照射器が照射した前記非可視光を反射する、
     ことを特徴とする空中映像表示システム。
  4.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記波長選択反射部材が前記結像部材における入射面上に一体形成された波長選択結像装置を含む、
     ことを特徴とする空中映像表示システム。
  5.  請求項4に記載の空中映像表示システムにおいて、
     前記映像表示装置を収容する第1収容部、及び前記第1収容部に収容された前記映像表示装置の画面に前記波長選択反射部材を対向させて前記波長選択結像装置を収容する第2収容部を含むホルダーを更に備える、
     ことを特徴とする空中映像表示システム。
  6.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記結像部材はミラー及び当該ミラーの反射面上に配置されたフレネルレンズを含んで構成される、
     ことを特徴とする空中映像表示システム。
  7.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記結像部材は、ミラー及び当該ミラーの反射面に直交する透過面を有するハーフミラーを含む二面直交リフレクタを用いて構成され、
     前記波長選択反射部材は、前記ミラーの反射面上に配置される、
     ことを特徴とする空中映像表示システム。
  8.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記結像部材は再帰性反射シート及び再帰性反射シートで反射された前記映像光を透過するハーフミラーを用いて構成され、
     前記波長選択反射部材は、前記再帰性反射シートにおける前記映像光の入射面上に配置される、
     ことを特徴とする空中映像表示システム。
  9.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記映像が結像する光路中に配置され、焦点距離の変更させる焦点距離可変装置を更に備え、
     前記画面に表示される映像は、焦点距離に応じて変化する、
     ことを特徴とする空中映像表示システム。
  10.  請求項9に記載の空中映像表示システムにおいて、
     fを基準の焦点距離、
     Δfを焦点距離の変更量、
     xはレンズの映像側の基準の焦点位置と前記映像表示器により表示されている映像の位置との距離、
     Δx’を基準の焦点距離の実像の位置からのずれ、
    として、
    下式を満たすように前記焦点距離可変装置及び前記映像表示器が制御される、
     ことを特徴とする空中映像表示システム。
    Figure JPOXMLDOC01-appb-M000001
  11.  請求項1又は2に記載の空中映像表示システムにおいて、
     前記撮像器は前記映像表示装置と一体に形成される、
     ことを特徴とする空中映像表示システム。
  12.  映像光を空中で実像に結像させる結像部材、及び前記結像部材における前記映像光の入射面側に配置され、前記結像部材に入射する前記映像光は透過しかつ前記結像部材に入射する非可視光は反射する特性を有する波長選択反射部材を備える、
     ことを特徴とする波長選択結像装置。
  13.  取得した映像信号に基づく映像を画面に表示する映像表示器を備えた映像表示装置と、
     前記画面に表示された映像を含む映像光を空中で実像に結像させる結像部材と、
     前記結像部材における前記映像光の入射面側に配置され、可視光は透過しかつ非可視光は反射する特性を有する波長選択反射部材と、
     前記実像に対して入力操作を行う被検出体が反射した前記非可視光を受光し、非可視光像からなる被検出体像を撮像する撮像器と、を備える空中映像表示システムに用いられる映像表示装置であって、
     前記撮像器から前記被検出体像を取得し、当該被検出体像を解析して前記被検出体の入力操作内容を解析する入力操作判定部と、
     前記入力操作判定部が解析した前記入力操作内容に基づく動作制御信号を出力する主制御部と、
     前記動作制御信号に従って前記入力操作内容を反映した映像信号を生成し、前記映像表示器に出力する映像生成部と、を含む、
     ことを特徴とする映像表示装置。
  14.  画面に表示された映像を含む映像光を空中で結像させた実像からなる空中映像を表示するステップと、
     前記空中映像に対して入力操作を行う被検出体により反射された、前記空中映像の表示には用いない波長の光のうち、前記映像光は透過し前記空中映像の表示には用いない波長の光を選択的に反射する波長選択反射部材により反射された光を撮像し、前記被検出体の非可視光像を出力するステップと、
     前記非可視光像を基に前記被検出体が行った入力操作の内容を判定するステップと、
     を含むことを特徴とする空中映像表示方法。
  15.  請求項14に記載の空中映像表示方法において、
     前記波長選択反射部材により選択的に反射される光の波長を含んだ光を照射するステップを更に含む、
     を含むことを特徴とする空中映像表示方法。
  16.  請求項14に記載の空中映像表示方法において、
     前記空中映像を表示するステップは、
     前記空中映像を結像する焦点距離を変更することにより前記実像の位置を変更するステップと、
     前記画面に表示される映像を、前記変更された実像の位置に応じた映像に変更するステップと、を含む、
     ことを特徴とする空中映像表示方法。
PCT/JP2016/081937 2016-10-27 2016-10-27 空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法 WO2018078777A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/081937 WO2018078777A1 (ja) 2016-10-27 2016-10-27 空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/081937 WO2018078777A1 (ja) 2016-10-27 2016-10-27 空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法

Publications (1)

Publication Number Publication Date
WO2018078777A1 true WO2018078777A1 (ja) 2018-05-03

Family

ID=62024484

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/081937 WO2018078777A1 (ja) 2016-10-27 2016-10-27 空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法

Country Status (1)

Country Link
WO (1) WO2018078777A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163339A1 (ja) * 2018-02-22 2019-08-29 株式会社アスカネット 非接触入力装置及び非接触入力方法
CN113268169A (zh) * 2020-02-14 2021-08-17 宏碁股份有限公司 浮空截像式操控装置、互动显示系统及浮空操控方法
WO2021169651A1 (zh) * 2020-02-28 2021-09-02 安徽省东超科技有限公司 电梯以及外控盒
EP4092517A1 (en) * 2021-05-18 2022-11-23 Alps Alpine Co., Ltd. Input device
EP4095589A1 (en) * 2021-05-24 2022-11-30 Alps Alpine Co., Ltd. Display device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002214580A (ja) * 2001-11-05 2002-07-31 Nippon Telegr & Teleph Corp <Ntt> 立体表示装置およびその駆動方法
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002214580A (ja) * 2001-11-05 2002-07-31 Nippon Telegr & Teleph Corp <Ntt> 立体表示装置およびその駆動方法
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163339A1 (ja) * 2018-02-22 2019-08-29 株式会社アスカネット 非接触入力装置及び非接触入力方法
JPWO2019163339A1 (ja) * 2018-02-22 2020-02-27 株式会社アスカネット 非接触入力装置及び非接触入力方法
CN113268169A (zh) * 2020-02-14 2021-08-17 宏碁股份有限公司 浮空截像式操控装置、互动显示系统及浮空操控方法
CN113268169B (zh) * 2020-02-14 2023-08-08 宏碁股份有限公司 浮空截像式操控装置、互动显示系统及浮空操控方法
WO2021169651A1 (zh) * 2020-02-28 2021-09-02 安徽省东超科技有限公司 电梯以及外控盒
EP4092517A1 (en) * 2021-05-18 2022-11-23 Alps Alpine Co., Ltd. Input device
US12033816B2 (en) 2021-05-18 2024-07-09 Alps Alpine Co., Ltd. Input device
EP4095589A1 (en) * 2021-05-24 2022-11-30 Alps Alpine Co., Ltd. Display device

Similar Documents

Publication Publication Date Title
US11488366B2 (en) Augmented reality lighting effects
US11029762B2 (en) Adjusting dimensioning results using augmented reality
WO2018078777A1 (ja) 空中映像表示システム、波長選択結像装置、映像表示装置、及び空中映像表示方法
US10152634B2 (en) Methods and systems for contextually processing imagery
US10440349B2 (en) 3-D 360 degrees depth projector
CN113260951A (zh) 基于指距或手接近的淡入用户界面显示
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JP2016038889A (ja) モーション感知を伴う拡張現実
KR20100123878A (ko) 전환가능 방산판을 갖는 대화형 서피스 컴퓨터
KR20160109681A (ko) 홍채를 촬영하기 위하여 이용되는 광을 조사하는 방법 및 디바이스
US20240019715A1 (en) Air floating video display apparatus
TW201324259A (zh) 使用者介面顯示裝置
JP2002318652A (ja) 仮想入力装置およびプログラム
KR100936666B1 (ko) 적외선 스크린 방식의 투영 영상 터치 장치
TWI608737B (zh) 影像投影技術
US10725586B2 (en) Presentation of a digital image of an object
KR101507458B1 (ko) 대화식 디스플레이
JP2013205885A (ja) 表示装置
KR101002071B1 (ko) 멀티 적외선 카메라 방식의 투영 영상 터치 장치
CN211928322U (zh) 一种空气成像机构、实像装置和交互系统
US20240095939A1 (en) Information processing apparatus and information processing method
CN111352252A (zh) 一种空气成像机构、实像装置和交互系统
CN116783644A (zh) 空间悬浮影像显示装置
US9551922B1 (en) Foreground analysis on parametric background surfaces
CN105785749A (zh) 一种显示方法及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16919681

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16919681

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP