[go: up one dir, main page]

WO2024128264A1 - 映像表示装置 - Google Patents

映像表示装置 Download PDF

Info

Publication number
WO2024128264A1
WO2024128264A1 PCT/JP2023/044690 JP2023044690W WO2024128264A1 WO 2024128264 A1 WO2024128264 A1 WO 2024128264A1 JP 2023044690 W JP2023044690 W JP 2023044690W WO 2024128264 A1 WO2024128264 A1 WO 2024128264A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
pixels
image
display
range
Prior art date
Application number
PCT/JP2023/044690
Other languages
English (en)
French (fr)
Inventor
秀也 高橋
五郎 濱岸
Original Assignee
公立大学法人大阪
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 公立大学法人大阪 filed Critical 公立大学法人大阪
Publication of WO2024128264A1 publication Critical patent/WO2024128264A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • the present invention relates to a video display device.
  • This application claims priority based on Japanese Patent Application No. 2022-198604, filed on December 13, 2022, the contents of which are incorporated herein by reference.
  • the above-mentioned three-dimensional display device can provide appropriate stereoscopic vision even when the observer moves, if the interocular distance of the observer is equal to the average human interocular distance and both of the observer's eyes are parallel to the display surface of the display. However, for observers who do not meet these conditions, it may not be possible to provide appropriate stereoscopic vision. Furthermore, the above-mentioned multi-viewpoint display may not be able to provide an appropriate view to each of the multiple observers if the distance between the multiple observers is not equal to a specified distance, or if the multiple observers are not parallel to the display surface.
  • the present invention was made in consideration of these circumstances, and its purpose is to provide an image display device that can improve the visibility of an image even when the observer's eyes are not positioned in a specified position.
  • One aspect of the present invention includes a display having a display surface including a plurality of pixels, and displaying on the display surface a first image to be viewed by a first eye and a second image to be viewed by a second eye, an optical element that limits a first eye position, which is the first eye position at which the first image is viewable, and a second eye position, which is the second eye position at which the second image is viewable, a position acquisition unit that acquires the first eye position and the second eye position, and a display unit that uses the first eye position and the second eye position independently to determine a first image display pixel range for displaying the first image based on the first eye position, and determines the second image based on the second eye position.
  • a display control unit that controls the display so that the first image is assigned to pixels included in the first image display pixel range and the second image is assigned to pixels included in the second image display pixel range, and the display control unit determines a binocular overlap range that can be seen by both the first eye and the second eye in the first image display pixel range and the second image display pixel range, and when it is determined that a binocular overlap range exists, controls the display to reduce the luminance of one or more pixels included in the binocular overlap range.
  • the present invention has the effect of improving the visibility of an image even when the observer's eyes are not positioned in a specified position.
  • FIG. 1 is a diagram illustrating an example of a stereoscopic display device according to an embodiment.
  • 10 is a flowchart illustrating an example of a procedure at a design stage of a control method for a stereoscopic display device according to an embodiment.
  • FIG. 11 is an explanatory diagram of a barrier end surface overlapping pixel range according to an embodiment.
  • FIG. 11 is an explanatory diagram of an example of a method for determining a brightness reduction method according to an embodiment.
  • 10 is a flowchart illustrating an example of a procedure of an operation stage of a control method for a stereoscopic display device according to an embodiment.
  • FIG. 11 is an explanatory diagram for explaining a luminance uniformization process according to an embodiment.
  • FIG. 11 is an explanatory diagram for explaining a luminance uniformization process according to an embodiment.
  • FIG. 13 is a diagram illustrating an example of a stereoscopic display device according to a modified example of the embodiment.
  • 10A and 10B are explanatory diagrams for explaining an example of a control method for a stereoscopic display device according to a modified example of the embodiment.
  • 10A and 10B are explanatory diagrams for explaining an example of a control method for a stereoscopic display device according to a modified example of the embodiment.
  • 10A and 10B are explanatory diagrams for explaining an example of a control method for a stereoscopic display device according to a modified example of the embodiment.
  • 10A and 10B are explanatory diagrams for explaining an example of a control method for a stereoscopic display device according to a modified example of the embodiment.
  • Fig. 1 is a diagram showing an example of a stereoscopic display device according to an embodiment.
  • the stereoscopic display device 100 includes a display 101, an optical element 102, a display control unit 103, a storage unit 104, and a position acquisition unit 105.
  • the X-axis, Y-axis, and Z-axis shown in Fig. 1 are used as appropriate.
  • the display 101 has a display surface including a plurality of pixels arranged along a first direction and a second direction.
  • the first direction is, for example, the X direction shown in FIG. 1.
  • the second direction is a direction intersecting the first direction, for example, the Y direction shown in FIG. 1.
  • the display 101 is parallel to the XY plane, and displays a pair of a right-eye image MR and a left-eye image ML on a plane perpendicular to the Z axis for every n (n is a positive integer equal to or greater than 2m, and m is a positive integer) pixels on the display surface.
  • Each of the right-eye image MR and the left-eye image ML is composed of a size of m pixels.
  • the right-eye image MR is an image to be viewed by the right eye ER of the observer P.
  • the left-eye image ML is an image to be viewed by the left eye EL of the observer P.
  • the pair of the right-eye image MR and the left-eye image ML is a parallax image.
  • the pair of the right-eye image MR and the left-eye image ML is correctly viewed by the right eye ER and the left eye EL of the observer P, thereby providing the observer P with normal stereoscopic vision.
  • the arrangement of pixels on the display surface of the display 101 shown in FIG. 1 is for convenience of explanation.
  • the display 101 is, as an example, a self-luminous display.
  • the pixels arranged on the display surface of the display 101 correspond to any one of the colors R (Red), G (Green), and (Blue).
  • Three pixels R, G, and B may be grouped together to form one pixel.
  • the pixel corresponding to any one of the colors R, G, and B is also referred to as a subpixel. Therefore, three subpixels R, G, and B may be grouped together to form one pixel.
  • the first direction is, for example, the direction in which the multiple subpixels that form one pixel are lined up.
  • the second direction is, for example, the direction in which subpixels corresponding to the same color are lined up.
  • the optical element 102 is, for example, a parallax barrier having a light-shielding region and a transparent region.
  • the optical element 102 limits the position of the right eye ER and the position of the left eye EL by the light-shielding region and the transparent region.
  • the optical element 102 is, for example, a parallax barrier having linear slits inclined at a predetermined angle (tilt angle) with respect to the X-axis and the Y-axis.
  • a parallax barrier having one opening for n pixels is used as an example of the optical element 102.
  • the optical element 102 limits the positions of the right eye ER and the left eye EL at which the right eye image MR and the left eye image ML can be viewed, respectively. Also, as shown in FIG. 1, in order for the right eye ER and the left eye EL of the observer P to observe normal stereoscopic vision on the entire screen, the observer P needs to observe from a position that is an optimal observation distance OVD away from the optical element 102.
  • the opening is an example of a transparent region. Also, the region other than the opening in the parallax barrier is an example of a light-shielding region.
  • the detection device 3 detects the positions of the right eye ER and the left eye EL of the observer P and outputs the positions to the stereoscopic display device 100.
  • the detection device 3 detects the positions of the right eye ER and the left eye EL individually.
  • the detection device 3 includes a sensor such as a camera.
  • the detection device 3 includes a camera and detects the positions of the right eye ER and the left eye EL from an image of the face of the observer P captured by the camera.
  • the detection device 3 outputs the three-dimensional coordinates of the detected positions of the right eye ER and the left eye EL of the observer P to the stereoscopic display device 100.
  • the detection device 3 may be included in the stereoscopic display device 100, or may be a device separate from the stereoscopic display device 100.
  • the detection device 3 is an example of a viewpoint detection unit that detects the first eye position and the second eye position individually.
  • the position acquisition unit 105 acquires the positions of the right eye ER and the left eye EL of the observer P. Specifically, the position acquisition unit 105 acquires the three-dimensional coordinates of the position of the right eye ER and the position of the left eye EL of the observer P input from the detection device 3 to the stereoscopic display device 100. The position acquisition unit 105 acquires the positions of the right eye ER and the left eye EL detected individually by the detection device 3.
  • the display control unit 103 determines the right-eye image display pixel range of the right-eye image MR to be assigned to the position of the right eye ER of the observer P and the left-eye image display pixel range of the left-eye image ML to be assigned to the position of the left eye EL, and controls the display 101 to display the right-eye image MR in the right-eye image display pixel range and the left-eye image ML in the left-eye image display pixel range.
  • assigning an image to the position of the eye of observer P means assigning the image to pixels included in the range viewed by that eye on the display surface of display 101.
  • Display control unit 103 uses the positions of right eye ER and left eye EL independently to determine a right-eye image display pixel range for displaying right-eye image MR based on the position of right eye ER, and determines a left-eye image display pixel range for displaying left-eye image ML based on the position of left eye EL, and controls display 101 so that the right-eye image MR is assigned to pixels included in the right-eye image display pixel range, and the left-eye image ML is assigned to pixels included in the left-eye image display pixel range.
  • assigning an image to a pixel means assigning a luminance value based on the image to the pixel.
  • the display control unit 103 also determines a left-right overlap range that can be seen by both the right eye ER and left eye EL of the observer P in the right-eye image display pixel range and the left-eye image display pixel range, and if the determination indicates that there is a left-right overlap range, controls the display 101 to reduce the luminance of one or more pixels included in the left-right overlap range.
  • a method of reducing luminance is to display black.
  • the right eye ER is an example of the first eye
  • the left eye EL is an example of the second eye.
  • the left-right overlap range is also an example of a both-eye overlap range.
  • the storage unit 104 stores various types of data.
  • the storage unit 104 is accessed by the display control unit 103.
  • the display control unit 103 is realized, for example, by a display control program stored in a storage medium being read out and executed by a CPU (Central Processing Unit) or the like.
  • the display control unit 103 may be realized by hardware including circuitry such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a GPU (Graphics Processing Unit).
  • the display control unit 103 may be realized by a combination of software and hardware. Furthermore, these pieces of hardware may be integrated into one, or may be divided into multiple pieces.
  • the storage unit 104 may also be configured with non-volatile memory such as a hard disk device, a magneto-optical disk device, or a flash memory, a read-only recording medium such as a CD-ROM, or volatile memory such as a dynamic random access memory (DRAM), or a combination of these.
  • non-volatile memory such as a hard disk device, a magneto-optical disk device, or a flash memory
  • a read-only recording medium such as a CD-ROM
  • volatile memory such as a dynamic random access memory (DRAM), or a combination of these.
  • the control method for the stereoscopic display device 100 has a design stage and an operation stage.
  • the design stage is carried out when the stereoscopic display device 100 is designed.
  • the operation stage is carried out when the observer P uses the stereoscopic display device 100.
  • FIG. 2 is a flowchart showing an example of the procedure of the design stage of the control method for the stereoscopic display device according to the present embodiment.
  • Step S101 The number of pixels m, which is the size of the right-eye image MR and the left-eye image ML, is determined. A method for determining the number of pixels m will be described.
  • On the display surface of the display 101 there are areas (pixel areas) corresponding to n pixels each of which is observed at the center of the X-axis direction of the opening of the optical element 102 as viewed from the observer P at the optimal observation distance OVD, and these areas are present in a continuous manner at equal intervals in the X-axis direction.
  • "m ⁇ n/2" holds, and the width A of the m pixel areas in the X-axis direction is "A ⁇ E" with respect to "average interocular distance E of a person".
  • the quotient obtained by dividing "average interocular distance E of a person" by "width of one pixel area in the X-axis direction" in the design of the display 101 can be obtained as the number of pixels m.
  • the relationship "m ⁇ n/2" indicates that it is possible to have pixels among the n pixels that are not seen at all by the observer P at the optimal observation distance OVD.
  • the 0th to 1st pixels are shown as the pixels that are not seen at all.
  • the pixel region on the display surface of the display 101 may be simply referred to as a pixel.
  • the pixel refers to the sub-pixel described above.
  • Step S102 The number of pixels (one-eye pixel number) q in the range of pixels observed by one eye (one-eye pixel range) is determined from the designed aperture ratio of the optical element 102.
  • the aperture ratio of the parallax barrier as the optical element 102 is defined by the formula "(m-k)/n, k ⁇ m".
  • k is the number of pixels out of m pixels that cannot be seen by the observer P at the optimal observation distance OVD.
  • “aperture ratio 50%”.
  • FIG. 3 is an explanatory diagram of the barrier end surface overlapping pixel range according to this embodiment.
  • FIG. 3 shows pixels 200 in the barrier end surface overlapping pixel range that overlap with the barrier end surface 210 of the parallax barrier as the optical element 102.
  • the pixels 200 in the barrier end surface overlapping pixel range are pixels that can be viewed by both the right eye ER and the left eye EL of the observer P.
  • the barrier end surface overlapping pixel range may be viewed by both the right eye and the left eye, which may cause crosstalk.
  • the barrier end surface overlapping pixel range is a range in which it is preferable to perform the luminance reduction process described later.
  • is the inclination angle of the parallax barrier.
  • the inclination angle ⁇ of the parallax barrier is an angle equal to or greater than 0° and less than 90°.
  • the length of the pixel on the display surface of the display 101 in the X direction is Hp
  • the length of the pixel on the display surface in the Y direction is Vp
  • a and b are natural numbers.
  • the display control unit 103 determines the range (in this embodiment, the barrier end surface overlap pixel range) that is the end (in this embodiment, the barrier end surface 210) of the range observed through the optical element 102 from the first eye position (in this embodiment, the position of the right eye ER) and that is the end (in this embodiment, the barrier end surface 210) of the range observed through the optical element 102 from the second eye position (in this embodiment, the position of the left eye EL) as the both-eye overlap range (in this embodiment, the left-right overlap range).
  • the range in this embodiment, the barrier end surface overlap pixel range
  • Step S104 The brightness reduction method is determined, and the determined brightness reduction method is stored in the storage unit 104.
  • the method of determining the brightness reduction method will be described. Among the number r of pixels in the barrier end surface overlapping pixel range, the number p of pixels that may be subjected to the brightness reduction process is determined.
  • the brightness reduction process is, for example, black display.
  • FIG. 4 is an explanatory diagram of an example of a method of determining the brightness reduction method.
  • the barrier opening is inside between the barrier end surface 210a and the barrier end surface 210b of the parallax barrier as the optical element 102.
  • FIG. 4 is an explanatory diagram of an example of a method of determining the brightness reduction method.
  • the barrier opening is inside between the barrier end surface 210a and the barrier end surface 210b of the parallax barrier as the optical element 102.
  • pixels 211a, 212a, and 213a in the barrier end surface overlapping pixel range on the barrier end surface 210a, and pixels 211b, 212b, and 213b in the barrier end surface overlapping pixel range on the barrier end surface 210b are shown.
  • r 3.
  • p ⁇ r.
  • p may be an even number
  • p may be an odd number
  • p may be an odd number.
  • p may be two, and conversely, when r is an odd number, p may be one.
  • a right-eye evaluation pixel range of evaluation pixels "q+p" and a left-eye evaluation pixel range of evaluation pixels "q+p" are used.
  • the positions of the right eye ER and the left eye EL of observer P are acquired, and a right-eye evaluation pixel range of evaluation pixels "q+p" to be assigned to the acquired right-eye ER position and a left-eye evaluation pixel range of evaluation pixels "q+p" to be assigned to the acquired left-eye EL position are determined, and the range where the determined right-eye evaluation pixel range and left-eye evaluation pixel range overlap (evaluation overlap range) is determined.
  • a luminance reduction method for the evaluation overlap range where the right-eye evaluation pixel range and left-eye evaluation pixel range overlap is determined, and the determined luminance reduction method is stored in the storage unit 104.
  • the luminance of the evaluation overlap range is reduced.
  • a predetermined first threshold e.g. 2p
  • the luminance of at least one pixel (barrier end surface luminance reduction pixel) among the p pixels in the barrier end surface overlap pixel range is reduced, the luminance of pixels that are separated from the at least one barrier end surface luminance reduction pixel by the one-eye pixel number q is also reduced as a moiré prevention process.
  • the number of pixels in the evaluation overlap range exceeds a predetermined second threshold (e.g., 2p) for one eye, the luminance of the excess number of pixels is only reduced, and the moiré prevention process is not performed.
  • a predetermined second threshold e.g. 2p
  • An example of a method for reducing the luminance is black display.
  • the above-mentioned moire prevention process needs to be performed only when it is determined that moire will occur due to the design of the stereoscopic display device 100.
  • the number of pixels whose luminance is reduced by displaying black or the like on the display surface of display 101 increases due to the above-mentioned luminance reduction method, uneven brightness on the display surface of display 101 becomes noticeable, or the display surface of display 101 becomes dark overall.
  • the number of pixels on which the luminance reduction process is performed within the display surface of display 101 may differ partially depending on the state of observer P. This may cause uneven brightness on the display surface of display 101 to become noticeable.
  • a setting is made to execute a luminance uniformization process that uniformizes the luminance across the entire display surface of display 101.
  • the above-mentioned brightness reduction method is determined for all possible cases in the design of the stereoscopic display device 100 and stored in the storage unit 104.
  • FIG. 5 is a flowchart showing an example of the procedure of the operation stage of the control method for the stereoscopic display device according to the present embodiment.
  • Step S201 The position acquisition unit 105 acquires the three-dimensional coordinates of the position of the right eye ER and the three-dimensional coordinates of the position of the left eye EL of the observer P input from the detection device 3 to the stereoscopic display device 100.
  • Step S202 The display control unit 103 determines a right-eye evaluation pixel range of "q+p" evaluation pixels to be assigned to the position of the right eye ER and a left-eye evaluation pixel range of "q+p" evaluation pixels to be assigned to the position of the left eye EL based on the three-dimensional coordinates of the position of the right eye ER and the three-dimensional coordinates of the position of the left eye EL of the observer P acquired by the position acquisition unit 105.
  • the display control unit 103 determines the right-eye evaluation pixel range and the left-eye evaluation pixel range using the three-dimensional coordinates of the position of the right eye ER and the three-dimensional coordinates of the position of the left eye EL of the observer P independently.
  • Step S203 The display control unit 103 determines the range where the right eye evaluation pixel range and the left eye evaluation pixel range determined in step S202 overlap (evaluation overlap range).
  • the evaluation overlap range changes depending on the actual interocular distance E' of the observer P and the observation state of the observer P (such as the posture of the observer P, such as the tilt of the head or upper body). If the result of the determination in step S203 is that there is an evaluation overlap range (step S203, YES), the process proceeds to step S205. On the other hand, if there is no evaluation overlap range (step S203, NO), the process proceeds to step S204.
  • Step S204 If there is no evaluation overlap range as determined in step S203, the display control unit 103 controls the display 101 to display the right-eye image MR by setting the one-eye pixel range (number of pixels "q") including the center pixel of the right-eye evaluation pixel range (number of pixels "q+p") as the right-eye image display pixel range, and to display the left-eye image ML by setting the one-eye pixel range (number of pixels "q") including the center pixel of the left-eye evaluation pixel range (number of pixels "q+p") as the left-eye image display pixel range. Then, proceed to step S207. In this case, the brightness reduction process is not executed.
  • the display control unit 103 determines whether or not there is a both-eye overlap range (in this embodiment, the evaluation overlap range), and if it determines that there is no both-eye overlap range, it determines the area that is viewed from the first eye position (in this embodiment, the position of the right eye ER) and not viewed from the second eye position (in this embodiment, the position of the left eye EL) as the first image display pixel range (in this embodiment, the right eye image display pixel range), determines the area that is viewed from the second eye position and not viewed from the first eye position as the second image display pixel range (in this embodiment, the left eye image display pixel range), and controls the display 101 so that the first image (in this embodiment, the right eye image MR) is assigned to the pixels included in the first image display pixel range, and the second image (in this embodiment, the left eye image ML) is assigned to the pixels included in the second image display pixel range.
  • the first image in this embodiment, the right eye image MR
  • the second image in this embodiment
  • Step S205 If it is determined in step S203 that there is an evaluation overlap range, the display control unit 103 obtains the brightness reduction method corresponding to the determination result from the storage unit 104.
  • the display control unit 103 controls the display 101 to display the right-eye image MR by setting the one-eye pixel range (number of pixels "q") including the center pixel of the right-eye evaluation pixel range (number of pixels "q+p") as the right-eye image display pixel range, and to display the left-eye image ML by setting the one-eye pixel range (number of pixels "q") including the center pixel of the left-eye evaluation pixel range (number of pixels "q+p") as the left-eye image display pixel range, and also controls the display 101 using the brightness reduction method obtained from the memory unit 104.
  • Step S207 The display control unit 103 determines whether or not there is partial unevenness in the brightness reduction process across the entire display surface of the display 101. If the result of this determination is that there is partial unevenness in the brightness reduction process, the process proceeds to step S208, and if not, the process of FIG. 5 ends.
  • Step S208 The display control unit 103 executes a predetermined luminance uniformization process. After this, the process in FIG. 5 ends.
  • the number of pixels on which the brightness reduction process is performed within the display surface of the display 101 may differ partially depending on the state of the observer P.
  • the eyes of the observer P are not parallel to the display surface of the display.
  • the number of pixels on which the brightness reduction process is performed within the display surface of the display 101 may differ partially, resulting in a difference in the number of pixels (display number) displayed in each region (number of pixels n) on the display surface of the display.
  • the display number is "4" due to black display as the brightness reduction process
  • the display number is "2" due to black display as the brightness reduction process. This causes partial brightness non-uniformity across the entire display surface of the display 101, and a brightness uniformization process is performed to address this.
  • the display control unit 103 may reduce the luminance of pixels present in areas of the display surface of the display 101 that are brighter than other areas by a certain amount, in order to uniformly adjust the brightness of the display surface of the display 101.
  • the display control unit 103 may perform control to increase the brightness of the entire display surface of the display 101 when the ratio of pixels that reduce the brightness on the display surface of the display 101 is equal to or greater than a certain level.
  • An example of control to increase the brightness of the entire display surface of the display 101 is to increase the luminance of the backlight that illuminates the display surface of the display 101.
  • FIGS. 6 to 19 are explanatory diagrams for explaining an example of a control method for the stereoscopic display device according to this embodiment.
  • An example of a control method for the stereoscopic display device 100 will be explained with reference to FIG. 6 to FIG. 19.
  • examples of the designed aperture ratio of the parallax barrier as the optical element 102 are given as 50% and 25%.
  • black display is performed as an example of brightness reduction processing.
  • FIG. 6 to 13 are examples in which the designed aperture ratio of the parallax barrier serving as the optical element 102 is 50%.
  • Example 1-1 in Figs. 6 and 7 is a case where the actual interocular distance E' of the observer P is equal to the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • Fig. 6 is an explanatory diagram for explaining how pixels on the display surface of the display 101 are seen by the observer P in Example 1-1.
  • the pixels that can be seen by the right eye ER of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 5th to 14th pixels (10 pixels).
  • the pixels that can be seen by the left eye EL of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 13th to 15th pixels and the 0th to 6th pixels (10 pixels).
  • the 5th to 6th pixels and the 13th to 14th pixels are pixels that can be seen by both eyes of the observer P. For this reason, the 5th to 6th pixels and the 13th to 14th pixels are displayed in black.
  • Example 7 is an explanatory diagram for explaining the operation of the display control unit 103 in Example 1-1.
  • the display control unit 103 determines the evaluation overlap ranges "5th to 6th pixels” and "13th to 14th pixels” where the right eye evaluation pixel range “5th to 14th pixels” and the left eye evaluation pixel range "13th to 15th, 0th to 6th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap ranges "5th-6th pixels" and "13th-14th pixels” in black.
  • FIG. 8 and 9 show an example in which the actual interocular distance E' of the observer P is shorter than the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • the distance between the two central pixels on the right eye side and the two central pixels on the left eye side is shorter by one pixel than in the example 1-1 of FIG. 7 described above.
  • FIG. 8 is an explanatory diagram for explaining how the pixels on the display surface of the display 101 are seen by the observer P in example 1-2.
  • the pixels that can be viewed by the right eye ER of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 4th to 13th pixels (10 pixels).
  • the pixels that can be viewed by the left eye EL of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 13th to 15th and 0th to 6th pixels (10 pixels).
  • the fourth to sixth and thirteenth pixels are pixels that can be seen by both eyes of observer P. For this reason, the fourth to sixth and thirteenth pixels are displayed as black.
  • the display control unit 103 determines the evaluation overlap range "4th to 6th, 13th pixels" where the right eye evaluation pixel range “4th to 13th pixels” and the left eye evaluation pixel range "13th to 15th, 0th to 6th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap range "4th to 6th, 13th pixels" in black.
  • FIG. 10 and 11 show an example in which the actual interocular distance E' of the observer P is shorter than the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • the distance between the two central pixels on the right eye side and the two central pixels on the left eye side is shorter by two pixels than in the example 1-1 of FIG. 7 described above.
  • FIG. 10 is an explanatory diagram for explaining how pixels on the display surface of the display 101 are seen by the observer P in example 1-3.
  • the pixels that can be viewed by the right eye ER of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 4th to 13th pixels (10 pixels).
  • the pixels that can be viewed by the left eye EL of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 14th to 15th and 0th to 7th pixels (10 pixels).
  • the fourth through seventh pixels are pixels that can be seen by both eyes of observer P. For this reason, the fourth through seventh pixels are displayed as black.
  • the display control unit 103 determines the evaluation overlap range "4th to 7th pixels" where the right eye evaluation pixel range “4th to 13th pixels” and the left eye evaluation pixel range "14th to 15th, 0th to 7th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap range "4th to 7th pixels" in black.
  • FIG. 12 and 13 show an example in which the actual interocular distance E' of the observer P is shorter than the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • the distance between the two central pixels on the right eye side and the two central pixels on the left eye side is shorter by three pixels than in the example 1-1 of FIG. 7 described above.
  • FIG. 12 is an explanatory diagram for explaining how the pixels on the display surface of the display 101 are seen by the observer P in example 1-4.
  • the pixels that can be viewed by the right eye ER of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 4th to 13th pixels (10 pixels).
  • the pixels that can be viewed by the left eye EL of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 15th and 0th to 8th pixels (10 pixels).
  • the fourth through eighth pixels are visible to both eyes of observer P. For this reason, the fourth through eighth pixels are displayed as black.
  • the display control unit 103 determines the evaluation overlap range "4th to 8th pixels" where the right eye evaluation pixel range “4th to 13th pixels” and the left eye evaluation pixel range "15th, 0th to 8th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap range "4th to 8th pixels” in black.
  • [Aperture ratio: 25%] 14 to 19 are examples in which the designed aperture ratio of the parallax barrier serving as the optical element 102 is 25%.
  • Example 2-1 in Figs. 14 and 15 is a case where the actual interocular distance E' of observer P is equal to the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • Fig. 14 is an explanatory diagram for explaining how pixels on the display surface of the display 101 appear to observer P in Example 2-1.
  • the pixels that can be viewed by observer P's right eye ER due to the restriction imposed by the parallax barrier as the optical element 102 are the 7th to 12th pixels (6 pixels).
  • the pixels that can be viewed by observer P's left eye EL due to the restriction imposed by the parallax barrier as the optical element 102 are the 15th and 0th to 4th pixels (6 pixels).
  • this Example 2-1 there are no pixels that can be viewed by observer P's both eyes. Therefore, there are no pixels that display black.
  • FIG. 15 is an explanatory diagram for explaining the operation of the display control unit 103 in Example 2-1.
  • the display control unit 103 determines that there is no evaluation overlap range, where the right eye evaluation pixel range "7th to 12th pixels" and the left eye evaluation pixel range "15th, 0th to 4th pixels" overlap. As a result, the display control unit 103 does not execute black display because there is no evaluation overlap range.
  • FIG. 16 and 17 show an example in which the actual interocular distance E' of the observer P is shorter than the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • the distance between the two central pixels on the right eye side and the two central pixels on the left eye side is shorter by three pixels than in the example 2-1 of FIG. 15 described above.
  • FIG. 16 is an explanatory diagram for explaining how the pixels on the display surface of the display 101 are seen by the observer P in example 2-2.
  • the pixels that can be viewed by the right eye ER of the observer P due to the restriction by the parallax barrier as the optical element 102 are the sixth to eleventh pixels (six pixels).
  • the pixels that can be viewed by the left eye EL of the observer P due to the restriction by the parallax barrier as the optical element 102 are the first to sixth pixels (six pixels).
  • the sixth pixel is a pixel that can be viewed by both eyes of the observer P. Therefore, the sixth pixel is displayed as black.
  • the display control unit 103 determines the evaluation overlap range "6th pixel” where the right eye evaluation pixel range “6th to 11th pixels” and the left eye evaluation pixel range “1st to 6th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap range "sixth pixel" in black.
  • FIG. 18 and 19 show an example in which the actual interocular distance E' of the observer P is shorter than the average interocular distance E of a person during the operation of the stereoscopic display device 100.
  • the distance between the two central pixels on the right eye side and the two central pixels on the left eye side is shorter by four pixels than in the example 2-1 of FIG. 15 described above.
  • FIG. 18 is an explanatory diagram for explaining how pixels on the display surface of the display 101 are seen by the observer P in example 2-3.
  • the pixels that can be viewed by the right eye ER of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 6th to 11th pixels (6 pixels).
  • the pixels that can be viewed by the left eye EL of the observer P due to the restriction by the parallax barrier as the optical element 102 are the 2nd to 7th pixels (6 pixels).
  • the 6th to 7th pixels are pixels that can be viewed by both eyes of the observer P. Therefore, the 6th and 7th pixels are displayed as black.
  • the display control unit 103 determines the evaluation overlap range "6th to 7th pixels" where the right eye evaluation pixel range "6th to 11th pixels" and the left eye evaluation pixel range "2nd to 7th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap range "6th to 7th pixels" in black.
  • the position of the right eye of the observer and the position of the left eye of the observer are acquired, the right eye image display pixel range of the right eye image to be assigned to the right eye position and the left eye image display pixel range of the left eye image to be assigned to the left eye position are determined, and the display is controlled to display the right eye image in the right eye image display pixel range and the left eye image in the left eye image display pixel range.
  • This allows the right eye image and the left eye image to be assigned to appropriate pixels even if the observer moves arbitrarily, so that appropriate stereoscopic vision can be provided to the observer.
  • the right eye image display pixel range and the left eye image display pixel range are determined to have a left-right overlap range that can be viewed by both the right eye and the left eye of the observer, and if a left-right overlap range is determined, the display is controlled to reduce the luminance of one or more pixels included in the left-right overlap range.
  • the left-right overlap range changes depending on the observer's actual interocular distance and the observer's observation state (such as the posture of observer P, such as the tilt of the head or upper body), but according to this embodiment, by tracking the changes in the left-right overlap range, the effects of crosstalk due to the left-right overlap range can be reduced.
  • this embodiment has the effect of improving stereoscopic vision for an observer who may be moving.
  • a three-dimensional display device in a three-dimensional display device according to the prior art (see Patent Document 1), stereoscopic vision can be provided only under the condition that the interocular distance of the observer is equal to the average interocular distance of a person and both eyes of the observer are parallel to the display surface of the display.
  • the interocular distance of the observer is assumed to the average interocular distance of a person, so when determining the range visible to the left eye and the range visible to the right eye on the display surface of the display, if the interocular distance is not equal to the average interocular distance, the range visible to the left eye and the range visible to the right eye cannot be correctly determined.
  • the three-dimensional display device does not use the positions of the left eye and the right eye independently to determine the range visible to the left eye and the range visible to the right eye, so the range visible to the left eye and the range visible to the right eye cannot be correctly determined.
  • the process of determining the visible range is performed on the assumption that the position of one eye is horizontally separated from the position of the other eye by a predetermined interocular distance.
  • the process of determining that the position of the right eye is at a position moved horizontally from the position of the left eye by a predetermined interocular distance is permitted.
  • the positions of the left eye and the right eye are not used independently to determine the range visible with the left eye and the range visible with the right eye.
  • the right-eye evaluation pixel range and the left-eye evaluation pixel range are determined by independently using the three-dimensional coordinates of the position of the right eye ER and the three-dimensional coordinates of the position of the left eye EL of the observer P acquired by the position acquisition unit 105. Therefore, even if the interocular distance of the observer is not equal to the average interocular distance of a human, or even if both eyes of the observer are not parallel to the display surface of the display, the influence of crosstalk due to the left-right overlap range can be reduced by following the change in the left-right overlap range.
  • the optical element 102 is a parallax barrier, but the present invention is not limited to this.
  • the optical element 102 may be, for example, a lenticular lens.
  • an example of the optical element 102 being a lenticular lens will be described.
  • the stereoscopic display device according to this modification is referred to as a stereoscopic display device 100a. Note that the same components as those in the above-described embodiment are denoted by the same reference numerals, and descriptions of the same components and operations may be omitted.
  • FIG. 22 is a diagram showing an example of a stereoscopic display device 100a according to this modified example.
  • the stereoscopic display device 100a includes a display 101, a lenticular lens 91, a display control unit 103, a storage unit 104, and a position acquisition unit 105.
  • the lenticular lens 91 is an example of an optical element.
  • the lenticular lens 91 is composed of a plurality of cylindrical lenses 92.
  • the lenticular lens 91 is configured by arranging a plurality of cylindrical lenses 92 extending in a second direction in a first direction.
  • the lenticular lens 91 propagates a portion of the image light, which is light emitted from a subpixel to which a left-eye image ML is assigned, so that the light reaches the position of the left eye EL of the observer P.
  • the lenticular lens 91 propagates a portion of the image light, which is light emitted from a subpixel to which a right-eye image MR is assigned, so that the light reaches the position of the right eye ER of the observer P.
  • the lenticular lens 91 limits the left eye position, which is the position of the left eye EL at which the left-eye image ML can be viewed, and the right eye position, which is the position of the right eye ER at which the right-eye image MR can be viewed, by changing the direction in which light from the display surface of the display 101 propagates using the plurality of cylindrical lenses 92.
  • Example 3-1 in FIG. 23 is an example of pixels viewed by the observer P due to the restriction of the lenticular lens 91. Since the lenticular lens has a light collecting effect, in many cases, only a part of the multiple pixels constituting the one-eye image (left-eye image ML or right-eye image MR) is observed.
  • FIG. 23 shows a case where the state of the pixel observed through the lenticular lens is the same as the state of the pixel observed through a parallax barrier with an aperture ratio equivalent to 25%.
  • These values may be determined at the time of designing the stereoscopic display device 100, or may be determined by evaluating the manufactured stereoscopic display device 100. When these values are determined by evaluating the manufactured stereoscopic display device 100, for example, the number of pixels per eye, q, is determined by illuminating each pixel of the observed display 101.
  • FIG. 24 is an explanatory diagram for explaining the operation of the display control unit 103 in Example 3-1.
  • the display control unit 103 determines that there is no evaluation overlap range, where the right eye evaluation pixel range "7th to 12th pixels" and the left eye evaluation pixel range "15th, 0th to 4th pixels" overlap. As a result, the display control unit 103 does not execute black display because there is no evaluation overlap range.
  • FIG. 25 and 26 show an example in which the actual interocular distance E' of the observer P is shorter than the average interocular distance E of a person during the operation of the stereoscopic display device 100a.
  • the distance between the two central pixels on the right eye side and the two central pixels on the left eye side is shorter by three pixels than in the example 3-1 of FIG. 24 described above.
  • FIG. 25 is an explanatory diagram for explaining how the pixels on the display surface of the display 101 are seen by the observer P in example 3-2.
  • the pixels that can be viewed by the right eye ER of the observer P due to the restriction imposed by the lenticular lens 91 as an optical element are the 6th to 11th pixels (6 pixels).
  • the pixels that can be viewed by the left eye EL of the observer P due to the restriction imposed by the lenticular lens 91 as an optical element are the 1st to 6th pixels (6 pixels).
  • the sixth pixel is a pixel that can be viewed by both eyes of the observer P. Therefore, the sixth pixel is displayed with reduced brightness (black).
  • 26 is an explanatory diagram for explaining the operation of the display control unit 103 in Example 3-2.
  • the display control unit 103 determines the evaluation overlap range "6th pixel” where the right eye evaluation pixel range “6th to 11th pixels” and the left eye evaluation pixel range "1st to 6th pixels” overlap. As a result, the display control unit 103 displays the evaluation overlap range "6th pixel” with reduced brightness (black display).
  • the configuration of the display is not limited to the configuration shown in the above-mentioned embodiment and modified example.
  • the pixels on the display surface of the display are composed of red subpixels, green subpixels, and blue subpixels, and the pixels are arranged in a lattice pattern in the first direction and the second direction
  • the present invention is not limited to this.
  • the pixels On the display surface, the pixels may be arranged based on a so-called delta arrangement in which the pixels are arranged with a half pitch shift for each row.
  • the pixels may be arranged based on an arrangement called a honeycomb structure.
  • the red subpixels, green subpixels, and blue subpixels may be arranged in stripes that are oblique to the second direction, rather than in stripes that are aligned along the second direction.
  • the display may have square pixels arranged on the display surface, and display red sub-pixels, green sub-pixels, and blue sub-pixels in a time-division manner.
  • a display such as an LED (light-emitting diode) display, one pixel may be configured by LED elements of three colors, RGB.
  • the display is a self-luminous type
  • a transmissive liquid crystal display and backlight may be used instead of the self-luminous display 101.
  • the optical element may be disposed in front of the display surface of the liquid crystal display (i.e., on the viewer's side), as in the above-described embodiment and modified examples, or may be disposed between the liquid crystal display and the backlight.
  • the first eye is the right eye ER of the observer P
  • the second eye is the left eye EL of the observer P
  • the first image is the right eye image MR
  • the second image is the left eye image ML
  • the right eye ER observes pixels assigned to the right eye image MR through the optical element 102
  • the left eye EL observes pixels assigned to the left eye image ML through the optical element 102, thereby allowing the observer P to recognize a stereoscopic image.
  • the image display device is a stereoscopic display device used for stereoscopic viewing, but the present invention is not limited to this.
  • the configuration of the stereoscopic display device according to each embodiment may be used for purposes other than stereoscopic vision.
  • the stereoscopic display device may be used to allow a plurality of observers to view different images when the observers view a display from different positions.
  • the first eye is the eye of the first observer
  • the second eye is the eye of a second observer located at a position different from the first observer
  • the first image is a first observer image that is an image to be observed by the first observer
  • the second image is a second observer image that is an image to be observed by the second observer
  • the first eye of the first observer observes the pixels to which the first observer image is assigned through an optical element
  • the second eye of the second observer observes the pixels to which the second observer image is assigned through an optical element
  • the image display device (stereoscopic display device 100, 100a) according to this embodiment and the modified example includes a display 101, an optical element 102, a position acquisition unit 105, and a display control unit 103.
  • the display 101 has a display surface including a plurality of pixels, and displays on the display surface a first image (in this embodiment, a right-eye image MR) to be viewed by the first eye (in this embodiment, the right eye ER) and a second image (in this embodiment, a left-eye image ML) to be viewed by the second eye (in this embodiment, the left eye EL).
  • the optical element 102 limits a first eye position (in this embodiment, the position of the right eye ER), which is the position of the first eye (in this embodiment, the right eye ER) at which the first image (in this embodiment, the right eye image MR) can be viewed, and a second eye position (in this embodiment, the position of the left eye EL), which is the position of the second eye (in this embodiment, the left eye EL) at which the second image (in this embodiment, the left eye image ML) can be viewed.
  • the position acquisition unit 105 acquires a first eye position (in this embodiment, the position of the right eye ER) and a second eye position (in this embodiment, the position of the left eye EL).
  • the display control unit 103 uses the first eye position (in this embodiment, the position of the right eye ER) and the second eye position (in this embodiment, the position of the left eye EL) independently to determine a first image display pixel range (in this embodiment, the right eye image display pixel range) in which the first image (in this embodiment, the right eye image MR) is displayed based on the first eye position (in this embodiment, the position of the right eye ER), and determines a second image display pixel range (in this embodiment, the left eye image display pixel range) in which the second image (in this embodiment, the left eye image ML) is displayed based on the second eye position (in this embodiment, the position of the left eye EL), and controls the display 101 so that the first image (in this embodiment, the right eye image MR) is assigned to the pixels included in the first image display pixel range (in this embodiment, the right eye image display pixel range), and the second image (in this embodiment, the left eye image ML) is assigned to the pixels included in the second image display pixel range
  • the display control unit 103 determines a both-eye overlap range (in this embodiment, a left-right overlap range) that can be seen by both the first eye (in this embodiment, the right eye ER) and the second eye (in this embodiment, the left eye EL) in the first image display pixel range (in this embodiment, the right eye image display pixel range) and the second image display pixel range (in this embodiment, the left eye image display pixel range), and when it determines that a both-eye overlap range (in this embodiment, a left-right overlap range) exists, controls the display 101 to reduce the brightness of one or more pixels included in the both-eye overlap range (in this embodiment, the left-right overlap range).
  • a both-eye overlap range in this embodiment, a left-right overlap range
  • the image display device (stereoscopic display device 100, 100a) according to this embodiment and modified example can acquire the position of the observer's eyes and assign the first image and the second image to appropriate pixels, thereby improving the visibility of the image even if the observer's eyes are not in a specified position.
  • the observer's eyes are not in a specified position when, for example, the image display device is used for stereoscopic vision and the observer moves arbitrarily or the observer's interocular distance is not equal to the average human interocular distance.
  • the observer's eyes are not in a specified position when, for example, the image display device is used as a multi-viewpoint display and multiple observers move arbitrarily.
  • the stereoscopic display device is not limited to the above-described embodiment, and various modifications, substitutions, combinations, and/or design changes can be made without departing from the spirit of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

映像表示装置は、第一目により視認されるための第一画像、及び第二目により視認されるための第二画像を表示面に表示するディスプレイと、第一画像を視認可能な第一目位置、及び第二画像を視認可能な第二目位置を制限する光学素子と、第一目位置と第二目位置とを取得する位置取得部と、第一目位置及び第二目位置をそれぞれ独立に用いて第一画像表示画素範囲を決定し、かつ第二画像表示画素範囲を決定し、第一画像表示画素範囲に含まれる画素に第一画像が割り当てられ、且つ第二画像表示画素範囲に含まれる画素に第二画像が割り当てられるようにディスプレイを制御する表示制御部と、を備え、表示制御部は、第一画像表示画素範囲及び第二画像表示画素範囲において第一目及び第二目の両方で視認し得る両目重複範囲を判定し、両目重複範囲があると判定した場合に、両目重複範囲に含まれる1個以上の画素に対して輝度を低下させるようにディスプレイを制御する。

Description

映像表示装置
 本発明は、映像表示装置に関する。
 本願は、2022年12月13日に、日本に出願された特願2022-198604号に基づき優先権を主張し、その内容をここに援用する。
 従来から三次元メガネ、三次元ゴーグル等を使用すること無く、観察者に立体的な映像を視認させるディスプレイの研究開発が進められている。このようなディスプレイの一例として、例えば、特許文献1に開示されている三次元表示装置が挙げられる。また、従来から複数の観察者が互いに異なる位置からディスプレイを観察する場合に、複数の観察者それぞれに互いに異なる画像を視認させる多視点ディスプレイの研究開発が進められている。
特開2022-020434号公報
 上述した三次元表示装置は、観察者の眼間距離が人の平均的な眼間距離に等しく、且つ観察者の両目がディスプレイの表示面に対して平行な位置にある場合には、観察者が移動しても適切な立体視を提供することができる。しかし、そのような条件にない観察者に対しては、適切な立体視を提供することができない可能性があった。また、上述した多視点ディスプレイは、複数の観察者同士の間隔が所定の距離に等しない場合、または複数の観察者がディスプレイの表示面に対して平行な位置にない場合には、複数の観察者それぞれに適切な見え方を提供することができない可能性があった。
 本発明は、このような事情を考慮してなされたものであり、その目的は、観察者の目の位置が所定の位置にない場合であっても画像の視認性を向上させることができる映像表示装置を提供することにある。
 本発明の一態様は、複数の画素を含む表示面を有し、第一目により視認されるための第一画像、及び第二目により視認されるための第二画像を前記表示面に表示するディスプレイと、前記第一画像を視認可能な前記第一目の位置である第一目位置、及び前記第二画像を視認可能な前記第二目の位置である第二目位置を制限する光学素子と、前記第一目位置と前記第二目位置とを取得する位置取得部と、前記第一目位置及び前記第二目位置をそれぞれ独立に用いて、前記第一目位置に基づいて前記第一画像を表示させる第一画像表示画素範囲を決定し、かつ前記第二目位置に基づいて前記第二画像を表示させる第二画像表示画素範囲を決定し、前記第一画像表示画素範囲に含まれる画素に前記第一画像が割り当てられ、且つ前記第二画像表示画素範囲に含まれる画素に前記第二画像が割り当てられるように前記ディスプレイを制御する表示制御部と、を備え、前記表示制御部は、前記第一画像表示画素範囲及び前記第二画像表示画素範囲において前記第一目及び前記第二目の両方で視認し得る両目重複範囲を判定し、前記両目重複範囲があると判定した場合に、前記両目重複範囲に含まれる1個以上の画素に対して輝度を低下させるように前記ディスプレイを制御する、映像表示装置である。
 本発明によれば、観察者の目の位置が所定の位置にない場合であっても画像の視認性を向上させることができるという効果が得られる。
一実施形態に係る立体表示装置の一例を示す図である。 一実施形態に係る立体表示装置の制御方法の設計段階の手順の例を示すフローチャートである。 一実施形態に係るバリア端面重複画素範囲の説明図である。 一実施形態に係る輝度低下方法を決定する方法の例の説明図である。 一実施形態に係る立体表示装置の制御方法の運用段階の手順の例を示すフローチャートである。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。 一実施形態に係る輝度均一化処理について説明するための説明図である。 一実施形態に係る輝度均一化処理について説明するための説明図である。 実施形態の変形例に係る立体表示装置の一例を示す図である。 実施形態の変形例に係る立体表示装置の制御方法の実施例を説明するための説明図である。 実施形態の変形例に係る立体表示装置の制御方法の実施例を説明するための説明図である。 実施形態の変形例に係る立体表示装置の制御方法の実施例を説明するための説明図である。 実施形態の変形例に係る立体表示装置の制御方法の実施例を説明するための説明図である。
(実施形態)
 以下、図面を参照し、本発明の実施形態について説明する。
 図1は、一実施形態に係る立体表示装置の一例を示す図である。図1に示すように、立体表示装置100は、ディスプレイ101と、光学素子102と、表示制御部103と、記憶部104と、位置取得部105と、を備える。以下の説明では、図1に示したX軸、Y軸及びZ軸により定義される三次元直交座標を適宜使用する。
 ディスプレイ101は、第一方向及び第二方向に沿って配置された複数の画素を含む表示面を有する。第一方向は、例えば、図1に示したX方向である。第二方向は、第一方向と交差する方向であり、例えば、図1に示したY方向である。ディスプレイ101は、XY平面に平行であり、n(nは2m以上の正の整数、mは正の整数)個の画素毎に、Z軸に垂直な面に右目画像MR及び左目画像MLの組を表示面に表示する。右目画像MR及び左目画像ML各々は、m個の画素のサイズで構成される。右目画像MRは、観察者Pの右目ERにより視認されるための画像である。左目画像MLは、観察者Pの左目ELにより視認されるための画像である。右目画像MR及び左目画像MLの組は視差画像である。同組の右目画像MR及び左目画像MLが観察者Pの右目ER及び左目ELにより正しく視認されることによって、観察者Pに対して正常な立体視を提供することができる。なお、図1に示されるディスプレイ101の表示面上の画素の配置は、説明の便宜上のものである。ディスプレイ101は、一例として、自発光型のディスプレイである。
 ディスプレイ101の表示面上に配置された画素は、R(Red)、G(Green)、及び(Blue)のいずれかの色に対応する。R、G、及びBの3つの画素を一組として、1ピクセルが構成されてよい。R、G、及びBの3つの画素を一組として、1ピクセルが構成される場合、R、G、及びBのいずれかの色に対応する画素を、サブピクセルとも記載する。したがって、R、G、及びBの3つのサブピクセルを一組として、1ピクセルが構成されてよい。その場合、第一方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。第二方向は、例えば、同じ色に対応するサブピクセルが並ぶ方向である。
 光学素子102は、例えば、遮光領域と透過領域とを有するパララックスバリアである。光学素子102は、遮光領域及び透過領域によって右目ERの位置、及び左目ELの位置を制限する。光学素子102は、例えば、X軸及びY軸に対して所定の角度(傾斜角)で傾いている線状のスリットを有するパララックスバリアである。本実施形態では、光学素子102の一例として、n個の画素に対して1個の開口部を持つパララックスバリアを用いる。光学素子102は、右目画像MR及び左目画像ML各々を視認可能な右目ERの位置及び左目ELの位置を制限する。また図1に示すように、観察者Pの右目ER及び左目ELが画面全体において正常な立体視を観察するには、観察者Pは光学素子102から最適観察距離OVDだけ離れた位置から観察する必要がある。なお、開口部は、透過領域の一例である。また、パララックスバリアにおいて開口部以外の領域は、遮光領域の一例である。
 検出装置3は、観察者Pの右目ERの位置及び左目ELの位置を検出し、立体表示装置100へ出力する。ここで検出装置3は、右目ERの位置及び左目ELの位置を個々に検出する。検出装置3は、例えばカメラ等のセンサを備える。例えば、検出装置3は、カメラを備え、カメラが撮像した観察者Pの顔の画像から右目ERの位置及び左目ELの位置を検出する。検出装置3は、検出した観察者Pの右目ERの位置の3次元座標及び左目ELの位置の3次元座標を立体表示装置100へ出力する。なお、検出装置3は、立体表示装置100に備わっていてもよく、又は立体表示装置100とは別個の装置であってもよい。検出装置3は、第一目位置と第二目位置とを個々に検出する視点検出部の一例である。
 位置取得部105は、観察者Pの右目ERの位置及び左目ELの位置を取得する。具体的には、位置取得部105は、検出装置3から立体表示装置100へ入力された観察者Pの右目ERの位置の3次元座標及び左目ELの位置の3次元座標を取得する。位置取得部105は、検出装置3によって個々に検出された右目ERの位置と左目ELの位置とを取得する。
 表示制御部103は、観察者Pの右目ERの位置に対して割り当てる右目画像MRの右目画像表示画素範囲及び左目ELの位置に対して割り当てる左目画像MLの左目画像表示画素範囲を決定し、右目画像表示画素範囲に右目画像MRを表示させ且つ左目画像表示画素範囲に左目画像MLを表示させるようにディスプレイ101を制御する。
 なお、観察者Pの目の位置に対して画像を割り当てるとは、ディスプレイ101の表示面において当該目により視認される範囲に含まれる画素に当該画像を割り当てることである。表示制御部103は、右目ERの位置及び左目ELの位置をそれぞれ独立に用いて、右目ERの位置に基づいて右目画像MRを表示させる右目画像表示画素範囲を決定し、かつ左目ELの位置に基づいて左目画像MLを表示させる左目画像表示画素範囲を決定し、右目画像表示画素範囲に含まれる画素に右目画像MRが割り当てられ、且つ左目画像表示画素範囲に含まれる画素に左目画像MLが割り当てられるようにディスプレイ101を制御する。ここで画素に画像を割り当てるとは、画素に当該画像に基づく輝度値を割り当てることである。
 また表示制御部103は、右目画像表示画素範囲及び左目画像表示画素範囲において観察者Pの右目ER及び左目ELの両方で視認し得る左右重複範囲を判定し、当該判定により左右重複範囲がある場合に、当該左右重複範囲に含まれる1個以上の画素に対して輝度を低下させるようにディスプレイ101を制御する。輝度を低下させる方法の一例は、黒表示である。なお、右目ERは、第一目の一例であり、左目ELは、第二目の一例である。また、左右重複範囲は、両目重複範囲の一例である。
 記憶部104は、各種のデータを記憶する。記憶部104は、表示制御部103からアクセスされる。
 なお、表示制御部103は、例えば、記憶媒体に格納されている表示制御プログラムがCPU(Central Processing Unit)等に読み出されて実行されることにより実現される。或いは、表示制御部103は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等の回路部(circuitry)を含むハードウェアにより実現されてもよい。或いは、表示制御部103は、ソフトウェアとハードウェアの協働により実現されてもよい。また、これらのハードウェアは、一つに統合されていてもよいし、複数に分かれていてもよい。
 また記憶部104は、ハードディスク装置や光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD-ROM等の読み出しのみが可能な記録媒体、DRAM(Dynamic Random Access Memory)等の揮発性のメモリ、あるいはこれらの組み合わせにより構成されてもよい。
 以下、本実施形態に係る立体表示装置100の制御方法の例について説明する。
 本実施形態に係る立体表示装置100の制御方法は、設計段階と運用段階とを有する。設計段階は、立体表示装置100の設計時に実施される。運用段階は、観察者Pによる立体表示装置100の使用時に実施される。
[設計段階]
 図2を参照して本実施形態に係る立体表示装置100の制御方法の設計段階を説明する。図2は、本実施形態に係る立体表示装置の制御方法の設計段階の手順の例を示すフローチャートである。
(ステップS101)右目画像MR及び左目画像MLのサイズである画素数mを決定する。この画素数mの決定方法を説明する。ディスプレイ101の表示面には、最適観察距離OVDに在る観察者Pから見て、n個のそれぞれの画素が光学素子102の開口部のX軸方向の中心に観察されるn個の各画素に対応する領域(画素領域)がX軸方向に等間隔に連続して存在する。このとき、「m≦n/2」であり、m個の画素領域のX軸方向の幅Aが「人の平均的な眼間距離E」に対して「A≒E」である。この関係から、「人の平均的な眼間距離E」をディスプレイ101の設計上の「1個の画素領域のX軸方向の幅」で除した商を、画素数mとして求めることができる。なお、「m≦n/2」という関係は、n個の画素の中には最適観察距離OVDに在る観察者Pに全く視認されない画素を存在させることができることを示す。図1には、その全く視認されない画素として第0-第1の画素が示されている。
 以下、ディスプレイ101の表示面上の画素領域のことを単に画素と称する場合がある。また、当該画素領域のことを単に画素と称する場合、当該画素は、上述したサブピクセルの意味である。
(ステップS102)光学素子102の設計上の開口率から、片目に観察される画素の範囲(片目画素範囲)の画素数(片目画素数)qを決定する。光学素子102としてのパララックスバリアの開口率は、式「(m-k)/n、k<m」で定義される。kは、m個の画素のうち、最適観察距離OVDに在る観察者Pから視認できない画素の個数である。「k=0」且つ「2m=n」の場合、「開口率=50%」である。上記開口率から、片目画素数qは「q=m-k」である。なお、通常は「k≧0」であるが、「k<0」であってもよい。
(ステップS103)ディスプレイ101の表示面上のn個の画素のうち、観察者Pから見て光学素子102としてのパララックスバリアの端面に重複する範囲(バリア端面重複画素範囲)の画素の個数rを決定する。図3は、本実施形態に係るバリア端面重複画素範囲の説明図である。図3には、光学素子102としてのパララックスバリアのバリア端面210に重複するバリア端面重複画素範囲の画素200が示される。当該バリア端面重複画素範囲の画素200は、観察者Pの右目ER及び左目ELの両方で視認し得る画素である。したがって、バリア端面重複画素範囲は、右目と左目の両方で視認される可能性があるので、クロストークの原因になり得る。このため、バリア端面重複画素範囲は、後述する輝度低下処理を実施することが好ましい範囲である。バリア端面重複画素範囲の画素の個数rは、式「tanθ=a×Hp/(b×Vp)」の場合に式「r=a+b-1」により求められる。θはパララックスバリアの傾斜角である。ここで、パララックスバリアの傾斜角θは、0°以上かつ90°未満の角度であって、パララックスバリアの傾斜角θが0°より大きい(θ>0°)場合、上記の式においてディスプレイ101の表示面上における画素のX方向の長さをHpとし、表示面上における画素のY方向の長さをVpとし、a及びbは自然数である。
 上述したように、表示制御部103は、第一目位置(本実施形態において、右目ERの位置)から光学素子102を介して観察される範囲の端部(本実施形態において、バリア端面210)であり、且つ、第二目位置(本実施形態において、左目ELの位置)から光学素子102を介して観察される範囲の端部(本実施形態において、バリア端面210)である範囲(本実施形態において、バリア端面重複画素範囲)を両目重複範囲(本実施形態において、左右重複範囲)として判定する。
(ステップS104)輝度低下方法を決定し、決定した輝度低下方法を記憶部104に記憶させる。輝度低下方法の決定方法を説明する。バリア端面重複画素範囲の画素の個数rのうち、輝度低下処理を実施する可能性がある画素数pを決定する。輝度低下処理は、例えば黒表示である。図4は、輝度低下方法を決定する方法の例の説明図である。図4において、光学素子102としてのパララックスバリアのバリア端面210aとバリア端面210bとの間がバリア開口内部である。図4には、バリア端面210aにおけるバリア端面重複画素範囲の画素211a,212a,213aと、バリア端面210bにおけるバリア端面重複画素範囲の画素211b,212b,213bとが示される。この図4の例では、r=3、である。また、図4の例では、開口率=50%、m=9、q=9、である。バリア端面重複画素範囲の画素すべてを例えば黒表示する場合、p=r=3、である。なお、p≦r、である。また、rが偶数の場合にpを偶数にし、一方、rが奇数の場合にpを奇数にしてもよい。例えば、rが偶数の場合にpを2個にし、一方、rが奇数の場合にpを1個にしてもよい。
 次いで、バリア開口内部における評価画素数を「q+p」個とし、右目画像MR及び左目画像MLの中心画素数を決定する。評価画素数「q+p」が偶数である場合、中心画素数は2個である。一方、評価画素数「q+p」が奇数である場合、中心画素数は1個である。例えば、図4の「r=3」において「p=1」にした場合、評価画素数「q+p=9+1=10」であり偶数であるので、中心画素数は2個である。
 本実施形態では、右目画像表示画素範囲及び左目画像表示画素範囲において観察者Pの右目ER及び左目ELの両方で視認し得る左右重複範囲を判定するために、評価画素数「q+p」分の右目評価画素範囲と評価画素数「q+p」分の左目評価画素範囲とを用いる。後述する運用段階では、観察者Pの右目ERの位置及び左目ELの位置を取得し、取得した右目ERの位置に対して割り当てる評価画素数「q+p」分の右目評価画素範囲と、取得した左目ELの位置に対して割り当てる評価画素数「q+p」分の左目評価画素範囲とを決定し、決定した右目評価画素範囲と左目評価画素範囲とが重複する範囲(評価重複範囲)を判定する。本設計段階では、その右目評価画素範囲と左目評価画素範囲とが重複する評価重複範囲に関する輝度低下方法を決定し、決定した輝度低下方法を記憶部104に記憶させる。
 評価重複範囲に関する輝度低下方法を説明する。
 まず、評価重複範囲は輝度を低下させる。このとき、評価重複範囲の画素数が所定の第1閾値(例えば2p)以下である場合において、バリア端面重複画素範囲のp個の画素のうち少なくとも1個の画素(バリア端面輝度低下画素)に対して輝度を低下させるときは、モアレ防止処理としてさらに、当該少なくとも1個のバリア端面輝度低下画素から片目画素数qだけ離れた画素に対しても同様に輝度を低下させる。一方、評価重複範囲の画素数が片目分で所定の第2閾値(例えば2p)を超過する場合には、当該超過した個数分の画素に対しては輝度を低下させるのみとし、モアレ防止処理は実行しない。これは、第2閾値を超過した個数分の画素は、パララックスバリアの端面には存在しないので、バリア端面に起因するモアレの原因とはならないからである。なお、輝度を低下させる方法の一例は、黒表示である。
 上述したモアレ防止処理は、立体表示装置100の設計上、モアレが発生すると判断された場合にのみ、実施すればよい。
 なお、上述した輝度低下方法によって、ディスプレイ101の表示面において黒表示等により輝度を低下する画素数が増大すると、ディスプレイ101の表示面に明るさの不均一が目立ったり、ディスプレイ101の表示面が全体的に暗くなったりする。例えば、第2閾値を超過した個数分の画素に対して輝度を低下させる場合、観察者Pの状況により、ディスプレイ101の表示面内で輝度低下処理を実施する画素の個数が部分的に異なる場合が発生する。これにより、ディスプレイ101の表示面に明るさの不均一が目立つ可能性がある。このような場合に対処するため、ディスプレイ101の表示面全体における輝度の均一化を行う輝度均一化処理を実行するように設定しておく。
 上述した輝度低下方法を、立体表示装置100の設計上、存在し得る全ての場合について決定し、記憶部104に記憶させる。
[運用段階]
 図5を参照して本実施形態に係る立体表示装置100の制御方法の運用段階を説明する。図5は、本実施形態に係る立体表示装置の制御方法の運用段階の手順の例を示すフローチャートである。
(ステップS201)位置取得部105は、検出装置3から立体表示装置100へ入力された観察者Pの右目ERの位置の3次元座標及び左目ELの位置の3次元座標を取得する。
(ステップS202)表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置の3次元座標及び左目ELの位置の3次元座標に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p」分の右目評価画素範囲と、左目ELの位置に対して割り当てる評価画素数「q+p」分の左目評価画素範囲とを決定する。ここで表示制御部103は、観察者Pの右目ERの位置の3次元座標及び左目ELの位置の3次元座標をそれぞれ独立に用いて、右目評価画素範囲と、左目評価画素範囲とを決定する。
(ステップS203)表示制御部103は、ステップS202で決定した右目評価画素範囲と左目評価画素範囲とが重複する範囲(評価重複範囲)を判定する。評価重複範囲は、観察者Pの実際の眼間距離E’や観察者Pの観察状態(頭部や上半身の傾き等の観察者Pの姿勢など)に応じて変化する。ステップS203の判定の結果、評価重複範囲がある場合(ステップS203、YES)はステップS205に進む。一方、評価重複範囲がない場合(ステップS203、NO)はステップS204に進む。
(ステップS204)ステップS203の判定により評価重複範囲がない場合、表示制御部103は、右目評価画素範囲(画素数「q+p」)の中心画素を含む片目画素範囲(画素数「q」)を右目画像表示画素範囲にして右目画像MRを表示させ且つ左目評価画素範囲(画素数「q+p」)の中心画素を含む片目画素範囲(画素数「q」)を左目画像表示画素範囲にして左目画像MLを表示させるようにディスプレイ101を制御する。この後、ステップS207へ進む。この場合、輝度低下処理は実行されない。
 上述したように、表示制御部103は、両目重複範囲(本実施形態において、評価重複範囲)があるか否かを判定し、当該両目重複範囲がないと判定した場合に、第一目位置(本実施形態において、右目ERの位置)から視認され、且つ、第二目位置(本実施形態において、左目ELの位置)から視認されない領域を第一画像表示画素範囲(本実施形態において、右目画像表示画素範囲)として決定し、当該第二目位置から視認され、且つ、当該第一目位置から視認されない領域を第二画像表示画素範囲(本実施形態において、左目画像表示画素範囲)として決定し、当該第一画像表示画素範囲に含まれる画素に第一画像(本実施形態において、右目画像MR)が割り当てられ、且つ当該第二画像表示画素範囲に含まれる画素に第二画像(本実施形態において、左目画像ML)が割り当てられるようにディスプレイ101を制御する。
(ステップS205)ステップS203の判定により評価重複範囲がある場合、表示制御部103は、当該判定結果に対応する輝度低下方法を記憶部104から取得する。
(ステップS206)表示制御部103は、右目評価画素範囲(画素数「q+p」)の中心画素を含む片目画素範囲(画素数「q」)を右目画像表示画素範囲にして右目画像MRを表示させ且つ左目評価画素範囲(画素数「q+p」)の中心画素を含む片目画素範囲(画素数「q」)を左目画像表示画素範囲にして左目画像MLを表示させるようにディスプレイ101を制御すると共に、記憶部104から取得した輝度低下方法によりディスプレイ101を制御する。
(ステップS207)表示制御部103は、ディスプレイ101の表示面全体において部分的に輝度低下処理の不均一があるか否かを判定する。この判定の結果、部分的に輝度低下処理の不均一がある場合はステップS208へ進み、そうではない場合は図5の処理を終了する。
(ステップS208)表示制御部103は、所定の輝度均一化処理を実行する。この後、図5の処理を終了する。
 ここで、輝度均一化処理について説明する。上述した設計段階において述べたように、例えば、第2閾値を超過した個数分の画素に対して輝度を低下させる場合、観察者Pの状況により、ディスプレイ101の表示面内で輝度低下処理を実施する画素の個数が部分的に異なる場合が発生する。例えば、図20に例示されるように、観察者Pの両目がディスプレイの表示面に対して平行な位置にない場合である。このような場合、図21に例示されるように、ディスプレイ101の表示面内で輝度低下処理を実施する画素の個数が部分的に異なることによって、ディスプレイの表示面上のそれぞれの領域(画素数n)で表示される画素数(表示数)が異なってくる。例えば、第1領域では観察者Pの両目で観察される画素数「8」のうち輝度低下処理としての黒表示により表示数「4」であるが、第2領域では観察者Pの両目で観察される画素数「8」のうち輝度低下処理としての黒表示により表示数「2」であるなどである。これによりディスプレイ101の表示面全体における部分的な輝度の不均一が発生するので、この対処として輝度均一化処理を実行する。
 輝度均一化処理として、例えば、表示制御部103は、ディスプレイ101の表示面の明るさを均一に調節するために、ディスプレイ101の表示面の画素のうち他の領域に比べて一定以上明るい領域に存在する画素に対して輝度を低下させてもよい。
 また、表示制御部103は、ディスプレイ101の表示面における輝度を低下させる画素の割合が一定以上である場合に、ディスプレイ101の表示面全体の輝度を上げる制御を行ってもよい。ディスプレイ101の表示面全体の輝度を上げる制御として、例えばディスプレイ101において表示面を照らすバックライトの光度を上げることが挙げられる。
 図6-図19は、本実施形態に係る立体表示装置の制御方法の実施例を説明するための説明図である。図6-図19を参照して立体表示装置100の制御方法の実施例を説明する。ここでは、光学素子102としてのパララックスバリアの設計上の開口率の例として50%の場合と25%の場合とを挙げる。また、ここでは、輝度低下処理の例として黒表示を行う。
[開口率:50%]
 図6-図13の実施例は、光学素子102としてのパララックスバリアの設計上の開口率が50%である場合の実施例である。図6-図13の実施例において、n=16、m=8、k=0、q=8、p=2、p+q=10(偶数)、中心画素数=2、第1閾値=2p=4、第2閾値=2p=4、である。これらの値は、立体表示装置100の設計時に決定される。
 図6及び図7の実施例1-1は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eに等しい場合である。図6は、実施例1-1における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図6の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第5-第14の画素(10個)である。また、図6の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第13-第15,第0-第6の画素(10個)である。そして、第5-第6,第13-第14の画素は、観察者Pの両目で視認し得る画素である。このため、第5-第6,第13-第14の画素は、黒表示にする。
 図7は、実施例1-1における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=10」分の右目評価画素範囲「第5-第14の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=10」分の左目評価画素範囲「第13-第15,第0-第6の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第5-第14の画素」と左目評価画素範囲「第13-第15,第0-第6の画素」とが重複する評価重複範囲「第5-第6の画素」と「第13-第14の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第5-第6の画素」と「第13-第14の画素」を黒表示にする。
 図8及び図9の実施例1-2は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eよりも短い場合である。これにより、図9に示されるように、右目側の2個の中心画素と左目側の2個の中心画素との間隔が上記した図7の実施例1-1よりも1画素分だけ短くなっている。図8は、実施例1-2における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図8の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第4-第13の画素(10個)である。また、図8の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第13-第15,第0-第6の画素(10個)である。そして、第4-第6,第13の画素は、観察者Pの両目で視認し得る画素である。このため、第4-第6,第13の画素は、黒表示にする。
 図9は、実施例1-2における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=10」分の右目評価画素範囲「第4-第13の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=10」分の左目評価画素範囲「第13-第15,第0-第6の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第4-第13の画素」と左目評価画素範囲「第13-第15,第0-第6の画素」とが重複する評価重複範囲「第4-第6,第13の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第4-第6,第13の画素」を黒表示にする。ここで、評価重複範囲の画素数「4」が第1閾値「2p=4」以下であり、且つバリア端面重複画素範囲の「p=2」個の画素「第4-第5の画素」,「第5-第6の画素」のうち少なくとも1個の画素(バリア端面輝度低下画素「第4-第5の画素」,「第5-第6の画素」)に対して輝度を低下させるので、表示制御部103は、モアレ防止処理としてさらに、当該バリア端面輝度低下画素「第4-第6の画素」から片目画素数「q=8」だけ離れた画素「第12,第14の画素」に対しても同様に黒表示にする。
 図10及び図11の実施例1-3は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eよりも短い場合である。これにより、図11に示されるように、右目側の2個の中心画素と左目側の2個の中心画素との間隔が上記した図7の実施例1-1よりも2画素分だけ短くなっている。図10は、実施例1-3における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図10の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第4-第13の画素(10個)である。また、図10の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第14-第15,第0-第7の画素(10個)である。そして、第4-第7の画素は、観察者Pの両目で視認し得る画素である。このため、第4-第7の画素は、黒表示にする。
 図11は、実施例1-3における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=10」分の右目評価画素範囲「第4-第13の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=10」分の左目評価画素範囲「第14-第15,第0-第7の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第4-第13の画素」と左目評価画素範囲「第14-第15,第0-第7の画素」とが重複する評価重複範囲「第4-第7の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第4-第7の画素」を黒表示にする。ここで、評価重複範囲の画素数「4」が第1閾値「2p=4」以下であり、且つバリア端面重複画素範囲の「p=2」個の画素「第4-第5の画素」,「第6-第7の画素」のうち少なくとも1個の画素(バリア端面輝度低下画素「第4-第5の画素」,「第6-第7の画素」)に対して輝度を低下させるので、表示制御部103は、モアレ防止処理としてさらに、当該バリア端面輝度低下画素「第4-第7の画素」から片目画素数「q=8」だけ離れた画素「第12-第15の画素」に対しても同様に黒表示にする。
 図12及び図13の実施例1-4は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eよりも短い場合である。これにより、図13に示されるように、右目側の2個の中心画素と左目側の2個の中心画素との間隔が上記した図7の実施例1-1よりも3画素分だけ短くなっている。図12は、実施例1-4における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図12の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第4-第13の画素(10個)である。また、図12の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第15,第0-第8の画素(10個)である。そして、第4-第8の画素は、観察者Pの両目で視認し得る画素である。このため、第4-第8の画素は、黒表示にする。
 図13は、実施例1-4における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=10」分の右目評価画素範囲「第4-第13の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=10」分の左目評価画素範囲「第15,第0-第8の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第4-第13の画素」と左目評価画素範囲「第15,第0-第8の画素」とが重複する評価重複範囲「第4-第8の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第4-第8の画素」を黒表示にする。ここで、評価重複範囲の画素数「5」が第2閾値「2p=4」超過であるので、当該超過した個数分の画素「第6の画素」に対しては輝度を低下させるのみとし、モアレ防止処理は実行しない。これにより、表示制御部103は、モアレ防止処理としてさらに、バリア端面輝度低下画素「第4-第5,第7-第8の画素」から片目画素数「q=8」だけ離れた画素「第12-第13,第15,第0の画素」に対しても同様に黒表示にする。
[開口率:25%]
 図14-図19の実施例は、光学素子102としてのパララックスバリアの設計上の開口率が25%である場合の実施例である。図14-図19の実施例において、n=16、m=8、k=4、q=4、p=2、p+q=6(偶数)、中心画素数=2、第1閾値=2p=4、第2閾値=2p=4、である。これらの値は、立体表示装置100の設計時に決定される。
 図14及び図15の実施例2-1は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eに等しい場合である。図14は、実施例2-1における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図14の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第7-第12の画素(6個)である。また、図14の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第15,第0-第4の画素(6個)である。この実施例2-1では、観察者Pの両目で視認し得る画素がない。このため、黒表示する画素がない。
 図15は、実施例2-1における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=6」分の右目評価画素範囲「第7-第12の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=6」分の左目評価画素範囲「第15,第0-第4の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第7-第12の画素」と左目評価画素範囲「第15,第0-第4の画素」とが重複する評価重複範囲「なし」を判定する。これにより、表示制御部103は、評価重複範囲がないので、黒表示を実行しない。
 図16及び図17の実施例2-2は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eよりも短い場合である。これにより、図17に示されるように、右目側の2個の中心画素と左目側の2個の中心画素との間隔が上記した図15の実施例2-1よりも3画素分だけ短くなっている。図16は、実施例2-2における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図16の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第6-第11の画素(6個)である。また、図16の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第1-第6の画素(6個)である。そして、第6の画素は、観察者Pの両目で視認し得る画素である。このため、第6の画素は、黒表示にする。
 図17は、実施例2-2における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=6」分の右目評価画素範囲「第6-第11の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=6」分の左目評価画素範囲「第1-第6の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第6-第11の画素」と左目評価画素範囲「第1-第6の画素」とが重複する評価重複範囲「第6の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第6の画素」を黒表示にする。ここで、評価重複範囲の画素数「1」が第1閾値「2p=4」以下であり、且つバリア端面重複画素範囲の「p=2」個の画素「第6-第7の画素」のうち少なくとも1個の画素(バリア端面輝度低下画素「第6の画素」に対して輝度を低下させるので、表示制御部103は、モアレ防止処理としてさらに、当該バリア端面輝度低下画素「第6の画素」から片目画素数「q=4」だけ離れた画素「第2,第10の画素」に対しても同様に黒表示にする。
 図18及び図19の実施例2-3は、立体表示装置100の運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eよりも短い場合である。これにより、図19に示されるように、右目側の2個の中心画素と左目側の2個の中心画素との間隔が上記した図15の実施例2-1よりも4画素分だけ短くなっている。図18は、実施例2-3における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図18の右目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの右目ERで視認し得る画素は、第6-第11の画素(6個)である。また、図18の左目側において、光学素子102としてのパララックスバリアによる制限によって観察者Pの左目ELで視認し得る画素は、第2-第7の画素(6個)である。そして、第6-第7の画素は、観察者Pの両目で視認し得る画素である。このため、第6-第7の画素は、黒表示にする。
 図19は、実施例2-3における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=6」分の右目評価画素範囲「第6-第11の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=6」分の左目評価画素範囲「第2-第7の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第6-第11の画素」と左目評価画素範囲「第2-第7の画素」とが重複する評価重複範囲「第6-第7の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第6-第7の画素」を黒表示にする。ここで、評価重複範囲の画素数「2」が第1閾値「2p=4」以下であり、且つバリア端面重複画素範囲の「p=2」個の画素「第6-第7の画素」のうち少なくとも1個の画素(バリア端面輝度低下画素「第6-第7の画素」に対して輝度を低下させるので、表示制御部103は、モアレ防止処理としてさらに、当該バリア端面輝度低下画素「第6-第7の画素」から片目画素数「q=4」だけ離れた画素「第2-第3,第10-第11の画素」に対しても同様に黒表示にする。
 以上が本実施形態に係る立体表示装置100の制御方法の例の説明である。
 本実施形態によれば、観察者の右目の位置と当該観察者の左目の位置とを取得し、当該右目の位置に対して割り当てる右目画像の右目画像表示画素範囲及び当該左目の位置に対して割り当てる左目画像の左目画像表示画素範囲を決定し、当該右目画像表示画素範囲に当該右目画像を表示させ且つ当該左目画像表示画素範囲に当該左目画像を表示させるようにディスプレイが制御される。これにより、観察者が任意に移動しても追従して右目画像及び左目画像を適切な画素に割り当てることができるので、当該観察者に対して適切な立体視を提供することができる。さらに、右目画像表示画素範囲及び左目画像表示画素範囲において観察者の右目及び左目の両方で視認し得る左右重複範囲を判定し、当該判定により左右重複範囲がある場合に、当該左右重複範囲に含まれる1個以上の画素に対して輝度を低下させるようにディスプレイが制御される。これにより、右目画像表示画素範囲と左目画像表示画素範囲とがそれぞれ観察者の右目の位置と左目の位置とに応じて別個に決定されたことによって観察者の両目で視認され得る左右重複範囲が変化しても、当該左右重複範囲によるクロストークの影響を軽減することができる。これにより、当該観察者に対して適切な立体視を提供することができる。
 また、当該左右重複範囲は、観察者の実際の眼間距離や観察者の観察状態(頭部や上半身の傾き等の観察者Pの姿勢など)に応じて変化するが、本実施形態によれば、当該左右重複範囲の変化に追従することにより、当該左右重複範囲によるクロストークの影響を軽減することができる。
 上述したように本実施形態によれば、移動する可能性がある観察者に対する立体視の向上を図ることができるという効果が得られる。
 一方、従来技術に係る三次元表示装置(特許文献1を参照)では、観察者の眼間距離が人の平均的な眼間距離に等しく、且つ観察者の両目がディスプレイの表示面に対して平行な位置にあるという条件の下でのみ立体視を提供できる。従来技術に係る三次元表示装置では、まず、観察者の眼間距離が人の平均的な眼間距離に等しいことが仮定されているため、ディスプレイの表示面において左目で視認可能な範囲、及び右目で視認可能な範囲を判定する際に、眼間距離が平均的な眼間距離に等しくない場合には、左目で視認可能な範囲、及び右目で視認可能な範囲を正しく判定できない。次に、観察者の眼間距離が人の平均的な眼間距離に等しい場合であっても、両目がディスプレイの表示面に対して平行な位置にない場合には、従来技術に係る三次元表示装置では、左目の位置、及び右目の位置をそれぞれ独立に用いて、左目で視認可能な範囲、及び右目で視認可能な範囲を判定していないため、左目で視認可能な範囲、及び右目で視認可能な範囲を正しく判定できない。従来技術に係る三次元表示装置では、右目の位置、及び左目の位置を個々に取得したとしても、一方の目の位置は他方の目に位置に対して水平方向に所定の眼間距離だけ離れていることが仮定されて視認可能な範囲を判定する処理が行われる。例えば、従来技術に係る三次元表示装置では、左目の位置を取得すると、右目の位置は、当該左目の位置から水平方向に所定の眼間距離だけ移動した位置にあると判定される処理が許される。つまり、従来技術に係る三次元表示装置では、左目で視認可能な範囲、及び右目で視認可能な範囲を判定するために、左目の位置、及び右目の位置がそれぞれ独立に用いられていない。
 一方、本実施形態に係る立体表示装置100では、ステップS202の処理において説明したように、位置取得部105が取得した観察者Pの右目ERの位置の3次元座標及び左目ELの位置の3次元座標がそれぞれ独立に用いられて、右目評価画素範囲と、左目評価画素範囲とが決定される。そのため、観察者の眼間距離が人の平均的な眼間距離に等しくない場合、または観察者の両目がディスプレイの表示面に対して平行な位置にない場合であっても、左右重複範囲の変化に追従することにより、当該左右重複範囲によるクロストークの影響を軽減することができる。
(変形例)
 以下、図面を参照しながら本発明の実施形態の変形例について詳しく説明する。
 上述した実施形態では、光学素子102がパララックスバリアである場合を例に挙げて説明したが、これに限定されない。光学素子102は、例えば、レンチキュラーレンズであってもよい。本変形例では、光学素子102がレンチキュラーレンズである場合の一例について説明する。
 本変形例に係る立体表示装置を立体表示装置100aと記載する。なお、上述した実施形態と同一の構成については同一の符号を付して、同一の構成及び動作についてはその説明を省略する場合がある。
 図22は、本変形例に係る立体表示装置100aの一例を示す図である。図1に示すように、立体表示装置100aは、ディスプレイ101と、レンチキュラーレンズ91と、表示制御部103と、記憶部104と、位置取得部105と、を備える。
 レンチキュラーレンズ91は、光学素子の一例である。レンチキュラーレンズ91は、複数のシリンドリカルレンズ92からなる。レンチキュラーレンズ91は、第二方向に延びる複数のシリンドリカルレンズ92を第一方向に配列して構成される。レンチキュラーレンズ91は、パララックスバリアと同様に、左目画像MLが割り当てられるサブピクセルから射出した光である画像光の一部を、観察者Pの左目ELの位置に到達させるように伝播させる。レンチキュラーレンズ91は、右目画像MRが割り当てられるサブピクセルから射出した画像光の一部を、観察者Pの右目ERの位置に到達させるように伝播させる。したがって、レンチキュラーレンズ91(光学素子)は、複数のシリンドリカルレンズ92によってディスプレイ101の表示面からの光が伝搬する方向を変更することによって左目画像MLを視認可能な左目ELの位置である左目位置、及び右目画像MRを視認可能な右目ERの位置である右目位置を制限する。
 図23の実施例3-1は、レンチキュラーレンズ91による制限によって観察者Pによって視認される画素の例である、レンチキュラーレンズは集光効果があるため、片目画像(左目画像ML、または右目画像MR)を構成する複数の画素のうち一部が観察される場合が多い。図23では、レンチキュラーレンズを通して観察される画素の状態が、開口率が25%相当のパララックスバリアを通して観察される画素の状態と同じである場合が示されている。図23の実施例において、n=16、m=8、q=4、p=2、p+q=6(偶数)、中心画素数=2、第1閾値=2p=4、第2閾値=2p=4、である。これらの値は、立体表示装置100の設計時に決定されてもよいし、または製造された立体表示装置100を評価することで決定されてもよい。これらの値が製造された立体表示装置100を評価することで決定される場合、例えば、観察したディスプレイ101を画素毎に光らせることで片目画素数であるqが決定される。
 図24は、実施例3-1における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=6」分の右目評価画素範囲「第7-第12の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=6」分の左目評価画素範囲「第15,第0-第4の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第7-第12の画素」と左目評価画素範囲「第15,第0-第4の画素」とが重複する評価重複範囲「なし」を判定する。これにより、表示制御部103は、評価重複範囲がないので、黒表示を実行しない。
 図25及び図26の実施例3-2は、立体表示装置100aの運用段階において、観察者Pの実際の眼間距離E’が人の平均的な眼間距離Eよりも短い場合である。これにより、図26に示されるように、右目側の2個の中心画素と左目側の2個の中心画素との間隔が上記した図24の実施例3-1よりも3画素分だけ短くなっている。図25は、実施例3-2における観察者Pからのディスプレイ101の表示面上の画素の見え方を説明するための説明図である。図25の右目側において、光学素子としてのレンチキュラーレンズ91による制限によって観察者Pの右目ERで視認し得る画素は、第6-第11の画素(6個)である。また、図25の左目側において、光学素子としてのレンチキュラーレンズ91による制限によって観察者Pの左目ELで視認し得る画素は、第1-第6の画素(6個)である。そして、第6の画素は、観察者Pの両目で視認し得る画素である。このため、第6の画素は、輝度低下表示(黒表示)にする。
 図26は、実施例3-2における表示制御部103による動作を説明するための説明図である。表示制御部103は、位置取得部105が取得した観察者Pの右目ERの位置及び左目ELの位置に基づいて、右目ERの位置に対して割り当てる評価画素数「q+p=6」分の右目評価画素範囲「第6-第11の画素」と、左目ELの位置に対して割り当てる評価画素数「q+p=6」分の左目評価画素範囲「第1-第6の画素」とをそれぞれ別個に決定する。次いで、表示制御部103は、右目評価画素範囲「第6-第11の画素」と左目評価画素範囲「第1-第6の画素」とが重複する評価重複範囲「第6の画素」を判定する。これにより、表示制御部103は、評価重複範囲「第6の画素」を輝度低下表示(黒表示)にする。ここで、評価重複範囲の画素数「1」が第1閾値「2p=4」以下であり、且つバリア端面重複画素範囲の「p=2」個の画素「第6-第7の画素」のうち少なくとも1個の画素(バリア端面輝度低下画素「第6の画素」)に対して輝度を低下させるので、表示制御部103は、モアレ防止処理としてさらに、当該バリア端面輝度低下画素「第6の画素」から片目画素数「q=4」だけ離れた画素「第2,第10の画素」に対しても同様に輝度低下表示(黒表示)にする。
 なお、ディスプレイの構成は、上述した実施形態及び変形例において示した構成に限られない。例えば、上述した実施形態及び変形例では、ディスプレイの表示面において画素が赤色のサブピクセル、緑色のサブピクセル、及び青色のサブピクセルから構成され、第一方向および第二方向に格子状に画素が配置される場合の一例について説明したが、これに限られない。表示面において、画素が行ごとに半ピッチずれて配置される所謂デルタ配列に基づいて、画素が配置されてもよい。または、表示面において、ハニカム構造と呼ばれる配置に基づいて、画素が配置されてもよい。
 また、赤色のサブピクセル、緑色のサブピクセル、及び青色のサブピクセルの配列は、第二方向に沿ったストライプではなく、第二方向に対して斜めの方向に沿ったストライプ状に配置されていてもよい。
 また、1チップDLP(Digital Light Processing)(登録商標)を用いたリア投射ディスプレイのように、ディスプレイは、表示面に配置される画素が正方形で、時分割で赤色のサブピクセル、緑色のサブピクセル、及び青色のサブピクセルを表示してもよい。
 また、LED(light-emitting diode)ディスプレイのように、ディスプレイにおいて、RGBの3色のLED素子によって1つの画素が構成されてもよい。
 また、上述した実施形態及び変形例では、ディスプレイが自発光型である場合の一例について説明したが、これに限られない。自発光型のディスプレイ101の代わりに、透過型の液晶ディスプレイとバックライトが用いられてもよい。ディスプレイとして、透過型の液晶ディスプレイとバックライトが用いられる場合、光学素子は、上述した実施形態及び変形例のように、液晶ディスプレイの表示面の前面(つまり、観察者の側)に配置されてもよいし、液晶ディスプレイとバックライトとの間に配置されてもよい。
 なお、上述した実施形態及び変形例に係る映像表示装置では、第一目は観察者Pの右目ERであり、第二目は観察者Pの左目ELであり、第一画像は右目画像MRであり、第二画像は左目画像MLであり、右目ERが、光学素子102を通して右目画像MRが割り当てられた画素を観察し、左目ELが、光学素子102を通して左目画像MLが割り当てられた画素を観察することで、観察者Pが立体映像を認識する。つまり、上述した実施形態及び変形例では、映像表示装置が立体視に用いられる立体表示装置である場合の一例について説明したが、これに限られない。
 各実施形態に係る立体表示装置の構成は、立体視以外の用途に用いられてもよい。他の用途の一例として、立体表示装置は、複数の観察者が互いに異なる位置からディスプレイを観察する場合に、当該複数の観察者それぞれに互いに異なる画像を視認させることに用いられてもよい。その場合、映像表示装置では、第一目は第一観察者の目であり、第二目は第一観察者とは異なる位置に位置する第二観察者の目であり、第一画像は第一観察者に観察されるための画像である第一観察者画像であり、第二画像は第二観察者に観察されるための画像である第二観察者画像であり、第一観察者の第一目が、光学素子を通して第一観察者画像が割り当てられた画素を観察し、第二観察者の第二目が、光学素子を通して第二観察者画像が割り当てられた画素を観察することで、第一観察者、及び第二観察者がそれぞれ異なる映像を認識する。
 以上が本実施形態及び変形例に係る映像表示装置(立体表示装置100、100a)の制御方法の例の説明である。
 本実施形態及び変形例に係る映像表示装置(立体表示装置100、100a)は、ディスプレイ101と、光学素子102と、位置取得部105と、表示制御部103と、を備える。
 ディスプレイ101は、複数の画素を含む表示面を有し、第一目(本実施形態において、右目ER)により視認されるための第一画像(本実施形態において、右目画像MR)、及び第二目(本実施形態において、左目EL)により視認されるための第二画像(本実施形態において、左目画像ML)を表示面に表示する。
 光学素子102は、第一画像(本実施形態において、右目画像MR)を視認可能な第一目(本実施形態において、右目ER)の位置である第一目位置(本実施形態において、右目ERの位置)、及び第二画像(本実施形態において、左目画像ML)を視認可能な第二目(本実施形態において、左目EL)の位置である第二目位置(本実施形態において、左目ELの位置)を制限する。
 位置取得部105は、第一目位置(本実施形態において、右目ERの位置)と第二目位置(本実施形態において、左目ELの位置)とを取得する。
 表示制御部103は、第一目位置(本実施形態において、右目ERの位置)及び第二目位置(本実施形態において、左目ELの位置)をそれぞれ独立に用いて、第一目位置(本実施形態において、右目ERの位置)に基づいて第一画像(本実施形態において、右目画像MR)を表示させる第一画像表示画素範囲(本実施形態において、右目画像表示画素範囲)を決定し、かつ第二目位置(本実施形態において、左目ELの位置)に基づいて第二画像(本実施形態において、左目画像ML)を表示させる第二画像表示画素範囲(本実施形態において、左目画像表示画素範囲)を決定し、第一画像表示画素範囲(本実施形態において、右目画像表示画素範囲)に含まれる画素に第一画像(本実施形態において、右目画像MR)が割り当てられ、且つ第二画像表示画素範囲(本実施形態において、左目画像表示画素範囲)に含まれる画素に第二画像(本実施形態において、左目画像ML)が割り当てられるようにディスプレイ101を制御する。
 表示制御部103は、第一画像表示画素範囲(本実施形態において、右目画像表示画素範囲)及び第二画像表示画素範囲(本実施形態において、左目画像表示画素範囲)において第一目(本実施形態において、右目ER)及び第二目(本実施形態において、左目EL)の両方で視認し得る両目重複範囲(本実施形態において、左右重複範囲)を判定し、両目重複範囲(本実施形態において、左右重複範囲)があると判定した場合に、両目重複範囲(本実施形態において、左右重複範囲)に含まれる1個以上の画素に対して輝度を低下させるようにディスプレイ101を制御する。
 この構成により、本実施形態及び変形例に係る映像表示装置(立体表示装置100、100a)では、観察者の目の位置を取得して第一画像及び第二画像を適切な画素に割り当てることができるため、観察者の目の位置が所定の位置にない場合であっても画像の視認性を向上させることができる。観察者の目の位置が所定の位置にない場合とは、例えば、映像表示装置が立体視に用いられる場合には、観察者が任意に移動する場合、または、観察者の眼間距離が人の平均的な眼間距離に等しくない場合である。観察者の目の位置が所定の位置にない場合とは、例えば、映像表示装置が多視点ディスプレイとして用いられる場合には、複数の観察者が任意に移動する場合である。
 以上、本発明の実施形態について図面を参照しながら説明した。ただし、立体表示装置は、上述した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形、置換、組み合わせ及び設計変更の少なくとも一つを加えることができる。
 また、上述した本発明の実施形態の効果は、一例として説明した効果である。したがって、本発明の実施形態は、上述した効果以外にも上述した実施形態の記載から当業者が認識し得る他の効果も奏し得る。
100…立体表示装置、101…ディスプレイ、102…光学素子、103…表示制御部、104…記憶部、105…位置取得部、3…検出装置

Claims (16)

  1.  複数の画素を含む表示面を有し、第一目により視認されるための第一画像、及び第二目により視認されるための第二画像を前記表示面に表示するディスプレイと、
     前記第一画像を視認可能な前記第一目の位置である第一目位置、及び前記第二画像を視認可能な前記第二目の位置である第二目位置を制限する光学素子と、
     前記第一目位置と前記第二目位置とを取得する位置取得部と、
     前記第一目位置及び前記第二目位置をそれぞれ独立に用いて、前記第一目位置に基づいて前記第一画像を表示させる第一画像表示画素範囲を決定し、かつ前記第二目位置に基づいて前記第二画像を表示させる第二画像表示画素範囲を決定し、前記第一画像表示画素範囲に含まれる画素に前記第一画像が割り当てられ、且つ前記第二画像表示画素範囲に含まれる画素に前記第二画像が割り当てられるように前記ディスプレイを制御する表示制御部と、
     を備え、
     前記表示制御部は、前記第一画像表示画素範囲及び前記第二画像表示画素範囲において前記第一目及び前記第二目の両方で視認し得る両目重複範囲を判定し、前記両目重複範囲があると判定した場合に、前記両目重複範囲に含まれる1個以上の画素に対して輝度を低下させるように前記ディスプレイを制御する、
     映像表示装置。
  2.  前記表示制御部は、前記第一目位置から前記光学素子を介して観察される範囲の端部であり、且つ、前記第二目位置から前記光学素子を介して観察される範囲の端部である範囲を前記両目重複範囲として判定する、
     請求項1に記載の映像表示装置。
  3.  前記第一目位置と前記第二目位置とを個々に検出する視点検出部をさらに備え、
     前記位置取得部は、前記視点検出部によって個々に検出された前記第一目位置と前記第二目位置とを取得する、
     請求項1に記載の映像表示装置。
  4.  前記表示制御部は、前記両目重複範囲があるか否かを判定し、前記両目重複範囲がないと判定した場合に、前記第一目位置から視認され、且つ、前記第二目位置から視認されない領域を前記第一画像表示画素範囲として決定し、前記第二目位置から視認され、且つ、前記第一目位置から視認されない領域を前記第二画像表示画素範囲として決定し、前記第一画像表示画素範囲に含まれる画素に前記第一画像が割り当てられ、且つ前記第二画像表示画素範囲に含まれる画素に前記第二画像が割り当てられるように前記ディスプレイを制御する、
     請求項1に記載の映像表示装置。
  5.  前記表示面は、第一方向及び前記第一方向と交差する第二方向に沿って配列された複数の画素を含み、
     前記ディスプレイは、n(nは2m以上の正の整数、mは正の整数)個の画素毎に、m個の画素のサイズで各々構成される前記第一画像及び前記第二画像の組を前記表示面に表示する、
     請求項1に記載の映像表示装置。
  6.  前記表示制御部は、前記両目重複範囲を判定するために、前記第一目位置に対して割り当てる所定の評価画素数分の第一目評価画素範囲と前記第二目位置に対して割り当てる前記評価画素数分の第二目評価画素範囲とを決定し、決定した前記第一目評価画素範囲と前記第二目評価画素範囲とが重複する範囲である評価重複範囲を前記両目重複範囲として判定し、前記評価重複範囲があると判定した場合に、前記評価重複範囲に対して輝度を低下させるように前記ディスプレイを制御する、
     請求項5に記載の映像表示装置。
  7.  前記評価画素数は、片目で視認可能な片目画素範囲の画素数と、前記両目重複範囲において輝度を低下させる可能性がある画素の個数との和である、
     請求項6に記載の映像表示装置。
  8.  前記片目画素範囲は、人の平均的な眼間距離と、n個の画素のうち前記光学素子により視認可能な画素の割合とに基づいて決定された、
     請求項7に記載の映像表示装置。
  9.  前記表示制御部は、前記評価重複範囲の画素数が所定の第1閾値以下である場合において、前記両目重複範囲において輝度を低下させる可能性がある画素のうち少なくとも1個の画素に対して輝度を低下させるときは、モアレ防止処理としてさらに、当該少なくとも1個の画素から前記片目画素範囲の画素数だけ離れた画素に対しても同様に輝度を低下させる、
     請求項8に記載の映像表示装置。
  10.  前記表示制御部は、前記評価重複範囲の画素数が所定の第2閾値を超過する場合に、前記評価重複範囲の画素のうち第2閾値を超過した個数分の画素に対しては輝度を低下させるのみとし、モアレ防止処理は実行しない、
     請求項8に記載の映像表示装置。
  11.  前記表示制御部は、前記ディスプレイの表示面全体において部分的に輝度低下処理の不均一があるか否かを判定し、当該判定により部分的に輝度低下処理の不均一がある場合に所定の輝度均一化処理を実行する、
     請求項1に記載の映像表示装置。
  12.  前記表示制御部は、前記表示面の明るさを均一に調節するために、前記表示面の画素のうち他の領域に比べて一定以上明るい領域に存在する画素に対して輝度を低下させる、
     請求項11に記載の映像表示装置。
  13.  前記表示制御部は、前記表示面における前記輝度を低下させる画素の割合が一定以上である場合に、前記表示面全体の輝度を上げる制御を行う、
     請求項1に記載の映像表示装置。
  14.  前記光学素子が、遮光領域と透過領域とを有するパララックスバリアであり、
     前記光学素子は、前記遮光領域及び前記透過領域によって前記第一目位置、及び前記第二目位置を制限する、
     請求項1に記載の映像表示装置。
  15.  前記光学素子が、複数のシリンドリカルレンズからなるレンチキュラーレンズであり、
     前記光学素子は、前記複数のシリンドリカルレンズによって前記表示面からの光が伝搬する方向を変更することによって前記第一目位置、及び前記第二目位置を制限する、
     請求項1に記載の映像表示装置。
  16.  前記第一目は観察者の右目であり、前記第二目は前記観察者の左目であり、
     前記第一画像は右目画像であり、前記第二画像は左目画像であり、
     前記右目が、前記光学素子を通して前記右目画像が割り当てられた画素を観察し、前記左目が、前記光学素子を通して前記左目画像が割り当てられた画素を観察することで、前記観察者が立体映像を認識する、
     請求項1に記載の映像表示装置。
PCT/JP2023/044690 2022-12-13 2023-12-13 映像表示装置 WO2024128264A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022198604 2022-12-13
JP2022-198604 2022-12-13

Publications (1)

Publication Number Publication Date
WO2024128264A1 true WO2024128264A1 (ja) 2024-06-20

Family

ID=91485751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/044690 WO2024128264A1 (ja) 2022-12-13 2023-12-13 映像表示装置

Country Status (1)

Country Link
WO (1) WO2024128264A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044396A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
US20160173862A1 (en) * 2014-12-10 2016-06-16 Hisense Electric Co., Ltd. Method and device for adjusting grayscale brightness and 3d display device
JP2022020434A (ja) * 2020-07-20 2022-02-01 京セラ株式会社 3次元表示装置
WO2022131137A1 (ja) * 2020-12-14 2022-06-23 京セラ株式会社 3次元表示装置、画像表示システムおよび移動体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044396A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
US20160173862A1 (en) * 2014-12-10 2016-06-16 Hisense Electric Co., Ltd. Method and device for adjusting grayscale brightness and 3d display device
JP2022020434A (ja) * 2020-07-20 2022-02-01 京セラ株式会社 3次元表示装置
WO2022131137A1 (ja) * 2020-12-14 2022-06-23 京セラ株式会社 3次元表示装置、画像表示システムおよび移動体

Similar Documents

Publication Publication Date Title
JP5316909B2 (ja) 立体画像表示装置、及び表示パネル
US8154799B2 (en) 2D/3D switchable autostereoscopic display apparatus and method
TWI420152B (zh) A Method of Multi - view Three - dimensional Image Display
JP5809293B2 (ja) 表示装置
JP5576762B2 (ja) ディスプレイ制御装置
US8531454B2 (en) Display apparatus and stereoscopic image display method
JP6154323B2 (ja) 映像表示装置
US20150085089A1 (en) Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
TWI519129B (zh) 顯示器與其控制方法
KR20150144439A (ko) 입체 영상 표시 장치
WO2017020473A1 (zh) 三维显示装置及其显示方法
JPH05122733A (ja) 3次元画像表示装置
CN104062762A (zh) 无眼镜型立体图像显示装置
JP2016503512A (ja) 自動立体表示装置及び画像を表示する方法
JP2012512435A (ja) 空間的な表示のための方法と配置
TWI442094B (zh) 使用基於次晶胞元素的視差屏障之立體顯示設備
TWI470274B (zh) Three - dimensional image display device
KR20140041102A (ko) 표시 패널 및 이를 포함하는 표시 장치
JP2005157332A (ja) 立体画像表示装置、携帯端末装置、表示パネル及びフライアイレンズ
KR20040029755A (ko) 입체 영상 디스플레이 장치
CN108271013B (zh) 显示装置及显示方法
KR102153605B1 (ko) 입체 영상 표시 장치
WO2024128264A1 (ja) 映像表示装置
CN117063111B (zh) 用于显示自动立体i视点图像的自动立体p视点显示屏和包括这种屏幕的显示设备
JP2013121041A (ja) 立体映像表示装置および立体映像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23903548

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)