[go: up one dir, main page]

WO2021225030A1 - 電子機器及び撮像装置 - Google Patents

電子機器及び撮像装置 Download PDF

Info

Publication number
WO2021225030A1
WO2021225030A1 PCT/JP2021/009377 JP2021009377W WO2021225030A1 WO 2021225030 A1 WO2021225030 A1 WO 2021225030A1 JP 2021009377 W JP2021009377 W JP 2021009377W WO 2021225030 A1 WO2021225030 A1 WO 2021225030A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging unit
image data
light
data captured
Prior art date
Application number
PCT/JP2021/009377
Other languages
English (en)
French (fr)
Inventor
雄次 矢倉
征志 中田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2022519900A priority Critical patent/JPWO2021225030A1/ja
Priority to US17/911,944 priority patent/US12256154B2/en
Priority to KR1020227042264A priority patent/KR20230009412A/ko
Priority to CN202180032396.6A priority patent/CN115486056A/zh
Priority to EP21799821.0A priority patent/EP4149104A4/en
Publication of WO2021225030A1 publication Critical patent/WO2021225030A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B29/00Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • This disclosure relates to electronic devices and imaging devices.
  • Recent electronic devices such as smartphones, mobile phones, and PCs (Personal Computers) are equipped with various sensors such as cameras on the frame (bezel) of the display panel.
  • various sensors such as cameras on the frame (bezel) of the display panel.
  • the bezel width tends to be narrowed.
  • a technique has been proposed in which a camera module is placed directly under the display panel and the subject light passing through the display panel is photographed by the camera module.
  • the display panel consists of multiple layers, and some layers have low visible light transmittance. Therefore, when the subject light that has passed through the display panel is photographed by the camera module, the photographed image becomes dark or the image becomes blurry as a whole. Further, when the subject light passes through the display panel, the image quality of the captured image may be deteriorated due to the influence of flare and diffraction.
  • the lens cannot be made thin and the lens aperture cannot be increased. Therefore, in a dark surrounding environment, the captured image becomes dark and an unclear image can be obtained. Cheap.
  • the present disclosure provides an electronic device and an imaging device capable of obtaining a high-quality photographed image even when the amount of incident light is small.
  • the display unit and A first imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the infrared light wavelength band that has passed through the display unit
  • a second imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the visible light wavelength band that has passed through the display unit
  • An electronic device includes a correction unit that corrects image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • the correction unit may correct the sensitivity of the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • a learning unit for learning the correlation between the sensitivity of the image data captured by the first imaging unit and the sensitivity of the image data captured by the second imaging unit is provided.
  • the correction unit may correct the sensitivity of the image data captured by the second imaging unit based on the image data captured by the first imaging unit with reference to the learning result of the learning unit. good.
  • the correction unit may correct the resolution of the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • a learning unit for learning the correlation between the resolution of the image data captured by the first imaging unit and the resolution of the image data captured by the second imaging unit is provided.
  • the correction unit may correct the resolution of the image data captured by the second imaging unit based on the image data captured by the first imaging unit with reference to the learning result of the learning unit. good.
  • the correction unit may correct at least one of the flare component and the diffracted light component included in the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • the correction unit refers to the learning result in the learning unit, and based on the image data captured by the first imaging unit, the flare component and diffraction contained in the image data captured by the second imaging unit. At least one of the light components may be corrected.
  • a reference determination unit that determines whether or not at least one of the sensitivity, resolution, flare component, and diffracted light component of the image data captured by the second imaging unit satisfies a predetermined first criterion.
  • the image pickup start instruction unit for starting the image pickup by the first image pickup unit and the image pickup start instruction unit.
  • a correction procedure determination unit that determines whether or not to perform correction by the correction unit and a type of image data that is a reference for correction when the correction is performed by the correction unit may be provided.
  • the learning unit includes at least one of the determined image data sensitivity, resolution, flare component, and diffracted light component. You may learn the correlation with at least one of the sensitivity, the resolution, the flare component and the diffracted light component of the image data captured by the second imaging unit.
  • a sensor that detects at least one of the shape and color of an object
  • a reliability estimation unit that estimates the reliability of learning by the learning unit
  • an object identification determination unit that determines whether or not the object can be identified based on the detection data of the sensor
  • an object identification determination unit determines whether or not the color of the object identified by the sensor can be specified.
  • the correction unit corrects the image data captured by the second imaging unit so as to approach the specified color. May be good.
  • the correction unit determines the degree of noise removal in a pixel region of the image data captured by the second imaging unit whose brightness change is equal to or less than a predetermined reference value, and a pixel region of the image data whose brightness change is larger than the reference value. It may be higher than the noise removal degree of.
  • a light emitting part that emits light in the infrared wavelength band, A light emission control unit that controls the light emission timing of the light emitting unit may be provided so that the subject is illuminated by the light emitted by the light emitting unit when the image data is captured by the first imaging unit.
  • the light emitting unit has a plurality of light sources that emit light in different emission wavelength bands within the infrared light wavelength band.
  • the light emission control unit sequentially switches and controls light emission from the plurality of light sources while the first imaging unit takes an image.
  • the first image pickup unit outputs a plurality of image data captured in different emission light wavelength bands, and outputs a plurality of image data.
  • the correction unit may correct the image data captured by the second imaging unit based on the plurality of image data.
  • the light emitting unit may be arranged on the display surface side of the display unit.
  • At least one of the first imaging unit and the second imaging unit may include pixels that image light in the infrared light wavelength band and pixels that image light in the visible light wavelength band.
  • the first imaging unit may have sensitivity to light of 550 nm or more.
  • the correction unit may increase the degree of correction toward the shorter wavelength side with respect to the image data captured by the second imaging unit.
  • the first imaging unit may have a photoelectric conversion unit that is arranged longer in the normal direction of the light incident surface than the second imaging unit.
  • the area of the first imaging unit in the direction of the light incident surface per pixel is larger than the area of the second imaging unit in the direction of the light incident surface per pixel, and the light of all the pixels of the first imaging unit is large.
  • the area in the incident surface direction may be smaller than the area in the light incident surface direction for all the pixels of the second imaging unit.
  • a first imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the infrared light wavelength band
  • a second imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the visible light wavelength band
  • An imaging device includes a correction unit that corrects the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • a first imaging unit capable of imaging light in the infrared light wavelength band and A second imaging unit that can image light in the visible light wavelength band
  • An imaging device includes a correction unit that corrects the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • FIG. 1 is a cross-sectional view taken along the line BB of FIG.
  • FIG. 5 is a cross-sectional view showing an example of the cross-sectional structure of the first imaging unit.
  • FIG. 5 is a cross-sectional view showing an example of the cross-sectional structure of the second imaging unit.
  • the block diagram which shows the internal structure of the electronic device by 1st Embodiment.
  • the flowchart which shows the 1st example of the processing operation of the signal processing part by 1st Embodiment.
  • the flowchart which shows the 2nd example of the processing operation of a signal processing part.
  • FIG. 1 is a cross-sectional view taken along the line BB of FIG.
  • FIG. 5 is a cross-sectional view showing an example of the cross-sectional structure of the first imaging unit.
  • FIG. 5 is a cross-sectional view showing an example of the cross-sectional structure of the second imaging
  • FIG. 5 is a flowchart showing a first example of a processing operation performed by a signal processing unit in an electronic device according to the second embodiment.
  • the flowchart which shows the 2nd example of the processing operation performed by the signal processing unit when a multispectral sensor is used.
  • the figure which shows the 1st example of a pixel arrangement The figure which shows the 2nd example of a pixel arrangement.
  • the block diagram which shows the 1st example of the internal structure of a signal processing part.
  • the block diagram which shows the 2nd example of the internal structure of a signal processing part The block diagram which shows the schematic structure of the electronic device 2 by 5th Embodiment.
  • FIG. 5 is a flowchart showing a processing operation when the electronic device 2 according to the fifth embodiment performs image capturing with the first and second camera modules.
  • FIG. 5 is a flowchart showing a processing operation when the electronic device 2 according to the sixth embodiment performs image pickup with the first and second camera modules.
  • the front view of the digital camera which is the 2nd application example of an electronic device. Rear view of a digital camera.
  • the external view of the HMD which is the 3rd application example of an electronic device.
  • the external view of the TV which is the 4th application example of an electronic device.
  • the external view of the smartphone which is the 5th application example of an electronic device.
  • FIG. 1 is an external view and a cross-sectional view taken along the line AA of the electronic device 2 equipped with the imaging device 1 according to the first embodiment
  • FIG. 2 is a cross-sectional view taken along the line BB of FIG.
  • the electronic device 2 according to the present embodiment is an arbitrary electronic device 2 having both a display function and a shooting function, such as a smartphone, a mobile phone, a tablet, and a PC.
  • the electronic device 2 of FIG. 1 includes camera modules (first and second imaging units) 4 and 5 arranged on the side opposite to the display surface 3a of the display unit 3. As described above, the electronic device 2 of FIG. 1 is provided with the camera modules 4 and 5 on the back side of the display surface 3a of the display unit 3. Therefore, the camera modules 4 and 5 take pictures through the display unit 3.
  • the image pickup apparatus 1 includes a plurality of camera modules 4 and 5.
  • the camera module 4 has a first imaging unit 6, and the camera module 5 has a second imaging unit 7.
  • the first imaging unit 6 can image light in the infrared light wavelength band that has passed through the display unit 3.
  • the infrared light wavelength band is, for example, a wavelength band in the range of 780 nm to 1000 nm.
  • the second imaging unit 7 can image light in the visible light wavelength band that has passed through the display unit 3.
  • the visible light wavelength band is, for example, a wavelength band in the range of 380 nm to 750 nm.
  • the display surface 3a extends to the vicinity of the outer size of the electronic device 2, and the width of the bezel 3b around the display surface 3a is set to several mm or less.
  • a front camera is often mounted on the bezel 3b, but in FIG. 1, as shown by a broken line circle, a plurality of camera modules 4 that function as front cameras on the back surface side of a substantially central portion of the display surface 3a. , 5 are arranged.
  • the camera modules 4 and 5 are arranged on the back surface side of the substantially central portion of the display surface 3a, but the camera modules 4 and 5 may be arranged at any position on the back surface side of the display surface 3a. Often, for example, the camera modules 4 and 5 may be arranged on the back surface side near the peripheral edge of the display surface 3a. As described above, the plurality of camera modules 4 and 5 in the present embodiment are arranged at arbitrary positions on the back surface side overlapping with the display surface 3a.
  • the display unit 3 includes a protective film 3c, a polyimide substrate 3d, a display layer 3e, a barrier layer 3f, a touch sensor layer 3g, an adhesive layer 3h, a circularly polarizing plate 3i, and an optical adhesive sheet (OCA).
  • OCA optical adhesive sheet
  • the display layer 3e may be, for example, an OLED (Organic Light Emitting Device) display layer, a liquid crystal display layer, a MicroLED, or a display layer based on other display principles.
  • the display layer 3e may be composed of a plurality of layers.
  • the display layer 3e may include a color filter layer, a backlight layer, and the like.
  • the display unit 3 displays using light in the visible light wavelength range, but the light displayed by the display unit 3 may include an infrared light component.
  • the barrier layer 3f is a layer that prevents oxygen and moisture from entering the display layer 3e.
  • a touch sensor is incorporated in the touch sensor layer 3g. There are various types of touch sensors such as a capacitance type and a resistance film type, and any method may be adopted. Further, the touch sensor layer 3g and the display layer 3e may be integrated.
  • the adhesive layer 3h is provided to bond the circularly polarizing plate 3i and the touch sensor layer 3g.
  • a material having a high visible light transmittance is used for the adhesive layer 3h.
  • the circularly polarizing plate 3i is provided to reduce glare and enhance the visibility of the display surface 3a even in a bright environment.
  • the optical adhesive sheet 3j is provided to improve the adhesion between the circularly polarizing plate 3i and the cover glass 3k. As the optical adhesive sheet 3j, a material having a high visible light transmittance is used.
  • the cover glass 3k is provided to protect the display layer 3e and the like.
  • the layer structure of the display unit 3 is not necessarily limited to that shown in FIGS. 1 and 2.
  • the camera module 4 has a first optical system 8 in association with the first imaging unit 6.
  • the camera modules 4 and 5 have a second optical system 9 associated with the second imaging unit 7.
  • the first and second optical systems 8 and 9 are arranged on the light incident surface side of the first and second imaging units 6 and 7, that is, on the side closer to the display unit 3, and the light passing through the display unit 3 is transmitted to the first and second optical systems.
  • the light is focused on the second imaging units 6 and 7.
  • the optical system 5 is usually composed of a plurality of lenses, but the specific optical configuration of the optical system does not matter.
  • the first imaging unit 6 has a first photoelectric conversion unit
  • the second imaging unit 7 has a second photoelectric conversion unit.
  • the first photoelectric conversion unit and the second photoelectric conversion unit photoelectrically convert the light incident on the display unit 3.
  • the optical wavelength band that can be photoelectrically converted differs between the first photoelectric conversion unit and the second photoelectric conversion unit.
  • the first photoelectric conversion unit mainly performs photoelectric conversion of light in the infrared light wavelength band
  • the second photoelectric conversion unit mainly photoelectrically converts light in the visible light wavelength band.
  • the first photoelectric conversion unit and the second photoelectric conversion unit may be a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor.
  • the photoelectric conversion unit may be a photodiode or an organic photoelectric conversion film.
  • the first and second photoelectric conversion units have a photoelectric conversion element such as a CMOS sensor for each pixel.
  • CMOS complementary metal-oxide-semiconductor
  • Each pixel can be arranged in any way. Specifically, the arrangement method of each pixel may be a Bayer arrangement, an interline arrangement, a checkered arrangement, a stripe arrangement, or another arrangement.
  • the plurality of camera modules 4 and 5 capture the subject light transmitted through the display unit 3.
  • the display unit 3 is formed of a plurality of layers, and each layer has a high transmittance of light in a wavelength band in which the first imaging unit 6 and the second imaging unit 7 have sufficient sensitivity.
  • the transmittance of some layers may be low.
  • the polyimide substrate 3d has a not so high visible light transmittance, whereas the infrared light transmittance is higher than the visible light transmittance.
  • a correction unit to be described later is provided, and a second image pickup for capturing light in the visible light wavelength band is performed based on the image capture image data of the first image pickup unit 6 for imaging light in the infrared light wavelength band.
  • the captured image data of unit 7 is corrected.
  • FIG. 3A is a cross-sectional view showing an example of the cross-sectional structure of the first imaging unit 6, and FIG. 3B is a cross-sectional view showing an example of the cross-sectional structure of the second imaging unit 7.
  • the first imaging unit 6 shown in FIG. 3A includes a first photoelectric conversion unit 12a formed in the semiconductor substrate 11, and the first photoelectric conversion unit 12a is divided by an element separation layer 13 for each pixel.
  • a flattening layer 14 is arranged on the first photoelectric conversion unit 12a, and an on-chip lens 15a is arranged on the flattening layer 14. Light is incident through the on-chip lens 15a. Therefore, the on-chip lens 15a becomes a light incident surface.
  • the side on which the on-chip lens 15a is arranged is referred to as the back surface side of the first imaging unit 6.
  • the second imaging unit 7 shown in FIG. 3B includes a second photoelectric conversion unit 12b formed in the semiconductor substrate, and the second photoelectric conversion unit 12b is separated by an element separation layer 13 for each pixel. ..
  • a flattening layer 14 is arranged on the second photoelectric conversion unit 12b, and a color filter layer 16 is arranged on the flattening layer 14.
  • the color filter layer 16 may have a filter layer of three colors of RGB, or may have a filter layer of cyan, magenta, and yellow, which are complementary colors thereof.
  • An on-chip lens 15b is arranged on the color filter layer 16.
  • the first photoelectric conversion unit 12a of the first imaging unit 6 is a normal light incident surface method rather than the second photoelectric conversion unit 12b of the second imaging unit 7.
  • the length in the line direction is long. This is because the photoelectric conversion efficiency of light in the infrared light wavelength band is worse than the photoelectric conversion efficiency of light in the visible light wavelength band, and the length in the normal direction of the light incident surface of the first photoelectric conversion unit 12a. By making the length longer, the photoelectric conversion efficiency is improved.
  • the curvature of the on-chip lens 15a of the first imaging unit 6 is adjusted to the on-chip of the second imaging unit 7. It may be larger than the curvature of the lens 15b.
  • the area of the first imaging unit 6 in the light incident surface direction per pixel may be larger than the area of the second imaging unit 7 in the light incident surface direction per pixel.
  • the first imaging unit 6 is provided to correct the sensitivity of the image captured by the second imaging unit 7, and a larger area is desirable because the sensitivity can be improved.
  • the area in the light incident surface direction (effective pixel area) including all the pixels of the second imaging unit 7 is the area in the light incident surface direction (effective pixel area) including all the pixels of the first imaging unit 6. May be larger than.
  • the first imaging unit 6 is for correcting the image captured by the second imaging unit 7, and may be provided, for example, at a ratio of one pixel to a plurality of pixels of the second imaging unit 7.
  • the size and number of pixels of the first imaging unit 6 and the second imaging unit 7 are not limited to those described above. A specific layout arrangement example of the first imaging unit 6 and the second imaging unit 7 will be described later.
  • a readout circuit 17 is formed on the semiconductor substrate 11, and the periphery of the readout circuit 17 is an interlayer insulating film. It is covered with 18.
  • the readout circuit 17 includes a transfer transistor, a reset transistor, an amplification transistor, a selection transistor, and the like.
  • the cross-sectional structures of the first imaging unit 6 and the second imaging unit 7 are not limited to those shown in FIG.
  • FIG. 4 is a block diagram showing an internal configuration of the electronic device 2 according to the first embodiment.
  • the electronic device 2 includes an image pickup device 1, an application processor 21, a video signal generation unit 22, an A / D conversion unit 23, a display control unit 24, and a display unit 3.
  • the image pickup device 1 can be composed of one or a plurality of semiconductor devices. More specifically, the image pickup apparatus 1 includes the first and second camera modules 4 and 5, the first optical system 8 corresponding to the first image pickup unit 6, and the second optical system corresponding to the second image pickup unit 7. 9 and IR (Infrared Ray) cut filter 10, a first A / D conversion unit 31 corresponding to the first imaging unit 6, a second A / D conversion unit 32 corresponding to the second imaging unit 7, and a signal processing unit 33. And an image pickup control unit 34, and an output unit 35.
  • the first and second camera modules 4 and 5 may be mounted on a common board.
  • the first A / D conversion unit 31 converts the analog pixel signal photoelectrically converted by the first photoelectric conversion unit 12a into digital pixel data.
  • the second A / D conversion unit 32 converts the analog pixel signal photoelectrically converted by the second photoelectric conversion unit 12b into digital pixel data.
  • the signal processing unit 33 generates image data corresponding to the images captured by the first imaging unit 6 and the second imaging unit 7.
  • the signal processing unit 33 functions as a correction unit that corrects the sensitivity of the image data captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6.
  • the image pickup control unit 34 controls whether or not the first image pickup unit 6 performs imaging according to an instruction from the signal processing unit 33.
  • the application processor 21 is a semiconductor device separate from the first and second camera modules 4 and 5, and is mounted on the same or different board as the first and second camera modules 4 and 5.
  • the application processor 21 has a CPU (Central Processing Unit) or the like inside thereof, and executes programs such as an operating system and various application software.
  • the application processor 21 may be equipped with a function of performing image processing, signal processing, or the like, such as a GPU (Graphics Processing Unit) or a baseband processor.
  • the application processor 21 executes various processes on the input image data and the calculation result as necessary, controls the display of the image on the display unit 3 of the electronic device 2, and establishes a predetermined network. Send to an external cloud server via.
  • the video signal generation unit 22 generates a video signal to be displayed on the display unit 3.
  • the A / D conversion unit 23 converts the video signal into digital pixel data.
  • the display control unit 24 controls the display of digital pixel data on the display unit 3.
  • FIG. 5 is a flowchart showing a first example of the processing operation of the signal processing unit 33 according to the first embodiment.
  • the flowchart of FIG. 5 corrects the sensitivity of the image data captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6.
  • step S1 it is determined whether or not the pixel value of the image data captured by the second imaging unit 7 is equal to or less than a predetermined threshold value (step S1).
  • the average pixel value of the image data captured by the second imaging unit 7 may be compared with a predetermined threshold value, or the pixel value of a part of the pixel region of the image data captured by the second imaging unit 7. May be compared with a predetermined threshold.
  • step S2 If it is determined in step S1 that the threshold value is not equal to or lower than the predetermined threshold value, it can be estimated that the image data captured by the second imaging unit 7 has sufficient sensitivity. Based on this, predetermined signal processing is performed to generate and output RGB data (step S2).
  • the first imaging unit 6 may have a plurality of imaging sensors capable of separately capturing light in a plurality of narrow wavelength bands (for example, 750 nm, 800 nm, 850 nm, etc.) within the infrared light wavelength band.
  • the pixel value of the image data captured by the first imaging unit 6 is compared with the pixel value of the image data captured by the second imaging unit 7 (step S4).
  • the pixel value of the image data captured by the first imaging unit 6 is X times the pixel value of the image data captured by the second imaging unit 7 (X is a predetermined reference larger than 1). Value) or more is judged.
  • the value of X may be changed by the user.
  • step S4 If NO is determined in step S4, it can be estimated that the image data captured by the first imaging unit 6 is not so sensitive, so the above-mentioned process of step S2 is performed without performing the correction process. If YES is determined in step S4, it can be estimated that the sensitivity of the image data captured by the first imaging unit 6 is sufficiently high, so that the pixel values are included in the image data captured by the second imaging unit 7. It is determined whether or not there are pixels having a predetermined threshold value or more (step S5). The reason for providing the determination process in step S5 is that if the captured image data of the second imaging unit 7 that captures light in the visible light wavelength band includes pixel data having a large pixel value, the pixel data has high sensitivity. This is to consider it as valid data.
  • step S5 If YES is determined in step S5, among the image data captured by the second imaging unit 7, the pixel data whose pixel value is equal to or greater than a predetermined threshold and the image data captured by the first imaging unit 6 are valid. Data is selected (step S6).
  • step S5 If NO is determined in step S5, it can be estimated that the image data captured by the second imaging unit 7 is unreliable. Therefore, the image data captured by the first imaging unit 6 is selected as valid data (step S7). ).
  • the image data captured by the second imaging unit 7 is corrected based on the valid data selected in steps S6 or S7 (step S8).
  • a learning model is generated in which the correlation between the sensitivity of the image data captured by the first imaging unit 6 and the sensitivity of the image data captured by the second imaging unit 7 is learned in advance.
  • CNN Convolution Neural Network
  • the image data captured by the first imaging unit 6 is used to image the image with the second imaging unit 7.
  • Generate a learning model that can automatically correct the sensitivity of the image data.
  • the series of processes that generate a learning model is called machine learning.
  • the corrected image data is output from the learning model by inputting the valid data selected in steps S6 or S7 to the learning model in which sufficient learning has been performed and performing arithmetic processing.
  • the output image data is data whose sensitivity has been appropriately corrected for each of the RGB color components.
  • the signal processing unit 33 outputs the image data without correcting the sensitivity, and the pixel value is calculated. If it is presumed to be small and highly reliable, the sensitivity of the image data captured by the second imaging unit 7 is corrected based on the image data captured by the first imaging unit 6.
  • the correlation between the sensitivity of the image data captured by the first imaging unit 6 and the sensitivity of the image data captured by the second imaging unit 7 is learned in advance, and the learning result is used. To correct.
  • FIG. 5 an example of correcting the sensitivity of the image data captured by the second imaging unit 7 has been described, but the same processing procedure is also used when correcting the resolution of the image data captured by the second imaging unit 7. Is applicable.
  • the decrease in resolution is caused by the loss of a part of the light that should be incident on the second camera module 5 by passing through the display unit 3. Therefore, by performing the same processing as in FIG. 5, the image data captured by the second imaging unit 7 is corrected based on the image data captured by the first imaging unit 6, so that the second imaging unit 7 performs the same processing.
  • the resolution of the captured image data can be improved.
  • the correction process in step S8 needs to be different from the sensitivity correction process.
  • the valid data selected in step S6 or S7 can be input to the learning model to obtain the resolution-corrected image data.
  • the learning model for correcting the resolution learns the correlation between the resolution of the image data captured by the first imaging unit 6 and the resolution of the image data captured by the second imaging unit 7. do.
  • the signal processing unit 33 which functions as a correction unit, refers to the learning result in the learning unit, and based on the image data captured by the first imaging unit 6, the resolution of the image data captured by the second imaging unit 7. To correct.
  • the signal processing unit 33 which functions as a correction unit, may increase the degree of correction of the image data captured by the second imaging unit 7 toward the shorter wavelength side. This is because the subject light passing through the display unit 3 is more likely to be absorbed by the display unit 3 as the blue component increases.
  • the signal processing unit 33 may perform processing for correcting the influence of flare and diffracted light.
  • FIG. 6 is a flowchart showing a second example of the processing operation of the signal processing unit 33.
  • the flowchart of FIG. 6 corrects the influence of flare or diffraction of the image data captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6.
  • step S11 it is determined whether or not the pixel value of the image data captured by the second imaging unit 7 is equal to or greater than a predetermined threshold value.
  • a predetermined threshold value When the light incident on the second imaging unit 7 is affected by flare or diffraction, the pixel value is generally large. Therefore, in step S11, it is determined whether or not the pixel value of the image data captured by the second imaging unit 7 is equal to or greater than a predetermined threshold value, and if it is less than the threshold value, it is determined that the image data is not affected by flare or diffraction. , Performs predetermined signal processing based on the image data captured by the second imaging unit 7 to generate and output RGB data (step S12).
  • step S11 when it is determined in step S11 that the threshold value is equal to or higher than the predetermined threshold value, it can be estimated that the image data captured by the second imaging unit 7 is affected by flare or diffraction.
  • the imaging unit 6 is instructed to start imaging (step S13).
  • the pixel value of the image data captured by the first imaging unit 6 is compared with the pixel value of the image data captured by the second imaging unit 7 (step S14).
  • the pixel value of the image data captured by the first imaging unit 6 is X times the pixel value of the image data captured by the second imaging unit 7 (X is It is determined whether or not it is less than or equal to (a predetermined reference value larger than 1).
  • step S14 If NO is determined in step S14, it can be estimated that the influence of flare and diffraction of the image data captured by the second imaging unit 7 cannot be corrected even if the image data captured by the first imaging unit 6 is used. , The process of step S12 is performed without performing the correction process. If YES is determined in step S14, it can be estimated that the image data captured by the first imaging unit 6 is not affected by flare or diffraction, so that the image data captured by the second imaging unit 7 is included. , It is determined whether or not there is a pixel whose pixel value is equal to or less than a predetermined threshold value (step S15).
  • step S15 If YES is determined in step S15, among the image data captured by the second imaging unit 7, the pixel data whose pixel value is equal to or less than a predetermined threshold value and the image data captured by the first imaging unit 6 are valid. Data is selected (step S16).
  • step S15 If NO is determined in step S15, it can be estimated that the image data captured by the second imaging unit 7 is unreliable. Therefore, the image data captured by the first imaging unit 6 is selected as valid data (step S17). ).
  • the image data captured by the second imaging unit 7 is corrected based on the valid data selected in step S16 or S17 (step S18).
  • the image data captured by the second imaging unit 7 is corrected based on the valid data selected in step S16 or S17 (step S18).
  • learning Output the corrected image data from the model.
  • the output image data is data in which the influence of flare or diffraction is appropriately corrected for each color component of RGB.
  • the signal processing unit 33 includes a reference determination unit (steps S1 and S11), an imaging start instruction unit (steps S2 and S12), and a correction procedure determination unit (steps S3 to S3 to S3).
  • the processing of S8, S13 to S18) is performed.
  • the reference determination unit determines whether or not at least one of the sensitivity, resolution, flare component, and diffracted light component of the image data captured by the second imaging unit 7 satisfies a predetermined first criterion. When the reference determination unit determines that the first reference is not satisfied, the image pickup start designation unit starts imaging by the first image pickup unit 6.
  • the correction procedure determination unit compared at least one of the sensitivity, resolution, flare component, and diffracted light component between the image data captured by the first imaging unit 6 and the image data captured by the second imaging unit 7. Based on the result, it is determined whether or not the correction is performed by the correction unit, and the type of image data that is the reference for the correction when the correction is performed by the correction unit.
  • the signal processing unit 33 determines at least the sensitivity, resolution, flare component, and diffracted light component of the determined image data. The correlation between one and at least one of the sensitivity, resolution, flare component, and diffracted light component of the image data captured by the second imaging unit 7 is learned.
  • the process of FIG. 5 and the process of FIG. 6 may be performed in combination. That is, the signal processing unit 33 is affected by the sensitivity, resolution, flare component, and diffracted light component of the image data captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6. Two or more of may be corrected.
  • the second imaging unit 7 that images the light in the visible light wavelength band based on the image data captured by the first imaging unit 6 that images the light in the infrared light wavelength band. Since the image data captured in 1 is corrected as necessary, even if the subject light is incident on the first and second camera modules 4 and 5 through the display unit 3, there is no possibility that the sensitivity or the resolution is lowered, and the sensitivity or the resolution is not lowered. It is not affected by flare or diffraction.
  • the second embodiment is the machine learning performed in step S8 of FIG. 5 and step S18 of FIG. 6, and measures are taken when sufficient learning is not performed.
  • FIG. 7 is a block diagram showing an internal configuration of the electronic device 2a according to the second embodiment.
  • the electronic device 2a of FIG. 7 includes a depth sensor 36 in addition to the configuration of FIG.
  • the depth sensor 36 is a sensor that detects distance information to an object.
  • the depth sensor 36 may detect distance information by, for example, an indirect ToF (Time of Flight) method.
  • the depth sensor 36 is arranged, for example, on the bezel 3b portion on the display surface side of the electronic device 2 of FIG.
  • the distance information detected by the depth sensor 36 is sent to the signal processing unit 33.
  • FIG. 8 is a flowchart showing a first example of a processing operation performed by the signal processing unit 33 in the electronic device 2a according to the second embodiment.
  • the signal processing unit 33 executes the process of FIG. 8 after performing the process of FIG. 5 or FIG.
  • step S21 it is determined whether or not machine learning has been sufficiently performed.
  • arithmetic processing is performed using the learning model to generate output data. If the input data is within the pre-expected range, the interpolation process can provide appropriate output data that reflects the results of machine learning, but the input data is outside the pre-expected range. In the case of the above data, it is necessary to perform interpolation processing, which reduces the accuracy of the output data. Therefore, in step S21, it is determined whether or not the machine learning has been sufficiently performed, for example, depending on whether or not extrapolation processing is required for the input data. It should be noted that other methods may be used to determine whether or not machine learning has been sufficiently performed.
  • step S21 If it is determined in step S21 that sufficient machine learning has been performed, the data processed by the learning model is output without color correction (step S22).
  • step S21 If it is determined in step S21 that the machine learning has not been sufficiently performed, the distance information is detected by the depth sensor 36 (step S23). Next, based on the distance information detected by the depth sensor 36, the shape of the object imprinted in the imaged data corrected by the process of FIG. 5 or 6 is grasped, and the object is identified (step S24). If the signal processing unit 33 alone cannot identify the object, the image data corrected by the processing of FIG. 5 or 6 and the distance information detected by the depth sensor 36 are sent to a cloud server or the like via the network. The object is identified by transmitting and analyzing the shape of the object using a huge amount of data (big data) managed by a cloud server or the like, and the signal processing unit 33 receives the information of the identified object via the network. May be good. Alternatively, the imaged data corrected by the process of FIG. 5 or FIG. 6 and the distance information detected by the depth sensor 36 may be sent to the application processor to identify the object by the application processor.
  • step S25 it is determined whether or not the color of the object identified in step S24 is known (step S25). If the color of the object is not known, the color correction is given up and the process of step S22 is performed. If the color of the object is known, color correction is performed so as to approach the known color (step S26).
  • a database for managing the color information of the identified object may be provided, and the database may be accessed to acquire the color information of the identified object.
  • the shape of the object is detected by using the depth sensor 36 to identify the object, and the known color of the identified object is obtained. Perform color correction based on the information.
  • FIGS. 7 and 8 show an example of detecting the shape of an object by the depth sensor 36
  • other sensors may be used to detect the information of the object.
  • a multispectral sensor may be provided in place of or in addition to the depth sensor 36.
  • FIG. 9 is a flowchart showing a second example of the processing operation performed by the signal processing unit 33 when the multispectral sensor is used.
  • the processing of steps S31 to S32 is the same as the processing of steps S21 to S22 of FIG.
  • the color information is detected by the multispectral sensor (step S33). Since the multispectral sensor can detect light in a plurality of wavelength bands separately, it is possible to detect in detail the color information of an object included in the image data captured by the second imaging unit 7.
  • the object is identified from the color information detected in step S33 (step S34). At this time, as described above, the object may be identified by the cloud server or the application processor.
  • step S35 it is determined whether or not the color of the object identified in step S34 is known (step S35). If the color of the object is unknown, color correction is performed based on the color information detected by the multispectral sensor (step S36). If the color of the object is known, color correction is performed so as to approach the known color (step S37).
  • the signal processing unit 33 includes a reliability estimation unit (steps S21, S31), an object identification determination unit (steps S23, S33), and a color identification determination unit (step S24). , S34).
  • the reliability estimation unit estimates the reliability of learning by the learning unit.
  • the object identification determination unit determines whether or not the object can be identified based on the detection data of the sensor.
  • the color identification determination unit determines whether or not the color of the object identified by the sensor can be identified.
  • the signal processing unit 33 functioning as the correction unit determines that the color of the object can be specified by the color identification determination unit
  • the signal processing unit 33 outputs the image data captured by the second imaging unit 7 so as to approach the specified color. to correct.
  • the process of FIG. 8 and the process of FIG. 9 may be combined and carried out. If the object is identified based on the result of detecting the shape information and the color information of the object by the depth sensor 36, the multispectral sensor, or the like, the object can be identified more accurately and the color correction of the identified object is performed accurately. be able to.
  • the second embodiment it is not preferable to correct the image data captured by the second imaging data in a state where the learning by machine learning is insufficient. Therefore, when the learning by machine learning is insufficient, the learning by machine learning may be insufficient.
  • the color correction of the image data captured by the second imaging unit 7 is performed. As a result, it is possible to avoid the possibility of performing unreliable correction in a state where learning by machine learning is insufficient.
  • the third embodiment is characterized in the pixel arrangement of the first imaging unit 6 and the second imaging unit 7.
  • the first imaging unit 6 that receives light in the infrared light wavelength band and performs photoelectric conversion is composed of a plurality of pixels.
  • the second imaging unit 7 that receives light in the visible light wavelength band and performs photoelectric conversion is also composed of a plurality of pixels.
  • a part of the plurality of pixels constituting the first imaging unit 6 may include pixels capable of receiving light in the visible light wavelength band.
  • FIG. 10A is a diagram showing a first example of pixel arrangement.
  • a pixel that receives light in the infrared light wavelength band and performs photoelectric conversion is referred to as IR
  • a pixel that receives light in the wavelength band corresponding to red and performs photoelectric conversion is referred to as R. doing.
  • IR pixels and R pixels are arranged in a staggered pattern. The arrangement order of the IR pixels and the R pixels and the ratio of the number of each pixel are arbitrary.
  • Red light has a wavelength component close to infrared light (for example, 550 nm or more).
  • the signal processing unit 33 described above corrects the image data captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6, the image captured by the first imaging unit 6 By including the red component in the data, it becomes easy to adjust with the red component included in the image data captured by the second imaging unit 7, and highly reliable correction processing can be performed.
  • FIG. 10B is a diagram showing a second example of pixel arrangement.
  • some of the plurality of pixels constituting the second imaging unit 7 include pixels capable of receiving light in the infrared light wavelength band.
  • a pixel that receives light in the visible light wavelength band and performs photoelectric conversion is referred to as R, G or G
  • a pixel that receives light in the infrared light band and performs photoelectric conversion is referred to as IR.
  • One IR pixel is arranged for every three RGB pixels. The arrangement order of the RGB pixels and the IR pixels and the ratio of the number of each pixel are arbitrary.
  • the first imaging unit 6 and the second imaging unit 7 can be formed on one semiconductor chip. As a result, only one camera modules 4 and 5 need be provided, and the hardware cost of the electronic device 2 can be reduced.
  • the correction processing performed by the signal processing unit 33 is performed by arranging the pixels that receive the light in the visible light wavelength band between the pixels that receive the light in the infrared light wavelength band. Reliability can be improved. Further, by arranging pixels that receive light in the infrared light wavelength band between pixels that receive light in the visible light wavelength band, the first imaging unit 6 and the second imaging unit 7 are placed on one semiconductor chip. Can be formed.
  • FIG. 11 is a block diagram showing a first example of the internal configuration of the signal processing unit 33.
  • the signal processing unit 33 of FIG. 11 includes a clamp unit 33a, a color output unit 33b, a defect correction unit 33c, a linear matrix unit 33d, a gamma correction unit 33e, a luminance chroma signal generation unit 33f, and a noise reduction unit 33g. And an edge enhancing portion 33h.
  • the clamp portion 33a performs a process for defining the level of black. More specifically, the clamp unit 33a performs a process of subtracting the black level data from the digital pixel data.
  • the color output unit 33b outputs pixel data for each RGB color, for example.
  • the defect correction unit 33c performs a process of correcting the imaging data of a specific pixel that could not be read correctly for some reason from the imaging data of surrounding pixels.
  • the linear matrix unit 33d performs more correct color reproduction by performing a matrix operation on color information such as RGB.
  • the gamma correction unit 33e performs gamma correction so as to enable a display having excellent visibility according to the display characteristics of the display unit 3. For example, the gamma correction unit 33e converts from 10 bits to 8 bits while changing the gradient.
  • the luminance chroma signal generation unit 33f generates a luminance chroma signal to be displayed on the display unit 3 based on the output data of the gamma correction unit 33e.
  • the noise reduction unit 33g performs a process of reducing noise included in the luminance chroma signal.
  • the edge enhancement unit 33h performs a process of enhancing the edge of the subject image based on the luminance chroma signal.
  • the noise reduction processing by the noise reduction unit 33g and the edge enhancement processing by the edge enhancement unit 33h may be performed only when a predetermined condition is satisfied.
  • the output unit 35 outputs a luminance chroma signal after performing noise reduction processing.
  • the noise reduction unit 33g determines whether or not the pixel region has a small change in brightness based on the image data captured by the first imaging unit 6, and increases the noise removal ratio for the pixel region having a small change in brightness. More specifically, the noise reduction unit 33g uses the noise reduction degree of the pixel region whose brightness change is equal to or less than a predetermined reference value in the image data captured by the second imaging unit 7 as a reference. It is set higher than the noise reduction degree in the pixel area larger than the value.
  • the noise removal ratio is weakened in the pixel region where the brightness change is large. The reason for doing this is that the higher the noise removal ratio, the more blurred the edges and the lower the resolution. Therefore, in order to sharpen the edges and improve the resolution, it is desirable to weaken the noise removal ratio. However, if the noise removal ratio is weakened for all pixels, the amount of image data becomes enormous. Therefore, it is desirable to weaken the noise removal ratio only in a limited pixel area such as an edge portion.
  • FIG. 12 is a block diagram showing a second example of the internal configuration of the signal processing unit 33.
  • the signal processing unit 33 of FIG. 11 is the signal processing unit 33 of FIG. 11 provided with a flare extraction unit 33i and a flare correction unit 33j.
  • the flare extraction unit 33i compares the pixel value of the image data captured by the first imaging unit 6 with the pixel value of the image data captured by the second imaging unit 7 to determine the degree of influence due to flare or diffraction. Extract. For example, even if the degree of influence due to flare or diffraction is extracted from the difference between the average pixel value of the image data captured by the first imaging unit 6 and the average pixel value of the image data captured by the second imaging unit 7. good.
  • the flare correction unit 33j performs a process of subtracting the degree of influence of flare or diffraction extracted by the flare extraction unit 33i from the image data captured by the second imaging unit 7. As a result, the image data captured by the second imaging unit 7 is less likely to be affected by flare and diffraction.
  • the image data captured by the second imaging unit 7 is referred to by referring to the image data captured by the first imaging unit 6 in the internal processing of the signal processing unit 33.
  • Sensitivity and resolution can be corrected, and the effects of flare or diffraction can be suppressed. Further, by avoiding unnecessary correction, the processing load of the signal processing unit 33 can be reduced and the amount of image data can be reduced.
  • FIG. 13 is a block diagram showing a schematic configuration of the electronic device 2b according to the fifth embodiment.
  • the electronic device 2b of FIG. 13 includes a light emitting unit 25 and a light emitting control unit 26 in addition to the configuration of the electronic device 2 of FIG.
  • the light emitting unit 25 emits light in the infrared light wavelength band.
  • the light emitting unit 25 is provided on the display surface side of the electronic device 2b.
  • the light emitting unit 25 may be provided on the bezel 3b portion of the display surface of the electronic device 2b.
  • the light emitting control unit 26 controls the light emitting timing of the light emitting unit 25 so that the subject is irradiated with the light emitted by the light emitting unit 25 when the first imaging unit 6 captures the image data. Since the light in the infrared light wavelength band cannot be recognized by the human eye, even if the light of the light emitting unit 25 is irradiated to the human, the human does not have a risk of feeling glare. However, it is necessary to irradiate with a light intensity and continuous irradiation time that does not hurt the human eye.
  • the first imaging unit 6 and the second imaging unit 7 image the same subject at the same timing.
  • the first imaging unit 6 captures the subject with the light from the light emitting unit 25, and when the subject is imaged by the first imaging unit 6, the first imaging unit 6 captures the subject.
  • the pixel value of the image data received by the unit 6 can be increased, and the sensitivity can be improved.
  • FIG. 14 is a flowchart showing a processing operation when the electronic device 2b according to the fifth embodiment performs imaging with the first and second camera modules 4 and 5.
  • the imaging by the first imaging unit 6 and the second imaging unit 7 is performed during the period when the image is not displayed on the display unit 3, for example, during the vertical blanking period of the display unit 3.
  • step S42 the light emitting unit 25 starts emitting light (IR light) in the infrared light band.
  • IR light in the infrared light band
  • the electronic device 2b is a smartphone
  • the user focuses the first and second camera modules 4 and 5 on the subject, so that the traveling direction of the light emitted from the light emitting unit 25 is the first and second cameras. If the directions of the optical axes of the modules 4 and 5 are aligned with each other, the light from the light emitting unit 25 illuminates the subject without the user having to pay particular attention to it.
  • the first imaging unit 6 takes an image (step S43).
  • the pixel value of the image data captured by the first imaging unit 6 can be increased even when shooting in a dark surrounding environment.
  • the light emitting unit 25 stops emitting light (step S44).
  • the image data captured by the second imaging unit 7 is corrected based on the image data captured by the first imaging unit 6 as in the first embodiment (step S45).
  • the first imaging unit 6 receives the light in the infrared light wavelength band, so that the first imaging unit 6 captures the image.
  • the pixel value of the image data can be increased, the sensitivity can be increased, and even in a dark surrounding environment, the image is captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6.
  • the image data can be corrected appropriately.
  • the sixth embodiment is a modification of the fifth embodiment, in which the emission wavelength band of the light emitted by the light emitting unit 25 can be switched.
  • the electronic device 2b according to the sixth embodiment has the same block configuration as that of FIG. 13, but the function of the light emitting unit 25 is different.
  • the light emitting unit 25 according to the sixth embodiment has a plurality of light sources that emit light in different emission wavelength bands within the infrared light wavelength band.
  • the light emission control unit 26 sequentially switches and controls light emission from a plurality of light sources while the first image pickup unit 6 takes an image.
  • the first imaging unit 6 outputs a plurality of image data imaged in different emission wavelength bands.
  • FIG. 15 is a flowchart showing a processing operation when the electronic device 2b according to the sixth embodiment performs imaging with the first and second camera modules 4 and 5.
  • the light emitting unit 25 selects one of the plurality of light emitting wavelength bands (step S52) according to the instruction from the light emitting control unit 26, and emits infrared light in the selected light emitting wavelength band (step S52).
  • Step S53 imaging is performed by the first and second imaging units 6 and 7 (step S54), and then the light emission of the light emitting unit 25 is stopped (step S55).
  • step S56 it is determined whether or not there is infrared light in the emission wavelength band that has not yet been selected among the light that can be emitted by the light emitting unit 25 (step S56). If there is infrared light that has not been selected yet, the processing of step S52 and subsequent steps is repeated.
  • step S56 it is determined that the light emitting unit 25 has performed the processing of steps S52 to S55 for all the light that can be emitted, it is based on the image data of the plurality of infrared light wavelength bands captured by the first imaging unit 6. Then, the image data captured by the second imaging unit 7 is corrected (step S57).
  • the information imprinted on the captured image may change little by little, and these are comprehensively taken into consideration.
  • the image data captured by the second imaging unit 7 can be corrected more appropriately.
  • the light emitting unit 25 since the light emitting unit 25 has a plurality of light sources that emit light in different emission wavelength bands within the infrared light wavelength band, the light sources are in a state of sequentially emitting light.
  • the first imaging unit 6 By performing imaging with the first imaging unit 6, a plurality of captured images captured by the first imaging unit 6 can be obtained.
  • the second image pickup unit 7 takes an image under the condition of receiving strong sunlight, the captured image is easily affected by flare and diffraction.
  • the sensitivity is obtained by correcting the image data captured by the second imaging unit 7 based on the image data captured by the first imaging unit 6 that receives light in the infrared light wavelength band. And resolution can be improved, and the effects of flare and diffraction can be suppressed. Therefore, in the electronic devices 2 and 2a and 2b according to the first to sixth embodiments, when the first and second camera modules 4 and 5 are arranged on the bezel 3b portion of the display surface, or when the electronic devices 2 and 2b are arranged. It is also applicable when it is arranged on the back surface side of 2a and 2b.
  • FIG. 16 is a plan view when the electronic device 2 of the first to seventh embodiments is applied to the capsule endoscope 50.
  • the capsule endoscopy 50 of FIG. 16 is photographed by, for example, a camera (ultra-small camera) 52 and a camera 52 for capturing an image in the body cavity in a housing 51 having hemispherical ends and a cylindrical central portion.
  • a CPU (Central Processing Unit) 56 and a coil (magnetic force / current conversion coil) 57 are provided in the housing 51.
  • the CPU 56 controls the shooting by the camera 52 and the data storage operation in the memory 53, and also controls the data transmission from the memory 53 to the data receiving device (not shown) outside the housing 51 by the wireless transmitter 55.
  • the coil 57 supplies electric power to the camera 52, the memory 53, the wireless transmitter 55, the antenna 54, and the light source 52b described later.
  • the housing 51 is provided with a magnetic (reed) switch 58 for detecting when the capsule endoscope 50 is set in the data receiving device.
  • the reed switch 58 detects the set to the data receiving device and the data can be transmitted, the CPU 56 supplies electric power from the coil 57 to the wireless transmitter 55.
  • the camera 52 has, for example, an image sensor 52a including an objective optical system for capturing an image in the body cavity, and a plurality of light sources 52b that illuminate the inside of the body cavity.
  • the camera 52 is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor equipped with an LED (Light Emitting Diode), a CCD (Charge Coupled Device), or the like as the light source 52b.
  • CMOS Complementary Metal Oxide Semiconductor
  • LED Light Emitting Diode
  • CCD Charge Coupled Device
  • FIG. 16A and 16B are diagrams showing the internal configuration of the vehicle 100, which is the first application example of the electronic device 2 provided with the image pickup apparatus 1 according to the present disclosure.
  • FIG. 16A is a diagram showing the inside of the vehicle 100 from the rear to the front of the vehicle 100
  • FIG. 16B is a diagram showing the inside of the vehicle 100 from the diagonally rear to the diagonally front of the vehicle 100.
  • the vehicle 100 of FIGS. 16A and 16B has a center display 101, a console display 102, a head-up display 103, a digital rear mirror 104, a steering wheel display 105, and a rear entertainment display 106.
  • the center display 101 is arranged on the dashboard 107 at a location facing the driver's seat 108 and the passenger seat 109.
  • FIG. 16 shows an example of a horizontally long center display 101 extending from the driver's seat 108 side to the passenger seat 109 side, but the screen size and arrangement location of the center display 101 are arbitrary.
  • Information detected by various sensors 5 can be displayed on the center display 101.
  • the center display 101 shows a photographed image taken by an image sensor, a distance image to an obstacle in front of or to the side of the vehicle measured by the ToF sensor 5, and a passenger's body temperature detected by the infrared sensor 5. Etc. can be displayed.
  • the center display 101 can be used, for example, to display at least one of safety-related information, operation-related information, life log, health-related information, authentication / identification-related information, and entertainment-related information.
  • the safety-related information includes information such as dozing detection, looking away detection, mischief detection of a child on board, presence / absence of seatbelt wearing, and detection of occupant leaving behind.
  • a sensor 5 arranged on the back side of the center display 101. This is the information detected by.
  • the operation-related information uses the sensor 5 to detect gestures related to the operation of the occupant.
  • the gestures detected may include the operation of various equipment within the vehicle 100. For example, it detects the operation of air conditioners, navigation devices, AV devices, lighting devices, and the like.
  • the life log includes the life logs of all occupants. For example, the life log contains a record of the behavior of each occupant on board.
  • the temperature sensor 5 is used to detect the body temperature of the occupant, and the health state of the occupant is estimated based on the detected body temperature.
  • the face of the occupant may be imaged using an image sensor, and the health condition of the occupant may be estimated from the facial expression of the imaged face.
  • the authentication / identification-related information includes a keyless entry function for performing face authentication using the sensor 5, an automatic adjustment function for seat height and position for face identification, and the like.
  • Entertainment-related information includes a function of detecting operation information of the AV device by the occupant using the sensor 5, a function of recognizing the face of the occupant by the sensor 5, and a function of providing content suitable for the occupant on the AV device. ..
  • the console display 102 can be used, for example, to display life log information.
  • the console display 102 is located near the shift lever 111 of the center console 110 between the driver's seat 108 and the passenger seat 109. Information detected by various sensors 5 can also be displayed on the console display 102. Further, the console display 102 may display an image of the vicinity of the vehicle captured by the image sensor, or may display an image of the distance to an obstacle around the vehicle.
  • the head-up display 103 is virtually displayed behind the windshield 112 in front of the driver's seat 108.
  • the head-up display 103 can be used, for example, to display at least one of safety-related information, operation-related information, life log, health-related information, authentication / identification-related information, and entertainment-related information. Since the head-up display 103 is often virtually arranged in front of the driver's seat 108, it is used to display information directly related to the operation of the vehicle 100 such as the speed of the vehicle 100 and the remaining amount of fuel (battery). Are suitable.
  • the digital rear mirror 104 can not only display the rear of the vehicle 100 but also the state of the occupants in the rear seats, by arranging the sensor 5 on the back side of the digital rear mirror 104, for example, the life log information can be displayed. Can be used.
  • the steering wheel display 105 is arranged near the center of the steering wheel 113 of the vehicle 100.
  • the steering wheel display 105 can be used, for example, to display at least one of safety-related information, operation-related information, life log, health-related information, authentication / identification-related information, and entertainment-related information.
  • life log information such as the driver's body temperature and information on the operation of the AV device, air conditioning equipment, and the like. There is.
  • the rear entertainment display 106 is attached to the rear side of the driver's seat 108 and the passenger's seat 109, and is intended for viewing by the occupants in the rear seats.
  • the rear entertainment display 106 can be used, for example, to display at least one of safety-related information, operation-related information, life log, health-related information, authentication / identification-related information, and entertainment-related information.
  • information related to the occupants in the rear seats is displayed. For example, information on the operation of the AV device or the air conditioning equipment may be displayed, or the result of measuring the body temperature of the occupant in the rear seat with the temperature sensor 5 may be displayed.
  • Optical distance measurement methods are roughly divided into passive type and active type.
  • the passive type the distance is measured by receiving the light from the object without projecting the light from the sensor 5 onto the object.
  • the passive type includes a lens focusing method, a stereo method, and a monocular vision method.
  • the active type light is projected onto an object, and the reflected light from the object is received by the sensor 5 to measure the distance.
  • the active type includes an optical radar method, an active stereo method, an illuminance difference stereo method, a moire topography method, an interferometry method, and the like.
  • the image pickup apparatus 1 according to the present disclosure can be applied to any of these types of distance measurement.
  • the sensor 5 which is superposed on the back surface side of the display unit 3 according to the present disclosure the above-mentioned passive type or active type distance measurement can be performed.
  • the image pickup apparatus 1 according to the present disclosure is applicable not only to various displays used in vehicles, but also to displays mounted on various electronic devices 2.
  • FIG. 17A is a front view of the digital camera 120, which is a second application example of the electronic device 2, and FIG. 17B is a rear view of the digital camera 120.
  • the digital cameras 120 of FIGS. 17A and 17B show an example of a single-lens reflex camera in which the lens 121 can be exchanged, but can also be applied to a camera in which the lens 121 cannot be exchanged.
  • FIGS. 17A and 17B are inside the camera when the photographer looks into the electronic viewfinder 124 while holding the grip 123 of the camera body 122 to determine the composition and presses the shutter 125 while adjusting the focus.
  • the shooting data is saved in the memory of.
  • a monitor screen 126 for displaying shooting data and live images and an electronic viewfinder 124 are provided on the back side of the camera.
  • a sub screen for displaying setting information such as a shutter speed and an exposure value may be provided on the upper surface of the camera.
  • the senor 5 By arranging the sensor 5 on the back side of the monitor screen 126, the electronic viewfinder 124, the sub screen, etc. used for the camera, it can be used as the image pickup device 1 according to the present disclosure.
  • the imaging device 1 and the electronic device 2 according to the present disclosure can also be applied to a head-mounted display (hereinafter referred to as HMD).
  • HMD head-mounted display
  • the HMD can be used for VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), SR (Substitutional Reality), and the like.
  • FIG. 18A is an external view of the HMD 130, which is a third application example of the electronic device 2.
  • the HMD 130 of FIG. 18A has a mounting member 131 for mounting so as to cover the human eye.
  • the mounting member 131 is hooked and fixed to, for example, the human ear.
  • a display device 132 is provided inside the HMD 130, and the wearer of the HMD 130 can visually recognize a stereoscopic image or the like on the display device 132.
  • the HMD 130 is equipped with, for example, a wireless communication function and an acceleration sensor, and can switch a stereoscopic image or the like displayed on the display device 132 according to the posture of the wearer, a gesture, or the like.
  • the HMD 130 may be provided with a camera, an image of the surroundings of the wearer may be taken, and an image obtained by combining the image taken by the camera and the image generated by the computer may be displayed on the display device 132.
  • another camera is placed on the back side of the display device 132 visually recognized by the wearer of the HMD 130, the periphery of the wearer's eyes is photographed by this camera, and the photographed image is provided on the outer surface of the HMD 130.
  • humans around the wearer can grasp the facial expressions and eye movements of the wearer in real time.
  • the imaging device 1 and the electronic device 2 according to the present disclosure can also be applied to smart glasses 130a that project various information on the glasses 134.
  • the smart glass 130a of FIG. 18B has a main body portion 135, an arm portion 136, and a lens barrel portion 137.
  • the main body 135 is connected to the arm 136.
  • the main body 135 is removable from the glasses 134.
  • the main body 135 incorporates a control board and a display for controlling the operation of the smart glasses 130a.
  • the main body 135 and the lens barrel are connected to each other via the arm 136.
  • the lens barrel portion 137 emits image light emitted from the main body portion 135 via the arm portion 136 to the lens 138 side of the glasses 134. This image light enters the human eye through the lens 138.
  • the wearer of the smart glasses 130a of FIG. 18B can visually recognize not only the surrounding conditions but also various information emitted from the lens barrel portion 137, as in the case of ordinary glasses.
  • the imaging device 1 and the electronic device 2 according to the present disclosure can also be applied to a television device (hereinafter, TV).
  • TV television device
  • Recent TVs tend to make the frame as small as possible from the viewpoint of miniaturization and design design. For this reason, when a camera for photographing a viewer is provided on a TV, it is desirable to arrange the cameras on the back side of the display panel 2 of the TV.
  • FIG. 19 is an external view of the TV 140, which is a fourth application example of the electronic device 2.
  • the TV 140 of FIG. 19 the frame is minimized, and almost the entire area on the front side is the display area.
  • the TV 140 has a built-in sensor 5 such as a camera for photographing a viewer.
  • the sensor 5 of FIG. 19 is arranged on the back side of a part (for example, a broken line portion) in the display panel 2.
  • the sensor 5 may be an image sensor module, or various sensors such as a face recognition sensor, a distance measurement sensor, and a temperature sensor can be applied, and a plurality of types of sensors are placed on the back surface side of the display panel 2 of the TV 140. It may be arranged.
  • the image sensor module 9 can be arranged so as to be overlapped on the back surface side of the display panel 2, it is not necessary to arrange a camera or the like on the frame, and the TV 140 can be mounted. It can be miniaturized, and there is no risk that the design will be damaged by the frame.
  • FIG. 20 is an external view of a smartphone 150, which is a fifth application example of the electronic device 2.
  • the display surface 2z extends close to the outer size of the electronic device 2, and the width of the bezel 2y around the display surface 2z is set to several mm or less.
  • a front camera is often mounted on the bezel 2y, but in FIG. 20, as shown by a broken line, an image sensor module 9 that functions as a front camera is mounted on the back side of the display surface 2z, for example, substantially in the center. It is arranged.
  • the present technology can have the following configurations.
  • Display and A first imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the infrared light wavelength band that has passed through the display unit
  • a second imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the visible light wavelength band that has passed through the display unit
  • An electronic device including a correction unit that corrects image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • the correction unit corrects the sensitivity of the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • a learning unit for learning the correlation between the sensitivity of the image data captured by the first imaging unit and the sensitivity of the image data captured by the second imaging unit is provided.
  • the correction unit corrects the sensitivity of the image data captured by the second imaging unit based on the image data captured by the first imaging unit with reference to the learning result of the learning unit.
  • the electronic device described in 2). (4) The electronic device according to (1), wherein the correction unit corrects the resolution of the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • a learning unit for learning the correlation between the resolution of the image data captured by the first imaging unit and the resolution of the image data captured by the second imaging unit is provided.
  • the correction unit corrects the resolution of the image data captured by the second imaging unit based on the image data captured by the first imaging unit with reference to the learning result of the learning unit.
  • the correction unit corrects at least one of a flare component and a diffracted light component included in the image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • the correction unit refers to the learning result in the learning unit, and based on the image data captured by the first imaging unit, the flare component and diffraction contained in the image data captured by the second imaging unit.
  • the electronic device which corrects at least one of the light components.
  • a reference determination unit for determining whether or not at least one of the sensitivity, resolution, flare component, and diffracted light component of the image data captured by the second imaging unit satisfies a predetermined first criterion. When the reference determination unit determines that the first criterion is not satisfied, the image pickup start instruction unit for starting the image pickup by the first image pickup unit and the image pickup start instruction unit.
  • the electronic device further comprising a correction procedure determination unit that determines whether or not to perform correction by the correction unit and a type of image data that is a reference for correction when the correction is performed by the correction unit.
  • the learning unit has at least one of the determined image data sensitivity, resolution, flare component, and diffracted light component.
  • the electronic device wherein the sensitivity, resolution, flare component, and correlation with at least one of the diffracted light components of the image data captured by the second imaging unit are learned.
  • a sensor that detects at least one of the shape and color of an object
  • a reliability estimation unit that estimates the reliability of learning by the learning unit, When the reliability estimated by the reliability estimation unit is equal to or less than a predetermined second reference, an object identification determination unit that determines whether or not the object can be identified based on the detection data of the sensor, and an object identification determination unit.
  • the color identification determination unit determines whether or not the color of the object identified by the sensor can be specified.
  • the correction unit corrects the image data captured by the second imaging unit so as to approach the specified color.
  • the electronic device according to any one of (7) to (9).
  • the correction unit determines the degree of noise removal in a pixel region in which the brightness change of the image data captured by the second imaging unit is equal to or less than a predetermined reference value, and the brightness change of the image data is based on the reference value.
  • the electronic device according to any one of (1) to (10), wherein the degree of noise removal is higher than that of a large pixel region.
  • a light emitting unit that emits light in the infrared wavelength band, (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1).
  • the electronic device according to any one of 11).
  • the light emitting unit has a plurality of light sources that emit light in different emission wavelength bands within the infrared light wavelength band.
  • the light emission control unit sequentially switches and controls light emission from the plurality of light sources while the first imaging unit takes an image.
  • the first image pickup unit outputs a plurality of image data captured in different emission light wavelength bands, and outputs a plurality of image data.
  • the electronic device according to (12), wherein the correction unit corrects image data captured by the second imaging unit based on the plurality of image data.
  • At least one of the first imaging unit and the second imaging unit includes pixels that image light in the infrared light wavelength band and pixels that image light in the visible light wavelength band, (1) to The electronic device according to any one of (14)).
  • the first imaging unit has sensitivity to light of 550 nm or more.
  • the correction unit increases the degree of correction toward the shorter wavelength side with respect to the image data captured by the second imaging unit. device.
  • a first imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the infrared light wavelength band
  • a second imaging unit which is arranged on the side opposite to the display surface of the display unit and can image light in the visible light wavelength band
  • An imaging device including a correction unit that corrects image data captured by the second imaging unit based on the image data captured by the first imaging unit.
  • 1 Imaging device 2, 2a, 2b electronic device, 3 display unit, 3a display surface, 3b bezel, 4 camera module, 5 camera module, 6 1st imaging unit, 7 2nd imaging unit, 8 1st optical system, 9 2nd optical system, 11 semiconductor substrate, 12a 1st photoelectric conversion unit, 12b 2nd photoelectric conversion unit, 13 element separation layer, 14 flattening layer, 15a on-chip lens, 15b on-chip lens, 16 color filter layer, 17 readout Circuit, 21 application processor, 22 video signal generation unit, 23 A / D conversion unit, 24 display control unit, 31 1st A / D conversion unit, 32 2nd A / D conversion unit, 33 signal processing unit, 100 vehicles, 101 center Display, 102 console display, 103 head-up display, 104 digital rear mirror, 105 steering wheel display, 106 rear entertainment display, 107 dashboard, 108 driver's seat, 109 passenger's seat, 110 center console, 111 shift lever, 112 front glass, 113 Handle, 120 digital camera, 121 lens, 122 camera body,

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

[課題]入射光量が少ない場合でも、高品質の撮影画像を得ることができる。 [解決手段]電子機器は、表示部と、前記表示部の表示面とは反対側に配置され、前記表示部を通過した赤外光波長帯域の光を撮像可能な第1撮像部と、前記表示部の表示面とは反対側に配置され、前記表示部を通過した可視光波長帯域の光を撮像可能な第2撮像部と、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える。

Description

電子機器及び撮像装置
 本開示は、電子機器及び撮像装置に関する。
 最近のスマートフォンや携帯電話、PC(Personal Computer)などの電子機器では、表示パネルの額縁(ベゼル)に、カメラなどの種々のセンサを搭載している。その一方で、画面サイズに影響を与えずに電子機器の外形サイズをできるだけコンパクトにしたい要求があり、ベゼル幅は狭まる傾向にある。このような背景から、表示パネルの真下にカメラモジュールを配置して、表示パネルを通過した被写体光をカメラモジュールで撮影する技術が提案されている。
米国特許公開公報2018/0069060
 しかしながら、表示パネルは複数層からなり、一部の層は可視光透過率が低い。このため、表示パネルを通過した被写体光をカメラモジュールで撮影すると、撮影画像が暗くなったり、全体的にぼやけた画像になる。また、被写体光が表示パネルを通過する際に、フレアや回折の影響を受けて、撮影画像の画質が低下するおそれもある。
 また、スマートフォン等の小型の電子機器の表面にカメラモジュールを配置する場合、レンズを薄く、かつレンズ口径も大きくできないため、周囲が暗い状況下では、撮影画像が暗くなり、不鮮明な画像が得られやすい。
 本開示は、入射光量が少ない場合でも、高品質の撮影画像を得ることができる電子機器及び撮像装置を提供するものである。
 上記の課題を解決するために、本開示によれば、表示部と、
 前記表示部の表示面とは反対側に配置され、前記表示部を通過した赤外光波長帯域の光を撮像可能な第1撮像部と、
 前記表示部の表示面とは反対側に配置され、前記表示部を通過した可視光波長帯域の光を撮像可能な第2撮像部と、
 前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、電子機器が提供される。
 前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの感度を補正してもよい。
 前記第1撮像部で撮像された画像データの感度と、前記第2撮像部で撮像された画像データの感度との相関関係を学習する学習部を備え、
 前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの感度を補正してもよい。
 前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの解像度を補正してもよい。
 前記第1撮像部で撮像された画像データの解像度と、前記第2撮像部で撮像された画像データの解像度との相関関係を学習する学習部を備え、
 前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの解像度を補正してもよい。
 前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方を補正してもよい。
 前記第1撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方と、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方との相関関係を学習する学習部を備え、
 前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方を補正してもよい。
 前記第2撮像部で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つが所定の第1基準を満たすか否かを判定する基準判定部と、
 前記基準判定部にて前記第1基準を満たさないと判定されると、前記第1撮像部による撮像を開始させる撮像開始指示部と、
 前記第1撮像部で撮像された画像データと前記第2撮像部で撮像された画像データとで、感度、解像度、フレア成分、及び回折光成分の少なくとも一つを比較した結果に基づいて、前記補正部による補正を行うか否かと、前記補正部による補正を行う際に補正の基準となる画像データの種類とを決定する補正手順決定部と、を備えてもよい。
 前記学習部は、前記補正手順決定部にて、補正の基準となる画像データの種類が決定されると、決定された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つと、前記第2撮像部で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つとの相関関係を学習してもよい。
 物体の形状及び色の少なくとも一方を検出するセンサと、
 前記学習部による学習の信頼度を推定する信頼度推定部と、
 前記信頼度推定部にて推定された信頼度が所定の第2基準以下の場合、前記センサの検出データに基づいて前記物体を識別できるか否かを判定する物体識別判定部と、
 前記物体識別判定部にて物体を識別できると判定された場合に、前記センサにて識別された物体の色を特定できるか否かを判定する色特定判定部と、
 前記補正部は、前記色特定判定部にて前記物体の色を特定できると判定された場合、前記特定された色に近づくように、前記第2撮像部で撮像された画像データを補正してもよい。
 前記補正部は、前記第2撮像部で撮像された画像データのうち輝度変化が所定の基準値以下の画素領域のノイズ除去度合いを、前記画像データのうち輝度変化が前記基準値より大きい画素領域のノイズ除去度合いよりも高くしてもよい。
 赤外光波長帯域の光を発光する発光部と、
 前記第1撮像部で画像データを撮像する際に前記発光部が発光した光で被写体が照明されるように前記発光部の発光タイミングを制御する発光制御部と、を備えてもよい。
 前記発光部は、前記赤外光波長帯域内のそれぞれ異なる発光波長帯域の光を発光する複数の光源を有し、
 前記発光制御部は、前記第1撮像部が撮像する間に、前記複数の光源による発光を順次に切り替え制御し、
 前記第1撮像部は、それぞれ異なる発光光波長帯域で撮像された複数の画像データを出力し、
 前記補正部は、前記複数の画像データに基づいて、前記第2撮像部で撮像された画像データを補正してもよい。
 前記発光部は、前記表示部の表示面側に配置されてもよい。
 前記第1撮像部及び前記第2撮像部の少なくとも一方は、赤外光波長帯域の光を撮像する画素と、可視光波長帯域の光を撮像する画素とを含んでもよい。
 前記第1撮像部は、550nm以上の光に対して感度を有してもよい。
 前記補正部は、前記第2撮像部で撮像された画像データに対して、短波長側ほど補正の度合いを高くしてもよ。
 前記第1撮像部は、前記第2撮像部に比べて、光入射面の法線方向により長く配置される光電変換部を有してもよい。
 前記第1撮像部の1画素あたりの光入射面方向の面積は、前記第2撮像部の1画素あたりの光入射面方向の面積よりも大きく、かつ
 前記第1撮像部の全画素分の光入射面方向の面積は、前記第2撮像部の全画素分の光入射面方向の面積よりも小さくてもよい。
 本開示の他の一態様では、表示部の表示面とは反対側に配置され、赤外光波長帯域の光を撮像可能な第1撮像部と、
 前記表示部の表示面とは反対側に配置され、可視光波長帯域の光を撮像可能な第2撮像部と、
 前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、撮像装置が提供される。
 本開示の他の一態様では、赤外光波長帯域の光を撮像可能な第1撮像部と、
 可視光波長帯域の光を撮像可能な第2撮像部と、
 前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、撮像装置が提供される。
撮像装置を搭載する電子機器の外観図及びA-A線断面図。 図1のB-B線断面図。 第1撮像部の断面構造の一例を示す断面図。 第2撮像部の断面構造の一例を示す断面図。 第1の実施形態による電子機器の内部構成を示すブロック図。 第1の実施形態による信号処理部の処理動作の第1例を示すフローチャート。 信号処理部の処理動作の第2例を示すフローチャート。 第2の実施形態による電子機器の内部構成を示すブロック図。 第2の実施形態による電子機器内の信号処理部が行う処理動作の第1例を示すフローチャート。 マルチスペクトルセンサを用いる場合の信号処理部が行う処理動作の第2例を示すフローチャート。 画素配置の第1例を示す図。 画素配置の第2例を示す図。 信号処理部の内部構成の第1例を示すブロック図。 信号処理部の内部構成の第2例を示すブロック図。 第5の実施形態による電子機器2の概略構成を示すブロック図。 第5の実施形態による電子機器2が第1及び第2のカメラモジュールで撮像を行う際の処理動作を示すフローチャート。 第6の実施形態による電子機器2が第1及び第2のカメラモジュールで撮像を行う際の処理動作を示すフローチャート。 乗物の後方から前方にかけての乗物の内部の様子を示す図。 乗物の斜め後方から斜め前方にかけての乗物の内部の様子を示す図。 電子機器の第2適用例であるデジタルカメラの正面図。 デジタルカメラの背面図。 電子機器の第3適用例であるHMDの外観図。 スマートグラスの外観図。 電子機器の第4適用例であるTVの外観図。 電子機器の第5適用例であるスマートフォンの外観図。
 以下、図面を参照して、電子機器及び撮像装置の実施形態について説明する。以下では、電子機器及び撮像装置の主要な構成部分を中心に説明するが、電子機器及び撮像装置には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
 (第1の実施形態)
 図1は第1の実施形態による撮像装置1を搭載する電子機器2の外観図及びA-A線断面図、図2は図1のB-B線断面図である。本実施形態による電子機器2は、スマートフォンや携帯電話、タブレット、PCなど、表示機能と撮影機能を兼ね備えた任意の電子機器2である。図1の電子機器2は、表示部3の表示面3aとは反対側に配置されるカメラモジュール(第1及び第2撮像部)4,5を備えている。このように、図1の電子機器2は、表示部3の表示面3aの裏側にカメラモジュール4,5を設けている。したがって、カメラモジュール4,5は、表示部3を通して撮影を行うことになる。
 本実施形態による撮像装置1は、複数のカメラモジュール4,5を備えている。本明細書では、2つのカメラモジュール4,5を備える例を主に説明するが、3個以上のカメラモジュールを備えていてもよい。以下では、撮像装置1が2つのカメラモジュール4,5を備える例を主に説明する。後述するように、カメラモジュール4は第1撮像部6を有し、カメラモジュール5は第2撮像部7を有する。第1撮像部6は、表示部3を通過した赤外光波長帯域の光を撮像することができる。赤外光波長帯域とは、例えば780nm~1000nmの範囲内の波長帯域である。第2撮像部7は、表示部3を通過した可視光波長帯域の光を撮像することができる。可視光波長帯域とは、例えば380nm~750nmの範囲内の波長帯域である。
 本実施形態による電子機器2は、電子機器2の外形サイズの付近まで表示面3aが広がっており、表示面3aの周囲にあるベゼル3bの幅を数mm以下にしている。通常、ベゼル3bには、フロントカメラが搭載されることが多いが、図1では、破線円で示すように、表示面3aの略中央部の裏面側にフロントカメラとして機能する複数のカメラモジュール4,5を配置している。このように、フロントカメラを表示面3aの裏面側に設けることで、ベゼル3bにフロントカメラを配置する必要がなくなり、ベゼル3bの幅を狭めることができる。
 なお、図1では、表示面3aの略中央部の裏面側にカメラモジュール4,5を配置しているが、表示面3aの裏面側の任意の場所にカメラモジュール4,5を配置してもよく、例えば表示面3aの周縁部の近くの裏面側にカメラモジュール4,5を配置してもよい。このように、本実施形態における複数のカメラモジュール4,5は、表示面3aと重なる裏面側の任意の位置に配置される。
 図1及び図2に示すように、表示部3は、保護フィルム3c、ポリイミド基板3d、表示層3e、バリア層3f、タッチセンサ層3g、粘着層3h、円偏光板3i、光学粘着シート(OCA:Optical Clear Adhesive)3j、及びカバーガラス3kを順に積層した積層体である。表示層3eは、例えばOLED(Organic Light Emitting Device)表示層でもよいし、液晶表示層でもよいし、MicroLEDでもよいし、その他の表示原理に基づく表示層でもよい。表示層3eは、複数の層で構成される場合もありうる。例えば、表示層3eには、カラーフィルタ層やバックライト層などが含まれることもありうる。表示部3は、可視光波長域の光を用いた表示を行うが、表示部3で表示される光が赤外光成分を含んでいてもよい。
 バリア層3fは、表示層3eに酸素や水分が侵入するのを防止する層である。タッチセンサ層3gには、タッチセンサが組み込まれている。タッチセンサには、静電容量型や抵抗膜型など、種々の方式があるが、いずれの方式が採用されてもよい。また、タッチセンサ層3gと表示層3eを一体化してもよい。
 粘着層3hは、円偏光板3iとタッチセンサ層3gとを接着するために設けられている。粘着層3hには、可視光透過率が高い材料が用いられる。円偏光板3iは、ギラツキを低減したり、明るい環境下でも表示面3aの視認性を高めるために設けられている。光学粘着シート3jは、円偏光板3iとカバーガラス3kとの密着性を高めるために設けられている。光学粘着シート3jは、可視光透過率が高い材料が用いられる。カバーガラス3kは、表示層3e等を保護するために設けられている。なお、表示部3の層構成は、必ずしも図1や図2に示したものには限定されない。
 図2に示すように、カメラモジュール4は、第1撮像部6に対応づけて第1光学系8を有する。同様に、カメラモジュール4,5は、第2撮像部7に対応づけて第2光学系9を有する。第1及び第2光学系8,9は、第1及び第2撮像部6,7の光入射面側、すなわち表示部3に近い側に配置され、表示部3を通過した光を第1及び第2撮像部6,7に集光させる。光学系5は、通常は複数のレンズで構成されるが、光学系の具体的な光学構成は問わない。
 後述するように、第1撮像部6は第1光電変換部を有し、第2撮像部7は第2光電変換部を有する。第1光電変換部及び第2光電変換部は、表示部3を介して入射された光を光電変換する。第1光電変換部と第2光電変換部では、光電変換可能な光波長帯域が異なっている。第1光電変換部は、赤外光波長帯域の光を主に光電変換し、第2光電変換部は、可視光波長帯域の光を主に光電変換する。第1光電変換部と第2光電変換部は、CMOS(Complementary Metal Oxide Semiconductor)センサでもよいし、CCD(Charge Coupled Device)センサでもよい。また、光電変換部は、フォトダイオードでもよいし、有機光電変換膜でもよい。
 第1及び第2光電変換部は、画素ごとにCMOSセンサ等の光電変換素子を有する。各画素は任意の方式で配列することができる。具体的には、各画素の配列方式は、ベイヤ配列でもよいし、インターライン配列でもよいし、市松配列でもよいし、ストライプ配列でもよいし、その他の配列でもよい。
 図1及び図2に示すように、本実施形態の電子機器2では、複数のカメラモジュール4,5が表示部3を透過した被写体光を撮像する。表示部3は、図1に示すように、複数の層で形成されており、各層が、第1撮像部6及び第2撮像部7が十分な感度を持つ波長帯域の光の透過率が高ければ問題ないが、実際には、一部の層の透過率が低いおそれがある。例えば、ポリイミド基板3dは、可視光透過率がそれほど高くないのに対して、赤外光透過率は可視光透過率よりも高い。
 そこで、本実施形態では、後述する補正部を設けて、赤外光波長帯域の光を撮像する第1撮像部6の撮像画像データに基づいて、可視光波長帯域の光を撮像する第2撮像部7の撮像画像データを補正する。
 図3Aは第1撮像部6の断面構造の一例を示す断面図、図3Bは第2撮像部7の断面構造の一例を示す断面図である。図3Aに示す第1撮像部6は、半導体基板11内に形成される第1光電変換部12aを備えており、第1光電変換部12aは画素ごとに素子分離層13で区切られている。第1光電変換部12aの上には平坦化層14が配置され、その上にはオンチップレンズ15aが配置されている。光はオンチップレンズ15aを通して入射される。よって、オンチップレンズ15aは光入射面になる。本明細書では、オンチップレンズ15aが配置されている側を第1撮像部6の裏面側と呼ぶ。
 一方、図3Bに示す第2撮像部7は、半導体基板内に形成される第2光電変換部12bを備えており、第2光電変換部12bは画素ごとに素子分離層13で区切られている。第2光電変換部12bの上には平坦化層14が配置され、その上にカラーフィルタ層16が配置されている。カラーフィルタ層16は、RGBの3色のフィルタ層を有していてもよいし、その補色であるシアン、マゼンダ、イエローのフィルタ層を有していてもよい。カラーフィルタ層16の上には、オンチップレンズ15bが配置されている。
 図3Aと図3Bの断面図を比較すればわかるように、第1撮像部6の第1光電変換部12aは、第2撮像部7の第2光電変換部12bよりも、光入射面の法線方向の長さが長い。これは、赤外光波長帯域の光の光電変換効率は、可視光波長帯域の光の光電変換効率よりも悪いためであり、第1光電変換部12aの光入射面の法線方向の長さをより長くすることで、光電変換効率の向上を図っている。
 また、赤外光は、可視光に比べて屈折しにくくなるため、図3A及び図3Bに示すように、第1撮像部6のオンチップレンズ15aの曲率を、第2撮像部7のオンチップレンズ15bの曲率よりも大きくしてもよい。
 第1撮像部6の1画素あたりの光入射面方向の面積は、第2撮像部7の1画素あたりの光入射面方向の面積よりも大きくしてもよい。第1撮像部6は、第2撮像部7の撮像画像の感度等を補正するために設けられており、面積が大きい方が感度を向上できるため、望ましい。
 一方、第2撮像部7の全画素分を合わせた光入射面方向の面積(有効画素面積)は、第1撮像部6の全画素分を合わせた光入射面方向の面積(有効画素面積)よりも大きくてもよい。第1撮像部6は、第2撮像部7の撮像画像を補正するためのものであり、例えば第2撮像部7の複数画素に対して1画素の割合で設ければよい。なお、第1撮像部6と第2撮像部7のサイズや画素数は、上述したものに限定されない。第1撮像部6と第2撮像部7の具体的なレイアウト配置例については、後述する。
 第1撮像部6及び第2撮像部7の表面側(オンチップレンズ15a、15bとは反対側)では、半導体基板11の上に読み出し回路17が形成され、読み出し回路17の周囲は層間絶縁膜18で覆われている。読み出し回路17は、転送トランジスタ、リセットトランジスタ、増幅トランジスタ、選択トランジスタなどを有する。なお、第1撮像部6及び第2撮像部7の断面構造は、図3に示したものには限定されない。
 図4は第1の実施形態による電子機器2の内部構成を示すブロック図である。図4に示すように、電子機器2は、撮像装置1と、アプリケーションプロセッサ21と、映像信号生成部22と、A/D変換部23と、表示制御部24と、表示部3とを有する。
 撮像装置1は、一つ又は複数の半導体デバイスで構成することができる。より詳細には、撮像装置1は、第1及び第2のカメラモジュール4,5と、第1撮像部6に対応する第1光学系8と、第2撮像部7に対応する第2光学系9及びIR(Infrared Ray)カットフィルタ10と、第1撮像部6に対応する第1A/D変換部31と、第2撮像部7に対応する第2A/D変換部32と、信号処理部33と、撮像制御部34と、出力部35とを有する。第1及び第2のカメラモジュール4,5は、共通の基板上に実装されていてもよい。
 第1A/D変換部31は第1光電変換部12aで光電変換されたアナログ画素信号をデジタル画素データに変換する。第2A/D変換部32は第2光電変換部12bで光電変換されたアナログ画素信号をデジタル画素データに変換する。
 信号処理部33は、後述するように、第1撮像部6及び第2撮像部7での撮像画像に応じた画像データを生成する。信号処理部33は、第1撮像部6で撮像された画像データに基づいて第2撮像部7で撮像された画像データの感度を補正する補正部として機能する。撮像制御部34は、信号処理部33からの指示により、第1撮像部6で撮像を行うか否かを制御する。
 アプリケーションプロセッサ21は、第1及び第2のカメラモジュール4,5とは別個の半導体デバイスであり、第1及び第2のカメラモジュール4,5と同一又は別の基板に実装される。アプリケーションプロセッサ21は、その内部にCPU(Central Processing Unit)等を有し、オペレーティングシステムや各種のアプリケーションソフトウェア等のプログラムを実行する。アプリケーションプロセッサ21は、GPU(Graphics Processing Unit)やベースバンドプロセッサなどの画像処理や信号処理等を行う機能を搭載していてもよい。アプリケーションプロセッサ21は、入力された画像データや演算結果に対して、必要に応じて種々の処理を実行したり、電子機器2の表示部3に画像を表示する制御を行ったり、所定のネットワークを介して外部のクラウドサーバに送信したりする。
 映像信号生成部22は、表示部3に表示するための映像信号を生成する。A/D変換部23は、映像信号をデジタル画素データに変換する。表示制御部24は、デジタル画素データを表示部3に表示する制御を行う。
 図5は第1の実施形態による信号処理部33の処理動作の第1例を示すフローチャートである。図5のフローチャートは、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データの感度を補正するものである。
 まず、第2撮像部7で撮像された画像データの画素値が所定の閾値以下か否かを判定する(ステップS1)。ここでは、第2撮像部7で撮像された画像データの平均画素値を所定の閾値と比較してもよいし、第2撮像部7で撮像された画像データの一部の画素領域の画素値を所定の閾値と比較してもよい。
 ステップS1で所定の閾値以下でないと判定された場合、第2撮像部7で撮像された画像データは十分な感度を持っていると推定できるため、第2撮像部7で撮像された画像データに基づいて所定の信号処理を行ってRGBデータを生成して出力する(ステップS2)。
 一方、ステップS1で所定の閾値以下と判定された場合、第2撮像部7で撮像された画像データは感度が不足していると推定できるため、撮像制御部を介して、第1撮像部6に対して撮像開始を指示する(ステップS3)。第1撮像部6は、赤外光波長帯域内の複数の狭波長帯域(例えば、750nm、800nm、850nmなど)の光を別個に撮像できる複数の撮像センサを有していてもよい。
 その後、第1撮像部6で撮像された画像データの画素値と、第2撮像部7で撮像された画像データの画素値を比較する(ステップS4)。このステップS4では、例えば、第1撮像部6で撮像された画像データの画素値が、第2撮像部7で撮像された画像データの画素値のX倍(Xは1より大きい予め定めた基準値)以上か否かを判定する。Xの値は、ユーザが設定変更できるようにしてもよい。
 ステップS4でNOと判定されると、第1撮像部6で撮像された画像データはそれほど感度が高くないと推定できるため、補正処理は行わずに上述したステップS2の処理を行う。ステップS4でYESと判定されると、第1撮像部6で撮像された画像データの感度は十分に高いと推定できるため、第2撮像部7で撮像された画像データの中に、画素値が所定の閾値以上の画素が存在するか否かを判定する(ステップS5)。ステップS5の判定処理を設けた理由は、可視光波長帯域の光を撮像する第2撮像部7の撮像画像データの中に、画素値の大きな画素データがあれば、その画素データは感度が高くて有効なデータとみなすためである。
 ステップS5でYESと判定されると、第2撮像部7で撮像された画像データのうち、画素値が所定の閾値以上の画素データと、第1撮像部6で撮像された画像データとを有効なデータとして選択する(ステップS6)。
 ステップS5でNOと判定されると、第2撮像部7で撮像された画像データは信頼できないと推定できるため、第1撮像部6で撮像された画像データを有効なデータとして選択する(ステップS7)。
 次に、ステップS6又はS7で選択された有効なデータに基づいて、第2撮像部7で撮像された画像データを補正する(ステップS8)。ここでは、例えば、第1撮像部6で撮像された画像データの感度と、第2撮像部7で撮像された画像データの感度との相関関係を予め学習した学習モデルを生成しておく。例えばCNN(Convolution Neural Network)を利用して、感度補正を適切に行うための画像の特徴を抽出し、第1撮像部6で撮像された画像データを利用して、第2撮像部7で撮像された画像データの感度を自動で補正できるような学習モデルを生成する。学習モデルを生成する一連の処理は機械学習と呼ばれる。十分な学習が行われた学習モデルに対して、ステップS6又はS7で選択された有効なデータを入力して演算処理を行うことで、学習モデルから補正後の画像データを出力する。出力された画像データは、RGBの色成分ごとに、適切に感度補正されたデータである。
 このように、信号処理部33は、第2撮像部7で撮像された画像データの画素値が大きくて信頼性が高いと推定される場合は、感度を補正せずに出力し、画素値が小さくて信頼性が高いと推定される場合は、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データの感度を補正する。補正を行う際には、第1撮像部6で撮像された画像データの感度と第2撮像部7で撮像された画像データの感度との相関関係を予め学習しておき、その学習結果を利用して補正する。
 図5では、第2撮像部7で撮像された画像データの感度を補正する例を説明したが、第2撮像部7で撮像された画像データの解像度を補正する場合にも、同様の処理手順を適用可能である。解像度の低下は、表示部3を通すことで、第2のカメラモジュール5に入射されるべき光の一部が失われることで生じる。よって、図5と同様の処理を行うことで、第1撮像部6で撮像された画像データに基づいて第2撮像部7で撮像された画像データを補正することで、第2撮像部7で撮像された画像データの解像度を向上できる。その際、ステップS8の補正処理は、感度補正とは異なる処理を行う必要がある。すなわち、感度補正の場合は、感度を適切に補正するための学習モデルを生成したが、解像度補正の場合は、解像度を適切に補正するための学習モデルを生成し、その学習モデルの十分な学習を行った段階で、その学習モデルにステップS6又はS7で選択された有効なデータを入力して、解像度補正された画像データを得ることができる。より具体的には、解像度を補正する場合の学習モデルは、第1撮像部6で撮像された画像データの解像度と、第2撮像部7で撮像された画像データの解像度との相関関係を学習する。補正部として機能する信号処理部33は、学習部での学習結果を参照して、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データの解像度を補正する。
 補正部として機能する信号処理部33は、第2撮像部7で撮像された画像データに対して、短波長側ほど補正の度合いを高くしてもよい。表示部3を通過する被写体光は、青色成分ほど表示部3に吸収されやすくなるためである。
 以上では、第2撮像部7で撮像された画像データの感度補正又は解像度補正を行う例を説明したが、被写体光が表示部3を通過する間に反射や回折を起こし、反射によるフレアや回折の影響を受けた被写体光が第1及び第2のカメラモジュール4,5に入射されるおそれがある。そこで、信号処理部33は、フレアや回折光による影響を補正する処理を行ってもよい。
 図6は信号処理部33の処理動作の第2例を示すフローチャートである。図6のフローチャートは、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データのフレア又は回折による影響を補正するものである。
 まず、第2撮像部7で撮像された画像データの画素値が所定の閾値以上か否かを判定する(ステップS11)。第2撮像部7に入射される光がフレアや回折の影響を受けている場合は、一般には画素値が大きくなる。そこで、ステップS11では、第2撮像部7で撮像された画像データの画素値が所定の閾値以上か否かを判定し、閾値未満であれば、フレアや回折の影響を受けていないと判断し、第2撮像部7で撮像された画像データに基づいて所定の信号処理を行ってRGBデータを生成して出力する(ステップS12)。
 一方、ステップS11で所定の閾値以上と判定された場合、第2撮像部7で撮像された画像データはフレア又は回折の影響を受けていると推定できるため、撮像制御部を介して、第1撮像部6に対して撮像開始を指示する(ステップS13)。
 その後、第1撮像部6で撮像された画像データの画素値と、第2撮像部7で撮像された画像データの画素値を比較する(ステップS14)。ここでは、図5のステップS4と同様に、例えば、第1撮像部6で撮像された画像データの画素値が、第2撮像部7で撮像された画像データの画素値のX倍(Xは1より大きい予め定めた基準値)以下か否かを判定する。
 ステップS14でNOと判定されると、第1撮像部6で撮像された画像データを用いても、第2撮像部7で撮像された画像データのフレアや回折の影響を補正できないと推定できるため、補正処理は行わずにステップS12の処理を行う。ステップS14でYESと判定されると、第1撮像部6で撮像された画像データはフレアや回折の影響を受けていないと推定できるため、第2撮像部7で撮像された画像データの中に、画素値が所定の閾値以下の画素が存在するか否かを判定する(ステップS15)。
 ステップS15でYESと判定されると、第2撮像部7で撮像された画像データのうち、画素値が所定の閾値以下の画素データと、第1撮像部6で撮像された画像データとを有効なデータとして選択する(ステップS16)。
 ステップS15でNOと判定されると、第2撮像部7で撮像された画像データは信頼できないと推定できるため、第1撮像部6で撮像された画像データを有効なデータとして選択する(ステップS17)。
 次に、ステップS16又はS17で選択された有効なデータに基づいて、第2撮像部7で撮像された画像データを補正する(ステップS18)。ここでは、例えば、第1撮像部6で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方と、第2撮像部7で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方との相関関係を予め学習した学習モデルを生成しておき、十分な学習が行われた学習モデルに対して、ステップS16又はS17で選択された有効なデータを入力することで、学習モデルから補正後の画像データを出力させる。出力された画像データは、RGBの各色成分ごとに、フレア又は回折による影響が適切に補正されたデータである。
 図5及び図6のフローチャートの処理をまとめると、信号処理部33は、基準判定部(ステップS1、S11)と、撮像開始指示部(ステップS2、S12)と、補正手順決定部(ステップS3~S8、S13~S18)の処理を行う。基準判定部は、第2撮像部7で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つが所定の第1基準を満たすか否かを判定する。撮像開始指定部は、基準判定部にて第1基準を満たさないと判定されると、第1撮像部6による撮像を開始させる。補正手順決定部は、第1撮像部6で撮像された画像データと第2撮像部7で撮像された画像データとで、感度、解像度、フレア成分、及び回折光成分の少なくとも一つを比較した結果に基づいて、補正部による補正を行うか否かと、補正部による補正を行う際に補正の基準となる画像データの種類とを決定する。信号処理部33(学習部)は、補正手順決定部にて、補正の基準となる画像データの種類が決定されると、決定された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つと、第2撮像部7で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つとの相関関係を学習する。
 なお、図5の処理と図6の処理は、組み合わせて実施してもよい。すなわち、信号処理部33は、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データの感度、解像度、フレア成分による影響、及び回折光成分による影響の二つ以上を補正してもよい。
 このように、第1の実施形態では、赤外光波長帯域の光を撮像する第1撮像部6で撮像された画像データに基づいて、可視光波長帯域の光を撮像する第2撮像部7で撮像された画像データを必要に応じて補正するため、表示部3を通して被写体光が第1及び第2のカメラモジュール4,5に入射されても、感度又は解像度が低下するおそれがなくなり、かつフレアや回折の影響も受けなくなる。
 (第2の実施形態)
 第2の実施形態は、図5のステップS8や図6のステップS18で行う機械学習で、十分な学習が行われない場合の対策を施したものである。
 図7は第2の実施形態による電子機器2aの内部構成を示すブロック図である。図7の電子機器2aは、図4の構成に加えて、デプスセンサ36を備えている。デプスセンサ36は、物体までの距離情報を検出するセンサである。デプスセンサ36は、例えば間接ToF(Time of Flight)方式により距離情報を検出してもよい。デプスセンサ36は、例えば図1の電子機器2の表示面側のベゼル3b部分に配置される。デプスセンサ36で検出された距離情報は、信号処理部33に送られる。
 図8は第2の実施形態による電子機器2a内の信号処理部33が行う処理動作の第1例を示すフローチャートである。信号処理部33は、図8の処理を、図5又は図6の処理を行った後に実行する。
 まず、機械学習を十分に行ったか否かを判定する(ステップS21)。機械学習により生成される学習モデルに入力データを与えると、学習モデルを使って演算処理が行われて、出力データが生成される。入力データが予め想定された範囲内のデータであれば、内挿処理を行うことで、機械学習の結果を反映させた適切な出力データが得られるが、入力データが予め想定っされた範囲外のデータの場合には、外挿処理を行う必要があり、出力データの精度が低下してしまう。そこで、ステップS21では、例えば、入力データに対して外挿処理が必要か否かにより、機械学習を十分に行ったか否かを判定する。なお、他の手法で、機械学習を十分に行ったか否かを判定してもよい。
 ステップS21で機械学習を十分に行ったと判定された場合、学習モデルで演算処理されたデータの色補正を行わずに出力する(ステップS22)。
 ステップS21で機械学習を十分に行わなかったと判定された場合、デプスセンサ36による距離情報の検出を行う(ステップS23)。次に、デプスセンサ36で検出された距離情報に基づいて、図5又は図6の処理で補正後の撮像データに写し込まれた物体の形状を把握して、物体を識別する(ステップS24)。信号処理部33単体で物体の識別を行うことができない場合は、図5又は図6の処理で補正後の撮像データとデプスセンサ36で検出された距離情報とを、ネットワークを介してクラウドサーバ等に送信し、クラウドサーバ等が管理する膨大なデータ(ビッグデータ)を用いて物体の形状解析を行って物体を特定し、特定された物体の情報を、ネットワーク経由で信号処理部33が受領してもよい。あるいは、図5又は図6の処理で補正後の撮像データとデプスセンサ36で検出された距離情報とをアプリケーションプロセッサに送って、アプリケーションプロセッサで物体を特定してもよい。
 次に、ステップS24で識別された物体の色が既知であるか否かを判定する(ステップS25)。物体の色が既知でない場合は、色補正をあきらめて、ステップS22の処理を行う。物体の色が既知である場合は、既知の色に近づくように色補正を行う(ステップS26)。ここでは、識別された物体の色情報を管理するデータベースを設けて、このデータベースにアクセスして、識別された物体の色情報を取得してもよい。
 このように、図8の処理では、機械学習で十分に学習が行われなかった場合は、デプスセンサ36を用いて物体の形状を検出して物体を識別し、識別された物体についての既知の色情報に基づいて色補正を行う。
 図7及び図8では、デプスセンサ36により物体の形状を検出する例を示したが、他のセンサを用いて物体の情報を検出してもよい。例えば、デプスセンサ36の代わりに、あるいはデプスセンサ36に加えて、マルチスペクトルセンサを設けてもよい。
 図9はマルチスペクトルセンサを用いる場合の信号処理部33が行う処理動作の第2例を示すフローチャートである。ステップS31~S32の処理は図8のステップS21~S22の処理と同様である。ステップS31で機械学習を十分に行わなかったと判定されると、マルチスペクトルセンサによる色情報の検出を行う(ステップS33)。マルチスペクトルセンサは、複数の波長帯域の光を別個に検出できるため、第2撮像部7で撮像された画像データに含まれる物体の色情報を詳細に検出できる。次に、ステップS33で検出された色情報から物体を識別する(ステップS34)。このとき、上述したように、クラウドサーバやアプリケーションプロセッサにて物体を識別してもよい。
 次に、ステップS34で識別された物体の色が既知であるか否かを判定する(ステップS35)。物体の色が既知でない場合は、マルチスペクトルセンサで検出された色情報に基づいて色補正を行う(ステップS36)。物体の色が既知の場合は、既知の色に近づくように色補正を行う(ステップS37)。
 図8及び図9のフローチャートの処理をまとめると、信号処理部33は、信頼度推定部(ステップS21、S31)と、物体識別判定部(ステップS23、S33)と、色特定判定部(ステップS24、S34)の処理を行う。信頼度推定部は、学習部による学習の信頼度を推定する。物体識別判定部は、信頼度推定部にて推定された信頼度が所定の第2基準以下の場合、センサの検出データに基づいて物体を識別できるか否かを判定する。色特定判定部は、物体識別判定部にて物体を識別できると判定された場合に、センサにて識別された物体の色を特定できるか否かを判定する。補正部として機能する信号処理部33は、色特定判定部にて物体の色を特定できると判定された場合、特定された色に近づくように、第2撮像部7で撮像された画像データを補正する。
 なお、図8の処理と図9の処理を組み合わせて実施してもよい。物体の形状情報と色情報をデプスセンサ36やマルチスペクトルセンサ等で検出した結果に基づいて物体を特定するようにすれば、より正確に物体を特定でき、特定された物体の色補正を精度よく行うことができる。
 このように、第2の実施形態では、機械学習による学習が不十分な状態で第2撮像データが撮像した画像データを補正するのは好ましくないため、機械学習による学習が不十分な場合は、デプスセンサ36やマルチスペクトルセンサ等の他のセンサを用いて、第2撮像部7で撮像された画像データの色補正を行う。これにより、機械学習による学習が不十分な状態で、信頼性の低い補正を行うおそれを回避できる。
 (第3の実施形態)
 第3の実施形態は、第1撮像部6と第2撮像部7の画素配置に特徴を持たせたものである。赤外光波長帯域の光を受光して光電変換する第1撮像部6は複数の画素で構成される。同様に、可視光波長帯域の光を受光して光電変換する第2撮像部7も複数の画素で構成される。第1撮像部6を構成する複数の画素の一部に、可視光波長帯域の光を受光可能な画素が含まれていてもよい。
 図10Aは画素配置の第1例を示す図である。図10Aに示す第1例では、赤外光波長帯域の光を受光して光電変換する画素をIRと表記し、赤色に対応する波長帯域の光を受光して光電変換する画素をRと表記している。図10Aの例では、千鳥状にIR画素とR画素を配置している。なお、IR画素とR画素の配置順序及び各画素の数の割合は任意である。
 赤色の光は赤外光に近い波長成分(例えば550nm以上)を有する。IR画素の合間にR画素を配置することで、第1撮像部6で受光可能な光波長帯域をより広げることができる。上述した信号処理部33にて、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データを補正する際、第1撮像部6で撮像された画像データの中に赤色成分を含めることにより、第2撮像部7で撮像された画像データに含まれる赤色成分との調整が容易になり、信頼性の高い補正処理を行うことができる。
 図10Bは画素配置の第2例を示す図である。図10Bに示す第2例では、第2撮像部7を構成する複数の画素の一部に、赤外光波長帯域の光を受光可能な画素が含まれている。図10Bでは、可視光波長帯域の光を受光して光電変換する画素をR、G又はGと表記し、赤外光帯域の光を受光して光電変換する画素をIRと表記している。RGBの3画素に対して1画素分のIR画素が配置されている。なお、RGB画素とIR画素の配置順序及び各画素の数の割合は任意である。
 RGB画素の合間にIR画素を配置することで、第1撮像部6と第2撮像部7とを一つの半導体チップ上に形成できる。これにより、カメラモジュール4,5を1つだけ設ければよいことになり、電子機器2のハードウェアコストを削減できる。
 このように、第3の実施形態では、赤外光波長帯域の光を受光する画素の合間に可視光波長帯域の光を受光する画素を配置することで、信号処理部33が行う補正処理の信頼性を向上できる。また、可視光波長帯域の光を受光する画素の合間に赤外光波長帯域の光を受光する画素を配置することで、第1撮像部6と第2撮像部7を一つの半導体チップ上に形成できる。
 (第4の実施形態)
 第1の実施形態では、機械学習を利用して第2撮像部7で撮像された画像データを補正する例を示したが、必ずしも機械学習を利用しなくても、信号処理部33にて第2撮像部7で撮像された画像データを補正することができる。
 図11は信号処理部33の内部構成の第1例を示すブロック図である。図11の信号処理部33は、クランプ部33aと、カラー出力部33bと、欠陥補正部33cと、リニアマトリックス部33dと、ガンマ補正部33eと、輝度クロマ信号生成部33fと、ノイズリダクション部33gと、エッジ強調部33hとを有する。
 クランプ部33aは、黒のレベルを規定する処理を行う。より具体的には、クランプ部33aは、デジタル画素データから黒レベルデータを減算する処理を行う。カラー出力部33bは、例えばRGBの色ごとの画素データを出力する。欠陥補正部33cは、何らかの理由で正しく読み出せなかった特定画素の撮像データを周囲の画素の撮像データから補正する処理を行う。リニアマトリックス部33dは、RGBなどの色情報に対する行列演算を行うことで、より正しい色再現を行う。ガンマ補正部33eは、表示部3の表示特性に合わせて、視認性に優れた表示が可能となるようにガンマ補正を行う。例えば、ガンマ補正部33eは、勾配を変化させながら10ビットから8ビットへの変換を行う。輝度クロマ信号生成部33fは、ガンマ補正部33eの出力データに基づいて、表示部3に表示させるための輝度クロマ信号を生成する。ノイズリダクション部33gは、輝度クロマ信号に含まれるノイズを削減する処理を行う。エッジ強調部33hは、輝度クロマ信号に基づいて、被写体画像のエッジを強調する処理を行う。ノイズリダクション部33gによるノイズリダクション処理と、エッジ強調部33hによるエッジ強調処理は、所定の条件を満たす場合のみ行われてもよい。出力部35は、ノイズリダクション処理を行った後の輝度クロマ信号を出力する。
 ノイズリダクション部33gは、第1撮像部6で撮像された画像データに基づいて、輝度変化の少ない画素領域か否かを判別し、輝度変化の少ない画素領域についてはノイズ除去比率を高める。より具体的には、ノイズリダクション部33gは、第2撮像部7で撮像された画像データのうち輝度変化が所定の基準値以下の画素領域のノイズ除去度合いを、画像データのうち輝度変化が基準値より大きい画素領域のノイズ除去度合いよりも高くする。
 これにより、第2撮像部7で撮像された画像データのデータ量を削減できる。一方、輝度変化の大きい画素領域については、ノイズ除去比率を弱める。このようにする理由は、ノイズ除去比率を高めるほど、エッジが不鮮明になり、解像度も低下するためであり、エッジを鮮明にして解像度を向上させるには、ノイズ除去比率を弱めるのが望ましい。ただし、全画素についてノイズ除去比率を弱めると、画像データのデータ量が膨大になることから、エッジ部分などの限られた画素領域のみ、ノイズ除去比率を弱めるのが望ましい。
 図12は信号処理部33の内部構成の第2例を示すブロック図である。図11の信号処理部33は、図11の信号処理部33に、フレア抽出部33iとフレア補正部33jを設けたものである。
 フレア抽出部33iは、第1撮像部6で撮像された画像データの画素値と、第2撮像部7で撮像された画像データの画素値とを比較することで、フレア又は回折による影響度合いを抽出する。例えば、第1撮像部6で撮像された画像データの平均画素値と、第2撮像部7で撮像された画像データの平均画素値との差分により、フレア又は回折による影響度合いを抽出してもよい。
 フレア補正部33jは、第2撮像部7で撮像された画像データから、フレア抽出部33iで抽出されたフレア又は回折による影響度合いを差し引く処理を行う。これにより、第2撮像部7で撮像された画像データが、フレアや回折による影響を受けにくくなる。
 このように、第4の実施形態では、信号処理部33の内部処理にて、第1撮像部6で撮像された画像データを参照することで、第2撮像部7で撮像された画像データの感度及び解像度を補正でき、また、フレア又は回折による影響も抑制できる。また、不必要な補正を回避することで、信号処理部33の処理負荷を軽減し、画像データのデータ量を削減できる。
 (第5の実施形態)
 第1~第4の実施形態では、赤外光波長成分の光を受光する第1撮像部6を設ける例を示したが、これに加えて、赤外光波長成分の光を発光する発光部を設けてもよい。
 図13は第5の実施形態による電子機器2bの概略構成を示すブロック図である。図13の電子機器2bは、図4の電子機器2の構成に加えて、発光部25と発光制御部26を備えている。発光部25は、赤外光波長帯域の光を発光する。発光部25は、電子機器2bの表示面側に設けられる。例えば、発光部25は、電子機器2bの表示面のベゼル3b部分に設けられてもよい。
 発光制御部26は、第1撮像部6が画像データを撮像する際に発光部25が発光した光で被写体が照射されるように、発光部25の発光タイミングを制御する。赤外光波長帯域の光は、人間の目では認識できないため、発光部25の光が人間に照射されても、その人間はまぶしさを感じるおそれはない。ただし、人間の目を痛めないような光強度及び連続照射時間で照射する必要がある。
 なお、本実施形態では、第1撮像部6と第2撮像部7は、同タイミングで同一の被写体の撮像を行うことを想定している。第1撮像部6は、赤外光波長帯域の光を撮像するため、発光部25からの光で被写体を照明している状態で、その被写体を第1撮像部6で撮像すると、第1撮像部6で受光される画像データの画素値を大きくすることができ、感度UPが図れる。
 図14は第5の実施形態による電子機器2bが第1及び第2のカメラモジュール4,5で撮像を行う際の処理動作を示すフローチャートである。まず、第1撮像部6及び第2撮像部7の撮像タイミングか否かを判定する(ステップS41)。第1撮像部6及び第2撮像部7による撮像は、表示部3に画像が表示されていない期間、例えば表示部3の垂直ブランキング期間内に行われる。
 撮像タイミングになるまでステップS41に待機し、撮像タイミングになると、発光部25による赤外光帯域の光(IR光)の発光を開始する(ステップS42)。例えば、電子機器2bがスマートフォンの場合、ユーザは第1及び第2のカメラモジュール4,5の焦点を被写体に合わせるため、発光部25から発光された光の進行方向が第1及び第2のカメラモジュール4,5の光軸方向に一致するようにしておけば、ユーザが特に意識しなくても、発光部25からの光が被写体を照明することになる。
 発光部25が発光を行っている最中に第1撮像部6で撮像する(ステップS43)。これにより、周囲が暗い状況下で撮影する場合でも、第1撮像部6で撮像される画像データの画素値を大きくすることができる。第1撮像部6及び第2撮像部7による撮像が終了すると、発光部25は発光を停止する(ステップS44)。その後、第1の実施形態等と同様に、第1撮像部6で撮像された画像データに基づいて、第2撮像部7で撮像された画像データが補正される(ステップS45)。
 このように、第5の実施形態では、発光部25で赤外光を発光した状態で、第1撮像部6で赤外光波長帯域の光を受光するため、第1撮像部6で撮像された画像データの画素値を大きくすることができ、感度を高くすることができ、周囲が暗い状況下でも、第1撮像部6で撮像された画像データに基づいて第2撮像部7で撮像された画像データを適切に補正することができる。
 (第6の実施形態)
 第6の実施形態は、第5の実施形態の一変形例であり、発光部25が発光する光の発光波長帯域を切り替えることができるようにしたものである。
 第6の実施形態による電子機器2bは、図13と同様のブロック構成を備えているが、発光部25の機能が異なっている。第6の実施形態による発光部25は、赤外光波長帯域内のそれぞれ異なる発光波長帯域の光を発光する複数の光源を有する。発光制御部26は、第1撮像部6が撮像する間に、複数の光源による発光を順次に切り替え制御する。第1撮像部6は、それぞれ異なる発光波長帯域で撮像された複数の画像データを出力する。
 図15は第6の実施形態による電子機器2bが第1及び第2のカメラモジュール4,5で撮像を行う際の処理動作を示すフローチャートである。まず、第1撮像部6及び第2撮像部7の撮像タイミングか否かを判定する(ステップS51)。撮像タイミングになると、発光部25は、発光制御部26からの指示により、複数の発光波長帯域のうち一つを選択して(ステップS52)、選択した発光波長帯域の赤外光を発光する(ステップS53)。そして、第1及び第2撮像部6,7での撮像を行い(ステップS54)、その後に発光部25の発光を停止する(ステップS55)。
 次に、発光部25が発光可能な光のうち、まだ選択していない発光波長帯域の赤外光があるか否かを判定する(ステップS56)。まだ選択していない赤外光がある場合には、ステップS52以降の処理を繰り返す。ステップS56で、発光部25が発光可能な光のすべてについてステップS52~S55の処理を行ったと判定されると、第1撮像部6で撮像された複数の赤外光波長帯域の画像データに基づいて、第2撮像部7で撮像された画像データを補正する(ステップS57)。
 それぞれ異なる複数の赤外光波長帯域で照明した状態で第1撮像部6が撮像を行うと、撮像画像に写し込まれる情報が少しずつ変化する可能性があり、これらを総合的に考慮に入れて、第2撮像部7で撮像された画像データを補正することで、第2撮像部7で撮像された画像データをより適切に補正できる。
 このように、第6の実施形態では、発光部25が赤外光波長帯域内のそれぞれ異なる発光波長帯域の光を発光する複数の光源を有するため、これら光源が順次に光を発光した状態で第1撮像部6で撮像を行うことで、第1撮像部6で撮像された複数の撮像画像を得ることができる。これら複数の撮像画像に基づいて第2撮像部7で撮像された画像データを補正することで、より適切な補正を行うことができる。
 (第7の実施形態)
 上述した第1~第6の実施形態では、電子機器2、2a、2bの表示面を通過した光を第1及び第2のカメラモジュール4,5で撮像する例を説明したが、第1及び第2のカメラモジュール4,5が表示面のベゼル3b部分に配置されている場合や、電子機器2、2a、2bの裏面側に配置されている場合、外部からの光が直接第1及び第2のカメラモジュール4,5に入射されるため、被写体光が表示部3を通過することによる光量のロスや、フレア又は回折による影響は起きない。しかしながら、周囲が暗い状況下で第2撮像部7にて撮像を行う場合、撮像画像の感度や解像度が低下する場合がある。また、強い太陽光を受けている状況下で第2撮像部7にて撮像を行う場合、撮像画像がフレアや回折の影響を受けやすくなる。このような場合に、赤外光波長帯域の光を受光する第1撮像部6で]撮像された画像データに基づいて、第2撮像部7で撮像された画像データを補正することで、感度や解像度を向上できたり、フレアや回折による影響を抑制できる。よって、第1~第6の実施形態による電子機器2、2a、2bは、第1及び第2のカメラモジュール4,5が表示面のベゼル3b部分に配置されている場合や、電子機器2、2a、2bの裏面側に配置されている場合にも、適用可能である。
 (第8の実施形態)
 上述した第1~第7の実施形態で説明した構成を備えた電子機器2の具体的な候補としては、種々のものが考えられる。例えば、図16は第1~第7の実施形態の電子機器2をカプセル内視鏡50に適用した場合の平面図である。図16のカプセル内視鏡50は、例えば両端面が半球状で中央部が円筒状の筐体51内に、体腔内の画像を撮影するためのカメラ(超小型カメラ)52、カメラ52により撮影された画像データを記録するためのメモリ53、および、カプセル内視鏡50が被験者の体外に排出された後に、記録された画像データをアンテナ54を介して外部へ送信するための無線送信機55を備えている。
 また、筐体51内には、CPU(Central Processing Unit)56およびコイル(磁力・電流変換コイル)57が設けられている。CPU56は、カメラ52による撮影、およびメモリ53へのデータ蓄積動作を制御するとともに、メモリ53から無線送信機55による筐体51外のデータ受信装置(図示せず)へのデータ送信を制御する。コイル57は、カメラ52、メモリ53、無線送信機55、アンテナ54および後述する光源52bへの電力供給を行う。
 さらに、筐体51には、カプセル内視鏡50をデータ受信装置にセットした際に、これを検知するための磁気(リード)スイッチ58が設けられている。CPU56は、このリードスイッチ58がデータ受信装置へのセットを検知し、データの送信が可能になった時点で、コイル57からの無線送信機55への電力供給を行う。
 カメラ52は、例えば体腔内の画像を撮影するための対物光学系を含む撮像素子52a、体腔内を照明する複数の光源52bを有している。具体的には、カメラ52は、光源52bとして、例えばLED(Light Emitting Diode)を備えたCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)等によって構成される。
 (本開示による撮像装置1及び電子機器2の適用例)
 (第1適用例)
 本開示による撮像装置1及び電子機器2は、種々の用途に用いることができる。図16A及び図16Bは本開示による撮像装置1を備えた電子機器2の第1適用例である乗物100の内部の構成を示す図である。図16Aは乗物100の後方から前方にかけての乗物100の内部の様子を示す図、図16Bは乗物100の斜め後方から斜め前方にかけての乗物100の内部の様子を示す図である。
 図16A及び図16Bの乗物100は、センターディスプレイ101と、コンソールディスプレイ102と、ヘッドアップディスプレイ103と、デジタルリアミラー104と、ステアリングホイールディスプレイ105と、リアエンタテイメントディスプレイ106とを有する。
 センターディスプレイ101は、ダッシュボード107上の運転席108及び助手席109に対向する場所に配置されている。図16では、運転席108側から助手席109側まで延びる横長形状のセンターディスプレイ101の例を示すが、センターディスプレイ101の画面サイズや配置場所は任意である。センターディスプレイ101には、種々のセンサ5で検知された情報を表示可能である。具体的な一例として、センターディスプレイ101には、イメージセンサで撮影した撮影画像、ToFセンサ5で計測された乗物前方や側方の障害物までの距離画像、赤外線センサ5で検出された乗客の体温などを表示可能である。センターディスプレイ101は、例えば、安全関連情報、操作関連情報、ライフログ、健康関連情報、認証/識別関連情報、及びエンタテイメント関連情報の少なくとも一つを表示するために用いることができる。
 安全関連情報は、居眠り検知、よそ見検知、同乗している子供のいたずら検知、シートベルト装着有無、乗員の置き去り検知などの情報であり、例えばセンターディスプレイ101の裏面側に重ねて配置されたセンサ5にて検知される情報である。操作関連情報は、センサ5を用いて乗員の操作に関するジェスチャを検知する。検知されるジェスチャは、乗物100内の種々の設備の操作を含んでいてもよい。例えば、空調設備、ナビゲーション装置、AV装置、照明装置等の操作を検知する。ライフログは、乗員全員のライフログを含む。例えば、ライフログは、乗車中の各乗員の行動記録を含む。ライフログを取得及び保存することで、事故時に乗員がどのような状態であったかを確認できる。健康関連情報は、温度センサ5を用いて乗員の体温を検知し、検知した体温に基づいて乗員の健康状態を推測する。あるいは、イメージセンサを用いて乗員の顔を撮像し、撮像した顔の表情から乗員の健康状態を推測してもよい。さらに、乗員に対して自動音声で会話を行って、乗員の回答内容に基づいて乗員の健康状態を推測してもよい。認証/識別関連情報は、センサ5を用いて顔認証を行うキーレスエントリ機能や、顔識別でシート高さや位置の自動調整機能などを含む。エンタテイメント関連情報は、センサ5を用いて乗員によるAV装置の操作情報を検出する機能や、センサ5で乗員の顔を認識して、乗員に適したコンテンツをAV装置にて提供する機能などを含む。
 コンソールディスプレイ102は、例えばライフログ情報の表示に用いることができる。コンソールディスプレイ102は、運転席108と助手席109の間のセンターコンソール110のシフトレバー111の近くに配置されている。コンソールディスプレイ102にも、種々のセンサ5で検知された情報を表示可能である。また、コンソールディスプレイ102には、イメージセンサで撮像された車両周辺の画像を表示してもよいし、車両周辺の障害物までの距離画像を表示してもよい。
 ヘッドアップディスプレイ103は、運転席108の前方のフロントガラス112の奥に仮想的に表示される。ヘッドアップディスプレイ103は、例えば、安全関連情報、操作関連情報、ライフログ、健康関連情報、認証/識別関連情報、及びエンタテイメント関連情報の少なくとも一つを表示するために用いることができる。ヘッドアップディスプレイ103は、運転席108の正面に仮想的に配置されることが多いため、乗物100の速度や燃料(バッテリ)残量などの乗物100の操作に直接関連する情報を表示するのに適している。
 デジタルリアミラー104は、乗物100の後方を表示できるだけでなく、後部座席の乗員の様子も表示できるため、デジタルリアミラー104の裏面側に重ねてセンサ5を配置することで、例えばライフログ情報の表示に用いることができる。
 ステアリングホイールディスプレイ105は、乗物100のハンドル113の中心付近に配置されている。ステアリングホイールディスプレイ105は、例えば、安全関連情報、操作関連情報、ライフログ、健康関連情報、認証/識別関連情報、及びエンタテイメント関連情報の少なくとも一つを表示するために用いることができる。特に、ステアリングホイールディスプレイ105は、運転者の手の近くにあるため、運転者の体温等のライフログ情報を表示したり、AV装置や空調設備等の操作に関する情報などを表示するのに適している。
 リアエンタテイメントディスプレイ106は、運転席108や助手席109の背面側に取り付けられており、後部座席の乗員が視聴するためのものである。リアエンタテイメントディスプレイ106は、例えば、安全関連情報、操作関連情報、ライフログ、健康関連情報、認証/識別関連情報、及びエンタテイメント関連情報の少なくとも一つを表示するために用いることができる。特に、リアエンタテイメントディスプレイ106は、後部座席の乗員の目の前にあるため、後部座席の乗員に関連する情報が表示される。例えば、AV装置や空調設備の操作に関する情報を表示したり、後部座席の乗員の体温等を温度センサ5で計測した結果を表示してもよい。
 上述したように、表示部3の裏面側に重ねてセンサ5を配置することで、周囲に存在する物体までの距離を計測することができる。光学的な距離計測の手法には、大きく分けて、受動型と能動型がある。受動型は、センサ5から物体に光を投光せずに、物体からの光を受光して距離計測を行うものである。受動型には、レンズ焦点法、ステレオ法、及び単眼視法などがある。能動型は、物体に光を投光して、物体からの反射光をセンサ5で受光して距離計測を行うものである。能動型には、光レーダ方式、アクティブステレオ方式、照度差ステレオ法、モアレトポグラフィ法、干渉法などがある。本開示による撮像装置1は、これらのどの方式の距離計測にも適用可能である。本開示による表示部3の裏面側に重ねて配置されるセンサ5を用いることで、上述した受動型又は能動型の距離計測を行うことができる。
 (第2適用例)
 本開示による撮像装置1は、乗物で用いられる種々のディスプレイに適用されるだけでなく、種々の電子機器2に搭載されるディスプレイにも適用可能である。
 図17Aは電子機器2の第2適用例であるデジタルカメラ120の正面図、図17Bはデジタルカメラ120の背面図である。図17A及び図17Bのデジタルカメラ120は、レンズ121を交換可能な一眼レフカメラの例を示しているが、レンズ121を交換できないカメラにも適用可能である。
 図17A及び図17Bのカメラは、撮影者がカメラボディ122のグリップ123を把持した状態で電子ビューファインダ124を覗いて構図を決めて、焦点調節を行った状態でシャッタ125を押すと、カメラ内のメモリに撮影データが保存される。カメラの背面側には、図17Bに示すように、撮影データ等やライブ画像等を表示するモニタ画面126と、電子ビューファインダ124とが設けられている。また、カメラの上面には、シャッタ速度や露出値などの設定情報を表示するサブ画面が設けられる場合もある。
 カメラに用いられるモニタ画面126、電子ビューファインダ124、サブ画面等の裏面側に重ねてセンサ5を配置することで、本開示による撮像装置1として用いることができる。
 (第3適用例)
 本開示による撮像装置1及び電子機器2は、ヘッドマウントディスプレイ(以下、HMDと呼ぶ)にも適用可能である。HMDは、VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)、又はSR(Substitutional Reality)等に利用されることができる。
 図18Aは電子機器2の第3適用例であるHMD130の外観図である。図18AのHMD130は、人間の目を覆うように装着するための装着部材131を有する。この装着部材131は例えば人間の耳に引っ掛けて固定される。HMD130の内側には表示装置132が設けられており、HMD130の装着者はこの表示装置132にて立体映像等を視認できる。HMD130は例えば無線通信機能と加速度センサなどを備えており、装着者の姿勢やジェスチャなどに応じて、表示装置132に表示される立体映像等を切り換えることができる。
 また、HMD130にカメラを設けて、装着者の周囲の画像を撮影し、カメラの撮影画像とコンピュータで生成した画像とを合成した画像を表示装置132で表示してもよい。例えば、HMD130の装着者が視認する表示装置132の裏面側に重ねてカメラを配置して、このカメラで装着者の目の周辺を撮影し、その撮影画像をHMD130の外表面に設けた別のディスプレイに表示することで、装着者の周囲にいる人間は、装着者の顔の表情や目の動きをリアルタイムに把握可能となる。
 なお、HMD130には種々のタイプが考えられる。例えば、図18Bのように、本開示による撮像装置1及び電子機器2は、メガネ134に種々の情報を映し出すスマートグラス130aにも適用可能である。図18Bのスマートグラス130aは、本体部135と、アーム部136と、鏡筒部137とを有する。本体部135はアーム部136に接続されている。本体部135は、メガネ134に着脱可能とされている。本体部135は、スマートグラス130aの動作を制御するための制御基板や表示部を内蔵している。本体部135と鏡筒は、アーム部136を介して互いに連結されている。鏡筒部137は、本体部135からアーム部136を介して出射される画像光を、メガネ134のレンズ138側に出射する。この画像光は、レンズ138を通して人間の目に入る。図18Bのスマートグラス130aの装着者は、通常のメガネと同様に、周囲の状況だけでなく、鏡筒部137から出射された種々の情報を合わせて視認できる。
 (第4適用例)
 本開示による撮像装置1及び電子機器2は、テレビジョン装置(以下、TV)にも適用可能である。最近のTVは、小型化の観点及び意匠デザイン性の観点から、額縁をできるだけ小さくする傾向にある。このため、視聴者を撮影するカメラをTVに設ける場合には、TVの表示パネル2の裏面側に重ねて配置するのが望ましい。
 図19は電子機器2の第4適用例であるTV140の外観図である。図19のTV140は、額縁が極小化されており、正面側のほぼ全域が表示エリアとなっている。TV140には視聴者を撮影するためのカメラ等のセンサ5が内蔵されている。図19のセンサ5は、表示パネル2内の一部(例えば破線箇所)の裏側に配置されている。センサ5は、イメージセンサモジュールでもよいし、顔認証用のセンサや距離計測用のセンサ、温度センサなど、種々のセンサが適用可能であり、複数種類のセンサをTV140の表示パネル2の裏面側に配置してもよい。
 上述したように、本開示の撮像装置1及び電子機器2によれば、表示パネル2の裏面側に重ねてイメージセンサモジュール9を配置できるため、額縁にカメラ等を配置する必要がなくなり、TV140を小型化でき、かつ額縁により意匠デザインが損なわれるおそれもなくなる。
 (第5適用例)
 本開示による撮像装置1及び電子機器2は、スマートフォンや携帯電話にも適用可能である。図20は電子機器2の第5適用例であるスマートフォン150の外観図である。図20の例では、電子機器2の外形サイズの近くまで表示面2zが広がっており、表示面2zの周囲にあるベゼル2yの幅を数mm以下にしている。通常、ベゼル2yには、フロントカメラが搭載されることが多いが、図20では、破線で示すように、表示面2zの例えば略中央部の裏面側にフロントカメラとして機能するイメージセンサモジュール9を配置している。このように、フロントカメラを表示面2zの裏面側に設けることで、ベゼル2yにフロントカメラを配置する必要がなくなり、ベゼル2yの幅を狭めることができる。
 なお、本技術は以下のような構成を取ることができる。
 (1)表示部と、
 前記表示部の表示面とは反対側に配置され、前記表示部を通過した赤外光波長帯域の光を撮像可能な第1撮像部と、
 前記表示部の表示面とは反対側に配置され、前記表示部を通過した可視光波長帯域の光を撮像可能な第2撮像部と、
 前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、電子機器。
 (2)前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの感度を補正する、(1)に記載の電子機器。
 (3)前記第1撮像部で撮像された画像データの感度と、前記第2撮像部で撮像された画像データの感度との相関関係を学習する学習部を備え、
 前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの感度を補正する、(2)に記載の電子機器。
 (4)前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの解像度を補正する、(1)に記載の電子機器。
 (5)前記第1撮像部で撮像された画像データの解像度と、前記第2撮像部で撮像された画像データの解像度との相関関係を学習する学習部を備え、
 前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの解像度を補正する、(4)に記載の電子機器。
 (6)前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方を補正する、(1)に記載の電子機器。
 (7)前記第1撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方と、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方との相関関係を学習する学習部を備え、
 前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方を補正する、(6)に記載の電子機器。
 (8)前記第2撮像部で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つが所定の第1基準を満たすか否かを判定する基準判定部と、
 前記基準判定部にて前記第1基準を満たさないと判定されると、前記第1撮像部による撮像を開始させる撮像開始指示部と、
 前記第1撮像部で撮像された画像データと前記第2撮像部で撮像された画像データとで、感度、解像度、フレア成分、及び回折光成分の少なくとも一つを比較した結果に基づいて、前記補正部による補正を行うか否かと、前記補正部による補正を行う際に補正の基準となる画像データの種類とを決定する補正手順決定部と、を備える、(7)に記載の電子機器。
 (9)前記学習部は、前記補正手順決定部にて、補正の基準となる画像データの種類が決定されると、決定された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つと、前記第2撮像部で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つとの相関関係を学習する、(8)に記載の電子機器。
 (10)物体の形状及び色の少なくとも一方を検出するセンサと、
 前記学習部による学習の信頼度を推定する信頼度推定部と、
 前記信頼度推定部にて推定された信頼度が所定の第2基準以下の場合、前記センサの検出データに基づいて前記物体を識別できるか否かを判定する物体識別判定部と、
 前記物体識別判定部にて物体を識別できると判定された場合に、前記センサにて識別された物体の色を特定できるか否かを判定する色特定判定部と、
 前記補正部は、前記色特定判定部にて前記物体の色を特定できると判定された場合、前記特定された色に近づくように、前記第2撮像部で撮像された画像データを補正する、(7)乃至(9)のいずれか一項に記載の電子機器。
 (11)前記補正部は、前記第2撮像部で撮像された画像データのうち輝度変化が所定の基準値以下の画素領域のノイズ除去度合いを、前記画像データのうち輝度変化が前記基準値より大きい画素領域のノイズ除去度合いよりも高くする、(1)乃至(10)のいずれか一項に記載の電子機器。
 (12)赤外光波長帯域の光を発光する発光部と、
 前記第1撮像部で画像データを撮像する際に前記発光部が発光した光で被写体が照明されるように前記発光部の発光タイミングを制御する発光制御部と、を備える、(1)乃至(11)のいずれか一項に記載の電子機器。
 (13)前記発光部は、前記赤外光波長帯域内のそれぞれ異なる発光波長帯域の光を発光する複数の光源を有し、
 前記発光制御部は、前記第1撮像部が撮像する間に、前記複数の光源による発光を順次に切り替え制御し、
 前記第1撮像部は、それぞれ異なる発光光波長帯域で撮像された複数の画像データを出力し、
 前記補正部は、前記複数の画像データに基づいて、前記第2撮像部で撮像された画像データを補正する、(12)に記載の電子機器。
 (14)記発光部は、前記表示部の表示面側に配置される、(12)又は(13)に記載の電子機器。
 (15)前記第1撮像部及び前記第2撮像部の少なくとも一方は、赤外光波長帯域の光を撮像する画素と、可視光波長帯域の光を撮像する画素とを含む、(1)乃至(14)のいずれか一項)に記載の電子機器。
 (16)前記第1撮像部は、550nm以上の光に対して感度を有する、(15)に記載の電子機器。
 (17)前記補正部は、前記第2撮像部で撮像された画像データに対して、短波長側ほど補正の度合いを高くする、(1)乃至(16)のいずれか一項に記載の電子機器。
 (18)前記第1撮像部は、前記第2撮像部に比べて、光入射面の法線方向により長く配置される光電変換部を有する、(1)乃至(17)のいずれか一項に記載の電子機器。
 (19)前記第1撮像部の1画素あたりの光入射面方向の面積は、前記第2撮像部の1画素あたりの光入射面方向の面積よりも大きく、かつ
 前記第1撮像部の全画素分の光入射面方向の面積は、前記第2撮像部の全画素分の光入射面方向の面積よりも小さい、(1)乃至(18)のいずれか一項に記載の電子機器。
 (20)表示部の表示面とは反対側に配置され、赤外光波長帯域の光を撮像可能な第1撮像部と、
 前記表示部の表示面とは反対側に配置され、可視光波長帯域の光を撮像可能な第2撮像部と、
 前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、撮像装置。
 (21)赤外光波長帯域の光を撮像可能な第1撮像部と、
 可視光波長帯域の光を撮像可能な第2撮像部と、
 前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、撮像装置。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 1 撮像装置、2、2a、2b 電子機器、3 表示部、3a 表示面、3b ベゼル、4 カメラモジュール、5 カメラモジュール、6 第1撮像部、7 第2撮像部、8 第1光学系、9 第2光学系、11 半導体基板、12a 第1光電変換部、12b 第2光電変換部、13 素子分離層、14 平坦化層、15a オンチップレンズ、15b オンチップレンズ、16 カラーフィルタ層、17 読み出し回路、21 アプリケーションプロセッサ、22 映像信号生成部、23 A/D変換部、24 表示制御部、31 第1A/D変換部、32 第2A/D変換部、33 信号処理部、100 乗物、101 センターディスプレイ、102 コンソールディスプレイ、103 ヘッドアップディスプレイ、104 デジタルリアミラー、105 ステアリングホイールディスプレイ、106 リアエンタテイメントディスプレイ、107 ダッシュボード、108 運転席、109 助手席、110 センターコンソール、111 シフトレバー、112 フロントガラス、113 ハンドル、120 デジタルカメラ、121 レンズ、122 カメラボディ、123 グリップ、124 電子ビューファインダ、125 シャッタ、126 モニタ画面、130 スマートグラス、131 装着部材、132 表示装置、134 メガネ、135 本体部、136 アーム部、137 鏡筒部、138 レンズ、150 スマートフォン

Claims (21)

  1.  表示部と、
     前記表示部の表示面とは反対側に配置され、前記表示部を通過した赤外光波長帯域の光を撮像可能な第1撮像部と、
     前記表示部の表示面とは反対側に配置され、前記表示部を通過した可視光波長帯域の光を撮像可能な第2撮像部と、
     前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、電子機器。
  2.  前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの感度を補正する、請求項1に記載の電子機器。
  3.  前記第1撮像部で撮像された画像データの感度と、前記第2撮像部で撮像された画像データの感度との相関関係を学習する学習部を備え、
     前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの感度を補正する、請求項2に記載の電子機器。
  4.  前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの解像度を補正する、請求項1に記載の電子機器。
  5.  前記第1撮像部で撮像された画像データの解像度と、前記第2撮像部で撮像された画像データの解像度との相関関係を学習する学習部を備え、
     前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データの解像度を補正する、請求項4に記載の電子機器。
  6.  前記補正部は、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方を補正する、請求項1に記載の電子機器。
  7.  前記第1撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方と、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方との相関関係を学習する学習部を備え、
     前記補正部は、前記学習部での学習結果を参照して、前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データに含まれるフレア成分及び回折光成分の少なくとも一方を補正する、請求項6に記載の電子機器。
  8.  前記第2撮像部で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つが所定の第1基準を満たすか否かを判定する基準判定部と、
     前記基準判定部にて前記第1基準を満たさないと判定されると、前記第1撮像部による撮像を開始させる撮像開始指示部と、
     前記第1撮像部で撮像された画像データと前記第2撮像部で撮像された画像データとで、感度、解像度、フレア成分、及び回折光成分の少なくとも一つを比較した結果に基づいて、前記補正部による補正を行うか否かと、前記補正部による補正を行う際に補正の基準となる画像データの種類とを決定する補正手順決定部と、を備える、請求項7に記載の電子機器。
  9.  前記学習部は、前記補正手順決定部にて、補正の基準となる画像データの種類が決定されると、決定された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つと、前記第2撮像部で撮像された画像データの感度、解像度、フレア成分及び回折光成分の少なくとも一つとの相関関係を学習する、請求項8に記載の電子機器。
  10.  物体の形状及び色の少なくとも一方を検出するセンサと、
     前記学習部による学習の信頼度を推定する信頼度推定部と、
     前記信頼度推定部にて推定された信頼度が所定の第2基準以下の場合、前記センサの検出データに基づいて前記物体を識別できるか否かを判定する物体識別判定部と、
     前記物体識別判定部にて物体を識別できると判定された場合に、前記センサにて識別された物体の色を特定できるか否かを判定する色特定判定部と、
     前記補正部は、前記色特定判定部にて前記物体の色を特定できると判定された場合、前記特定された色に近づくように、前記第2撮像部で撮像された画像データを補正する、請求項7に記載の電子機器。
  11.  前記補正部は、前記第2撮像部で撮像された画像データのうち輝度変化が所定の基準値以下の画素領域のノイズ除去度合いを、前記画像データのうち輝度変化が前記基準値より大きい画素領域のノイズ除去度合いよりも高くする、請求項1に記載の電子機器。
  12.  赤外光波長帯域の光を発光する発光部と、
     前記第1撮像部で画像データを撮像する際に前記発光部が発光した光で被写体が照明されるように前記発光部の発光タイミングを制御する発光制御部と、を備える、請求項1に記載の電子機器。
  13.  前記発光部は、前記赤外光波長帯域内のそれぞれ異なる発光波長帯域の光を発光する複数の光源を有し、
     前記発光制御部は、前記第1撮像部が撮像する間に、前記複数の光源による発光を順次に切り替え制御し、
     前記第1撮像部は、それぞれ異なる発光光波長帯域で撮像された複数の画像データを出力し、
     前記補正部は、前記複数の画像データに基づいて、前記第2撮像部で撮像された画像データを補正する、請求項12に記載の電子機器。
  14.  前記発光部は、前記表示部の表示面側に配置される、請求項12に記載の電子機器。
  15.  前記第1撮像部及び前記第2撮像部の少なくとも一方は、赤外光波長帯域の光を撮像する画素と、可視光波長帯域の光を撮像する画素とを含む、請求項1に記載の電子機器。
  16.  前記第1撮像部は、550nm以上の光に対して感度を有する、請求項15に記載の電子機器。
  17.  前記補正部は、前記第2撮像部で撮像された画像データに対して、短波長側ほど補正の度合いを高くする、請求項1に記載の電子機器。
  18.  前記第1撮像部は、前記第2撮像部に比べて、光入射面の法線方向により長く配置される光電変換部を有する、請求項1に記載の電子機器。
  19.  前記第1撮像部の1画素あたりの光入射面方向の面積は、前記第2撮像部の1画素あたりの光入射面方向の面積よりも大きく、かつ
     前記第1撮像部の全画素分の光入射面方向の面積は、前記第2撮像部の全画素分の光入射面方向の面積よりも小さい、請求項1に記載の電子機器。
  20.  表示部の表示面とは反対側に配置され、赤外光波長帯域の光を撮像可能な第1撮像部と、
     前記表示部の表示面とは反対側に配置され、可視光波長帯域の光を撮像可能な第2撮像部と、
     前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、撮像装置。
  21.  赤外光波長帯域の光を撮像可能な第1撮像部と、
     可視光波長帯域の光を撮像可能な第2撮像部と、
     前記第1撮像部で撮像された画像データに基づいて、前記第2撮像部で撮像された画像データを補正する補正部と、を備える、撮像装置。
PCT/JP2021/009377 2020-05-08 2021-03-09 電子機器及び撮像装置 WO2021225030A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022519900A JPWO2021225030A1 (ja) 2020-05-08 2021-03-09
US17/911,944 US12256154B2 (en) 2020-05-08 2021-03-09 Electronic device and imaging device with image data correction
KR1020227042264A KR20230009412A (ko) 2020-05-08 2021-03-09 전자 기기 및 촬상 장치
CN202180032396.6A CN115486056A (zh) 2020-05-08 2021-03-09 电子设备和成像装置
EP21799821.0A EP4149104A4 (en) 2020-05-08 2021-03-09 ELECTRONIC DEVICE AND IMAGING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-082601 2020-05-08
JP2020082601 2020-05-08

Publications (1)

Publication Number Publication Date
WO2021225030A1 true WO2021225030A1 (ja) 2021-11-11

Family

ID=78468005

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/009377 WO2021225030A1 (ja) 2020-05-08 2021-03-09 電子機器及び撮像装置

Country Status (7)

Country Link
US (1) US12256154B2 (ja)
EP (1) EP4149104A4 (ja)
JP (1) JPWO2021225030A1 (ja)
KR (1) KR20230009412A (ja)
CN (1) CN115486056A (ja)
TW (1) TW202207698A (ja)
WO (1) WO2021225030A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023180331A (ja) * 2022-06-09 2023-12-21 維沃移動通信有限公司 画像処理方法、装置、電子機器および読み取り可能記憶媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021106513A1 (ja) * 2019-11-29 2021-06-03
KR20220078191A (ko) * 2020-12-03 2022-06-10 삼성전자주식회사 영상 처리를 수행하는 전자 장치 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006180269A (ja) * 2004-12-22 2006-07-06 Sony Corp 画像処理装置、画像処理方法、撮像装置、プログラム、及び記録媒体
JP2012070356A (ja) * 2010-09-21 2012-04-05 Sony Ericsson Mobilecommunications Japan Inc センサ付き表示装置および電子機器
US20180069060A1 (en) 2011-10-14 2018-03-08 Apple Inc. Electronic Devices Having Displays With Openings
JP2020507275A (ja) * 2017-01-26 2020-03-05 オッポ広東移動通信有限公司 表示画面アセンブリ、電子機器および画像取得方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2009414A1 (en) * 1999-01-14 2008-12-31 Panasonic Corporation Infrared imaging device, vehicle with the same, and infrared image adjusting device
JP2006023959A (ja) * 2004-07-07 2006-01-26 Olympus Corp 信号処理システム及び信号処理プログラム
US20080106591A1 (en) 2006-11-02 2008-05-08 Border John N Two way communication system
JP4994800B2 (ja) * 2006-11-16 2012-08-08 キヤノン株式会社 受光センサ及び焦点検出装置
US7915652B2 (en) * 2008-10-24 2011-03-29 Sharp Laboratories Of America, Inc. Integrated infrared and color CMOS imager sensor
CN104125442A (zh) 2013-04-26 2014-10-29 索尼公司 图像处理方法、装置以及电子设备
JP2014241584A (ja) * 2013-05-14 2014-12-25 パナソニックIpマネジメント株式会社 画像処理方法、及び画像処理システム
JP2015186200A (ja) * 2014-03-26 2015-10-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9436870B1 (en) * 2014-06-06 2016-09-06 Amazon Technologies, Inc. Automatic camera selection for head tracking using exposure control
US20160254300A1 (en) * 2015-02-26 2016-09-01 Dual Aperture International Co., Ltd. Sensor for dual-aperture camera
FR3038194B1 (fr) * 2015-06-26 2017-08-11 Ulis Correction de pixels parasites dans un capteur d'image infrarouge
WO2017002183A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、画像処理方法および顕微鏡
US20170084231A1 (en) 2015-09-23 2017-03-23 Intel Corporation Imaging system management for camera mounted behind transparent display
WO2017169039A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US10897148B2 (en) 2016-09-23 2021-01-19 Apple Inc. Wireless charging mats with multi-layer transmitter coil arrangements
US20180333088A1 (en) * 2017-05-17 2018-11-22 Microsoft Technology Licensing, Llc Pulse Oximetry Capturing Technique
US10775741B2 (en) * 2017-05-22 2020-09-15 Open Water Internet Inc. Co-located imaging and display pixel
US10911656B2 (en) * 2017-11-21 2021-02-02 Microsoft Technology Licensing, Llc Optical isolation systems for displays
EP4390835A3 (en) * 2018-09-18 2024-09-11 Panasonic Intellectual Property Management Co., Ltd. Depth acquisition device, depth acquisition method and program
CN109451106B (zh) * 2018-11-16 2020-06-12 Oppo广东移动通信有限公司 电子装置
EP3935444A1 (en) * 2019-03-08 2022-01-12 Array Photonics, Inc. Electronic devices having displays with infrared components behind the displays
US11516374B2 (en) * 2019-06-05 2022-11-29 Synaptics Incorporated Under-display image sensor
CN112770020A (zh) * 2019-11-05 2021-05-07 北京小米移动软件有限公司 图像传感模组、方法、装置、电子设备及介质
JPWO2021094878A1 (ja) * 2019-11-15 2021-05-20
US11076080B2 (en) * 2019-12-05 2021-07-27 Synaptics Incorporated Under-display image sensor for eye tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006180269A (ja) * 2004-12-22 2006-07-06 Sony Corp 画像処理装置、画像処理方法、撮像装置、プログラム、及び記録媒体
JP2012070356A (ja) * 2010-09-21 2012-04-05 Sony Ericsson Mobilecommunications Japan Inc センサ付き表示装置および電子機器
US20180069060A1 (en) 2011-10-14 2018-03-08 Apple Inc. Electronic Devices Having Displays With Openings
JP2020507275A (ja) * 2017-01-26 2020-03-05 オッポ広東移動通信有限公司 表示画面アセンブリ、電子機器および画像取得方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4149104A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023180331A (ja) * 2022-06-09 2023-12-21 維沃移動通信有限公司 画像処理方法、装置、電子機器および読み取り可能記憶媒体
JP7426438B2 (ja) 2022-06-09 2024-02-01 維沃移動通信有限公司 画像処理方法、装置、電子機器および読み取り可能記憶媒体

Also Published As

Publication number Publication date
TW202207698A (zh) 2022-02-16
CN115486056A (zh) 2022-12-16
EP4149104A1 (en) 2023-03-15
KR20230009412A (ko) 2023-01-17
EP4149104A4 (en) 2023-10-25
US20230142989A1 (en) 2023-05-11
JPWO2021225030A1 (ja) 2021-11-11
US12256154B2 (en) 2025-03-18

Similar Documents

Publication Publication Date Title
US12256154B2 (en) Electronic device and imaging device with image data correction
US20220368833A1 (en) Electronic equipment
US11917306B2 (en) Electronic device that corrects images captured on a side opposite a displaying surface
JP6857695B2 (ja) 後方表示装置、後方表示方法、およびプログラム
US12273634B2 (en) Imaging element and electronic apparatus
CN114338958A (zh) 一种图像处理的方法及相关设备
CN214381044U (zh) 电子设备
CN115136593A (zh) 成像装置、成像方法和电子装置
US20240243145A1 (en) Imaging element and electronic device
JP7646573B2 (ja) 電子機器
US20240171868A1 (en) Imaging element, imaging device and electronic device
US20240233181A1 (en) Image pickup apparatus used as action camera, calibrator, control methods therefor, and storage media storing control programs therefor
US20240388683A1 (en) Synchronizing Image Signal Processing Across Multiple Image Sensors
US20250071439A1 (en) Signal processing device, signal processing method, and program
JP2022025741A (ja) 視点位置検出システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21799821

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022519900

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227042264

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021799821

Country of ref document: EP

Effective date: 20221208

NENP Non-entry into the national phase

Ref country code: DE