JP2001304821A - Image capturing apparatus and distance measuring method - Google Patents
Image capturing apparatus and distance measuring methodInfo
- Publication number
- JP2001304821A JP2001304821A JP2001036761A JP2001036761A JP2001304821A JP 2001304821 A JP2001304821 A JP 2001304821A JP 2001036761 A JP2001036761 A JP 2001036761A JP 2001036761 A JP2001036761 A JP 2001036761A JP 2001304821 A JP2001304821 A JP 2001304821A
- Authority
- JP
- Japan
- Prior art keywords
- light
- wavelength
- intensity
- subject
- irradiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000003384 imaging method Methods 0.000 claims abstract description 89
- 238000004364 calculation method Methods 0.000 claims abstract description 57
- 230000005855 radiation Effects 0.000 claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 230000003287 optical effect Effects 0.000 claims description 104
- 230000001678 irradiating effect Effects 0.000 claims description 32
- 238000004611 spectroscopical analysis Methods 0.000 claims description 8
- 238000012634 optical imaging Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 28
- 238000005259 measurement Methods 0.000 description 17
- 230000015654 memory Effects 0.000 description 14
- 238000000926 separation method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000003702 image correction Methods 0.000 description 7
- 238000013213 extrapolation Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002310 reflectometry Methods 0.000 description 3
- 229910021417 amorphous silicon Inorganic materials 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229910052785 arsenic Inorganic materials 0.000 description 1
- RQNWIZPPADIBDY-UHFFFAOYSA-N arsenic atom Chemical compound [As] RQNWIZPPADIBDY-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 光が照射された被写体から得られる出射光を
撮影し、被写体の奥行き距離を簡便に測定することので
きるあ画像撮像装置及び距離測定方法を提供する。
【解決手段】 第1の波長を有する第1の照射光と、第
1の波長とは異なる第2及び第3の波長を有する第2の
照射光とを、光学的に異なる放射位置から被写体に照射
する照射部100と、照射部により第1及び第2の照射
光が照射された被写体から得られる出射光から、第1の
波長を有する第1の出射光と、第2の波長を有する第2
の出射光と、第3の波長を有する第3の出射光とを光学
的に分離する分光部30と、分光部30によって分離さ
れた第1、第2及び第3の出射光を撮像する撮像部2
0、40と、撮像された第1、第2及び第3の出射光の
強度を検出する光強度検出部64と、第1、第2及び第
3の出射光の強度を用いて、被写体までの奥行き距離を
算出する奥行き算出部66とを備えた。
(57) [Problem] To provide an image pickup apparatus and a distance measuring method capable of photographing outgoing light obtained from a subject irradiated with light and easily measuring a depth distance of the subject. SOLUTION: A first irradiation light having a first wavelength and a second irradiation light having second and third wavelengths different from the first wavelength are applied to a subject from optically different radiation positions. Irradiation unit 100 for irradiation, first emission light having a first wavelength, and second emission light having a second wavelength are obtained from emission light obtained from a subject irradiated with the first and second irradiation lights by the irradiation unit. 2
And an imaging unit that images the first, second, and third outgoing lights separated by the dispersing unit 30. The light separating unit 30 optically separates the outgoing light from the third outgoing light having the third wavelength. Part 2
0, 40, a light intensity detection unit 64 that detects the intensity of the first, second, and third emitted light, and the intensity of the first, second, and third emitted light. And a depth calculation unit 66 for calculating the depth distance of the image.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、被写体の奥行き距
離に関する情報を取得する画像撮像装置及び距離測定方
法に関する。特に本発明は、光が照射された被写体から
得られる出射光を撮影して被写体の奥行きに関する情報
を取得する画像撮像装置及び距離測定方法に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an image pickup apparatus and a distance measuring method for acquiring information on a depth distance of a subject. In particular, the present invention relates to an image capturing apparatus and a distance measuring method for capturing information on the depth of a subject by shooting outgoing light obtained from the subject irradiated with light.
【0002】[0002]
【従来の技術】物体までの距離情報や物体の位置情報を
得るために、物体にスリットや縞模様などのパターン光
を投影し、物体に投影されたパターンを撮影して解析す
る三次元画像計測の手法が知られている。代表的な計測
手法として、スリット光投影法(別名、光切断法)、コ
ード化パターン光投影法などがあり、井口征士、佐藤宏
介著『三次元画像計測』(昭晃堂)に詳しい。2. Description of the Related Art In order to obtain information on the distance to an object and information on the position of the object, three-dimensional image measurement in which a pattern light such as a slit or a striped pattern is projected on the object, and the pattern projected on the object is photographed and analyzed. Are known. Typical measurement methods include slit light projection (also known as light sectioning) and coded pattern light projection, which are detailed in Seiji Iguchi and Kosuke Sato, "Three-dimensional image measurement" (Shokodo).
【0003】特開昭61−155909号公報(公開日
昭和61年7月15日)及び特開昭63−233312
号公報(公開日昭和63年9月29日)には、異なる光
源位置から被写体に光を照射し、被写体からの反射光の
強度比に基づいて、被写体までの距離を測定する距離測
定装置及び距離測定方法が開示されている。[0003] JP-A-61-155909 (publication date: July 15, 1986) and JP-A-63-233312
Japanese Patent Laid-Open Publication (Publication Date: September 29, 1988) discloses a distance measuring device that irradiates a subject with light from different light source positions and measures a distance to the subject based on an intensity ratio of reflected light from the subject. A distance measuring method is disclosed.
【0004】特開昭62−46207号公報(公開日昭
和62年2月28日)には、位相の異なる2つの光を被
写体に照射し、被写体からの反射光の位相差に基づい
て、被写体までの距離を測定する距離検出装置が開示さ
れている。Japanese Patent Application Laid-Open No. 62-46207 (published on Feb. 28, 1987) discloses that a subject is irradiated with two lights having different phases, and the light is reflected on the subject based on the phase difference of the reflected light from the subject. A distance detecting device for measuring a distance to a vehicle is disclosed.
【0005】また、河北他「三次元撮像装置Axi-Vision
Cameraの開発」(3次元画像コンファレンス99、199
9年)には、投影光に超高速の強度変調を加え、強度変
調光で照明された被写体を高速シャッター機能を備えた
カメラで撮影し、被写体までの距離によって変化する強
度変調度合いから、距離を測定する方法が開示されてい
る。[0005] Also, Kahoku et al., "Axi-Vision three-dimensional imaging device"
Camera Development ”(3D Image Conference 99, 199
9 years), ultra-high-speed intensity modulation is applied to the projection light, and a subject illuminated with the intensity-modulated light is photographed with a camera equipped with a high-speed shutter function. Is disclosed.
【0006】[0006]
【発明が解決しようとする課題】従来の光投影法による
計測手法は、3角測量の原理に基づいて、投影パターン
が投影された被写体の領域までの距離を測定する。した
がって、距離測定の高い分解能を得るためには、原理的
に投影光学系と撮影光学系を十分に離して配置する必要
があり、測定装置の大型化が避けられないという問題が
生じていた。また、投影光学系と撮影光学系の光軸が離
れているために、撮影光学系から見た場合に、投影され
たパターンが被写体の陰に隠れて観察されない場所がで
き、距離情報が得られない「死角」となるという問題も
生じていた。The conventional measuring method based on the light projection method measures a distance to a region of a subject on which a projection pattern is projected based on the principle of triangulation. Therefore, in order to obtain a high resolution of the distance measurement, it is necessary to arrange the projection optical system and the photographing optical system sufficiently in principle, and there has been a problem that the size of the measuring apparatus cannot be avoided. Also, since the optical axes of the projection optical system and the imaging optical system are far apart, when viewed from the imaging optical system, there is a place where the projected pattern is hidden behind the subject and cannot be observed, and distance information can be obtained. There was also the problem that there was no "blind spot".
【0007】特開昭61−155909号公報及び特開
昭63−233312号公報に開示された距離測定装置
及び距離測定方法では、放射位置を異ならせて光を順次
照射し、それぞれの反射光を測定する必要があるため、
測定に時間差が生じる。そのため、動きのある被写体の
場合、距離を測定することができないという問題が生じ
る。また光源の位置を変えて照射する間に、撮影装置の
ぶれにより、測定誤差が生じる可能性がある。In the distance measuring device and the distance measuring method disclosed in JP-A-61-155909 and JP-A-63-233312, light is sequentially irradiated at different radiation positions, and each reflected light is reflected. Because it needs to be measured,
There is a time difference in measurement. Therefore, in the case of a moving subject, there is a problem that the distance cannot be measured. Also, during irradiation with the position of the light source changed, there is a possibility that a measurement error may occur due to blurring of the imaging device.
【0008】また、波長特性の異なる光の場合、同時に
照射し、反射光を照射光の波長特性に合わせたフィルタ
ーを用いて、分光し、反射光強度を測定することができ
る。しかし、物体の分光反射率が異なる場合、照射光の
波長の違いから反射光強度に違いが生じるため、反射光
強度の比から奥行き距離を計算する際の誤差要因とな
り、正確な奥行き距離が計算できないという問題が生じ
ていた。Further, in the case of lights having different wavelength characteristics, the reflected light can be irradiated at the same time, the reflected light can be separated using a filter adapted to the wavelength characteristics of the irradiated light, and the reflected light intensity can be measured. However, if the spectral reflectance of the object is different, the reflected light intensity will differ due to the difference in the wavelength of the illuminating light, and this will be an error factor when calculating the depth distance from the ratio of the reflected light intensity, and the accurate depth distance will be calculated. There was a problem of not being able to do so.
【0009】特開昭62−46207号公報に開示され
た距離検出装置では、位相差を検出するための精度の高
い位相検出器が必要となり、装置が高価になり、簡便性
に欠ける。また、被写体の点からの反射光の位相を測定
するため、被写体全体の奥行き分布を測定することはで
きない。The distance detecting device disclosed in Japanese Patent Application Laid-Open No. 62-46207 requires a highly accurate phase detector for detecting a phase difference, which makes the device expensive and lacks simplicity. Further, since the phase of the reflected light from the point of the subject is measured, the depth distribution of the entire subject cannot be measured.
【0010】また、河北他「三次元撮像装置Axi-Vision
Cameraの開発」(3次元画像コンファレンス99、199
9年)に開示された強度変調を用いた距離測定手法は、
非常に高速に光変調や光シャッター操作を行う必要があ
り、測定装置は大型で高価になり、簡便に測定すること
ができないという問題がある。Also, Kahoku et al., "Axi-Vision three-dimensional imaging device"
Camera Development ”(3D Image Conference 99, 199
9), the distance measurement method using intensity modulation,
It is necessary to perform light modulation and light shutter operation at a very high speed, and there is a problem that the measuring device is large and expensive, and cannot be measured easily.
【0011】そこで本発明は、上記の課題を解決するこ
とのできる画像撮像装置及び距離測定装置を提供するこ
とを目的とする。この目的は特許請求の範囲における独
立項に記載の特徴の組み合わせにより達成される。また
従属項は本発明の更なる有利な具体例を規定する。Accordingly, an object of the present invention is to provide an image pickup device and a distance measuring device which can solve the above-mentioned problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous embodiments of the present invention.
【0012】[0012]
【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の形態においては、被写体の奥行きに
関する情報を取得する画像撮像装置であって、第1の波
長を主要な波長成分とする第1の照射光と、第1の波長
とは異なる第2及び第3の波長を主要な波長成分とする
第2の照射光とを、光学的に異なる放射位置から被写体
に照射する照射部と、照射部により第1及び第2の照射
光が照射された被写体からの出射光に基づいて、被写体
までの奥行き距離を算出する奥行き算出部とを備えたこ
とを特徴とする。According to a first aspect of the present invention, there is provided an image pickup apparatus for acquiring information relating to the depth of a subject, wherein a first wavelength is set to a main wavelength. A first irradiation light as a component and a second irradiation light having second and third wavelengths different from the first wavelength as main wavelength components are radiated to a subject from optically different radiation positions. An irradiation unit, and a depth calculation unit that calculates a depth distance to the subject based on light emitted from the subject to which the first and second irradiation lights have been irradiated by the irradiation unit.
【0013】照射部は、第1及び第2の照射光を同時に
照射してもよい。照射部により第1及び第2の照射光が
照射された被写体から得られる出射光を結像する光学結
像部と、被写体から得られる出射光から、第1の波長を
有する第1の出射光と、第2の波長を有する第2の出射
光と、第3の波長を有する第3の出射光とを光学的に分
離する分光部と、分光部によって分離され、光学結像部
が結像する第1、第2及び第3の出射光を受光する受光
部と、受光部が受光する第1、第2及び第3の出射光の
強度を検出する光強度検出部とをさらに備え、奥行き算
出部は、第1、第2及び第3の出射光の強度を用いて、
被写体までの奥行き距離を算出してもよい。[0013] The irradiating section may simultaneously irradiate the first and second irradiation lights. An optical imaging unit that forms the outgoing light obtained from the subject irradiated with the first and second irradiation light by the irradiation unit, and a first outgoing light having a first wavelength from the outgoing light obtained from the subject A light separating unit that optically separates the second outgoing light having the second wavelength from the third outgoing light having the third wavelength; and an optical image forming unit that is separated by the light separating unit. Further comprising a light receiving unit for receiving the first, second and third outgoing lights, and a light intensity detecting unit for detecting the intensities of the first, second and third outgoing lights received by the light receiving unit. The calculating unit uses the first, second, and third outgoing light intensities,
The depth distance to the subject may be calculated.
【0014】受光部は、3板の固体撮像素子を有し、分
光部は、光路分割手段を用いて第1、第2及び第3の出
射光を分離し、それぞれを3板の固体撮像素子のいずれ
か1つに受光させてもよい。受光部は、固体撮像素子を
有し、分光部は、第1の波長の光を透過する第1の光学
フィルターと、第2の波長の光を透過する第2の光学フ
ィルターと、第3の波長の光を透過する第3の光学フィ
ルターとを有し、第1、第2及び第3の光学フィルター
が固体撮像素子の受光面に交互に配置させてもよい。The light receiving section has three solid-state imaging devices, and the spectroscopic portion separates the first, second, and third outgoing lights by using an optical path dividing means, and separates each of the light beams into three solid-state imaging devices. May be received by any one of them. The light receiving unit includes a solid-state imaging device, and the light splitting unit includes a first optical filter that transmits light of a first wavelength, a second optical filter that transmits light of a second wavelength, and a third optical filter. A third optical filter that transmits light of a wavelength; and the first, second, and third optical filters may be alternately arranged on the light receiving surface of the solid-state imaging device.
【0015】照射部は、所定の第1の境界波長より短い
波長領域の光を透過する第1の光学フィルターと、所定
の第2の境界波長より長い波長領域の光を透過する第2
の光学フィルターを有し、第1の光学フィルターを透過
する第1の照射光と、第2の光学フィルターを透過する
第2の照射光とを、光学的に異なる放射位置から被写体
に照射し、分光部は、第1及び第2の境界波長の短い方
よりも短い第1の波長の光を透過する第1の光学フィル
ターと、第1及び第2の境界波長の長い方よりも長い第
2及び第3の波長の光をそれぞれ透過する第2及び第3
の光学フィルターとを有し、被写体から得られる出射光
を第1の光学フィルターに透過させることにより、第1
の波長を有する第1の出射光を分離し、出射光をそれぞ
れ第2及び第3の光学フィルターに透過させることによ
り、第2の波長を有する第2の出射光及び第3の波長を
有する第3の出射光を分離させてもよい。The irradiating section includes a first optical filter transmitting light in a wavelength region shorter than a predetermined first boundary wavelength, and a second optical filter transmitting light in a wavelength region longer than a predetermined second boundary wavelength.
Irradiating a subject with first irradiation light passing through the first optical filter and second irradiation light passing through the second optical filter from optically different radiation positions; The light splitting unit includes a first optical filter that transmits light having a first wavelength shorter than a shorter one of the first and second boundary wavelengths, and a second optical filter that is longer than a longer one of the first and second boundary wavelengths. And third and third light, respectively, that transmit light of the third and third wavelengths, respectively.
The first optical filter transmits the outgoing light obtained from the subject to the first optical filter.
By separating the first outgoing light having the second wavelength and transmitting the outgoing light through the second and third optical filters, respectively, the second outgoing light having the second wavelength and the third outgoing light having the third wavelength are provided. 3 may be separated.
【0016】奥行き算出部は、第2及び第3の出射光の
強度に基づく値と、第1の出射光の強度とを用いて、被
写体までの奥行き距離を算出してもよい。奥行き算出部
は、第2及び第3の出射光の強度に基づいて、第1の波
長を有する光を第2の照射光の放射位置から照射したと
仮定した場合の被写体からの仮の出射光の強度を求め、
第1の出射光の強度と仮の出射光の強度とを用いて、被
写体までの奥行き距離を算出してもよい。奥行き算出部
は、第2の出射光と第3の出射光の平均強度と、第1の
出射光の強度とを用いて、被写体までの奥行き距離を算
出してもよい。The depth calculator may calculate the depth distance to the subject using a value based on the intensity of the second and third emitted light and the intensity of the first emitted light. The depth calculation unit is configured to, based on the intensities of the second and third outgoing lights, provide a temporary outgoing light from the subject assuming that the light having the first wavelength is emitted from the radiation position of the second irradiation light. Find the strength of
The depth distance to the subject may be calculated using the intensity of the first emission light and the intensity of the temporary emission light. The depth calculation unit may calculate the depth distance to the subject using the average intensity of the second emission light and the third emission light and the intensity of the first emission light.
【0017】本発明の第2の形態においては、被写体の
奥行きに関する情報を取得する画像撮像装置であって、
第1の波長を主要な波長成分とする第1の照射光と、第
1の波長とは異なる第2及び第3の波長を主要な波長成
分とする第2の照射光とを、光学的に異なる放射位置か
ら被写体に照射する照射部と、照射部により第1及び第
2の照射光が照射された被写体からの出射光に基づい
て、被写体までの奥行き距離を算出する奥行き算出部と
を備えたことを特徴とする。According to a second aspect of the present invention, there is provided an image pickup apparatus for acquiring information relating to the depth of a subject,
The first irradiation light having the first wavelength as the main wavelength component and the second irradiation light having the second and third wavelengths different from the first wavelength as the main wavelength components are optically combined. An irradiation unit that irradiates the subject from different radiation positions, and a depth calculation unit that calculates a depth distance to the subject based on light emitted from the subject that has been irradiated with the first and second irradiation lights by the irradiation unit It is characterized by having.
【0018】照射部は、第1及び第2の照射光を同時に
照射してもよい。照射部は、第1の波長を主要な波長成
分とする第1の照射光と、第1の波長より短い第2の波
長、及び第1の波長より長い第3の波長を主要な波長成
分とする第2の照射光とを、光学的に異なる放射位置か
ら被写体に照射し、照射部により第1及び第2の照射光
が照射された被写体からの出射光を結像する光学結像部
と、被写体から得られる出射光から、第1の波長を有す
る第1の出射光と、第2及び第3の波長を有する第2の
出射光とを光学的に分離する分光部と、分光部によって
分離され、光学結像部が結像する第1の出射光及び第2
の出射光を受光する受光部と、受光部が受光する第1及
び第2の出射光の強度を検出する光強度検出部とをさら
に備え、奥行き算出部は、第1及び第2の出射光の強度
を用いて、被写体までの奥行き距離を算出してもよい。The irradiating section may irradiate the first and second irradiation lights simultaneously. The irradiating unit includes a first irradiation light having the first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third wavelength longer than the first wavelength as a main wavelength component. An optical imaging unit that irradiates the subject with the second irradiation light to be emitted from an optically different radiation position, and forms the light emitted from the subject irradiated with the first and second irradiation light by the irradiation unit. A spectroscopic unit that optically separates first outgoing light having a first wavelength and second outgoing light having second and third wavelengths from outgoing light obtained from a subject; The first outgoing light and the second
And a light intensity detector for detecting the intensities of the first and second outgoing light beams received by the light receiving unit, and the depth calculator includes a first and a second outgoing light beam. May be used to calculate the depth distance to the subject.
【0019】受光部は、2板の固体撮像素子を有し、分
光部は、光路分割手段を用いて、第1の出射光と第2の
出射光の光路を光学的に分岐させ、それぞれ2板の固体
撮像素子のいずれか1つに受光させてもよい。受光部
は、固体撮像素子を有し、分光部は、第1の波長の光を
透過する第1の光学フィルターと、第2及び第3の波長
の光を透過する第2の光学フィルターとを有し、第1の
光学フィルターと第2の光学フィルターとが固体撮像素
子の受光面に交互に配置されてもよい。The light receiving section has two solid-state image pickup devices, and the light splitting section optically splits the optical paths of the first and second emitted lights by using an optical path splitting means. Any one of the solid-state imaging devices of the plate may receive light. The light receiving unit includes a solid-state imaging device, and the light splitting unit includes a first optical filter that transmits light of a first wavelength, and a second optical filter that transmits light of second and third wavelengths. The first optical filter and the second optical filter may be alternately arranged on the light receiving surface of the solid-state imaging device.
【0020】奥行き算出部は、第1の出射光の強度と第
2の出射光の強度の半分の値との比に基づいて、被写体
までの奥行き距離を算出してもよい。The depth calculator may calculate the depth distance to the subject based on a ratio of the intensity of the first emitted light to half the intensity of the second emitted light.
【0021】上記の第1及び第2の形態において、照射
部が被写体に第1及び第2の照射光を照射するときの光
軸と、結像部が被写体からの出射光を撮像するときの光
軸とが略同一であってもよい。光強度検出部は、受光部
に撮像された被写体の画像の各画素において第1及び第
2の出射光の強度を検出し、奥行き算出部は、画素の各
々に対応する被写体の領域までの奥行きを各々求めるこ
とにより、被写体の奥行き分布を算出してもよい。In the above first and second embodiments, the optical axis when the irradiating section irradiates the subject with the first and second irradiating lights and the optical axis when the image forming section captures the outgoing light from the photographic subject. The optical axis may be substantially the same. The light intensity detection unit detects the intensities of the first and second emitted lights at each pixel of the image of the subject captured by the light receiving unit, and the depth calculation unit determines the depth up to the region of the subject corresponding to each of the pixels. , The depth distribution of the subject may be calculated.
【0022】上記の第1及び第2の形態において、第1
及び第2の照射光は赤外線領域の光であり、分光部は、
被写体から得られる出射光から可視光を光学的に分離す
る手段をさらに備え、受光部は、分光部により光学的に
分離され、光学結像部が結像する可視光を受光する可視
光用の固体撮像素子をさらに備え、奥行き算出部が算出
する被写体の奥行き分布とともに可視光用の固体撮像素
子に撮像された被写体の画像を記録する記録部をさらに
備えてもよい。In the first and second embodiments, the first
And the second irradiation light is light in the infrared region,
The image forming apparatus further includes means for optically separating visible light from emitted light obtained from the subject, and the light receiving unit is optically separated by the spectroscopic unit, and the optical imaging unit receives visible light to form an image. The image processing apparatus may further include a solid-state imaging device, and may further include a recording unit that records an image of the subject captured by the solid-state imaging device for visible light together with the depth distribution of the subject calculated by the depth calculation unit.
【0023】上記の第1及び第2の形態において、光強
度検出部が検出する被写体からの出射光の強度、及び奥
行き算出部が算出する被写体までの奥行き距離の少なく
とも1つに基づいて、照射部が照射する第1及び第2の
照射光の発光時間、強度、放射位置、及び受光部の露光
時間の少なくとも1つを制御する制御部をさらに備えて
もよい。In the first and second embodiments, the irradiation is performed based on at least one of the intensity of the outgoing light from the subject detected by the light intensity detection unit and the depth distance to the subject calculated by the depth calculation unit. The image processing apparatus may further include a control unit that controls at least one of a light emission time, an intensity, a radiation position, and an exposure time of the light receiving unit of the first and second irradiation lights emitted by the unit.
【0024】本発明の第3の形態においては、被写体の
奥行きに関する情報を取得する距離測定方法であって、
第1の波長を主要な波長成分とする第1の照射光と、第
1の波長とは異なる第2及び第3の波長を主要な波長成
分とする第2の照射光とを、光学的に異なる放射位置か
ら同時に被写体に照射する照射段階と、第1及び第2の
照射光が照射された被写体から得られる出射光から、第
1の波長を有する第1の出射光と、第2の波長を有する
第2の出射光と、第3の波長を有する第3の出射光とを
光学的に分離する分光段階と、分離された第1、第2及
び第3の出射光を撮像する撮像段階と、撮像された第
1、第2及び第3の出射光の強度を検出する光強度検出
段階と、第1、第2及び第3の出射光の強度を用いて、
被写体までの奥行き距離を算出する奥行き算出段階とを
備えたことを特徴とする。According to a third aspect of the present invention, there is provided a distance measuring method for acquiring information on the depth of a subject,
The first irradiation light having the first wavelength as the main wavelength component and the second irradiation light having the second and third wavelengths different from the first wavelength as the main wavelength components are optically combined. An irradiation step of simultaneously irradiating a subject from different radiation positions; and a first emission light having a first wavelength and a second wavelength from an emission light obtained from the subject irradiated with the first and second irradiation lights. And an imaging step of imaging the separated first, second, and third emission lights, and a second emission light having a third wavelength and a third emission light having a third wavelength. And a light intensity detecting step of detecting the intensity of the imaged first, second, and third emitted light, and the intensity of the first, second, and third emitted light,
Calculating a depth distance to a subject.
【0025】奥行き算出段階は、第2及び第3の出射光
の強度に基づく値と、第1の出射光の強度とを用いて、
被写体までの奥行き距離を算出してもよい。奥行き算出
段階は、第2及び第3の出射光の強度に基づいて、第1
の波長を有する光を第2の照射光の放射位置から照射し
たと仮定した場合の被写体からの仮の出射光の強度を求
め、第1の出射光の強度と仮の出射光の強度の比に基づ
いて、被写体までの奥行き距離を算出してもよい。奥行
き算出段階は、第2の出射光と第3の出射光の平均強度
と、第1の出射光の強度との比に基づいて、被写体まで
の奥行き距離を算出してもよい。In the depth calculation step, a value based on the intensities of the second and third outgoing lights and the intensity of the first outgoing light are used.
The depth distance to the subject may be calculated. In the depth calculation step, the first and second output light intensities are determined based on the first and third output light intensities.
Is obtained from the radiation position of the second irradiation light, the intensity of the provisional emission light from the subject is obtained, and the ratio of the intensity of the first emission light to the intensity of the provisional emission light is obtained. May be used to calculate the depth distance to the subject. In the depth calculation step, the depth distance to the subject may be calculated based on a ratio between the average intensity of the second emission light and the third emission light and the intensity of the first emission light.
【0026】本発明の第4の形態においては、被写体の
奥行きに関する情報を取得する距離測定方法であって、
第1の波長を主要な波長成分とする第1の照射光と、第
1の波長より短い第2の波長、及び第1の波長より長い
第3の波長を主要な波長成分とする第2の照射光とを、
光学的に異なる放射位置から同時に被写体に照射する照
射段階と、第1及び第2の照射光が照射された被写体か
ら得られる出射光から、第1の波長を有する第1の出射
光と、第2及び第3の波長を有する第2の出射光とを光
学的に分離する分光段階と、分離された第1の出射光及
び第2の出射光を撮像する撮像段階と、受光された第1
の出射光及び第2の出射光の強度をそれぞれ検出する光
強度検出段階と、第1の出射光の強度と第2の出射光の
強度を用いて、被写体までの奥行き距離を算出する奥行
き算出段階とを備えたことを特徴とする。According to a fourth aspect of the present invention, there is provided a distance measuring method for acquiring information on the depth of a subject,
A first irradiation light having the first wavelength as a main wavelength component, a second irradiation light having a second wavelength shorter than the first wavelength, and a second irradiation light having a third wavelength longer than the first wavelength as a main wavelength component. Irradiation light,
An irradiation step of simultaneously irradiating the subject from optically different radiation positions, and a first emission light having a first wavelength from an emission light obtained from the subject irradiated with the first and second irradiation lights; A spectroscopic step of optically separating the second outgoing light having the second and third wavelengths, an imaging step of imaging the separated first outgoing light and the second outgoing light, and a first received light
A light intensity detecting step of detecting the intensities of the outgoing light and the second outgoing light, respectively, and a depth calculation for calculating a depth distance to the subject using the intensities of the first outgoing light and the second outgoing light. And a step.
【0027】奥行き算出段階は、第1の出射光の強度と
第2の出射光の強度の半分の値との比に基づいて、被写
体までの奥行き距離を算出してもよい。In the depth calculation step, the depth distance to the subject may be calculated based on a ratio between the intensity of the first emitted light and half the intensity of the second emitted light.
【0028】なお上記の発明の概要は、本発明の必要な
特徴の全てを列挙したものではなく、これらの特徴群の
サブコンビネーションも又発明となりうる。Note that the above summary of the present invention does not list all of the necessary features of the present invention, and sub-combinations of these features can also constitute the present invention.
【0029】[0029]
【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態は特許請求の範囲
にかかる発明を限定するものではなく、また、実施形態
の中で説明されている特徴の組み合わせの全てが発明の
解決手段に必須であるとは限らない。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described through embodiments of the present invention. However, the following embodiments do not limit the invention according to the claims and are described in the embodiments. Not all combinations of the features described above are essential to the solution of the invention.
【0030】(実施形態1)本発明の第1の実施形態を
説明する。最初に、被写体からの反射光の強度から被写
体までの奥行き距離を測定する基本原理について説明す
る。図1は、本発明の原理説明図である。光源6、8は
それぞれ放射光強度I1、I2を有する同一波長特性の
点光源である。光源6、8はそれぞれ物体2から距離R
1、R2の位置にあり、光源6、8の放射位置の間隔は
Lである。光源6を発光させ、照射された物体2からの
反射光をカメラ5によって撮影する。次に光源8を発光
させ、照射された物体2からの反射光をカメラ5によっ
て撮影する。(Embodiment 1) A first embodiment of the present invention will be described. First, the basic principle of measuring the depth distance to the subject from the intensity of the reflected light from the subject will be described. FIG. 1 is a diagram illustrating the principle of the present invention. The light sources 6 and 8 are point light sources having the same wavelength characteristics and having radiated light intensities I 1 and I 2 , respectively. Light sources 6 and 8 each have a distance R from object 2
1 and R 2 , and the interval between the radiation positions of the light sources 6 and 8 is L. The light source 6 is caused to emit light, and the reflected light from the irradiated object 2 is photographed by the camera 5. Next, the light source 8 is caused to emit light, and the reflected light from the irradiated object 2 is photographed by the camera 5.
【0031】光源6から放射された光は全方位に放射さ
れる。光源6を中心とする半径rの球を考えると、光の
半径rの球面上の単位面積当たりの光密度は、The light emitted from the light source 6 is emitted in all directions. Considering a sphere with a radius r around the light source 6, the light density per unit area on a sphere with a radius r of light is
【0032】I1/(4πr2) で与えられる。したがって、光源6から距離R1だけ離
れた位置に存在する物体2の領域4からの反射光強度W
1は、物体2の表面反射率をRfとすると、It is given by I 1 / (4πr 2 ). Therefore, the reflected light intensity W from the region 4 of the object 2 existing at a position separated from the light source 6 by the distance R 1
1 is assuming that the surface reflectance of the object 2 is Rf.
【0033】W1=Rf・I1/(4πR1 2) で与えられる。同様にして、光源8から距離R2だけ離
れた位置に存在する物体2の領域4からの反射光強度W
2は、[0033] is given by W 1 = Rf · I 1 / (4πR 1 2). Similarly, the reflected light intensity W from the region 4 of the object 2 present at a position distant from the light source 8 by a distance R 2
2 is
【0034】W2=Rf・I2/(4πR2 2) で与えられる。[0034] is given by W 2 = Rf · I 2 / (4πR 2 2).
【0035】光源6による反射光強度W1と光源8によ
る反射光強度W2の比WRは、 WR=W1/W2=(I1・R2 2)/(I2・
R1 2) と求められる。これと、R2−R1=Lの関係から、光
源6と光源8の放射位置間隔Lが既知であれば、反射光
強度比WRを測定して、距離R1を式[0035] The ratio W R of the reflected light intensity W 2 by the reflected light intensity W 1 and the light source 8 by the light source 6, W R = W 1 / W 2 = (I 1 · R 2 2) / (I 2 ·
Obtained as R 1 2). This results from the relationship of R 2 -R 1 = L, if the radiation position distance L of the light source 6 and the light source 8 is known, by measuring the reflected light intensity ratio W R, the distance R 1 wherein
【0036】 R1=L/{(WR・I2/I1)1/2−1} により求めることができる。[0036] R 1 = L / can be determined by {(W R · I 2 / I 1) 1/2 -1}.
【0037】このように、同色の光源を用いれば、反射
光強度比WRを求める過程で、表面反射率Rfの影響が
キャンセルされるため、被写体の奥行き距離に関する情
報を取得することができる。この方法では、光源6と光
源8を順に発光し、撮像するため、撮影に時間差が生じ
る。したがって動きのある被写体には適用することがで
きない。そこで光源6と光源8の波長特性を異ならせ、
光源6と光源8を同時に発光し、被写体からの反射光か
ら光源6による反射光と光源8による反射光を波長分離
して、それぞれの反射光の強度を測定する方法が考えら
れる。物体2の表面反射率は一般に波長によって異な
る。波長λの光を照射した場合の表面反射率をRf
(λ)とする。光源6の波長をλ1、光源8の波長をλ
2とすると、光源6による反射光強度W1は、[0037] Thus, by using the same color of the light source, in the process of obtaining the reflected light intensity ratio W R, since the influence of the surface reflectance Rf is canceled, it is possible to obtain information about the depth distance of the object. In this method, since the light source 6 and the light source 8 emit light in order and take an image, there is a time difference in photographing. Therefore, it cannot be applied to a moving subject. Therefore, the wavelength characteristics of the light source 6 and the light source 8 are made different,
A method is considered in which the light sources 6 and 8 emit light at the same time, the reflected light from the light source 6 and the reflected light from the light source 8 are wavelength-separated from the reflected light from the subject, and the intensity of each reflected light is measured. The surface reflectivity of the object 2 generally differs depending on the wavelength. The surface reflectance when irradiating light of wavelength λ is Rf
(Λ). The wavelength of the light source 6 is λ 1 and the wavelength of the light source 8 is λ
When 2, the reflected light intensity W 1 by the light source 6,
【0038】 W1=Rf(λ1)・I1/(4πR1 2) で与えられる。一方、光源8による反射光強度W2は、[0038] is given by W 1 = Rf (λ 1) · I 1 / (4πR 1 2). On the other hand, the reflected light intensity W 2 by the light source 8,
【0039】 W2=Rf(λ2)・I2/(4πR2 2) で与えられる。[0039] is given by W 2 = Rf (λ 2) · I 2 / (4πR 2 2).
【0040】波長による表面反射率の違いがあるため、
反射光強度比WRを求めても、表面反射率Rfの項がキ
ャンセルされないため、被写体の奥行き距離に関する情
報を取得することができない。波長λ1とλ2の差を微
小にして、表面反射率Rf(λ1)とRf(λ2)の違
いを無視して、反射光強度比WRを求め、被写体の奥行
き距離を算出することもできるが、計算に誤差が生じ
る。表面反射率Rf(λ 1)とRf(λ2)の違いによ
る計算誤差を小さくするためには、波長λ1とλ 2の差
を十分に小さくしなければならないが、波長λ1とλ2
の差を小さくすると、波長分離の精度が悪くなり、波長
毎の強度測定に誤差が含まれることになる。したがっ
て、波長分離の分解能を上げて強度測定の精度を上げる
ためには、波長λ1とλ2の差を大きくしなければなら
ないし、表面反射率Rf(λ1)とRf(λ2)の違い
を小さくして、距離測定の精度を上げるためには、波長
λ1とλ2の差を小さくしなければならないというジレ
ンマに陥り、距離測定の精度を改善することに自ずと限
界が生じる。Since there is a difference in the surface reflectance depending on the wavelength,
Reflected light intensity ratio WRIs obtained, the term of the surface reflectance Rf is key.
Information about the subject's depth
Information cannot be obtained. Wavelength λ1And λ2The difference between
The surface reflectance Rf (λ1) And Rf (λ2) Difference
Ignoring the reflected light intensity ratio WRFind the depth of the subject
Distance can be calculated, but errors may occur in the calculation.
You. Surface reflectance Rf (λ 1) And Rf (λ2Depending on the difference
In order to reduce the calculation error, the wavelength λ1And λ 2Difference
Must be small enough, but the wavelength λ1And λ2
If the difference is small, the accuracy of wavelength separation will deteriorate, and the wavelength
An error will be included in each intensity measurement. Accordingly
To improve the accuracy of intensity measurement by increasing the resolution of wavelength separation
For the wavelength λ1And λ2The difference between
Also, the surface reflectance Rf (λ1) And Rf (λ2)The difference of
In order to reduce the distance and improve the accuracy of the distance measurement,
λ1And λ2That the difference between the two must be reduced
To limit the accuracy of distance measurement.
A world arises.
【0041】そこで、本実施形態では、第1の波長特性
を有する光と、第1の波長特性とは異なる第2の波長特
性を有する光を光学的に異なる放射位置から同時に被写
体に照射し、第1の波長特性を有する光による反射光
と、第2の波長特性を有する光による反射光とを光学的
に分離し、第2の波長特性の反射光を用いて、仮に第1
の波長特性を有する光を第2の波長特性の光の放射位置
から照射した場合に、被写体から得られるであろう仮の
反射光強度を求め、第1の波長特性の反射光強度と、仮
の反射光強度との比に基づいて、被写体の奥行き距離を
算出する。仮の反射光強度を求めることにより、波長に
よる表面反射率の違いをキャンセルすることができるた
め、奥行き距離を正確に求めることができる。Therefore, in the present embodiment, the subject is irradiated with light having the first wavelength characteristic and light having the second wavelength characteristic different from the first wavelength characteristic simultaneously from optically different radiation positions. The light reflected by the light having the first wavelength characteristic is optically separated from the light reflected by the light having the second wavelength characteristic.
When the light having the wavelength characteristic is irradiated from the radiation position of the light having the second wavelength characteristic, a temporary reflected light intensity that would be obtained from the subject is obtained, and the reflected light intensity of the first wavelength characteristic and the temporary reflected light intensity are calculated. The depth distance of the subject is calculated based on the ratio with the reflected light intensity of the subject. By determining the temporary reflected light intensity, it is possible to cancel the difference in the surface reflectance depending on the wavelength, so that the depth distance can be accurately determined.
【0042】図2は、本実施形態の画像撮像装置200
の構成図である。画像撮像装置200として、デジタル
スチルカメラや静止画像を撮影できるデジタルビデオカ
メラ等が考えられる。画像撮像装置200は、照射部1
00と、撮像部120と、処理部60と、制御部80と
を有する。FIG. 2 shows an image pickup apparatus 200 according to this embodiment.
FIG. As the image capturing device 200, a digital still camera, a digital video camera capable of capturing a still image, and the like can be considered. The image capturing device 200 includes the irradiation unit 1
00, an imaging unit 120, a processing unit 60, and a control unit 80.
【0043】照射部100は被写体に光を照射し、撮像
部120は照射部100が照射した被写体を撮像する。
処理部60は撮像部120が撮像した被写体の画像を処
理して、撮像された被写体の奥行き距離を求め、被写体
の奥行き分布情報として記録する。処理部60はまた、
撮像部120が撮像した被写体の画像を記録することも
できる。制御部80は、処理部60が求めた被写体の奥
行き距離に基づいてフィードバック制御を行い、照射部
100が照射する光の強度、発光のタイミング、発光時
間、放射位置等を制御し、撮像部120の露光時間等を
制御する。The irradiating section 100 irradiates the subject with light, and the imaging section 120 takes an image of the subject illuminated by the irradiating section 100.
The processing unit 60 processes the image of the subject captured by the imaging unit 120, obtains the depth distance of the captured subject, and records it as depth distribution information of the subject. The processing unit 60 also
The image of the subject captured by the imaging unit 120 can also be recorded. The control unit 80 performs feedback control based on the depth distance of the subject obtained by the processing unit 60, controls the intensity of light emitted by the irradiation unit 100, emission timing, emission time, emission position, and the like. And the exposure time.
【0044】照射部100は、光源10A、10Bと、
光学フィルター12A、12Bとを有する。光源10
A、10Bは異なる位置に設置され、光源10A、10
Bからの光は、それぞれ特定の波長成分を透過する光学
フィルター12A、12Bを透過し、被写体に同時に照
射される。照射部100は、光量を効率的に利用したい
場合や、光源10A、10Bの放射位置の差を光学的に
大きくしたい場合には、コンデンサーレンズ等の光学レ
ンズを照射光の光路に挿入して、光を集光させたり、レ
ンズ効果により照射光の光学的な放射位置を変更させて
もよい。The irradiation unit 100 includes light sources 10A and 10B,
It has optical filters 12A and 12B. Light source 10
A, 10B are installed at different positions, and the light sources 10A, 10B
The light from B passes through the optical filters 12A and 12B, each transmitting a specific wavelength component, and is simultaneously irradiated on the subject. The irradiation unit 100 inserts an optical lens such as a condenser lens into the optical path of the irradiation light when efficiently using the light amount or when optically increasing the difference between the radiation positions of the light sources 10A and 10B. The light may be condensed, or the optical emission position of the irradiation light may be changed by a lens effect.
【0045】撮像部120は、光学結像部の一例として
の光学レンズ20と、分光部30と、受光部40とを有
する。光学レンズ20は、被写体からの反射光を結像す
る。分光部30は、被写体からの反射光を、照射部10
0が照射した波長特性に合わせて波長分離する。受光部
40は、光学レンズ20が結像し、分光部30によって
波長分離された反射光を受光する。The image pickup section 120 has an optical lens 20 as an example of an optical image forming section, a light splitting section 30, and a light receiving section 40. The optical lens 20 forms an image of light reflected from the subject. The spectroscopy unit 30 transmits the reflected light from the subject to the irradiation unit 10
0 separates the wavelength according to the wavelength characteristic of the irradiation. The light receiving unit 40 receives the reflected light on which the optical lens 20 forms an image and the wavelength of which is separated by the spectroscopic unit 30.
【0046】受光部40は、一例として固体撮像素子で
ある。被写体像は固体撮像素子の受光面上に結像され
る。結像された被写体像の光量に応じ、固体撮像素子の
各センサエレメントに電荷が蓄積され、蓄積された電荷
は、一定の順序に走査され、電気信号として読み出され
る。The light receiving section 40 is, for example, a solid-state image sensor. The subject image is formed on the light receiving surface of the solid-state imaging device. Charges are accumulated in each sensor element of the solid-state imaging device according to the light quantity of the formed subject image, and the accumulated charges are scanned in a certain order and read out as electric signals.
【0047】固体撮像素子は、被写体からの反射光の強
度を、画素単位に高い精度で検出可能なように、S/N
比が良く、画素数が大きい電荷結合素子(CCD)イメ
ージセンサであることが望ましい。固体撮像素子として
CCD以外に、MOSイメージセンサ、CdS−Se密
着型イメージセンサ、a−Si(アモルファスシリコ
ン)密着型イメージセンサ、又はバイポーラ密着型イメ
ージセンサのいずれかを用いてもよい。The solid-state image sensor has an S / N ratio so that the intensity of the reflected light from the subject can be detected with high accuracy in pixel units.
A charge-coupled device (CCD) image sensor with a good ratio and a large number of pixels is desirable. As a solid-state imaging device, other than a CCD, any of a MOS image sensor, a CdS-Se contact image sensor, an a-Si (amorphous silicon) contact image sensor, or a bipolar contact image sensor may be used.
【0048】処理部60は、画像メモリ62と、光強度
検出部64と、奥行き算出部66と、画像補正部67
と、記録部68とを有する。画像メモリ62は、撮像部
120が撮像した被写体の画像を、照射部100が照射
した照射光の波長特性に合わせて格納する。光強度検出
部64が画像メモリ62に格納された被写体の画像から
反射光の強度を画素単位または画素領域単位で検出す
る。奥行き算出部66は、光強度検出部64が検出した
反射光強度に基づいて、各画素領域に写された被写体の
領域までの奥行き距離を算出する。記録部68は奥行き
算出部66が算出した被写体の奥行き距離の分布を記録
する。画像補正部67は、画像メモリ62に格納された
被写体の画像について、階調補正、ホワイトバランス等
の補正を行う。記録部68は画像補正部67が処理した
被写体の画像を記録する。また、光強度検出部64及び
奥行き算出部66はそれぞれ、被写体からの反射光の検
出レベル及び被写体の奥行き分布の情報を制御部80に
出力する。記録部68は、フラッシュメモリ、メモリカ
ード等の半導体メモリに画像データ及び奥行き分布情報
を記録する。The processing section 60 includes an image memory 62, a light intensity detecting section 64, a depth calculating section 66, and an image correcting section 67.
And a recording unit 68. The image memory 62 stores the image of the subject captured by the imaging unit 120 in accordance with the wavelength characteristics of the irradiation light emitted by the irradiation unit 100. The light intensity detection unit 64 detects the intensity of the reflected light from the image of the subject stored in the image memory 62 in pixel units or pixel area units. The depth calculation unit 66 calculates the depth distance to the subject area captured in each pixel area based on the reflected light intensity detected by the light intensity detection unit 64. The recording unit 68 records the distribution of the depth distance of the subject calculated by the depth calculation unit 66. The image correction unit 67 performs correction such as gradation correction and white balance on the image of the subject stored in the image memory 62. The recording unit 68 records the image of the subject processed by the image correction unit 67. In addition, the light intensity detection unit 64 and the depth calculation unit 66 output information on the detection level of the reflected light from the subject and the depth distribution of the subject to the control unit 80, respectively. The recording unit 68 records image data and depth distribution information in a semiconductor memory such as a flash memory or a memory card.
【0049】制御部80は、処理部60が求めた被写体
の奥行き距離に基づいてフィードバック制御を行い、照
射部100が照射する光の強度、発光のタイミング、光
の放射位置等を制御し、撮像部120の受光部40の受
光感度や露光時間等を制御する。制御部80は、図示し
ない測光センサの測光データや、測距センサの測距デー
タを用いて、照射部100と撮像部120を制御しても
よい。また、制御部80は、処理部60が求めた被写体
の奥行き距離に基づいて、被写体の画像を撮影するとき
の撮像部120のフォーカス、絞り、露光時間等を調整
してもよい。The control unit 80 performs feedback control based on the depth of the subject obtained by the processing unit 60, controls the intensity of light emitted by the irradiating unit 100, the timing of light emission, the light radiating position, and the like. The light receiving sensitivity and the exposure time of the light receiving unit 40 of the unit 120 are controlled. The control unit 80 may control the irradiation unit 100 and the imaging unit 120 using photometric data of a photometric sensor (not shown) or distance data of a distance sensor. Further, the control unit 80 may adjust the focus, aperture, exposure time, and the like of the imaging unit 120 when capturing an image of the subject based on the depth distance of the subject obtained by the processing unit 60.
【0050】図3は、本実施形態の照射部100と撮像
部120の構成図である。光源10A、10Bはそれぞ
れ物体2から距離R1、R2の位置にあり、光源10
A、10Bの放射位置間隔はLである。光学フィルター
12Aは主に波長λAの光を透過し、光学フィルター1
2Bは主に波長λB、λCを有する光を透過する。照射
部100は、光源10Aの位置から波長λAの光を、光
源10Bの位置から波長λB及びλCを有する光を同時
に物体2に照射する。FIG. 3 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. The light sources 10A and 10B are located at distances R1 and R2 from the object 2, respectively.
The radiation interval between A and 10B is L. The optical filter 12A is mainly transmit light of wavelength lambda A, the optical filter 1
2B mainly transmits light having wavelengths λ B and λ C. Irradiation unit 100 irradiates light having a wavelength lambda A from the position of the light source 10A, the light having a wavelength lambda B and lambda C from the position of the light source 10B at the same time on the object 2.
【0051】光源10A、10Bからの光が照射された
物体2からの反射光を撮像部120の光学レンズ20が
結像する。分光部30は、波長λA、λB、λCの3つ
の光に波長分離して光路を分割するプリズムである。受
光部40A、40B、及び40Cは3板の固体撮像素子
である。分光部30によって、分光された波長λA、λ
B、λCを有する光はそれぞれ受光部40A、40B、
40Cに受光される。各受光部40A、40B、40C
に受光された光は、光電効果により電荷として読み出さ
れ、図示しないA/D変換器によりデジタル電気信号に
変換され、処理部60に入力される。The optical lens 20 of the imaging section 120 forms an image of the reflected light from the object 2 irradiated with the light from the light sources 10A and 10B. The light splitting unit 30 is a prism that splits an optical path by wavelength separation into three lights of wavelengths λ A , λ B , and λ C. The light receiving units 40A, 40B, and 40C are three solid-state imaging devices. The wavelengths λ A , λ split by the spectroscopy unit 30
B and λ C are respectively received by light receiving units 40A, 40B,
The light is received at 40C. Each light receiving section 40A, 40B, 40C
Is read out as electric charges by the photoelectric effect, converted into a digital electric signal by an A / D converter (not shown), and input to the processing unit 60.
【0052】図4は、本実施形態の処理部60の構成図
である。各受光部40A、40B、40Cが出力する被
写体像は、それぞれ画像メモリ62A、62B、62C
に格納される。光強度検出部64は各画像メモリ62
A、62B、62Cに格納された画像データを用いて、
波長λA、λB、λCの反射光の強度を検出する。奥行
き算出部66は、光強度検出部64が検出した波長
λA、λB、λCの反射光の強度を用いて、光源10A
から物体2の領域4までの距離R1を求める。奥行き算
出部66は撮像された画像の画素または画素の領域単位
で、画素または画素領域に写された被写体の領域までの
奥行き距離を算出し、被写体の奥行き分布を求め、出力
する。記録部68は被写体の奥行き分布情報を記録す
る。FIG. 4 is a configuration diagram of the processing section 60 of the present embodiment. The subject images output from the light receiving units 40A, 40B, and 40C are stored in image memories 62A, 62B, and 62C, respectively.
Is stored in The light intensity detector 64 is provided in each image memory 62.
A, 62B, using the image data stored in 62C,
The intensity of the reflected light at the wavelengths λ A , λ B , and λ C is detected. The depth calculation unit 66 uses the reflected light intensities of the wavelengths λ A , λ B , and λ C detected by the light intensity detection unit 64 to calculate the light source 10A.
From the object to the region 4 of the object 2 is obtained. The depth calculation unit 66 calculates a depth distance to a pixel or an area of a subject in a pixel area of a captured image in units of pixels or pixels, obtains and outputs a depth distribution of the object. The recording unit 68 records depth distribution information of the subject.
【0053】光強度検出部64は、検出した波長λA、
λB、λCの反射光の強度を制御部80へ出力する。奥
行き算出部66は、被写体の奥行き分布情報を制御部8
0へ出力する。制御部80は、強度レベルが適正でない
場合や奥行き距離の測定精度が良くない場合、光源10
Aまたは10Bの放射光強度を調整するか、または光源
10Aと10Bの放射位置間隔を調整する。制御部80
は、光源10A、10Bの放射光強度比をあらかじめい
くつか容易しておき、被写体の奥行き距離によって、放
射光強度比を選択してもよい。たとえば、被写体が近距
離にある場合には、放射光強度比を1に近い値に設定
し、被写体が遠距離にある場合に、被写体から遠い位置
にある光源10Bの放射光強度が大きくなるように、放
射光強度比を設定してもよい。The light intensity detector 64 detects the detected wavelength λ A ,
The intensity of the reflected light of λ B and λ C is output to the control unit 80. The depth calculation unit 66 outputs the depth distribution information of the subject to the control unit 8.
Output to 0. When the intensity level is not appropriate or when the depth distance measurement accuracy is not good, the control unit 80
The intensity of the emitted light of A or 10B is adjusted, or the interval between the emission positions of the light sources 10A and 10B is adjusted. Control unit 80
Alternatively, some of the radiated light intensity ratios of the light sources 10A and 10B may be made easy in advance, and the radiated light intensity ratio may be selected according to the depth distance of the subject. For example, when the subject is at a short distance, the radiation light intensity ratio is set to a value close to 1, and when the subject is at a long distance, the radiation light intensity of the light source 10B at a position far from the subject is increased. In addition, a radiation light intensity ratio may be set.
【0054】図5は、光強度検出部64と奥行き算出部
66による奥行き距離計算方法の説明図である。光強度
検出部64は、波長λAの反射光の強度WA、波長λB
の反射光のWB、波長λCの反射光のWCをそれぞれ検
出する。光源10A、10Bの強度をそれぞれI1、I
2とし、物体2の波長λにおける表面反射率をRf
(λ)とすると、波長λAの反射光の強度WAは、FIG. 5 is an explanatory diagram of a depth distance calculating method by the light intensity detecting section 64 and the depth calculating section 66. Light intensity detector 64, the wavelength lambda A strength W A of the reflected light of the wavelength lambda B
Detecting the W B of the reflected light, the W C of the reflected light of wavelength lambda C respectively. The intensities of the light sources 10A and 10B are I 1 and I
2 and the surface reflectance at wavelength λ of the object 2 is Rf
When (lambda), the intensity W A of the reflected light of wavelength lambda A is
【0055】 WA=Rf(λA)・I1/(4πR1 2) と表され、波長λBの反射光の強度WB、波長λCの反
射光の強度WCは、 WB=Rf(λB)・I2/(4πR2 2) WC=Rf(λC)・I2/(4πR2 2) と表される。[0055] W A = Rf (λ A) · I 1 / represented (4πR 1 2) and the wavelength lambda intensity W C of the reflected light intensity W B, the wavelength lambda C of reflected light B is, W B = Rf (λ B) · I 2 / (4πR 2 2) W C = Rf (λ C) · I expressed as 2 / (4πR 2 2).
【0056】奥行き算出部66は、波長λBの反射光の
強度WB、及び波長λCの反射光の強度WCを用いて、
波長λAを有する放射光強度I2の光を光源10Bの放
射位置から照射したと仮定した場合に、被写体から得ら
れる仮の反射光の強度WDを求める。求められたWDの
値は、理想的には[0056] Depth calculating unit 66, using the strength W B of the reflected light of the wavelength lambda B, and the intensity W C of the reflected light of wavelength lambda C,
If it is assumed that the light of the emitted light intensity I 2 having a wavelength lambda A was irradiated from the radiation position of the light source 10B, obtains the intensity W D of the reflected light of the provisional obtained from the subject. The value of the obtained W D is, ideally
【0057】 WD=Rf(λA)・I2/(4πR2 2) である。したがって、波長λAを有する光源10Aから
の光による反射光の強度WAと、同じ波長λAを有する
光源10Bからの光による仮の反射光の強度WDとの比
を求めると、表面反射率Rf(λA)の項がキャンセル
され、[0057] is a W D = Rf (λ A) · I 2 / (4πR 2 2). Therefore, the intensity W A of the reflected light by the light from the light source 10A having a wavelength lambda A, when determining the ratio between the intensity W D of the reflected light of the temporary by the light from the light source 10B having the same wavelength lambda A, the surface reflection The term of the rate Rf (λ A ) is canceled,
【0058】 WA/WD=(I1・R2 2)/(I2・R1 2) が得られ、これとR2−R1=Lより、被写体の奥行き
距離R1を算出することができる。[0058] W A / W D = (I 1 · R 2 2) / (I 2 · R 1 2) is obtained, from which the R 2 -R 1 = L, to calculate the depth distance R 1 of the object be able to.
【0059】波長λBの反射光の強度WB、及び波長λ
Cの反射光の強度WCを用いて、仮の反射光の強度WD
を求める方法には、いくつもの変形がありうる。図6
は、補間によって仮の反射光の強度を求める方法の説明
図である。波長λBの反射光の強度WB、及び波長λC
の反射光の強度WCを補間することにより、波長λAの
場合の仮の強度WDを求める。線形補間して仮の強度W
Dを求めてもよく、また単純に波長λBの反射光の強度
WB、及び波長λCの反射光の強度WCの中間値を仮の
強度WDとしてもよい。[0059] Wavelength λ intensity W B of the reflected light B, and the wavelength λ
Using intensity W C of the reflected light and C, the intensity of the reflected light of the provisional W D
There are many possible variations in the method of finding. FIG.
FIG. 4 is an explanatory diagram of a method for obtaining a temporary reflected light intensity by interpolation. Intensity of the reflected light of the wavelength lambda B W B, and the wavelength lambda C
By interpolating the intensity W C of the reflected light, obtaining a temporary intensity W D in the case of wavelength lambda A. Temporary intensity W by linear interpolation
It may also be determined D, the strength W B of simply wavelength lambda B reflected light, and an intermediate value of intensity W C of the reflected light of wavelength lambda C may be intensity W D tentative.
【0060】図7は、外挿によって仮の反射光の強度を
求める方法の説明図である。波長λ Bの反射光の強度W
B、及び波長λCの反射光の強度WCを外挿し、波長λ
Bより短い波長λAの場合の仮の強度WDを求める。FIG. 7 shows the provisional reflected light intensity obtained by extrapolation.
FIG. 4 is an explanatory diagram of a method for obtaining the value. Wavelength λ BOf reflected light W
B, And wavelength λCOf reflected light WCIs extrapolated to the wavelength λ
BShorter wavelength λATemporary strength W in case ofDAsk for.
【0061】さらに次の変形例がある。図8は、光源1
0A、10Bによるそれぞれの反射光から仮の反射光強
度を求める方法を説明する図である。照射部100は、
光源10Aから波長λ1及びλ2を有する照射光を、光
源10Bから波長λ3及びλ4を有する照射光を同時に
照射し、撮像部120は、被写体から得られる反射光
を、光源10Aからの波長λ1、λ2を有するそれぞれ
の反射光と、光源10Bからの波長λ3、λ4を有する
それぞれの反射光とに分離する。光強度検出部64は、
光源10Aからの波長λ1、λ2の反射光の強度を求
め、奥行き算出部66は、光源10Aの位置から、同一
強度で波長λ5の光を照射したと仮定した場合の反射光
強度WAを算出する。また、光強度検出部64は、光源
10Bからの波長λ3、λ4の反射光の強度を求め、奥
行き算出部66は、光源10Bの位置から、同一強度で
波長λ5の光を照射したと仮定した場合の反射光強度W
Dを算出する。奥行き算出部66は仮の反射光強度WA
とWDの比を求め、被写体の奥行き距離を算出すること
ができる。Further, there is the following modified example. FIG. 8 shows the light source 1
It is a figure explaining the method of calculating | requiring temporary reflected light intensity from each reflected light by 0A, 10B. The irradiation unit 100
Irradiation light having wavelengths λ1 and λ2 is simultaneously emitted from the light source 10A, and irradiation light having wavelengths λ3 and λ4 is simultaneously emitted from the light source 10B, and the imaging unit 120 converts reflected light obtained from the subject into wavelengths λ1, λ2 from the light source 10A. And the respective reflected lights having wavelengths λ3 and λ4 from the light source 10B. The light intensity detection unit 64
Wavelength λ1 from the light source 10A, obtains the intensity of the reflected light .lambda.2, depth calculation unit 66, calculates the position of the light source 10A, the reflected light intensity W A assuming that was irradiated with light of wavelength λ5 same intensity I do. Further, the light intensity detection unit 64 obtains the intensity of the reflected light of the wavelengths λ3 and λ4 from the light source 10B, and it is assumed that the depth calculation unit 66 irradiates the light of the wavelength λ5 with the same intensity from the position of the light source 10B. Reflected light intensity W
Calculate D. Reflected light intensity of the depth calculation unit 66 tentatively W A
The ratio of the W D determined, it is possible to calculate the depth distance of the object.
【0062】さらに次の変形例がある。図9(a)〜
(d)は、長波長または短波長の光のみを透過させるバ
ンドパスフィルターを用いて照射した場合の仮の反射光
強度を求める方法を説明する図である。光源10Aの光
学フィルター12Aは、第1の境界波長λ1よりも長い
波長の光のみを透過させるバンドパスフィルターであ
り、光源10Aからの放射光は光学フィルター12Aを
透過し、図9(a)に示した波長特性を有する光として
被写体に照射される。光源10Bの光学フィルター12
Bは、第2の境界波長λ2よりも短い波長の光のみを透
過させるバンドパスフィルターであり、光源10Bから
の放射光は光学フィルター12Bを透過し、図9(b)
に示した波長特性を有する光として被写体に照射され
る。第1の境界波長λ1は第2の境界波長λ2より短い
波長であってもよい。すなわち光学フィルター12A、
12Bが透過させる光の波長特性は、第1の境界波長λ
1から第2の境界波長λ2までの波長領域に重なりを有
してもよい。したがって、第1の境界波長λ1が第2の
境界波長λ2より短い場合、光源10A、10Bからの
照射光の波長特性は、第1の境界波長λ1から第2の境
界波長λ2までの波長領域に重なりを有する。Further, there is the following modified example. FIG. 9 (a)-
(D) is a diagram for explaining a method of obtaining a temporary reflected light intensity when the light is irradiated using a band-pass filter that transmits only light of a long wavelength or a short wavelength. The optical filter 12A of the light source 10A is a band-pass filter which transmits only light of the first wavelength longer than the boundary wavelength lambda 1, the light radiated from the light source 10A passes through the optical filter 12A, FIG. 9 (a) The object is irradiated as light having the wavelength characteristics shown in FIG. Optical filter 12 of light source 10B
B is a band-pass filter which transmits only light of the second wavelength shorter than the boundary wavelength lambda 2, the light radiated from the light source 10B is transmitted through the optical filter 12B, FIG. 9 (b)
The object is irradiated as light having the wavelength characteristics shown in FIG. The first boundary wavelength λ 1 may be shorter than the second boundary wavelength λ 2 . That is, the optical filter 12A,
The wavelength characteristic of the light transmitted through the first boundary wavelength 12B is the first boundary wavelength λ.
It may have an overlap in the wavelength region of from 1 to 2 second boundary wavelength lambda. Therefore, when the first boundary wavelength λ 1 is shorter than the second boundary wavelength λ 2 , the wavelength characteristics of the irradiation light from the light sources 10A and 10B are from the first boundary wavelength λ 1 to the second boundary wavelength λ 2. Have an overlap in the wavelength region.
【0063】分光部30は、波長λA、λB、λCの光
をそれぞれ透過する光学フィルターを有し、被写体から
得られる反射光を波長分離し、波長λA、λB、λCを
有する反射光を受光部40に受光させる。光源10Aに
よる反射光は、分光部30を通過する前は、図9(a)
の波長特性を有するが、光学フィルターによって図9
(c)のように、波長λAの成分だけが取り出される。
光源10Bによる反射光についても同様であり、分光部
30を通過する前は、図9(b)の波長特性を有する
が、光学フィルターによって図9(d)にように、波長
λB、λCの成分だけがそれぞれ取り出される。ここ
で、波長λAは、第1の境界波長λ1と第2の境界波長
λ2のどちらか長い方よりも長い波長であり、波長
λB、λCは、第1の境界波長λ1と第2の境界波長λ
2のどちらか短い方よりも短い波長であることが必要で
ある。なぜなら、分離された波長λAを有する反射光に
は、光源10Bの照射光による干渉が含まれてはならな
いし、分離された波長λB、λCを有するそれぞれの反
射光には、光源10Aの照射光による干渉が含まれては
ならないからである。波長λAを有する反射光の強度W
Aを検出し、波長λB、波長λ Cをそれぞれ有する反射
光の強度を外挿して、波長λAの成分が含まれていたと
仮定した場合の仮の反射光強度WDを求める。反射光強
度比WA/WDから被写体の奥行き距離を求める過程は
既に述べた通りである。The spectroscopic section 30 has a wavelength λA, ΛB, ΛCLight of
Has an optical filter that transmits
The obtained reflected light is wavelength-separated, and the wavelength λA, ΛB, ΛCTo
The received light is received by the light receiving unit 40. For light source 10A
Before passing through the spectroscopy unit 30, the reflected light from FIG.
FIG. 9 shows the wavelength characteristic of FIG.
As shown in FIG.AOnly the components of are extracted.
The same applies to the light reflected by the light source 10B.
Before passing through 30, it has the wavelength characteristic of FIG.
However, as shown in FIG.
λB, ΛCAre extracted respectively. here
And the wavelength λAIs the first boundary wavelength λ1And the second boundary wavelength
λ2Which is longer than the longer one,
λB, ΛCIs the first boundary wavelength λ1And the second boundary wavelength λ
2Wavelength must be shorter than the shorter one of
is there. Because the separated wavelength λAWith reflected light
Must not include the interference due to the irradiation light of the light source 10B.
Wavelength separated by λB, ΛCHave each anti
The emitted light may include interference due to the light emitted from the light source 10A.
Because it does not become. Wavelength λAOf reflected light having
AAnd the wavelength λB, Wavelength λ CEach having a reflection
Extrapolating the light intensity, the wavelength λAThat the ingredients contained
Temporary reflected light intensity W assumingDAsk for. Reflected light intensity
Degree ratio WA/ WDThe process of finding the depth distance of the subject from
As described above.
【0064】上記のいずれの方法においても、仮の反射
光強度を補間、外挿、平均などの処理によって正確に求
めることができるように、波長λBと波長λCは線形補
間または線形の外挿が可能な範囲で近接した値に設定す
ることがより好ましい。図10は、3種の物体の表面反
射率を示す図である。グラフの横軸は波長、縦軸は反射
率である。グラフ302、304、306は、それぞれ
人間の肌、道、木の葉の3種の物体の表面反射率を分光
計で測定した結果である。630nm、650nm、6
70nmの波長に対する各グラフ上の点をマークした。
630nm、650nm、670nmの波長領域では、
いずれの物体でも線形補間が可能である。また、同波長
領域の光源は入手しやすい。波長λA、λB、λCとし
て、このような線形補間が可能で、光源としても入手し
やすい波長領域の値を選択することができる。また、受
光部40の固体撮像素子の出力信号に対して、通常のデ
ジタルカメラ等で行われる階調補正等の画像補正処理を
行うと、信号の線形性が失われる。そこで固体撮像素子
への入射光強度に対して線形性を有する信号強度の段階
で、強度を検出し、補間、外挿、平均等の処理をするこ
とが好ましい。あるいは、階調補正等の画像補正処理に
よる信号変換関数の逆関数を表すテーブルを用意してお
き、画像補正後の信号出力を一旦逆関数のテーブルを参
照して、固体撮像素子への入射光強度に対して線形性を
有する信号強度に変換してから、強度を検出し、補間、
外挿、平均等の処理を行うようにしてもよい。In any of the above methods, the wavelengths λ B and λ C are linearly interpolated or linearly extrapolated so that the temporary reflected light intensity can be accurately obtained by processing such as interpolation, extrapolation, and averaging. It is more preferable to set the values as close to each other as possible within the range in which insertion is possible. FIG. 10 is a diagram showing the surface reflectance of three types of objects. The horizontal axis of the graph is the wavelength, and the vertical axis is the reflectance. Graphs 302, 304, and 306 are the results of measuring the surface reflectance of three types of objects, human skin, roads, and leaves, with a spectrometer. 630 nm, 650 nm, 6
Points on each graph for a wavelength of 70 nm were marked.
In the wavelength region of 630 nm, 650 nm, and 670 nm,
Linear interpolation is possible for any object. Light sources in the same wavelength range are easily available. As the wavelengths λ A , λ B , and λ C , such linear interpolation can be performed, and values in a wavelength region that can be easily obtained as a light source can be selected. Further, if image correction processing such as gradation correction performed by an ordinary digital camera or the like is performed on the output signal of the solid-state imaging device of the light receiving unit 40, the linearity of the signal is lost. Therefore, it is preferable to detect the intensity at the stage of the signal intensity having linearity with respect to the intensity of the incident light to the solid-state imaging device, and to perform processing such as interpolation, extrapolation, and averaging. Alternatively, a table representing an inverse function of a signal conversion function by an image correction process such as a gradation correction is prepared, and the signal output after the image correction is temporarily referred to the table of the inverse function, and the incident light to the solid-state imaging device is determined. After converting to a signal strength that has linearity with respect to the strength, the strength is detected, interpolated,
Processing such as extrapolation and averaging may be performed.
【0065】さらに、上記の説明では分光部30とし
て、波長分離して光路を分割する光学分割素子、たとえ
ばプリズム、ビームスプリッターを用いたが、分光部3
0として、受光部40の受光面に配置した光学フィルタ
ーを用いてもよい。図11は、受光部40に設けられる
特定波長成分を透過する光学フィルターを説明する図で
ある。受光部40として単板の固体撮像素子を用い、固
体撮像素子の受光面に、光学フィルター32を設ける。
光学フィルター32は、波長λA、λB、λCのみをそ
れぞれ透過させるフィルターが交互に配置される。これ
により、固体撮像素子の画素によって波長λA、λB、
λCのいずれの光を受光したものであるかがわかり、波
長λA、λB、λCを有する光を波長分離して受光する
ことができる。プリズムやビームスプリッターを用いる
場合と比べて、単板の固体撮像素子に受光させるため、
装置を小型化することができる。Further, in the above description, an optical splitting element for splitting an optical path by wavelength separation, for example, a prism or a beam splitter is used as the light splitting unit 30.
As 0, an optical filter arranged on the light receiving surface of the light receiving unit 40 may be used. FIG. 11 is a diagram illustrating an optical filter provided in the light receiving unit 40 and transmitting a specific wavelength component. A single-plate solid-state imaging device is used as the light-receiving unit 40, and an optical filter 32 is provided on the light-receiving surface of the solid-state imaging device.
In the optical filter 32, filters that respectively transmit only the wavelengths λ A , λ B , and λ C are alternately arranged. Accordingly, the wavelengths λ A , λ B ,
lambda C understand any one is obtained by receiving light, the wavelength lambda A, lambda B, the light having a lambda C can be received by wavelength separation. Compared to using a prism or beam splitter, the single-chip solid-state image sensor receives light,
The device can be downsized.
【0066】上記の実施形態の説明において、照射され
る光の波長によって表面反射率の違いが大きい被写体を
対象にする場合、波長λA、λB、λCは仮の反射光強
度の算出に誤差が生じないように、できるだけ近接して
いることが望ましい。一方で、各波長成分の反射光の強
度の検出精度を上げるためには、波長λA、λB、λ C
の以外の波長成分ができるだけ含まれないようにする
か、波長λA、λB、λ Cの値を互いに離れた値にし
て、波長λA、λB、λCの分解能を上げ、波長の干渉
をできるだけ少なくすることが望ましい。したがって、
被写体の表面反射率の特性や要求される測定精度に応じ
て、照射部100の光源10の波長特性、光学フィルタ
ー12の波長透過特性、撮像部120の分光部30の波
長透過特性を設計することが好ましい。In the description of the above embodiment, the irradiation
Subject with a large difference in surface reflectance depending on the wavelength of light
If you are targeting, wavelength λA, ΛB, ΛCIs the temporary reflected light intensity
As close as possible to avoid errors in the calculation of degrees
Is desirable. On the other hand, the intensity of the reflected light of each wavelength component
In order to improve the accuracy of degree detection, the wavelength λA, ΛB, Λ C
Try to minimize the wavelength components other than
Or the wavelength λA, ΛB, Λ CValues that are far from each other
And the wavelength λA, ΛB, ΛCResolution and wavelength interference
Is desirably as small as possible. Therefore,
Depending on the surface reflectance characteristics of the subject and the required measurement accuracy
The wavelength characteristic of the light source 10 of the irradiation unit 100, the optical filter
-12, wavelength transmission characteristics of the spectroscopic unit 30 of the imaging unit 120
It is preferable to design long transmission characteristics.
【0067】図12は、本実施形態の距離測定方法のフ
ローチャートである。照射部100は、波長λAを主要
な波長成分とする第1の照射光と、波長λAとは異なる
波長λB及び波長λCを主要な波長成分とする第2の照
射光とを、光学的に異なる放射位置から同時に被写体に
照射する(S100)。FIG. 12 is a flowchart of the distance measuring method according to the present embodiment. Irradiation unit 100, a first irradiation light to the wavelength lambda A as a main wavelength component and a second irradiation light whose main wavelength component different wavelengths lambda B and the wavelength lambda C the wavelength lambda A, The subject is simultaneously irradiated from different optically radiating positions (S100).
【0068】撮像部120の光学レンズ20は、第1及
び第2の照射光が照射された被写体からの反射光を結像
する(S102)。分光部30は、被写体からの反射光
から、波長λAを有する第1の反射光と、波長λBを有
する第2の反射光と、波長λ Cを有する第3の反射光と
を光学的に分離する(S104)。The optical lens 20 of the imaging unit 120 is
The reflected light from the subject irradiated with the second and the second irradiation light
(S102). The spectroscopy unit 30 reflects light reflected from the subject.
From the wavelength λAA first reflected light having a wavelength λBWith
And the wavelength λ CA third reflected light having
Are optically separated (S104).
【0069】受光部40は、分離された第1、第2、第
3の反射光を受光する(S106)。処理部60の光強
度検出部64は、第1、第2、第3の反射光の強度
WA、W B、WCを検出する(S108)。The light receiving section 40 includes the first, second, and
3 is received (S106). Light intensity of processing unit 60
The degree detection unit 64 determines the intensity of the first, second, and third reflected lights.
WA, W B, WCIs detected (S108).
【0070】奥行き算出部66は、第1、第2、第3の
反射光の強度WA、WB、WCを用いて、被写体までの
奥行き距離を算出する(S110)。[0070] Depth calculating unit 66, first, second, the intensity of the third reflected light W A, W B, by using the W C, and calculates the depth distance to the object (S110).
【0071】図13は、奥行き距離算出処理S110の
フローチャートである。第2及び第3の反射光の強度W
B、WCに基づいて、波長λAで強度がI2の光が第2
の照射光の放射位置から照射されたと仮定した場合の被
写体からの仮の反射光の強度WDを求める(S11
2)。仮の反射光の強度WDは、第2及び第3の反射光
の強度WB及びWCを補間または外挿することにより求
める。第1の反射光の強度WAと仮の反射光の強度WD
の比WA/WDを求める(S114)。第1、第2の照
射光の強度I1、I2、第1、第2の照射光の放射位置
間隔L、反射光強度比WA/WDに基づいて、被写体ま
での距離を算出する(S116)。FIG. 13 is a flowchart of the depth distance calculation processing S110. Second and third reflected light intensities W
B , based on W C , the light of wavelength λ A and the intensity of I 2
Determining the intensity W D of the reflected light tentative from the object when it is assumed from the radiation position of the irradiation light that is irradiated (S11
2). Intensity W D of the reflected light The temporary strength W B and W C of the second and third reflected light determined by interpolation or extrapolation. First reflected light intensity W A and intensity W D of the reflected light of temporary
Determining the ratio W A / W D of (S114). The distance to the object is calculated based on the first and second irradiation light intensities I 1 and I 2 , the first and second irradiation light emission position intervals L, and the reflected light intensity ratio W A / W D. (S116).
【0072】図14は、奥行き距離算出処理S110の
変形例のフローチャートである。第2及び第3の反射光
の強度WB、WCの平均値WD=(WB+WC)/2を
求める(S118)。第1の反射光の強度WAと、第2
及び第3の反射光の平均強度WDの比WA/WDを求め
る(S120)。第1、第2の照射光の強度I1、
I 2、第1、第2の照射光の放射位置間隔L、反射光強
度比WA/WDに基づいて、被写体までの距離を算出す
る(S122)。FIG. 14 is a flow chart of the depth distance calculation processing S110.
It is a flowchart of a modification. Second and third reflected light
Strength WB, WCAverage value of WD= (WB+ WC) / 2
It is determined (S118). Intensity W of the first reflected lightAAnd the second
And the average intensity W of the third reflected lightDRatio WA/ WDAsk for
(S120). First and second irradiation light intensities I1,
I 2, The distance L between the radiation positions of the first and second irradiation light, and the intensity of the reflected light
Degree ratio WA/ WDCalculate the distance to the subject based on
(S122).
【0073】以上述べたように、本実施形態の画像撮像
装置によれば、異なる波長特性を有する光を光学的に異
なる放射位置から同時に被写体に照射し、被写体から得
られる反射光から波長特性に合わせて波長分離し、波長
分離された反射光の強度を用いて、被写体までの奥行き
距離を簡便に求めることができる。As described above, according to the image pickup apparatus of the present embodiment, light having different wavelength characteristics is simultaneously radiated on the subject from different optically radiating positions, and the wavelength characteristic is changed from the reflected light obtained from the subject. In addition, the wavelength separation is performed, and the depth distance to the subject can be easily obtained by using the intensity of the wavelength-separated reflected light.
【0074】また、被写体からの反射光による像を固体
撮像素子に撮像し、画像データとして格納するため、画
素または画素領域単位で反射光強度を検出して奥行き距
離を算出することができ、撮像された被写体の領域の奥
行き分布を得ることができる。したがって、被写体の2
次元画像から被写体の奥行き分布を獲得して、被写体の
3次元立体画像を作成することが可能である。Further, since an image formed by reflected light from a subject is captured by a solid-state image sensor and stored as image data, the depth distance can be calculated by detecting the reflected light intensity for each pixel or pixel area. It is possible to obtain the depth distribution of the region of the subject that has been set. Therefore, 2
By obtaining the depth distribution of the subject from the three-dimensional image, it is possible to create a three-dimensional stereoscopic image of the subject.
【0075】(実施形態2)本発明の第2の実施形態を
説明する。本実施形態の画像撮像装置は、第1の実施形
態の画像撮像装置と比較して、照射部100と撮像部1
20の一部の構成が異なるだけであるから、同一の構成
要素については説明を省略し、異なる構成要素について
のみ説明する。図15は、本実施形態の照射部100と
撮像部120の構成図である。本実施形態では、照射部
100の光学フィルター12Aは主に波長λAの光を透
過し、光学フィルター12Bは、主に波長λAより短い
波長λ Bと、波長λAより長い波長λCを有する光を透
過する。照射部100は、光源10Aの位置から波長λ
Aの光と、光源10Bの位置から波長λB及びλCを有
する光を同時に物体2に照射する。(Embodiment 2) The second embodiment of the present invention
explain. The image pickup apparatus according to the present embodiment is a first embodiment.
Irradiation unit 100 and the imaging unit 1
20 has the same configuration because only a part of the configuration is different.
Description of the elements is omitted, and different components are
I will explain only. FIG. 15 illustrates the irradiation unit 100 of the present embodiment.
FIG. 2 is a configuration diagram of an imaging unit 120. In the present embodiment, the irradiation unit
The 100 optical filters 12A mainly have a wavelength λ.AThrough the light of
The optical filter 12B mainly has a wavelength λAShorter
Wavelength λ BAnd the wavelength λALonger wavelength λCWith light
Spend. The irradiating unit 100 has a wavelength λ from the position of the light source 10A.
AAnd the wavelength λ from the position of the light source 10B.BAnd λCWith
The object 2 at the same time.
【0076】撮像部120の分光部30は、波長λAを
有する光と、波長λB及びλCを有する光とに波長分離
して光路を分割するプリズムである。受光部40A及び
40Bは2板の固体撮像素子である。分光部30によっ
て、分光された波長λAを有する光は、受光部40A
に、波長λB及びλCを有する光は受光部40Bにそれ
ぞれ受光される。受光部40A、40Bに受光された光
は、電気信号に変換され、処理部60に入力される。[0076] spectroscopic unit 30 of the imaging unit 120 is a prism for splitting the light having the wavelength lambda A, the optical path to the wavelength separation and light having a wavelength lambda B and lambda C. The light receiving units 40A and 40B are two solid-state imaging devices. By the spectroscopic unit 30, light having a spectral wavelength lambda A is the light receiving portion 40A
The light having the wavelengths λ B and λ C is received by the light receiving unit 40B. The light received by the light receiving units 40A and 40B is converted into an electric signal and input to the processing unit 60.
【0077】図16は、本実施形態の処理部60の構成
図である。各受光部40A、40Bが出力する被写体像
は、それぞれ画像メモリ62A、62Bに格納される。
光強度検出部64は各画像メモリ62A、62Bに格納
された画像データを用いて、波長λAを有する反射光、
波長λBとλCを有する反射光の強度を検出する。奥行
き算出部66は、光強度検出部64が検出した波長λA
の反射光の強度、波長λB及びλCの反射光の強度を用
いて、光源10Aから物体2の領域4までの距離R1を
求める。奥行き算出部66は撮像された画像の画素また
は画素の領域単位で、画素または画素領域に写された被
写体の領域までの奥行き距離を算出し、被写体の奥行き
分布を求め、出力する。記録部68は被写体の奥行き分
布情報を記録する。FIG. 16 is a configuration diagram of the processing section 60 of the present embodiment. The subject images output from the light receiving units 40A and 40B are stored in the image memories 62A and 62B, respectively.
Light intensity detecting unit 64 using the image data stored the image memory 62A, the 62B, the reflected light having a wavelength lambda A,
The intensity of the reflected light having the wavelengths λ B and λ C is detected. The depth calculator 66 calculates the wavelength λ A detected by the light intensity detector 64.
The distance R1 from the light source 10A to the area 4 of the object 2 is obtained using the intensity of the reflected light at the wavelengths λ B and λ C. The depth calculation unit 66 calculates a depth distance to a pixel or an area of a subject in a pixel area of a captured image in units of pixels or pixels, obtains and outputs a depth distribution of the object. The recording unit 68 records depth distribution information of the subject.
【0078】図17は、光強度検出部64と奥行き算出
部66による奥行き距離計算方法の説明図である。光強
度検出部64は、波長λAの反射光の強度WA、波長λ
BとλCを有する反射光の強度WEをそれぞれ検出す
る。光源10A、10Bの強度をそれぞれI1、I2と
し、物体2の波長λにおける表面反射率をRf(λ)と
すると、波長λAの反射光の強度WAは、FIG. 17 is an explanatory diagram of a depth distance calculation method by the light intensity detection unit 64 and the depth calculation unit 66. Light intensity detector 64, the intensity W A of the reflected light of wavelength lambda A, the wavelength lambda
Respectively detect the intensity W E of the reflected light having a B and lambda C. Light source 10A, the intensity of 10B as I 1, I 2 respectively, when the surface reflectance at a wavelength of the object 2 lambda and Rf (lambda), the intensity W A of the reflected light of wavelength lambda A is
【0079】 WA=Rf(λA)・I1/(4πR1 2) と表され、波長λBとλCを有する反射光の強度W
Eは、 WE=Rf(λB)・I2/(4πR2 2)+Rf(λ
C)・I2/(4πR2 2) と表される。[0079] W A = Rf (λ A) · I is expressed as 1 / (4πR 1 2), the intensity of the reflected light having a wavelength lambda B and lambda C W
E is, W E = Rf (λ B ) · I 2 / (4πR 2 2) + Rf (λ
C) · I expressed as 2 / (4πR 2 2).
【0080】奥行き算出部66は、波長λBと波長λC
を有する反射光の強度WEの半分の値をWDとする。波
長λAは、波長λBと波長λCの中間の値であるから、
WDの値は、波長λAを有する放射光強度I2の光を光
源10Bの放射位置から照射したと仮定した場合に、被
写体から得られる仮の反射光の強度にほぼ等しい。得ら
れたWDの値は、理想的にはThe depth calculator 66 calculates the wavelength λ B and the wavelength λ C
The half value of the intensity W E of the reflected light having a W D. Since the wavelength λ A is an intermediate value between the wavelength λ B and the wavelength λ C ,
The value of W D, when it is assumed that irradiation with light of the radiation intensity I 2 having a wavelength lambda A from the radiation position of the light source 10B, approximately equal to the intensity of the reflected light of the provisional obtained from the subject. The obtained value of W D is ideally
【0081】 WD=Rf(λA)・I2/(4πR2 2) である。したがって、波長λAを有する光源10Aから
の光による反射光の強度WAと、同じ波長λAを有する
光源10Bからの光による仮の反射光の強度WDとの比
を求めると、表面反射率Rf(λA)の項がキャンセル
され、[0081] is a W D = Rf (λ A) · I 2 / (4πR 2 2). Therefore, the intensity W A of the reflected light by the light from the light source 10A having a wavelength lambda A, when determining the ratio between the intensity W D of the reflected light of the temporary by the light from the light source 10B having the same wavelength lambda A, the surface reflection The term of the rate Rf (λ A ) is canceled,
【0082】 WA/WD=(I1・R2 2)/(I2・R1 2) が得られ、これとR2−R1=Lより、被写体の奥行き
距離R1を算出することができる。[0082] W A / W D = (I 1 · R 2 2) / (I 2 · R 1 2) is obtained, from which the R 2 -R 1 = L, to calculate the depth distance R 1 of the object be able to.
【0083】仮の反射光強度WDが正確に得られるよう
に、波長λAは、波長λB、λCの中間の波長であるこ
とがより好ましい。上記の説明では、分光部30は、波
長λ Aを有する光と、波長λB及びλCを有する光とに
波長分離したが、フィルタリングの方法として、波長λ
B、λCを選択的に透過する必要は必ずしもなく、波長
λAをカットするバンドカットフィルターを用いても同
じ効果を奏する。図18(a)〜(d)は、バンドカッ
トフィルターを用いて反射光を分離する方法を説明する
図である。図18(a)のように、光源10Aからの照
射光は、波長λ Aを主要な波長成分とする波長特性を有
する。図18(b)のように、光源10Bからの照射光
は、波長λAを間に挟む波長λB、λCを主要な波長成
分とする波長特性を有する。分光部30は、図18
(c)に示すような、主に波長λAだけを透過するバン
ドパスフィルターと、図18(d)に示すような、主に
波長λ Aの波長成分をカットするバンドカットフィルタ
ーとを有し、被写体からの反射光をバンドパスフィルタ
ーに透過させることにより、波長λAを有する反射光を
分離し、被写体からの反射光をバンドカットフィルター
に透過させることにより、波長λBと波長λCを有する
反射光を分離する。波長λBと波長λCを有する反射光
の強度の半分の値と、波長λAを有する反射光の強度の
比に基づいて、被写体の奥行き値を求める方法は上述の
通りである。Temporary reflected light intensity WDTo get exactly
And the wavelength λAIs the wavelength λB, ΛCWavelength between
Is more preferable. In the above description, the spectroscopy unit 30
Long λ AAnd a wavelength λBAnd λCWith light having
Although the wavelength is separated, the wavelength λ is used as a filtering method.
B, ΛCIt is not necessary to selectively transmit
λAThe same applies when using a band cut filter that cuts
Has the same effect. FIGS. 18A to 18D show band brackets.
Explains how to separate reflected light using a multi-filter
FIG. As shown in FIG. 18A, illumination from the light source 10A is performed.
The emission wavelength is λ AHas wavelength characteristics with the main wavelength component
I do. As shown in FIG. 18B, irradiation light from the light source 10B
Is the wavelength λAThe wavelength λ sandwichingB, ΛCThe main wavelength components
Wavelength characteristics. The spectroscopy unit 30 is configured as shown in FIG.
As shown in FIG.AA van that only penetrates
And a pass filter, as shown in FIG.
Wavelength λ ABand cut filter that cuts wavelength components
And a band-pass filter for reflected light from the subject.
Wavelength λAReflected light with
Band cut filter that separates and reflects light from the subject
The wavelength λBAnd wavelength λCHaving
Separates reflected light. Wavelength λBAnd wavelength λCReflected light with
Half the intensity of theAHaving the intensity of the reflected light
The method of obtaining the depth value of the subject based on the ratio is described above.
It is on the street.
【0084】図19は、本実施形態の距離測定方法のフ
ローチャートである。照射部100は、波長λAを主要
な波長成分とする第1の照射光と、波長λAより短い波
長λ Bと、波長λAより長い波長λCを主要な波長成分
とする第2の照射光とを、光学的に異なる放射位置から
同時に被写体に照射する(S200)。FIG. 19 is a flowchart of the distance measuring method according to the present embodiment.
It is a low chart. The irradiation unit 100 has a wavelength λAThe major
Irradiation light having a wavelength componentAShorter waves
Long λ BAnd the wavelength λALonger wavelength λCThe main wavelength components
From the optically different radiation position
At the same time, the object is irradiated (S200).
【0085】撮像部120の光学レンズ20は、第1及
び第2の照射光が照射された被写体からの反射光を結像
する(S202)。分光部30は、被写体からの反射光
から、波長λAを有する第1の反射光と、波長λB及び
波長λCを有する第2の反射光とを光学的に分離する
(S204)。The optical lens 20 of the image pickup section 120 forms an image of the reflected light from the subject irradiated with the first and second irradiation lights (S202). Spectroscopic unit 30, the reflected light from the object, a first reflected light having a wavelength lambda A, and a second reflected light optically separated with a wavelength lambda B and wavelength λ C (S204).
【0086】受光部40は、分離された第1、第2の反
射光を受光する(S206)。処理部60の光強度検出
部64は、第1、第2の反射光の強度WA、WEを検出
する(S208)。The light receiving section 40 receives the separated first and second reflected lights (S206). Light intensity detecting unit 64 of the processor 60, first, the intensity of the second reflected light W A, detects the W E (S208).
【0087】奥行き算出部66は、第1の反射光の強度
WA、第2の反射光の強度WEの半分の値WDの比WA
/WDを求め(S212)、第1、第2の照射光の強度
I1、I2、第1、第2の照射光の放射位置間隔L、反
射光強度比WA/WDに基づいて、被写体までの距離を
算出する(S214)。[0087] Depth calculating unit 66, first reflected light intensity W A, the ratio W A half value W D intensity W E of the second reflected light
/ W obtains the D (S212), based on the first, the intensity of the second irradiation light I 1, I 2, first, the radiation position interval of the second illumination light L, the reflected light intensity ratio W A / W D Then, the distance to the subject is calculated (S214).
【0088】上記の説明では分光部30として、波長分
離して光路を分割する光学分割素子、たとえばプリズ
ム、ビームスプリッターを用いたが、分光部30とし
て、第1の実施形態と同様に、受光部40として単板の
固体撮像素子を用い、固体撮像素子の受光面に、光学フ
ィルター32を設けてもよい。光学フィルター32は、
波長λAのみを透過させるフィルターと、波長λB及び
λCを透過させるフィルターが交互に配置される。プリ
ズムやビームスプリッターを用いる場合と比べて、単板
の固体撮像素子に受光させるため、装置を小型化するこ
とができる。In the above description, an optical splitting element for splitting an optical path by wavelength separation, such as a prism or a beam splitter, is used as the light splitting unit 30, but the light receiving unit is used as the light splitting unit 30 as in the first embodiment. A single-plate solid-state imaging device may be used as 40, and an optical filter 32 may be provided on the light receiving surface of the solid-state imaging device. The optical filter 32 is
Filters that transmit only the wavelength λ A and filters that transmit the wavelengths λ B and λ C are alternately arranged. Compared to the case where a prism or a beam splitter is used, a single solid-state imaging device receives light, so that the device can be downsized.
【0089】以上述べたように、本実施形態の画像撮像
装置によれば、第1の波長を主要な波長成分とする第1
の照射光と、第1の波長を中間に挟む第2、第3の波長
を主要な波長成分とする第2の照射光とを、光学的に異
なる放射位置から同時に被写体に照射し、被写体から得
られる反射光から、第1の波長を有する第1の反射光
と、第2及び第3の波長を有する第2の反射光とに分離
し、第1の反射光強度と、第2の反射光強度の半分の値
との比に基づいて被写体の奥行き距離を算出することが
できる。第2の反射光強度を半分にするだけで、第1の
波長を有する光を第2の照射光の放射位置から照射した
場合の仮の反射光強度を求めることができるため、非常
に簡便に被写体の奥行き距離を算出することができる。
また、被写体からの反射光を受光する固体撮像素子を2
板にすることができ、装置の小型化を図ることができ
る。As described above, according to the image pickup apparatus of the present embodiment, the first wavelength having the first wavelength as the main wavelength component is used.
And simultaneously irradiating the subject from the optically different radiation positions with the second irradiation light having the second and third wavelengths as main wavelength components sandwiching the first wavelength in the middle. The obtained reflected light is separated into a first reflected light having a first wavelength and a second reflected light having second and third wavelengths, and a first reflected light intensity and a second reflected light are obtained. The depth distance of the subject can be calculated based on the ratio to half the light intensity. Only by halving the intensity of the second reflected light, it is possible to obtain a temporary reflected light intensity when the light having the first wavelength is irradiated from the radiation position of the second irradiation light. The depth distance of the subject can be calculated.
Also, a solid-state imaging device that receives reflected light from a subject is provided with two
A plate can be used, and the size of the device can be reduced.
【0090】(実施形態3)本発明の第3の実施形態を
説明する。本実施形態の画像撮像装置は、第1の実施形
態の画像撮像装置と比較して、照射部100と撮像部1
20の一部の構成が異なるだけであるから、同一の構成
要素については説明を省略し、異なる構成要素について
のみ説明する。図20は、本実施形態の照射部100と
撮像部120の構成図である。本実施形態では、照射部
100の光源10A、10Bは赤外光源である。光学フ
ィルター12Aは赤外領域における波長λAの光を透過
し、光学フィルター12Bは、赤外領域における波長λ
B及び波長λCを有する光を透過する。照射部100
は、光源10Aの位置から赤外領域の波長λAの光と、
光源10Bの位置から赤外領域の波長λB及びλCを有
する光とを同時に物体2に照射する。物体2にはさらに
可視光領域の光、たとえば自然光や照明光が照射されて
いる。(Embodiment 3) A third embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment is different from the image capturing apparatus according to the first embodiment in that the irradiation unit 100 and the image capturing unit 1
Since only a part of 20 differs, the description of the same components will be omitted, and only different components will be described. FIG. 20 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. In the present embodiment, the light sources 10A and 10B of the irradiation unit 100 are infrared light sources. The optical filter 12A transmits light having a wavelength λ A in the infrared region, and the optical filter 12B transmits light having a wavelength λ A in the infrared region.
B and light having a wavelength λ C are transmitted. Irradiation unit 100
Is light at a wavelength λ A in the infrared region from the position of the light source 10A,
The object 2 is simultaneously irradiated with light having wavelengths λ B and λ C in the infrared region from the position of the light source 10B. The object 2 is further irradiated with light in the visible light region, for example, natural light or illumination light.
【0091】撮像部120の分光部30は、赤外領域の
波長λAを有する光と、赤外領域の波長λB及びλCを
有する光と、可視光領域の光とに波長分離して光路を分
割するプリズムである。受光部40A、40B、及び4
0Cは3板の固体撮像素子である。分光部30によっ
て、分光された波長λAを有する光は、受光部40A
に、波長λB及びλCを有する光は受光部40Bに、可
視光は受光部40Cにそれぞれ受光される。赤外領域の
反射光の撮影像がピンぼけしないように、受光部40
A、40Bはピントが合う位置にあらかじめ設定してお
く。受光部40A、40B、40Cに受光された光は、
電気信号に変換され、処理部60に入力される。The spectroscopic unit 30 of the image pickup unit 120 separates the wavelength into light having a wavelength λ A in the infrared region, light having the wavelengths λ B and λ C in the infrared region, and light in the visible light region. A prism that divides the optical path. Light receiving units 40A, 40B, and 4
0C is a three-plate solid-state imaging device. By the spectroscopic unit 30, light having a spectral wavelength lambda A is the light receiving portion 40A
The light having the wavelengths λ B and λ C is received by the light receiving unit 40B, and the visible light is received by the light receiving unit 40C. The light receiving unit 40 is provided so that the captured image of the reflected light in the infrared region is not out of focus.
A and 40B are set in advance at the positions where focus is achieved. The light received by the light receiving units 40A, 40B, and 40C is
The signal is converted into an electric signal and input to the processing unit 60.
【0092】図21は、本実施形態の処理部60の構成
図である。各受光部40A、40Bが出力する被写体像
は、それぞれ画像メモリ62A、62Bに格納される。
光強度検出部64は各画像メモリ62A、62Bに格納
された画像データを用いて、反射光の強度を検出し、奥
行き算出部66は、光強度検出部64が検出した反射光
の強度を用いて、光源10Aから物体2の領域4までの
距離R1を求める。光強度検出部64と奥行き算出部6
6の動作は、第2の実施形態と同様であるから、説明を
省略する。奥行き算出部66は撮像された画像の画素ま
たは画素の領域単位で、画素または画素領域に写された
被写体の領域までの奥行き距離を算出し、被写体の奥行
き分布を求め、出力する。記録部68は被写体の奥行き
分布情報を記録する。さらに、受光部40Cが出力する
被写体像は画像メモリ62Cに格納される。画像補正部
67は、画像メモリ62に格納された画像データに対し
て、階調補正等の画像補正を行い、被写体の画像データ
として出力し、記録部68は被写体の画像データを被写
体の奥行き分布情報とともに記録する。FIG. 21 is a configuration diagram of the processing section 60 of the present embodiment. The subject images output from the light receiving units 40A and 40B are stored in the image memories 62A and 62B, respectively.
The light intensity detector 64 detects the intensity of the reflected light using the image data stored in each of the image memories 62A and 62B, and the depth calculator 66 uses the intensity of the reflected light detected by the light intensity detector 64. Thus, the distance R1 from the light source 10A to the area 4 of the object 2 is obtained. Light intensity detector 64 and depth calculator 6
The operation of No. 6 is the same as that of the second embodiment, and the description is omitted. The depth calculation unit 66 calculates a depth distance to a pixel or a region of a subject in a pixel region of a captured image, and obtains and outputs a depth distribution of the subject. The recording unit 68 records depth distribution information of the subject. Further, the subject image output by the light receiving unit 40C is stored in the image memory 62C. The image correction unit 67 performs image correction such as gradation correction on the image data stored in the image memory 62 and outputs the image data as subject image data. The recording unit 68 converts the subject image data into the depth distribution of the subject. Record with information.
【0093】上記では、波長λB及びλCを有する反射
光を分離せずに、受光部40Bに受光させたが、受光部
40として、4板の固体撮像素子を用いて、分光部30
によって波長λBを有する反射光と波長λCを有する反
射光とを分離させて、異なる固体撮像素子にそれぞれの
反射光を受光させてもよい。その場合、第1の実施形態
と同様の方法で、波長λA、λB、λCのそれぞれの反
射光の強度を用いて、被写体の奥行き距離を求めること
ができる。In the above description, the reflected light having the wavelengths λ B and λ C was received by the light receiving section 40B without being separated.
Thus, the reflected light having the wavelength λ B and the reflected light having the wavelength λ C may be separated, and different solid-state imaging devices may receive the respective reflected lights. In that case, in the same manner as in the first embodiment, the depth distance of the subject can be obtained by using the intensities of the reflected lights of the wavelengths λ A , λ B , and λ C.
【0094】以上述べたように、本実施形態の画像撮像
装置によれば、被写体の奥行き距離測定には赤外光を用
いるため、被写体に自然光や照明光が照射された自然な
条件のもとでも、被写体の奥行き距離を測定することが
できる。したがって、被写体の奥行き距離測定のため
に、部屋を暗室にする必要がない。また、可視光領域の
反射光を分離させて撮像することができるため、被写体
の奥行き分布を測定すると同時に、被写体の画像を撮影
することができる。撮影された被写体の画像から奥行き
分布に基づいて、主要被写体を抽出したり、背景と人物
像を分離するなど、被写体の奥行き分布を用いた、被写
体の画像処理が可能である。As described above, according to the image pickup apparatus of the present embodiment, since infrared light is used for measuring the depth distance of a subject, the subject is exposed to natural light or natural light when the subject is irradiated with illumination light. However, the depth distance of the subject can be measured. Therefore, it is not necessary to make the room a dark room for measuring the depth distance of the subject. Further, since the reflected light in the visible light region can be imaged while being separated, the image of the subject can be photographed at the same time as measuring the depth distribution of the subject. It is possible to perform image processing of a subject using the depth distribution of the subject, such as extracting a main subject from a captured image of the subject based on the depth distribution, and separating a background and a human image.
【0095】(実施形態4)本発明の第4の実施形態を
説明する。本実施形態の画像撮像装置は、第1、第2、
第3の実施形態の画像撮像装置と比較して、照射部10
0と撮像部120の光軸を同一にするために、ハーフミ
ラー17と18を用いた点だけが異なる。図22は、本
実施形態の照射部100と撮像部120の構成図であ
る。第1の実施形態において、ハーフミラー17と18
を用いた例を示すが、第2、第3の実施形態においても
同様の構成を取ることができる。照射部100の光源1
0Aと10Bの放射位置は距離Lだけ離れており、光源
10Bからの照射光はハーフミラー17に反射し、さら
にハーフミラー18に反射して、物体2に照射される。
光源10Aからの照射光はハーフミラー17を通過し、
ハーフミラー18に反射して、物体2に照射される。被
写体からの反射光はハーフミラー18と通過し、撮像部
120の光学レンズ20によって結像される。(Embodiment 4) A fourth embodiment of the present invention will be described. The image capturing apparatus according to the present embodiment includes first, second,
The irradiation unit 10 is different from the image pickup apparatus according to the third embodiment.
The only difference is that the half mirrors 17 and 18 are used in order to make the optical axis of the imaging unit 120 the same as that of 0. FIG. 22 is a configuration diagram of the irradiation unit 100 and the imaging unit 120 of the present embodiment. In the first embodiment, the half mirrors 17 and 18
Although an example using is described, a similar configuration can be adopted in the second and third embodiments. Light source 1 of irradiation unit 100
The radiation positions of 0A and 10B are separated by a distance L, and the irradiation light from the light source 10B is reflected on the half mirror 17, further reflected on the half mirror 18, and irradiated on the object 2.
The irradiation light from the light source 10A passes through the half mirror 17,
The light is reflected on the half mirror 18 and is irradiated on the object 2. The reflected light from the subject passes through the half mirror 18 and is imaged by the optical lens 20 of the imaging unit 120.
【0096】本実施形態では、照射部100と撮像部1
20の光軸が光学的に同軸であるため、照射部100に
よって照射された被写体を撮像部120が撮影する際、
影になって撮影できない領域が生じることがない。した
がって照射された被写体の全領域の奥行き分布を算出す
ることができ、奥行き距離を算出できない死角が生じる
ことはない。また、照射部100と撮像部120の光軸
を同軸にすることにより、画像撮像装置200全体を小
型化することができる。In this embodiment, the irradiation unit 100 and the imaging unit 1
Since the optical axis of 20 is optically coaxial, when the imaging unit 120 captures a subject illuminated by the illumination unit 100,
There is no shadowed area that cannot be captured. Therefore, the depth distribution of the entire illuminated subject can be calculated, and there is no occurrence of a blind spot where the depth distance cannot be calculated. In addition, by making the optical axis of the irradiation unit 100 and that of the imaging unit 120 coaxial, the size of the entire imaging device 200 can be reduced.
【0097】(実施形態5)図23は、本発明の実施形
態5にかかる原理説明図である。照射位置112及び照
射位置114から、それぞれ強度P1,P2の光を物体
120に照射し、物体120によるそれぞれの光の反射
光をカメラ110で撮像する。カメラ110は、例えば
電荷結合素子(CCD)であって、複数の画素を有し、
各画素単位で物体120の被測定部122及び砒素区手
部の近傍124からの反射光を撮影し、画素毎にそれぞ
れの強度を検出する。カメラ110で撮像した反射光に
基づいて物体120の被測定部122までの距離L、被
測定部122の表面の傾きθ0及び、被測定部122の
表面の反射率RObjを算出する。照射位置(112,
114)は、任意の位置に配置されてよい。照射位置
(112,114)から物体120に照射される光の照
射角のうち、いずれかを算出するが、本例においては、
カメラ110を、照射位置(112,114)のいずれ
か一つと光学的に同じ位置に配置し、カメラ110が撮
像する反射光の入射角に基づいて物体120に照射され
る光の照射角を算出する。本例においては、照射位置1
12とカメラ110を光学的に同じ位置に配置した場合
について説明する。(Fifth Embodiment) FIG. 23 is a view for explaining the principle according to a fifth embodiment of the present invention. Lights of the intensities P1 and P2 are emitted to the object 120 from the irradiation positions 112 and 114, respectively, and reflected light of each light by the object 120 is imaged by the camera 110. The camera 110 is, for example, a charge-coupled device (CCD) and has a plurality of pixels.
The reflected light from the measured portion 122 of the object 120 and the vicinity 124 of the arsenic separated portion of the object 120 are photographed for each pixel, and the intensity is detected for each pixel. Based on the reflected light captured by the camera 110, the distance L of the object 120 to the measured portion 122, the inclination θ 0 of the surface of the measured portion 122, and the reflectance R Obj of the surface of the measured portion 122 are calculated. Irradiation position (112,
114) may be located at any position. Either of the irradiation angles of the light irradiated from the irradiation positions (112, 114) to the object 120 is calculated.
The camera 110 is arranged at an optically same position as any one of the irradiation positions (112, 114), and calculates the irradiation angle of the light irradiated on the object 120 based on the incident angle of the reflected light captured by the camera 110. I do. In this example, the irradiation position 1
The case where the camera 12 and the camera 110 are optically arranged at the same position will be described.
【0098】図23に示すように、照射位置114は、
照射位置112からL12離れた位置に配置される。距
離L12は、計測系固有の既知の値である。また、照射
位置(112,114)から物体120の被測定部12
2に光を照射する角度をそれぞれθ1、θ2とし、照射
位置(112,114)から物体120の被測定部の近
傍124に光を照射する角度をそれぞれθ1’、θ2’
とする。また、カメラ110は、照射位置112と光学
的に同じ位置に配置されているので、被測定部122か
らの反射光を受光する角度をθC、被測定部の近傍12
4からの反射光を受光する角度をθC’とした場合、θ
C=θ1、θC’=θ1’である。また、照射位置11
2から被測定部122までの距離をそれぞれL1、被測
定部の近傍124までの距離をL1’とし、照射位置1
14から被測定部までの距離をL 2、被測定部の近傍1
24までの距離をL2’とする。As shown in FIG. 23, the irradiation position 114 is
L from irradiation position 11212It is placed at a remote location. Distance
Release L12Is a known value specific to the measurement system. Also irradiation
The position to be measured 12 of the object 120 from the position (112, 114)
2 is the angle at which light is irradiated1, Θ2And irradiation
From the position (112, 114) near the measured part of the object 120
The angle at which the side 124 is irradiated with light is θ1’, Θ2’
And In addition, the camera 110 is optically
Is located at the same position,
The angle at which the reflected light is received is θC, Near the part to be measured 12
Θ is the angle at which the reflected light fromC’, Θ
C= Θ1, ΘC’= Θ1’. The irradiation position 11
The distance from 2 to the measured part 122 is L1, Measured
The distance to the neighborhood 124 of the fixed part is L1’And irradiation position 1
The distance from 14 to the part to be measured is L 2, Near the part to be measured 1
L to the distance to 242’.
【0099】照射位置(112,114)から照射され
た光の、被測定部122からの反射光の強度をそれぞれ
D1、D2とすると、D1、D2は次のように与えられ
る。Assuming that the intensities of the light emitted from the irradiation positions (112, 114) from the portion to be measured 122 are D 1 and D 2 , D 1 and D 2 are given as follows.
【0100】[0100]
【数1】 すなわち、(Equation 1) That is,
【数2】 となる。(Equation 2) Becomes
【0101】また、Also,
【数3】 であるので、(Equation 3) So that
【数4】 となる。また、(Equation 4) Becomes Also,
【0102】[0102]
【数5】 であり、L12、θ1は既知の値であるので、θ2はL
の関数で与えられる。すなわち、(Equation 5) Since L 12 and θ 1 are known values, θ 2 is L
Given by That is,
【0103】[0103]
【数6】 となる。よって、(Equation 6) Becomes Therefore,
【0104】[0104]
【数7】 となる。ここで、D1、D2、P1、P2、θ1は、計
測値又は既知の値であるので、上の式の未知数はθ0及
びLの2つである。したがって上の条件を満たす
(θ0、L)の組み合わせを求めることができる。すな
わち、被測定部122までの距離Lを仮定した場合、仮
定した距離Lに対応する被測定部の面傾きθ0を算出す
ることができる。また、被測定部の近傍124について
も、同様に被測定部の近傍124までの距離L’と被測
定部の近傍124の面傾きθ0’の組み合わせを求める
ことができる。(Equation 7) Becomes Here, D1, D 2, P 1 , P 2, θ 1 , so is the measurement value or known values, unknowns above formula are two of theta 0 and L. Therefore, a combination of (θ 0 , L) satisfying the above condition can be obtained. That is, when the distance L to the measured portion 122 is assumed, the surface inclination θ 0 of the measured portion corresponding to the assumed distance L can be calculated. Similarly, for the vicinity 124 of the measured portion, a combination of the distance L 'to the measured portion vicinity 124 and the surface inclination θ 0 ′ of the measured portion vicinity 124 can be obtained.
【0105】本発明は、物体120の被測定部122ま
での距離Lと被測定部122の面傾きθ0との組み合わ
せと、物体120の被測定部の近傍124までの距離
L’と被測定部の近傍124の面傾きθ0’との組み合
わせに基づいて、被測定部122までの距離L及び面傾
きθ0を算出する。以下、算出方法について詳細に説明
する。The present invention relates to a combination of the distance L of the object 120 to the measured portion 122 and the surface inclination θ 0 of the measured portion 122, the distance L ′ of the object 120 to the vicinity 124 of the measured portion, and the measured value The distance L to the part to be measured 122 and the plane inclination θ 0 are calculated based on the combination with the plane inclination θ 0 ′ of the vicinity 124 of the section. Hereinafter, the calculation method will be described in detail.
【0106】図24は、被測定部122までの距離L、
被測定部122の面傾きθ0を算出する方法の一例の説
明図である。まず、被測定部122までの距離LをLa
と仮定する。図23に関連して説明した数式に基づい
て、仮定した距離Laに対応する被測定部122の面傾
きθ0を算出する。次に、算出した面傾きθ0によって
定まる被測定部122の面を延長し、被測定部の近傍1
24からの反射光の光路と交わる点に、被測定部の近傍
124が存在すると仮定した場合の被測定部の近傍12
4までの仮の距離Lbを算出する。このとき被測定部の
近傍124までの仮の距離Lbは、カメラ110と被測
定部122までの仮の距離La、被測定部122からの
反射光の入射角θ1、被測定部の近傍124からの反射
光の入射角θ1’及び、被測定部122の面傾きθ0に
基づいて幾何的に算出することができる。FIG. 24 shows the distance L to the measured portion 122,
Is an illustration of an example of a method of calculating the surface inclination theta 0 of the measured portion 122. First, the distance L to the measured part 122 is La
Assume that Based on the equations described in connection with FIG. 23, it calculates the surface inclination theta 0 of the measured portion 122 corresponding to the assumed distance La. Next, the surface of the measured part 122 determined by the calculated plane inclination θ 0 is extended,
Assuming that the vicinity 124 of the measured part exists at the point where the optical path of the reflected light from the light source 24 intersects, the vicinity 12 of the measured part
The temporary distance Lb up to 4 is calculated. At this time, the tentative distance Lb to the vicinity 124 of the measured part is the tentative distance La between the camera 110 and the measured part 122, the incident angle θ 1 of the reflected light from the measured part 122, and the vicinity 124 of the measured part. Can be geometrically calculated based on the incident angle θ 1 ′ of the reflected light from the object and the surface inclination θ 0 of the measured portion 122.
【0107】次に、算出した仮の距離Lbに対応する、
被測定部の近傍124の面傾きθ0’を算出する。面傾
きθ0’は、図23に関連して説明した数式により算出
することができる。物体120の被測定部122と被測
定部の近傍124との間隔は、微小であるので、被測定
部122と被測定部の近傍124の面傾きはほぼ同一と
なる。したがって、算出した面傾きθ0とθ0’とを比
較することにより、最初に仮定した被測定部122まで
の距離Laが正しい値であるかを判定することができ
る。すなわち、面傾きθ0とθ0’との差が所定の範囲
内であれば、仮定した距離Laを被測定部122までの
距離Lとすることができる。Next, corresponding to the calculated temporary distance Lb,
The plane inclination θ 0 ′ in the vicinity 124 of the measured part is calculated. The plane inclination θ 0 ′ can be calculated by the mathematical expression described with reference to FIG. Since the distance between the measured portion 122 of the object 120 and the vicinity 124 of the measured portion is very small, the surface inclination of the measured portion 122 and the vicinity 124 of the measured portion are substantially the same. Therefore, by comparing the calculated plane inclination θ 0 and θ 0 ′, it is possible to determine whether the initially assumed distance La to the measured portion 122 is a correct value. That is, if the difference between the plane inclinations θ 0 and θ 0 ′ is within a predetermined range, the assumed distance La can be set as the distance L to the measured portion 122.
【0108】また、面傾きθ0とθ0’との差が所定の
範囲内に無い場合は、最初に仮定した距離Laの設定に
誤りがあったとして、被測定部122までの距離Lを他
の値に設定して同様の計算を行えばよい。図23に関連
して説明した数式を満たす、被測定部122までの距離
Lが、上限値を有することは明らかであり、下限値は零
であるので、仮の距離Laについて、有限の範囲におい
て調べればよい。例えば、有限の範囲の距離Laについ
て2分探索法によって、被測定部122までの真の距離
Lを抽出してよい。また、仮の距離Laについて、有限
の範囲で所定の距離間隔でθ0、θ0’の差を算出し、
真の距離Lを抽出してもよい。また、仮の距離Laにつ
いて、複数の値についてθ0、θ0’の差を算出し、差
が最小となる仮の距離Laを真の距離Lとしてもよい。
また、被測定部の面傾き情報は、被測定部までの距離情
報に基づいて、図23に関連して説明した数式によって
算出することができる。また、図23に関連して説明し
た数式によって被測定部の表面反射率情報も算出するこ
とができる。If the difference between the plane inclinations θ 0 and θ 0 ′ is not within the predetermined range, it is determined that there is an error in setting the initially assumed distance La, and the distance L to the measured part 122 is determined. Similar calculations may be performed by setting other values. It is clear that the distance L to the measured portion 122, which satisfies the mathematical expression described with reference to FIG. 23, has an upper limit and the lower limit is zero. Just check it. For example, the true distance L to the measured part 122 may be extracted by a binary search method for the distance La in a finite range. Further, for the temporary distance La, a difference between θ 0 and θ 0 ′ is calculated at predetermined distance intervals in a finite range,
The true distance L may be extracted. In addition, for the temporary distance La, a difference between θ 0 and θ 0 ′ may be calculated for a plurality of values, and the temporary distance La that minimizes the difference may be set as the true distance L.
The surface inclination information of the measured portion can be calculated based on the distance information to the measured portion, using the mathematical formula described with reference to FIG. In addition, the surface reflectance information of the measured portion can be calculated by the mathematical expression described with reference to FIG.
【0109】図25は、仮の距離Laについての所定の
範囲で所定の距離間隔で、面傾きθ 0及び面傾きθ0’
を算出した結果の一例を示す。図25のグラフにおい
て、横軸は、被測定部122までの仮の距離Laを示
し、縦軸は被測定部122及び被測定部の近傍124の
面傾きを示す。本例において、物体120の被測定部1
22までの距離Lを200mm、被測定部122の面傾
きを0度とした。また、照射位置112と照射位置11
4との距離を10mm、θ1を20度、仮の距離Laの
間隔を10mmとして計算を行った。FIG. 25 is a graph showing a predetermined distance La for the provisional distance La.
Surface inclination θ at a predetermined distance interval in the range 0And surface inclination θ0’
An example of the result of calculating is shown. In the graph of Figure 25
The horizontal axis indicates the temporary distance La to the measured part 122.
The vertical axis represents the measured part 122 and the vicinity 124 of the measured part.
Indicates the surface inclination. In the present example, the measured part 1 of the object 120
The distance L up to 22 is 200 mm,
Is 0 degree. The irradiation position 112 and the irradiation position 11
10 mm, θ120 degrees, the provisional distance La
The calculation was performed with an interval of 10 mm.
【0110】データ192は、横軸に示される仮の距離
Laに対応する被測定部122の面傾きを示し、データ
194は、被測定部の近傍124の面傾きを示す。仮の
距離200mmにおいて、被測定部122及び被測定部
の近傍124の面傾きが0度で一致する。Data 192 indicates the surface inclination of the measured portion 122 corresponding to the provisional distance La shown on the horizontal axis, and data 194 indicates the surface inclination of the vicinity 124 of the measured portion. At the provisional distance of 200 mm, the surface inclination of the measured portion 122 and the vicinity 124 of the measured portion coincide at 0 degree.
【0111】(実施形態6)図26は、物体までの距離
情報等を獲得する情報獲得方法の原理説明図である。照
射位置212、照射位置214、照射位置216から、
それぞれ強度P1,P2,P3の光を物体220に照射
し、物体220によるそれぞれの光の反射光をカメラ2
10で撮像する。カメラ210は、例えば電荷結合素子
(CCD)であって、複数の画素を有し、各画素単位で
物体220の被照射部224からの反射光を撮影し、画
素毎にそれぞれの強度を検出する。カメラ210で撮像
した反射光に基づいて物体220の被照射部224まで
の距離L、被照射部224の表面の傾きθ0及び、被照
射部224の表面の反射率RObjを算出する。照射位
置(212,214,216)及び、カメラ210は、
任意の位置に配置されてよいが、本例においては、照射
位置212,照射位置216、カメラ210を一直線上
に配置した場合について説明する。(Embodiment 6) FIG. 26 is a view for explaining the principle of an information acquiring method for acquiring information on a distance to an object and the like. From the irradiation position 212, the irradiation position 214, and the irradiation position 216,
The object 220 is irradiated with light having the intensities P1, P2, and P3, and the reflected light of each light by the object 220 is reflected on the camera 2
An image is taken at 10. The camera 210 is, for example, a charge-coupled device (CCD), has a plurality of pixels, captures reflected light from the irradiated portion 224 of the object 220 for each pixel, and detects the intensity of each pixel. . Based on the reflected light captured by the camera 210, the distance L to the irradiated part 224 of the object 220, the inclination θ 0 of the surface of the irradiated part 224, and the reflectance R Obj of the surface of the irradiated part 224 are calculated. The irradiation positions (212, 214, 216) and the camera 210
Although it may be arranged at an arbitrary position, in this example, a case where the irradiation position 212, the irradiation position 216, and the camera 210 are arranged on a straight line will be described.
【0112】図26に示すように、照射位置216は、
照射位置212からL12離れた位置に、照射位置21
4は、照射位置212からL23離れた位置に、カメラ
210は照射位置212からX離れた位置に配置され
る。距離L12、L23、Xは、計測系固有の既知の値
である。また、照射位置(212,214,216)
が、物体220の被照射部224に、光を照射する角度
をそれぞれθ1、θ2、θ 3とし、カメラ210が、被
照射部224における反射光を受光する角度をθCとす
る。このうち、θCは、カメラ210の画素毎に撮影さ
れた反射光に基づいて算出される。また、照射位置(2
12,214,216)から被照射部224までの距離
をそれぞれL1、L2、L3とする。As shown in FIG. 26, the irradiation position 216 is
L from irradiation position 21212The irradiation position 21
4 is L from the irradiation position 21223Camera at a distance
210 is located at a position X away from the irradiation position 212
You. Distance L12, L23, X are known values specific to the measurement system
It is. The irradiation position (212, 214, 216)
Is the angle at which the irradiated part 224 of the object 220 is irradiated with light.
To θ1, Θ2, Θ 3Camera 210
The angle at which the reflected light at the irradiation unit 224 is received is θCToss
You. Of these, θCIs taken for each pixel of the camera 210
It is calculated based on the reflected light obtained. In addition, the irradiation position (2
12, 214, 216) to the irradiated part 224
Is L1, L2, L3And
【0113】照射位置(212,214,216)から
照射された光の、被照射部224における反射光の強度
をそれぞれD1、D2、D3とすると、D1、D2、D
3は、次のように与えられる。[0113] The light emitted from the irradiation position (212, 214, 216), when D 1, D 2, D 3 respectively the intensity of the reflected light at the irradiated portion 224, D 1, D 2, D
3 is given as follows.
【0114】[0114]
【数8】 すなわち、(Equation 8) That is,
【数9】 ただし、f( )は関数とする。また、(Equation 9) Here, f () is a function. Also,
【0115】[0115]
【数10】 であるので、(Equation 10) So that
【数11】 となる。また、[Equation 11] Becomes Also,
【0116】[0116]
【数12】 であり、X、L12、θCは既知の値であるので、
θ1、θ2、θ3はそれぞれLの関数で与えられる。す
なわち、(Equation 12) Since X, L 12 and θ C are known values,
θ 1 , θ 2 , and θ 3 are each given by a function of L. That is,
【0117】[0117]
【数13】 となる。よって、(Equation 13) Becomes Therefore,
【0118】[0118]
【数14】 となる。D1、D2、D3、θC、P1、P2、P
3は、計測値又は既知の値であるので、上の2式から、
未知数θ0、Lを求めることができる。また、θ0が求
まれば、D1、D2、D3のいずれかの式からRobj
を求めることができる。以上より、光学的に異なる3点
以上の照射位置から照射した光の、物体による反射光を
それぞれ撮像することにより、物体までの距離情報、物
体の表面の傾き情報及び、物体の表面の反射率情報を算
出することができる。[Equation 14] Becomes D 1 , D 2 , D 3, θ C , P 1 , P 2 , P
Since 3 is a measured value or a known value, from the above two equations,
The unknowns θ 0 and L can be obtained. Also, if θ 0 is obtained, R obj can be calculated from any of D 1 , D 2 , and D 3.
Can be requested. As described above, by imaging the reflected light from the object of light emitted from three or more optically different irradiation positions, distance information to the object, inclination information of the surface of the object, and reflectance of the surface of the object are obtained. Information can be calculated.
【0119】本例においては、照射位置212、照射位
置216、カメラ210を一直線上に配置したが、各要
素間の距離がわかっていれば、反射光により、物体まで
の距離情報、物体の表面の傾き情報及び、物体の表面の
反射率情報を算出できることは明らかである。In this example, the irradiation position 212, the irradiation position 216, and the camera 210 are arranged in a straight line. However, if the distance between the elements is known, the distance information to the object and the surface of the object can be obtained by reflected light. It is clear that the inclination information and the reflectance information of the surface of the object can be calculated.
【0120】以上説明した情報獲得方法によれば、物体
220の表面の傾き等による誤差を無くし、物体220
までの距離情報を獲得することができる。また、物体2
20の表面の傾き情報、物体220の表面の反射率情報
を獲得することができる。According to the information acquisition method described above, errors due to the inclination of the surface of the object 220 are eliminated,
You can obtain distance information up to. Also, object 2
It is possible to acquire the inclination information of the surface of the object 20 and the reflectance information of the surface of the object 220.
【0121】ただし、照射位置(212,214,21
6)が一直線上に配置されている場合は、図26に関連
して説明した方法では、物体までの距離情報等を算出す
ることができない。以下、照射位置(212,214,
216)が一直線上に配置されている場合において、物
体までの距離情報、物体の表面の傾き情報及び、物体表
面の反射率情報の獲得方法について説明する。However, the irradiation positions (212, 214, 21
When 6) is arranged on a straight line, distance information to the object cannot be calculated by the method described with reference to FIG. Hereinafter, the irradiation positions (212, 214,
The method of acquiring distance information to the object, information on the inclination of the surface of the object, and information on the reflectance of the object surface when (216) is arranged on a straight line will be described.
【0122】図27は、照射位置が一直線上に配置され
た場合の、物体までの距離情報等を獲得する情報獲得方
法の説明図である。照射位置212、照射位置214、
照射位置216から、それぞれ強度P1,P2,P3の
光を物体220に照射し、物体220によるそれぞれの
光の反射光をカメラ210で撮像する。FIG. 27 is an explanatory diagram of an information acquisition method for acquiring distance information to an object and the like when the irradiation positions are arranged on a straight line. Irradiation position 212, irradiation position 214,
The object 220 is irradiated with light having the intensities P1, P2, and P3 from the irradiation position 216, and the camera 210 captures the reflected light of the light from the object 220.
【0123】図27に示すように、照射位置216は、
照射位置212からL13離れた位置に、照射位置21
4は、照射位置212からL12離れた位置に、カメラ
210は照射位置212と実質的に同位置に配置され
る。距離L12、L13は、計測系固有の既知の値であ
る。また、照射位置(212,214,216)が、物
体220の被照射部224に、光を照射する角度をそれ
ぞれθ1、θ2、θ3とし、カメラ210が、被照射部
224における反射光を受光する角度をθCとする。こ
のうち、θCは、カメラ210の画素毎に撮影された反
射光に基づいて算出される。本例においては、カメラ2
10が照射位置212と同一の位置に配置されているの
でθC=θ1である。また、照射位置(212,21
4,216)から被照射部224までの距離をそれぞれ
L1、L2、L3とする。As shown in FIG. 27, the irradiation position 216 is
The irradiation position 21 is located at a position L 13 away from the irradiation position 212.
Reference numeral 4 denotes a position L 12 away from the irradiation position 212, and the camera 210 is disposed substantially at the same position as the irradiation position 212. The distances L 12 and L 13 are known values unique to the measurement system. Further, the irradiation positions (212, 214, 216) are such that the angles of irradiating the irradiated portion 224 of the object 220 with light are θ 1 , θ 2 , and θ 3 , respectively, the angle at which the light is referred to as θ C. Of these, θ C is calculated based on the reflected light captured for each pixel of the camera 210. In this example, the camera 2
Since 10 is located at the same position as the irradiation position 212 is θ C = θ 1. The irradiation position (212, 21)
4, 216) to the irradiated portion 224 are denoted by L 1 , L 2 , and L 3 , respectively.
【0124】照射位置(212,214,216)から
照射された光の、被照射部224における反射光の強度
をそれぞれD1、D2、D3とすると、D1、D2、D
3は、次のように与えられる。Assuming that the intensities of the light emitted from the irradiation positions (212, 214, 216) at the irradiated portion 224 are D 1 , D 2 , and D 3 , respectively, D 1 , D 2 , D
3 is given as follows.
【0125】[0125]
【数15】 すなわち、(Equation 15) That is,
【数16】 である。また、(Equation 16) It is. Also,
【0126】[0126]
【数17】 であるので、[Equation 17] So that
【数18】 となる。また、(Equation 18) Becomes Also,
【0127】[0127]
【数19】 であり、θ1はθCと等しく、L12、L13、θCは
既知であるのでθ2、θ 3はLの関数で与えられる。す
なわち、[Equation 19]And θ1Is θCEqual to L12, L13, ΘCIs
Since it is known, θ2, Θ 3Is given by a function of L. You
That is,
【0128】[0128]
【数20】 となる。よって、(Equation 20) Becomes Therefore,
【0129】[0129]
【数21】 となる。D1、D2、D3、θC、P1、P2、P
3は、計測値又は既知の値であるので、上の2式から、
未知数θ0、Lを求めることができる。また、θ0が求
まれば、D1、D2、D3のいずれかの式からRobj
を求めることができる。以上より、光学的に一直線上に
ある3点の照射位置から照射した光の、物体220によ
る反射光を、3点の照射位置のいずれか一つと光学的に
同位置でそれぞれ撮像することにより、物体までの距離
情報、物体の表面の傾き情報及び、物体の表面の反射率
情報を算出することができる。本例においては、照射位
置212とカメラ210の位置を実質的に同一とした
が、θ1、θ2、θ3のいずれかとθCを同一とすれば
よいので、照射位置214又は照射位置216のいずれ
かと、カメラ210の位置を実質的に同一としてもよい
ことは明らかである。(Equation 21) Becomes D 1 , D 2 , D 3, θ C , P 1 , P 2 , P
Since 3 is a measured value or a known value, from the above two equations,
The unknowns θ 0 and L can be obtained. Also, if θ 0 is obtained, R obj can be calculated from any of D 1 , D 2 , and D 3.
Can be requested. From the above, the reflected light from the object 220 of the light irradiated from the three irradiation positions that are optically on a straight line is imaged at the same optical position as any one of the three irradiation positions. The distance information to the object, the inclination information of the surface of the object, and the reflectance information of the surface of the object can be calculated. In the present example, it has been substantially the same the position of the irradiation position 212 and the camera 210, theta 1, theta 2, since theta 3 either with a theta C may be the same, the irradiation position 214 or the irradiation position 216 Obviously, the position of the camera 210 may be substantially the same as any one of the above.
【0130】図27に関連して説明した情報獲得方法で
は、カメラ210と照射位置(212,214,21
6)のいずれかとの光軸が光学的に同軸であるため、照
射位置(212,214,216)から照射された物体
220をカメラ210が撮像する際、影になって撮像で
きない領域を少なくすることができる。また、カメラ2
10と照射位置(212,214,216)のいずれか
との位置が実質的に同じとすることで、カメラ210と
照射位置との距離を予め調べる必要が無く、また、カメ
ラ210と照射位置との距離測定における誤差を無くす
ことができる。In the information acquisition method described with reference to FIG. 27, the camera 210 and the irradiation position (212, 214, 21)
Since the optical axis with any of 6) is optically coaxial, when the camera 210 captures an image of the object 220 irradiated from the irradiation position (212, 214, 216), the area that becomes a shadow and cannot be captured is reduced. be able to. Also, camera 2
By making the position of 10 and one of the irradiation positions (212, 214, 216) substantially the same, there is no need to check the distance between the camera 210 and the irradiation position in advance, and the distance between the camera 210 and the irradiation position is not required. An error in distance measurement can be eliminated.
【0131】図26又は図27に関連して説明した情報
獲得方法においては、3点の照射位置から物体220に
光を照射したが、他の例においては、3点以上の照射位
置から物体220に光を照射してもよい。また、反射光
の強度に基づいて、物体220までの距離情報、物体2
20の表面の傾き情報及び、物体220の表面の反射率
情報を算出することが好ましい。また、カメラ210の
画素毎に、距離情報、傾き情報及び、反射率情報を算出
し、物体220の距離情報、傾き情報及び反射率情報の
分布を算出してもよい。In the information acquisition method described with reference to FIG. 26 or FIG. 27, the object 220 is irradiated with light from three irradiation positions. In other examples, the object 220 is irradiated from three or more irradiation positions. May be irradiated with light. Further, based on the intensity of the reflected light, distance information to the object 220, the object 2
It is preferable to calculate the inclination information of the surface of the object 20 and the reflectance information of the surface of the object 220. Further, the distance information, the inclination information, and the reflectance information may be calculated for each pixel of the camera 210, and the distribution of the distance information, the inclination information, and the reflectance information of the object 220 may be calculated.
【0132】また、図26又は図27に関連して説明し
た情報獲得方法において、3点の照射位置から照射され
る光は、それぞれ異なる波長を主要な波長成分とし、そ
れぞれの照射位置において、実質的に同時に物体220
に光を照射してもよい。このとき、カメラ210は、異
なる波長の光をそれぞれ選択的に透過させる波長選択手
段を有し、それぞれの照射位置から照射された光により
物体220からの反射光をそれぞれ撮像することが好ま
しい。異なる波長を主要な波長成分とする光を同時に物
体220に照射することにより、動きのある物体につい
ても、距離情報、傾き情報及び、反射率情報を精度よく
獲得することが可能となる。しかし、物体220の表面
の反射率は、光の波長によってことなるので、測定結果
に誤差が生じる。誤差を小さくするためには、波長によ
る反射率の違いを補正する必要がある。In the information acquisition method described with reference to FIG. 26 or FIG. 27, the light emitted from the three irradiation positions has different wavelengths as main wavelength components, and the light is substantially different at each irradiation position. Object 220 simultaneously
May be irradiated with light. At this time, it is preferable that the camera 210 has a wavelength selection unit that selectively transmits light of different wavelengths, and captures the reflected light from the object 220 with the light irradiated from each irradiation position. By simultaneously irradiating the object 220 with light having different wavelengths as main wavelength components, it is possible to accurately acquire distance information, tilt information, and reflectance information even for a moving object. However, since the reflectivity of the surface of the object 220 varies depending on the wavelength of light, an error occurs in the measurement result. In order to reduce the error, it is necessary to correct the difference in reflectance depending on the wavelength.
【0133】図28は、波長による物体220の表面の
反射率の違いを補正した情報獲得方法の説明図である。
一例として図28(a)に示すように、照射位置212
から照射された光の波長をλa、照射位置214から照
射された光の波長をλb及びλC、照射位置216から
照射された光の波長をλd、λeとする。また、照射位
置212から照射された光の強度をP1、照射位置21
4から照射された光の強度をP2、照射位置216から
照射された光の強度をP3とし、それぞれの波長毎の反
射光の強度をWa、Wb、Wc、Wd、Weとする。図
28(b)に示すように、照射位置214から強度P2
で照射された、波長λb、λcの光の反射光の強度
Wb、Wcに基づいて、照射位置214から強度P2で
波長λaの光が照射された場合の反射光の強度Wfを算
出する。本例においては、波長λb、λcに基づいて強
度Wfを算出しているが、他の例においては、さらに多
くの波長成分の反射光に基づいて強度Wfを算出しても
よい。同様に、図28(c)に示すように、照射位置2
16から強度P3で照射された、波長λd、λeの光の
反射光の強度Wd、Weに基づいて、照射位置214か
ら強度P3で波長λaの光が照射された場合の反射光の
強度Wgを算出する。算出された強度Wb、Wc、及び
検出された強度Waに基づいて物体220までの距離情
報、物体220の表面の傾き情報及び、物体220の表
面の反射率情報を算出する。上述した情報獲得方法によ
れば、3点の照射位置において同時に光を照射するの
で、動きのある物体に対しても、精度良く距離情報、傾
き情報、反射率情報を獲得することが可能となる。FIG. 28 is an explanatory diagram of an information acquisition method in which the difference in the reflectance of the surface of the object 220 due to the wavelength is corrected.
As an example, as shown in FIG.
Λ a , the wavelengths of the light radiated from the irradiation position 214 are λ b and λ C , and the wavelengths of the light radiated from the irradiation position 216 are λ d and λ e . Further, the intensity of light irradiated from the irradiation position 212 is P 1 , and the irradiation position 21 is
The intensity of light emitted from the 4 P 2, the intensity of light emitted from the irradiation position 216 and P 3, the intensity of the reflected light of each respective wavelength W a, W b, W c , W d, W e . As shown in FIG. 28B, the intensity P 2 from the irradiation position 214
Based on the intensities W b and W c of the reflected light of the wavelengths λ b and λ c illuminated with the light, the intensity of the reflected light when the light of the wavelength λ a is illuminated from the irradiation position 214 at the intensity P 2 to calculate the W f. In this example, the wavelength lambda b, but calculates the intensity W f based on the lambda c, in another example, it may calculate the intensity W f based further on the reflected light of a number of wavelength components . Similarly, as shown in FIG.
16 irradiated at an intensity P 3 from, based on the wavelength lambda d, the intensity of the reflected light of the light λ e W d, W e, if the light of wavelength lambda a in intensity P 3 from the irradiation position 214 is irradiated calculating the intensity W g of the reflected light. Calculated magnitude W b, W c, and the distance information to the object 220 based on the detected intensity W a, the inclination information of the surface of the object 220 and calculates the reflectivity information of the surface of the object 220. According to the above-described information acquisition method, since light is irradiated simultaneously at three irradiation positions, it is possible to accurately acquire distance information, inclination information, and reflectance information even for a moving object. .
【0134】図29は、本発明に係る情報獲得方法の一
例を示すフローチャートである。本実施例における情報
獲得方法は、照射段階(S200)、撮像段階(S20
2)及び、算出段階(S204)を備える。FIG. 29 is a flowchart showing an example of the information acquisition method according to the present invention. The information acquisition method in the present embodiment includes an irradiation step (S200) and an imaging step (S20).
2) and a calculation step (S204).
【0135】照射段階(S200)は、図26に関連し
て説明したように、光学的に異なる3点以上の照射位置
から、物体220に光を照射する。撮像段階(S20
2)は、3点以上の照射位置から照射された光による物
体からの反射光をそれぞれ撮像する。算出段階(S20
4)は、撮像段階によって撮像された反射光に基づい
て、物体220までの距離情報、物体220の表面の傾
き情報、物体220の表面の反射率情報を算出する。In the irradiation step (S200), as described with reference to FIG. 26, the object 220 is irradiated with light from three or more optically different irradiation positions. Imaging stage (S20
2) imaging the reflected light from the object by the light irradiated from three or more irradiation positions. Calculation step (S20
4) Calculate distance information to the object 220, inclination information of the surface of the object 220, and reflectance information of the surface of the object 220, based on the reflected light captured in the imaging step.
【0136】照射段階(S200)は、図27に関連し
て説明した情報獲得手段と同様に、光学的に一直線上に
ある3点の照射位置から物体220に光を照射し、ま
た、撮像段階(S202)は、3点以上の照射位置のい
ずれか一つと光学的に同位置で、3点以上の照射位置か
らの光の反射光をそれぞれ撮像してもよい。In the irradiating step (S200), the object 220 is irradiated with light from three optically irradiating positions, similarly to the information acquiring means described with reference to FIG. In (S202), the reflected light of light from the three or more irradiation positions may be imaged at the same optical position as any one of the three or more irradiation positions.
【0137】また、算出段階(S204)は、図26又
は図2に関連して説明したように、反射光の強度に基づ
いて物体220までの距離情報、物体220の表面の傾
き情報、物体220の表面の反射率情報を算出してもよ
い。また、照射段階(S200)は、光学的に三角形を
形成する3点の照射位置から、物体220に光を照射し
てもよい。In the calculation step (S204), as described with reference to FIG. 26 or FIG. 2, the distance information to the object 220, the inclination information of the surface of the object 220, the information May be calculated. In the irradiation step (S200), the object 220 may be irradiated with light from three irradiation positions that optically form a triangle.
【0138】また、照射段階(S200)は、図28に
関連して説明した情報獲得方法と同様に、それぞれの照
射位置において、異なる波長の光を物体220に照射
し、それぞれの照射位置において、実質的に同時に物体
220に光を照射してもよい。この場合、撮像段階(S
202)は、異なる波長の光のそれぞれを選択的に透過
させる波長選択手段を有し、それぞれの照射位置におけ
る光による物体220からの反射光をそれぞれ撮像する
ことが好ましい。In the irradiation step (S200), similarly to the information acquisition method described with reference to FIG. 28, light of a different wavelength is irradiated on the object 220 at each irradiation position. The object 220 may be irradiated with light substantially simultaneously. In this case, the imaging stage (S
202) preferably has wavelength selecting means for selectively transmitting each of light of different wavelengths, and preferably captures reflected light from the object 220 due to light at each irradiation position.
【0139】以上述べたように、本発明の画像撮像装置
及び距離測定方法によれば、異なる波長特性を有する光
を異なる放射位置から同時に被写体に照射し、被写体か
らの反射光を波長特性に合わせて光学的に分離し、強度
を測定することにより、被写体の奥行き距離を簡便に算
出することができる。As described above, according to the image pickup apparatus and the distance measuring method of the present invention, light having different wavelength characteristics is simultaneously radiated to the subject from different radiation positions, and reflected light from the subject is adjusted to the wavelength characteristics. By optically separating the subject and measuring the intensity, the depth distance of the subject can be easily calculated.
【0140】以上、本発明を実施の形態を用いて説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態に、多様な変更又
は改良を加えることができる。その様な変更又は改良を
加えた形態も本発明の技術的範囲に含まれ得ることが、
特許請求の範囲の記載から明らかである。As described above, the present invention has been described using the embodiments. However, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be added to the above embodiment. It should be noted that such modified or improved embodiments may be included in the technical scope of the present invention.
It is clear from the description of the claims.
【0141】そのような変更例として、上記の説明で
は、光が照射された被写体から得られる出射光の一例と
して反射光を撮像し、反射光の強度の違いから被写体ま
での距離を求めたが、被写体が光を透過する透明もしく
は半透明の物体である場合、被写体を透過した透過光の
強度の違いから被写体の奥行き距離を求めることもでき
る。As an example of such a modification, in the above description, reflected light is imaged as an example of emitted light obtained from a subject irradiated with light, and the distance to the subject is obtained from the difference in the intensity of the reflected light. When the subject is a transparent or translucent object that transmits light, the depth distance of the subject can be obtained from the difference in the intensity of the transmitted light that has passed through the subject.
【0142】[0142]
【発明の効果】上記説明から明らかなように、本発明に
よれば、光が照射された被写体から得られる出射光を撮
影することにより、被写体の奥行き距離を簡便に測定す
ることができる。As is apparent from the above description, according to the present invention, the depth of a subject can be easily measured by photographing the outgoing light obtained from the subject irradiated with the light.
【図1】 本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.
【図2】 第1の実施形態の画像撮像装置200の構成
図である。FIG. 2 is a configuration diagram of an image capturing apparatus 200 according to the first embodiment.
【図3】 第1の実施形態の照射部100と撮像部12
0の構成図である。FIG. 3 shows an irradiation unit 100 and an imaging unit 12 according to the first embodiment.
FIG.
【図4】 第1の実施形態の処理部60の構成図であ
る。FIG. 4 is a configuration diagram of a processing unit 60 according to the first embodiment.
【図5】 光強度検出部64と奥行き算出部66による
奥行き距離計算方法の説明図である。FIG. 5 is an explanatory diagram of a depth distance calculation method by a light intensity detection unit 64 and a depth calculation unit 66.
【図6】 補間によって仮の反射光の強度を求める方法
の説明図である。FIG. 6 is an explanatory diagram of a method of obtaining a temporary reflected light intensity by interpolation.
【図7】 外挿によって仮の反射光の強度を求める方法
の説明図である。FIG. 7 is an explanatory diagram of a method of obtaining temporary reflected light intensity by extrapolation.
【図8】 光源10A、10Bによるそれぞれの反射光
から仮の反射光強度を求める方法を説明する図である。FIG. 8 is a diagram for explaining a method of obtaining a provisional reflected light intensity from respective reflected lights from the light sources 10A and 10B.
【図9】 長波長または短波長の光のみを透過させるバ
ンドパスフィルターを用いて照射した場合の仮の反射光
強度を求める方法を説明する図である。FIG. 9 is a diagram for explaining a method of obtaining a provisional reflected light intensity when irradiation is performed using a band-pass filter that transmits only light of a long wavelength or a short wavelength.
【図10】 3種の物体の表面反射率を示す図である。FIG. 10 is a diagram showing the surface reflectance of three types of objects.
【図11】 受光部40に設けられる特定波長成分を透
過する光学フィルターを説明する図である。FIG. 11 is a diagram illustrating an optical filter provided in the light receiving unit 40 and transmitting a specific wavelength component.
【図12】 第1の実施形態の距離測定方法のフローチ
ャートである。FIG. 12 is a flowchart of a distance measuring method according to the first embodiment.
【図13】 奥行き距離算出処理S110のフローチャ
ートである。FIG. 13 is a flowchart of a depth distance calculation process S110.
【図14】 奥行き距離算出処理S110の変形例のフ
ローチャートである。FIG. 14 is a flowchart of a modified example of the depth distance calculation processing S110.
【図15】 第2の実施形態の照射部100と撮像部1
20の構成図である。FIG. 15 shows an irradiation unit 100 and an imaging unit 1 according to the second embodiment.
FIG.
【図16】 第2の実施形態の処理部60の構成図であ
る。FIG. 16 is a configuration diagram of a processing unit 60 according to the second embodiment.
【図17】 光強度検出部64と奥行き算出部66によ
る奥行き距離計算方法の説明図である。FIG. 17 is an explanatory diagram of a depth distance calculation method by the light intensity detection unit 64 and the depth calculation unit 66.
【図18】 バンドカットフィルターを用いて反射光を
分離する方法を説明する図である。FIG. 18 is a diagram illustrating a method of separating reflected light using a band cut filter.
【図19】 第2の実施形態の距離測定方法のフローチ
ャートである。FIG. 19 is a flowchart of a distance measuring method according to the second embodiment.
【図20】 第3の実施形態の照射部100と撮像部1
20の構成図である。FIG. 20 shows an irradiation unit 100 and an imaging unit 1 according to the third embodiment.
FIG.
【図21】 第3の実施形態の処理部60の構成図であ
る。FIG. 21 is a configuration diagram of a processing unit 60 according to the third embodiment.
【図22】 第4の実施形態の照射部100と撮像部1
20の構成図である。FIG. 22 shows an irradiation unit 100 and an imaging unit 1 according to the fourth embodiment.
FIG.
【図23】 本発明実施形態5に係る原理説明図であ
る。FIG. 23 is an explanatory view of a principle according to the fifth embodiment of the present invention.
【図24】 被測定部122までの距離L、被測定部1
22の面傾きθ0を算出する方法の一例の説明図であ
る。FIG. 24 shows the distance L to the measured section 122, the measured section 1;
FIG. 14 is an explanatory diagram of an example of a method for calculating a plane inclination θ0 of FIG.
【図25】 仮の距離Laについての所定の範囲で所定
の距離間隔で、面傾きθ0及び面傾きθ0’を算出した
結果の一例を示す。FIG. 25 shows an example of a result of calculating the plane inclination θ0 and the plane inclination θ0 ′ at a predetermined distance interval within a predetermined range with respect to a temporary distance La.
【図26】 本発明実施形態5に係る情報獲得方法の原
理説明図である。FIG. 26 is a diagram illustrating the principle of an information acquisition method according to Embodiment 5 of the present invention.
【図27】 照射位置が一直線上に配置された場合の、
情報獲得方法の説明図である。FIG. 27 shows a case where irradiation positions are arranged on a straight line.
It is an explanatory view of an information acquisition method.
【図28】 波長による物体20の表面の反射率の違い
を補正した情報獲得方法の説明図である。FIG. 28 is an explanatory diagram of an information acquisition method in which a difference in reflectance of the surface of the object 20 due to a wavelength is corrected.
【図29】 情報獲得方法の一例を示すフローチャート
である。FIG. 29 is a flowchart illustrating an example of an information acquisition method.
10 光源 12 光学フィルター 20 光学レンズ 30 分光部 40 受光部 60 処理部 62 画像メモリ 64 光強度検出部 66 奥行き算出部 67 画像補正部 68 記録部 80 制御部 100 照射部 120 撮像部 200 画像撮像装置 Reference Signs List 10 light source 12 optical filter 20 optical lens 30 spectral unit 40 light receiving unit 60 processing unit 62 image memory 64 light intensity detecting unit 66 depth calculating unit 67 image correcting unit 68 recording unit 80 control unit 100 irradiating unit 120 image capturing unit 200 image capturing device
Claims (29)
画像撮像装置であって、 第1の波長を主要な波長成分とする第1の照射光と、前
記第1の波長とは異なる第2及び第3の波長を主要な波
長成分とする第2の照射光とを、光学的に異なる放射位
置から前記被写体に照射する照射部と、 前記照射部により前記第1及び第2の照射光が照射され
た前記被写体からの出射光に基づいて、前記被写体まで
の奥行き距離を算出する奥行き算出部とを備えたことを
特徴とする画像撮像装置。1. An image capturing apparatus for acquiring information relating to the depth of a subject, comprising: a first irradiation light having a first wavelength as a main wavelength component; and a second and a third irradiation light different from the first wavelength. An irradiating unit that irradiates the subject with second irradiation light having a wavelength of 3 as a main wavelength component from an optically different radiation position; and the first and second irradiation lights are irradiated by the irradiation unit. And a depth calculation unit that calculates a depth distance to the subject based on light emitted from the subject.
光を同時に照射することを特徴とする請求項1に記載の
画像撮像装置。2. The apparatus according to claim 1, wherein the irradiating unit simultaneously irradiates the first and second irradiation lights.
射光が照射された前記被写体から得られる出射光を結像
する光学結像部と、 前記被写体から得られる前記出射光から、前記第1の波
長を有する第1の出射光と、前記第2の波長を有する第
2の出射光と、前記第3の波長を有する第3の出射光と
を光学的に分離する分光部と、 前記分光部によって分離され、前記光学結像部が結像す
る前記第1、第2及び第3の出射光を受光する受光部
と、 前記受光部が受光する前記第1、第2及び第3の出射光
の強度を検出する光強度検出部とをさらに備え、 前記奥行き算出部は、前記第1、第2及び第3の出射光
の強度を用いて、前記被写体までの奥行き距離を算出す
ることを特徴とする請求項2に記載の画像撮像装置。3. An optical imaging section for imaging the emitted light obtained from the subject irradiated with the first and second irradiation lights by the irradiation section; and A first emission light having a first wavelength, a second emission light having the second wavelength, and a light splitting unit for optically separating the third emission light having the third wavelength; A light receiving unit that receives the first, second, and third outgoing light beams that are separated by the light splitting unit and formed by the optical image forming unit; and the first, second, and third light receiving units that receive the light receiving unit. And a light intensity detection unit that detects the intensity of the outgoing light. The depth calculating unit calculates a depth distance to the subject using the intensities of the first, second, and third outgoing lights. The image pickup apparatus according to claim 2, wherein:
し、前記分光部は、光路分割手段を用いて前記第1、第
2及び第3の出射光を分離し、それぞれを前記3板の固
体撮像素子のいずれか1つに受光させることを特徴とす
る請求項3に記載の画像撮像装置。4. The light-receiving unit has three solid-state imaging devices, and the spectroscopy unit separates the first, second, and third outgoing lights using an optical path splitting unit, and separates each of the first, second, and third outgoing lights. The image pickup apparatus according to claim 3, wherein any one of the three solid-state image pickup devices receives light.
記分光部は、前記第1の波長の光を透過する第1の光学
フィルターと、前記第2の波長の光を透過する第2の光
学フィルターと、前記第3の波長の光を透過する第3の
光学フィルターとを有し、前記第1、第2及び第3の光
学フィルターが前記固体撮像素子の受光面に交互に配置
されたことを特徴とする請求項3に記載の画像撮像装
置。5. The light receiving section has a solid-state image sensor, and the light splitting section has a first optical filter transmitting the first wavelength light and a second optical filter transmitting the second wavelength light. A second optical filter and a third optical filter that transmits light of the third wavelength, wherein the first, second, and third optical filters are alternately arranged on a light receiving surface of the solid-state imaging device. The image pickup apparatus according to claim 3, wherein:
り短い波長領域の光を透過する第1の光学フィルター
と、所定の第2の境界波長より長い波長領域の光を透過
する第2の光学フィルターを有し、第1の光学フィルタ
ーを透過する第1の照射光と、第2の光学フィルターを
透過する第2の照射光とを、光学的に異なる放射位置か
ら前記被写体に照射し、 前記分光部は、前記第1及び第2の境界波長の短い方よ
りも短い第1の波長の光を透過する第1の光学フィルタ
ーと、前記第1及び第2の境界波長の長い方よりも長い
第2及び第3の波長の光をそれぞれ透過する第2及び第
3の光学フィルターとを有し、前記被写体から得られる
前記出射光を前記第1の光学フィルターに透過させるこ
とにより、前記第1の波長を有する前記第1の出射光を
分離し、前記出射光をそれぞれ前記第2及び第3の光学
フィルターに透過させることにより、前記第2の波長を
有する前記第2の出射光及び前記第3の波長を有する前
記第3の出射光を分離することを特徴とする請求項3に
記載の画像撮像装置。6. The irradiating unit includes a first optical filter that transmits light in a wavelength region shorter than a predetermined first boundary wavelength, and a second optical filter that transmits light in a wavelength region longer than a predetermined second boundary wavelength. And irradiating the subject with first irradiation light transmitted through the first optical filter and second irradiation light transmitted through the second optical filter from optically different radiation positions. The spectroscopic unit includes a first optical filter that transmits light having a first wavelength shorter than a shorter one of the first and second boundary wavelengths, and a first optical filter that transmits light having a longer first and second boundary wavelength. Having second and third optical filters that respectively transmit light of second and third wavelengths longer than that of the first optical filter, by transmitting the emitted light obtained from the subject to the first optical filter, The first emission having the first wavelength And the transmitted light is transmitted through the second and third optical filters, respectively, so that the second emitted light having the second wavelength and the third output light having the third wavelength are separated. The image pickup device according to claim 3, wherein the light is separated.
の出射光の強度に基づく値と、前記第1の出射光の強度
とを用いて、前記被写体までの前記奥行き距離を算出す
ることを特徴とする請求項3に記載の画像撮像装置。7. The method according to claim 7, wherein the depth calculation unit is configured to control the second and third depths.
The image capturing apparatus according to claim 3, wherein the depth distance to the subject is calculated using a value based on the intensity of the outgoing light and the intensity of the first outgoing light.
の出射光の強度に基づいて、前記第1の波長を有する光
を前記第2の照射光の放射位置から照射したと仮定した
場合の前記被写体からの仮の出射光の強度を求め、前記
第1の出射光の強度と前記仮の出射光の強度とを用い
て、前記被写体までの前記奥行き距離を算出することを
特徴とする請求項7に記載の画像撮像装置。8. The method according to claim 8, wherein the depth calculation unit is configured to determine the second and third depths.
Based on the intensity of the outgoing light, the intensity of the temporary outgoing light from the subject is obtained when assuming that the light having the first wavelength is emitted from the emission position of the second irradiation light, The image capturing apparatus according to claim 7, wherein the depth distance to the subject is calculated using the intensity of the outgoing light and the intensity of the temporary outgoing light.
と前記第3の出射光の平均強度と、前記第1の出射光の
強度とを用いて、前記被写体までの前記奥行き距離を算
出することを特徴とする請求項7に記載の画像撮像装
置。9. The depth calculation unit calculates the depth distance to the subject using an average intensity of the second emission light and the third emission light and an intensity of the first emission light. The image capturing apparatus according to claim 7, wherein the calculation is performed.
長成分とする第1の照射光と、前記第1の波長より短い
第2の波長、及び前記第1の波長より長い第3の波長を
主要な波長成分とする第2の照射光とを、光学的に異な
る放射位置から前記被写体に照射し、 前記照射部により前記第1及び第2の照射光が照射され
た前記被写体からの出射光を結像する光学結像部と、 前記被写体から得られる前記出射光から、前記第1の波
長を有する第1の出射光と、前記第2及び第3の波長を
有する第2の出射光とを光学的に分離する分光部と、 前記分光部によって分離され、前記光学結像部が結像す
る前記第1の出射光及び前記第2の出射光を受光する受
光部と、 前記受光部が受光する前記第1及び第2の出射光の強度
を検出する光強度検出部とをさらに備え、 前記奥行き算出部は、前記第1及び第2の出射光の強度
を用いて、前記被写体までの奥行き距離を算出すること
を特徴とする請求項2に記載の画像撮像装置。10. The irradiation unit includes a first irradiation light having a first wavelength as a main wavelength component, a second wavelength shorter than the first wavelength, and a third light longer than the first wavelength. And the second irradiation light having the main wavelength component is irradiated to the subject from an optically different radiation position. From the subject irradiated with the first and second irradiation lights by the irradiation unit An optical imaging section for imaging the outgoing light of the first, the first outgoing light having the first wavelength from the outgoing light obtained from the subject, and the second outgoing light having the second and third wavelengths A light separating unit that optically separates outgoing light, a light receiving unit that receives the first outgoing light and the second outgoing light that is separated by the light separating unit and is imaged by the optical imaging unit, A light intensity detector for detecting the intensity of the first and second emitted light received by the light receiver. Comprising the al, the depth calculation unit, the first and with the intensity of the second outgoing light, the image capturing apparatus according to claim 2, characterized in that to calculate the depth distance to the subject.
有し、前記分光部は、光路分割手段を用いて、前記第1
の出射光と前記第2の出射光の光路を光学的に分岐さ
せ、それぞれ前記2板の固体撮像素子のいずれか1つに
受光させることを特徴とする請求項10に記載の画像撮
像装置。11. The light-receiving unit has two solid-state imaging devices, and the light-splitting unit uses a light-path dividing unit to perform the first light-receiving operation.
The image pickup apparatus according to claim 10, wherein an optical path of the outgoing light and the second outgoing light is optically branched, and each light is received by any one of the two solid-state imaging devices.
前記分光部は、前記第1の波長の光を透過する第1の光
学フィルターと、前記第2及び第3の波長の光を透過す
る第2の光学フィルターとを有し、前記第1の光学フィ
ルターと前記第2の光学フィルターとが前記固体撮像素
子の受光面に交互に配置されたことを特徴とする請求項
10に記載の画像撮像装置。12. The light receiving unit includes a solid-state image sensor.
The spectroscopy unit includes a first optical filter that transmits the light of the first wavelength, and a second optical filter that transmits light of the second and third wavelengths. The image pickup apparatus according to claim 10, wherein filters and the second optical filters are alternately arranged on a light receiving surface of the solid-state image pickup device.
光の強度と前記第2の出射光の強度の半分の値との比に
基づいて、前記被写体までの前記奥行き距離を算出する
ことを特徴とする請求項10に記載の画像撮像装置。13. The depth calculation unit calculates the depth distance to the subject based on a ratio between the intensity of the first emission light and a half value of the intensity of the second emission light. The image pickup device according to claim 10, wherein:
び第2の照射光を照射するときの光軸と、前記結像部が
前記被写体からの前記出射光を撮像するときの光軸とが
略同一であることを特徴とする請求項4、5、6、1
1、または12に記載の画像撮像装置。14. An optical axis when the irradiating unit irradiates the first and second irradiation light to the subject, and an optical axis when the imaging unit captures the outgoing light from the subject. Are substantially the same.
13. The image pickup device according to 1 or 12.
像された前記被写体の画像の各画素において前記第1及
び第2の出射光の強度を検出し、前記奥行き算出部は、
前記画素の各々に対応する前記被写体の領域までの前記
奥行きを各々求めることにより、前記被写体の奥行き分
布を算出することを特徴とする請求項14に記載の画像
撮像装置。15. The light intensity detection unit detects the intensity of the first and second outgoing light in each pixel of the image of the subject captured by the light receiving unit, and the depth calculation unit includes:
The apparatus according to claim 14, wherein a depth distribution of the subject is calculated by obtaining the depths up to the area of the subject corresponding to each of the pixels.
域の光であり、 前記分光部は、前記被写体から得られる前記出射光から
可視光を光学的に分離する手段をさらに備え、 前記受光部は、前記分光部により光学的に分離され、前
記光学結像部が結像する前記可視光を受光する可視光用
の固体撮像素子をさらに備え、 前記奥行き算出部が算出する前記被写体の前記奥行き分
布とともに前記可視光用の固体撮像素子に撮像された前
記被写体の画像を記録する記録部をさらに備えたことを
特徴とする請求項15に記載の画像撮像装置。16. The method according to claim 16, wherein the first and second irradiation lights are light in an infrared region, and the spectroscopic unit further includes a unit for optically separating visible light from the outgoing light obtained from the subject. The light receiving unit further includes a solid-state imaging device for visible light that receives the visible light that is optically separated by the light splitting unit and is imaged by the optical imaging unit, and that the depth calculation unit calculates the subject. 16. The imaging apparatus according to claim 15, further comprising a recording unit that records an image of the subject captured by the visible light solid-state imaging device together with the depth distribution.
体からの前記出射光の強度、及び前記奥行き算出部が算
出する前記被写体までの前記奥行き距離の少なくとも1
つに基づいて、前記照射部が照射する前記第1及び第2
の照射光の発光時間、強度、放射位置、及び前記受光部
の露光時間の少なくとも1つを制御する制御部をさらに
備えたことを特徴とする請求項4、5、6、11、また
は12に記載の画像撮像装置。17. At least one of an intensity of the outgoing light from the subject detected by the light intensity detection unit and the depth distance to the subject calculated by the depth calculation unit.
The first and second irradiations performed by the irradiation unit based on
13. The control device according to claim 4, further comprising a control unit configured to control at least one of a light emission time, an intensity, a radiation position, and an exposure time of the light receiving unit. The image pickup apparatus according to any one of the preceding claims.
る距離測定方法であって、 第1の波長を主要な波長成分とする第1の照射光と、前
記第1の波長とは異なる第2及び第3の波長を主要な波
長成分とする第2の照射光とを、光学的に異なる放射位
置から同時に前記被写体に照射する照射段階と、 前記第1及び第2の照射光が照射された前記被写体から
得られる出射光から、前記第1の波長を有する第1の出
射光と、前記第2の波長を有する第2の出射光と、前記
第3の波長を有する第3の出射光とを光学的に分離する
分光段階と、 分離された前記第1、第2及び第3の出射光を撮像する
撮像段階と、 撮像された前記第1、第2及び第3の出射光の強度を検
出する光強度検出段階と、 前記第1、第2及び第3の出射光の強度を用いて、前記
被写体までの奥行き距離を算出する奥行き算出段階とを
備えたことを特徴とする距離測定方法。18. A distance measuring method for acquiring information on a depth of a subject, comprising: a first irradiation light having a first wavelength as a main wavelength component; and a second and a third irradiation light different from the first wavelength. An irradiation step of simultaneously irradiating the object with second irradiation light having a wavelength of 3 as a main wavelength component from an optically different radiation position; and the object irradiated with the first and second irradiation light. From the output light obtained from the first light, the first light having the first wavelength, the second light having the second wavelength, and the third light having the third wavelength. Spectrally separating the light, imaging the separated first, second and third emitted light, and detecting the intensity of the imaged first, second and third emitted light. Light intensity detecting step; and using the first, second and third outgoing light intensities, Distance measuring method characterized by comprising a depth calculation step of calculating a depth distance to the object.
第3の出射光の強度に基づく値と、前記第1の出射光の
強度とを用いて、前記被写体までの前記奥行き距離を算
出することを特徴とする請求項18に記載の距離測定方
法。19. The depth calculating step calculates the depth distance to the subject using a value based on the intensity of the second and third outgoing light and the intensity of the first outgoing light. 19. The distance measuring method according to claim 18, wherein:
第3の出射光の強度に基づいて、前記第1の波長を有す
る光を前記第2の照射光の放射位置から照射したと仮定
した場合の前記被写体からの仮の出射光の強度を求め、
前記第1の出射光の強度と前記仮の出射光の強度の比に
基づいて、前記被写体までの前記奥行き距離を算出する
ことを特徴とする請求項19に記載の距離測定方法。20. The depth calculating step, based on the intensities of the second and third outgoing lights, assumes that light having the first wavelength is irradiated from a radiation position of the second irradiation light. In the case, the intensity of the provisional emission light from the subject is obtained,
20. The distance measuring method according to claim 19, wherein the depth distance to the subject is calculated based on a ratio between the intensity of the first emission light and the intensity of the temporary emission light.
射光と前記第3の出射光の平均強度と、前記第1の出射
光の強度との比に基づいて、前記被写体までの前記奥行
き距離を算出することを特徴とする請求項19に記載の
画像撮像装置。21. The depth calculation step, wherein the depth to the subject is determined based on a ratio of an average intensity of the second emission light and the third emission light to an intensity of the first emission light. 20. The image pickup device according to claim 19, wherein the distance is calculated.
る距離測定方法であって、 第1の波長を主要な波長成分とする第1の照射光と、前
記第1の波長より短い第2の波長、及び前記第1の波長
より長い第3の波長を主要な波長成分とする第2の照射
光とを、光学的に異なる放射位置から同時に前記被写体
に照射する照射段階と、 前記第1及び第2の照射光が照射された前記被写体から
得られる出射光から、前記第1の波長を有する第1の出
射光と、前記第2及び第3の波長を有する第2の出射光
とを光学的に分離する分光段階と、 分離された前記第1の出射光及び前記第2の出射光を撮
像する撮像段階と、 受光された前記第1の出射光及び前記第2の出射光の強
度をそれぞれ検出する光強度検出段階と、 前記第1の出射光の強度と前記第2の出射光の強度を用
いて、前記被写体までの奥行き距離を算出する奥行き算
出段階とを備えたことを特徴とする距離測定方法。22. A distance measuring method for acquiring information on a depth of a subject, comprising: a first irradiation light having a first wavelength as a main wavelength component; a second wavelength shorter than the first wavelength; And irradiating the subject simultaneously with second irradiation light having a third wavelength longer than the first wavelength as a main wavelength component from optically different radiation positions; and the first and second irradiation steps. Optically converting the first outgoing light having the first wavelength and the second outgoing light having the second and third wavelengths from the outgoing light obtained from the object irradiated with the A separating step; an imaging step of imaging the separated first and second output lights; and detecting the intensities of the received first and second output lights, respectively. Detecting the light intensity, and the intensity of the first emitted light and the second Distance measuring method of using the intensity of the emitted light, characterized in that a depth calculation step of calculating a depth distance to the subject.
射光の強度と前記第2の出射光の強度の半分の値との比
に基づいて、前記被写体までの前記奥行き距離を算出す
ることを特徴とする請求項22に記載の距離測定方法。23. The depth calculating step includes calculating the depth distance to the subject based on a ratio of an intensity of the first emission light to a half of an intensity of the second emission light. The distance measuring method according to claim 22, characterized in that:
得方法であって、 光学的に異なる2点の照射位置から、前記物体に光を照
射する照射段階と、 前記2点の照射位置から照射された前記光による前記物
体からの反射光をそれぞれ撮像する撮像段階と、 光学的に異なる2点の照射位置から、前記物体に光を照
射する角度のうちいずれかを算出する角度算出段階と、 前記撮像位置において撮像された、前記物体の被測定部
からの反射光及び、前記被測定部の近傍からの反射光に
基づいて、前記被測定部までの距離情報を算出する算出
段階とを備えることを特徴とする情報獲得方法。24. An information acquiring method for acquiring distance information to an object, comprising: irradiating the object with light from two optically different irradiation positions; and irradiating from the two irradiation positions. An imaging step of respectively imaging reflected light from the object by the light, and an angle calculation step of calculating any one of angles at which the object is irradiated with light from two optically different irradiation positions, A calculating step of calculating distance information to the measured portion based on reflected light from the measured portion of the object captured at the image capturing position and reflected light from the vicinity of the measured portion. An information acquisition method characterized in that:
て撮像された、前記被測定部からの反射光の強度及び前
記被測定部の近傍からの反射光の強度に基づいて、前記
被測定部の距離情報及び前記被測定部の面傾き情報を算
出することを特徴とする請求項24に記載の情報獲得方
法。25. The calculating step, wherein based on the intensity of the reflected light from the measured part and the intensity of the reflected light from the vicinity of the measured part imaged in the imaging step, The information acquisition method according to claim 24, wherein distance information and surface inclination information of the measured part are calculated.
角に基づいて、前記被測定部までの仮の距離情報を仮定
した場合に、前記被測定部の面傾き情報を算出する第1
算出段階と、 前記被測定部までの前記仮の距離情報及び、前記被測定
部の前記面傾き情報に基づいて、前記被測定部の近傍の
仮の距離情報を算出する第2算出段階と、 前記被測定部の近傍の前記仮の距離情報と、前記被測定
部の近傍からの反射光の強度及び、前記反射光の入射角
に基づいて、前記被測定部の近傍の面傾き情報を算出す
る第3算出段階と、 前記被測定部の前記面傾き情報と、前記被測定部の近傍
の前記面傾き情報との誤差を算出する第4算出段階とを
有し、 前記誤差が所定の範囲内である場合に、前記被測定部の
前記仮の距離情報を、前記被測定部の真の距離情報とし
て出力することを特徴とする請求項25に記載の情報獲
得方法。26. The method according to claim 26, further comprising: calculating temporary distance information to the measured section based on an intensity of reflected light from the measured section and an incident angle of the reflected light. First to calculate the surface inclination information of the part
A second calculating step of calculating temporary distance information near the measured part based on the temporary distance information to the measured part and the surface inclination information of the measured part, Based on the provisional distance information in the vicinity of the measured portion, the intensity of reflected light from the vicinity of the measured portion, and the incident angle of the reflected light, surface inclination information in the vicinity of the measured portion is calculated. And a fourth calculating step of calculating an error between the surface tilt information of the measured part and the surface tilt information near the measured part, wherein the error is within a predetermined range. 26. The information acquisition method according to claim 25, wherein when the value is within, the provisional distance information of the measured part is output as true distance information of the measured part.
得方法であって、 光学的に異なる3点以上の照射位置から、前記物体に光
を照射する照射段階と、 前記3点以上の照射位置から照射された前記光による前
記物体からの反射光をそれぞれ撮像する撮像段階と、 前記撮像段階によって撮像された前記反射光に基づい
て、前記距離情報を算出する算出段階とを備えることを
特徴とする情報獲得方法。27. An information acquisition method for acquiring distance information to an object, comprising: irradiating the object with light from three or more optically different irradiation positions; and irradiating the three or more points. And an imaging step of imaging reflected light from the object by the light emitted from the light source, and a calculating step of calculating the distance information based on the reflected light imaged in the imaging step. Information acquisition method to do.
位置のいずれか一つと光学的に同位置で、前記3点以上
の照射位置からの前記光の前記反射光をそれぞれ撮像す
ることを特徴とする請求項27に記載の情報獲得方法。28. The imaging step includes imaging the reflected light of the light from the three or more irradiation positions at the same optical position as any one of the three or more irradiation positions. The method for acquiring information according to claim 27, characterized in that:
ある3点の照射位置から、前記物体に前記光を照射する
ことを特徴とする請求項28に記載の情報獲得方法。29. The information acquisition method according to claim 28, wherein in the irradiating step, the object is irradiated with the light from three irradiation positions that are optically on a straight line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001036761A JP4150506B2 (en) | 2000-02-16 | 2001-02-14 | Image capturing apparatus and distance measuring method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-37771 | 2000-02-16 | ||
JP2000037771 | 2000-02-16 | ||
JP2001036761A JP4150506B2 (en) | 2000-02-16 | 2001-02-14 | Image capturing apparatus and distance measuring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001304821A true JP2001304821A (en) | 2001-10-31 |
JP4150506B2 JP4150506B2 (en) | 2008-09-17 |
Family
ID=26585448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001036761A Expired - Lifetime JP4150506B2 (en) | 2000-02-16 | 2001-02-14 | Image capturing apparatus and distance measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4150506B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334311A (en) * | 2006-05-18 | 2007-12-27 | Nippon Hoso Kyokai <Nhk> | Visible light / infrared light optical system |
JP2008175538A (en) * | 2007-01-16 | 2008-07-31 | Fujifilm Corp | Imaging apparatus, method, and program |
JP2010107495A (en) * | 2008-11-03 | 2010-05-13 | Samsung Electronics Co Ltd | Apparatus and method for extracting characteristic information of object and apparatus and method for producing characteristic map using the same |
JP2014508955A (en) * | 2011-03-21 | 2014-04-10 | フェデラル−モーグル コーポレイション | Multispectral imaging system and surface inspection method using the same |
KR20160093936A (en) * | 2015-01-30 | 2016-08-09 | 한국기계연구원 | Optical Layout Apparatus for Lithography |
KR20180128346A (en) * | 2017-05-23 | 2018-12-03 | 가부시기가이샤 디스코 | Reflectivity detection method and reflectivity detection apparatus |
EP3567533A1 (en) * | 2018-05-11 | 2019-11-13 | Beijing Kuangshi Technology Co., Ltd. | Method, apparatus for determining a position of an item, item monitoring system and non-transitory computer-readable recording medium |
WO2023074404A1 (en) * | 2021-10-29 | 2023-05-04 | ソニーグループ株式会社 | Light-emitting device and electronic apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006114974A (en) | 2004-10-12 | 2006-04-27 | Epson Toyocom Corp | Voltage-controlled piezoelectric oscillator capable of linear frequency control |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0642915A (en) * | 1992-06-03 | 1994-02-18 | Stanley Electric Co Ltd | Optical measuring device |
JPH0989553A (en) * | 1995-09-26 | 1997-04-04 | Olympus Optical Co Ltd | Distance measuring device |
JPH1194520A (en) * | 1997-09-16 | 1999-04-09 | Matsushita Electric Ind Co Ltd | Real-time range finder |
JP2000002521A (en) * | 1998-06-18 | 2000-01-07 | Minolta Co Ltd | Three dimensional input device |
-
2001
- 2001-02-14 JP JP2001036761A patent/JP4150506B2/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0642915A (en) * | 1992-06-03 | 1994-02-18 | Stanley Electric Co Ltd | Optical measuring device |
JPH0989553A (en) * | 1995-09-26 | 1997-04-04 | Olympus Optical Co Ltd | Distance measuring device |
JPH1194520A (en) * | 1997-09-16 | 1999-04-09 | Matsushita Electric Ind Co Ltd | Real-time range finder |
JP2000002521A (en) * | 1998-06-18 | 2000-01-07 | Minolta Co Ltd | Three dimensional input device |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334311A (en) * | 2006-05-18 | 2007-12-27 | Nippon Hoso Kyokai <Nhk> | Visible light / infrared light optical system |
JP2008175538A (en) * | 2007-01-16 | 2008-07-31 | Fujifilm Corp | Imaging apparatus, method, and program |
JP2010107495A (en) * | 2008-11-03 | 2010-05-13 | Samsung Electronics Co Ltd | Apparatus and method for extracting characteristic information of object and apparatus and method for producing characteristic map using the same |
JP2014508955A (en) * | 2011-03-21 | 2014-04-10 | フェデラル−モーグル コーポレイション | Multispectral imaging system and surface inspection method using the same |
KR20160093936A (en) * | 2015-01-30 | 2016-08-09 | 한국기계연구원 | Optical Layout Apparatus for Lithography |
KR101658985B1 (en) | 2015-01-30 | 2016-09-23 | 한국기계연구원 | Optical Layout Apparatus for Lithography |
JP2018197665A (en) * | 2017-05-23 | 2018-12-13 | 株式会社ディスコ | Reflectance detection method and reflectance detection apparatus |
CN108931501A (en) * | 2017-05-23 | 2018-12-04 | 株式会社迪思科 | Evaluation method of reflectivity and reflectivity detection device |
KR20180128346A (en) * | 2017-05-23 | 2018-12-03 | 가부시기가이샤 디스코 | Reflectivity detection method and reflectivity detection apparatus |
KR102298469B1 (en) * | 2017-05-23 | 2021-09-03 | 가부시기가이샤 디스코 | Reflectivity detection method and reflectivity detection apparatus |
JP7076951B2 (en) | 2017-05-23 | 2022-05-30 | 株式会社ディスコ | Reflectance detector |
CN108931501B (en) * | 2017-05-23 | 2022-06-24 | 株式会社迪思科 | Reflectance detection method and reflectance detection device |
TWI785048B (en) * | 2017-05-23 | 2022-12-01 | 日商迪思科股份有限公司 | Reflectivity detection device |
EP3567533A1 (en) * | 2018-05-11 | 2019-11-13 | Beijing Kuangshi Technology Co., Ltd. | Method, apparatus for determining a position of an item, item monitoring system and non-transitory computer-readable recording medium |
US10788313B2 (en) | 2018-05-11 | 2020-09-29 | Beijing Kuangshi Technology Co., Ltd. | Method for determining a position of an item, item monitoring system and non-transitory computer-readable recording medium |
WO2023074404A1 (en) * | 2021-10-29 | 2023-05-04 | ソニーグループ株式会社 | Light-emitting device and electronic apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP4150506B2 (en) | 2008-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4040825B2 (en) | Image capturing apparatus and distance measuring method | |
EP1126412B1 (en) | Image capturing apparatus and distance measuring method | |
JP6480441B2 (en) | Time-of-flight camera system | |
JP3979670B2 (en) | 3D color imaging | |
US20140168424A1 (en) | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene | |
KR101296780B1 (en) | Obstacle Detecting system using of laser, and method thereof | |
JP3695188B2 (en) | Shape measuring apparatus and shape measuring method | |
JP4516590B2 (en) | Image capturing apparatus and distance measuring method | |
US6222631B1 (en) | Two-dimensional spectral characteristic measuring apparatus | |
JP4150506B2 (en) | Image capturing apparatus and distance measuring method | |
JP3805791B2 (en) | Method and apparatus for reducing undesirable effects of noise in three-dimensional color imaging systems | |
CN119342363A (en) | Multispectral depth camera and depth measurement method | |
JP2006322853A (en) | Distance measuring device, distance measuring method and distance measuring program | |
KR101438748B1 (en) | Optical coherence tomography device and tomography method thereof | |
JP4141627B2 (en) | Information acquisition method, image capturing apparatus, and image processing apparatus | |
CN211205210U (en) | Four-dimensional hyperspectral depth imaging system | |
JP4204746B2 (en) | Information acquisition method, imaging apparatus, and image processing apparatus | |
JP3668466B2 (en) | Real-time range finder | |
JP4266286B2 (en) | Distance information acquisition device and distance information acquisition method | |
JPH0711420B2 (en) | Range image acquisition method and apparatus | |
JP4010360B2 (en) | Spectral imaging device | |
JP6415139B2 (en) | Focus detection apparatus, imaging apparatus, focus detection method, and focus detection program | |
WO2024013142A1 (en) | Image capture device with wavelength separation device | |
JPH06178189A (en) | Image pickup device | |
JPH07311089A (en) | Spectral characteristics measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060110 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080624 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080630 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4150506 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |