JP2016065717A - Information acquisition device and object detection device - Google Patents
Information acquisition device and object detection device Download PDFInfo
- Publication number
- JP2016065717A JP2016065717A JP2013023776A JP2013023776A JP2016065717A JP 2016065717 A JP2016065717 A JP 2016065717A JP 2013023776 A JP2013023776 A JP 2013023776A JP 2013023776 A JP2013023776 A JP 2013023776A JP 2016065717 A JP2016065717 A JP 2016065717A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- information acquisition
- object detection
- image sensor
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0308—Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Description
本発明は、目標領域内の情報を取得する情報取得装置および当該情報取得装置を備えた物体検出装置に関する。 The present invention relates to an information acquisition device that acquires information in a target area and an object detection device that includes the information acquisition device.
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。 Conventionally, object detection devices using light have been developed in various fields. An object detection apparatus using a so-called distance image sensor can detect not only a planar image on a two-dimensional plane but also the shape and movement of the detection target object in the depth direction.
距離画像センサとして、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサが知られている(たとえば、非特許文献1)。かかる距離画像センサでは、基準面にレーザ光を照射したときのドットパターンが撮像素子により撮像され、撮像されたドットパターンが基準ドットパターンとして保持される。そして、基準ドットパターンと、実測時に撮像された実測ドットパターンとが比較され、距離情報が取得される。具体的には、基準ドットパターン上に設定された参照領域の実測ドットパターン上における位置に基づいて、三角測量法により、当該参照領域に対する距離情報が取得される。 As a distance image sensor, a distance image sensor of a type that irradiates a target region with laser light having a predetermined dot pattern is known (for example, Non-Patent Document 1). In such a distance image sensor, a dot pattern when the reference surface is irradiated with laser light is picked up by the image pickup device, and the picked-up dot pattern is held as a reference dot pattern. Then, the reference dot pattern is compared with the actually measured dot pattern captured at the time of actual measurement, and distance information is acquired. Specifically, distance information with respect to the reference region is acquired by a triangulation method based on the position of the reference region set on the standard dot pattern on the measured dot pattern.
しかしながら、上記距離画像センサでは、ドットパターンの光を生成する必要があるため、目標領域に光を投射する投射部の構成が複雑になるとの問題がある。また、参照領域に含まれるドットを実測ドットパターン上において探索する処理が必要となるため、距離情報の取得のために、煩雑な演算処理が必要になるとの問題もある。 However, since the distance image sensor needs to generate light of a dot pattern, there is a problem that the configuration of a projection unit that projects light onto a target area becomes complicated. In addition, since it is necessary to search for dots included in the reference area on the measured dot pattern, there is a problem that complicated calculation processing is required for obtaining distance information.
上記課題に鑑み、本発明は、目標領域に対する距離情報を簡素な構成かつ簡易な演算処理により円滑に取得可能な情報取得装置および目標領域に存在する物体を簡素な構成かつ簡易な演算処理により円滑に検出可能な物体検出装置を提供することを目的とする。 In view of the above problems, the present invention provides an information acquisition apparatus that can smoothly acquire distance information with respect to a target area with a simple configuration and simple arithmetic processing, and an object that exists in the target area with a simple configuration and simple arithmetic processing. It is an object of the present invention to provide an object detection device capable of detecting the above.
本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、目標領域に光を投射する投射部と、前記目標領域をイメージセンサにより撮像する撮像部と、前記イメージセンサにおける各画素の輝度値を取得する輝度取得部と、前記輝度取得部により取得された輝度値に基づいて、前記各画素に対応する前記目標領域上の各位置に対する距離情報を取得する距離取得部と、を備える。 A first aspect of the present invention relates to an information acquisition device. The information acquisition apparatus according to this aspect includes a projection unit that projects light onto a target area, an imaging unit that images the target area with an image sensor, a luminance acquisition unit that acquires a luminance value of each pixel in the image sensor, A distance acquisition unit that acquires distance information for each position on the target area corresponding to each pixel based on the luminance value acquired by the luminance acquisition unit.
本態様によれば、目標領域に対する距離情報を簡素な構成かつ簡易な演算処理により円滑に取得可能な情報取得装置を提供することができる。 According to this aspect, it is possible to provide an information acquisition device that can smoothly acquire distance information with respect to the target region with a simple configuration and simple arithmetic processing.
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、第1の態様に係る情報取得装置と、前記情報取得装置によって取得された前記距離情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える。 A 2nd aspect of this invention is related with an object detection apparatus. An object detection device according to this aspect includes an information acquisition device according to a first aspect, an object detection unit that detects an object present in the target region based on the distance information acquired by the information acquisition device, Is provided.
本発明の第3の態様は、物体検出装置に関する。本態様に係る物体検出装置は、目標領域に赤外の波長帯域の光を投射する投射部と、カラーイメージセンサおよび可視光をカットし赤外の波長帯域の光を透過するフィルタを備え、前記目標領域を前記カラーイメージセンサにより撮像する撮像部と、前記カラーイメージセンサ上の所定の画素の輝度値を取得する輝度取得部と、前記輝度取得部により取得された輝度値に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える。 A third aspect of the present invention relates to an object detection device. An object detection apparatus according to this aspect includes a projection unit that projects light in an infrared wavelength band onto a target region, a color image sensor, and a filter that cuts visible light and transmits light in the infrared wavelength band, An image capturing unit that captures a target area with the color image sensor, a luminance acquisition unit that acquires a luminance value of a predetermined pixel on the color image sensor, and the target based on the luminance value acquired by the luminance acquisition unit And an object detection unit for detecting an object existing in the region.
本態様によれば、目標領域に存在する物体を簡素な構成かつ簡易な演算処理により円滑に検出可能な物体検出装置を提供することができる。 According to this aspect, it is possible to provide an object detection device that can smoothly detect an object existing in the target region with a simple configuration and simple arithmetic processing.
本発明によれば、目標領域に対する距離情報を簡素な構成かつ簡易な演算処理により円滑に取得可能な情報取得装置および目標領域に存在する物体を簡素な構成かつ簡易な演算処理により円滑に検出可能な物体検出装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the distance information with respect to a target area can be smoothly detected by the information acquisition apparatus which can acquire smoothly by simple structure and simple arithmetic processing, and the object which exists in a target area by simple structure and simple arithmetic processing An object detection apparatus can be provided.
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。 The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.
以下、本発明の実施の形態につき図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本実施の形態は、ノート型のパーソナルコンピュータに本発明に係る物体検出装置を適用したものである。この他、本発明に係る物体検出装置は、デスクトップ型のパーソナルコンピュータやテレビ等の他の機器にも適宜適用可能なものである。なお、本発明に係る情報取得装置および物体検出装置は、必ずしも、他の機器に一体的に搭載されなくとも良く、単独で一つの装置を構成するものであっても良い。 In this embodiment, the object detection apparatus according to the present invention is applied to a notebook personal computer. In addition, the object detection apparatus according to the present invention can be appropriately applied to other devices such as a desktop personal computer and a television. It should be noted that the information acquisition device and the object detection device according to the present invention do not necessarily have to be mounted integrally with other devices, and may constitute a single device alone.
以下に示す実施の形態において、撮像信号処理回路23は、請求項に記載の「輝度取得
部」に相当する。図5(b)に示す距離変換関数は、請求項に記載の「規定情報」に相当する。距離取得部21bによって取得される距離情報は、請求項に記載の「距離に関する情報」に相当する。なお、本実施の形態に記載の情報取得装置2は、請求項1に記載の「情報取得装置」の一例である。また、情報取得装置2と情報処理部3とを含む構成が、請求項12に記載の物体検出装置に相当する。ただし、上記請求項と本実施の形態との対応の記載は、あくまで一例であって、請求項に係る発明を本実施の形態に限定するものではない。
In the embodiment described below, the imaging
図1は、本実施の形態に係るパーソナルコンピュータ1の概略構成を示す図である。図1に示すように、パーソナルコンピュータ1は、情報取得装置2と、情報処理部3を備えている。この他、パーソナルコンピュータ1は、キーボード4と、操作パッド5と、モニタ6を備えている。
FIG. 1 is a diagram showing a schematic configuration of a personal computer 1 according to the present embodiment. As shown in FIG. 1, the personal computer 1 includes an information acquisition device 2 and an
情報取得装置2は、目標領域全体に、可視光の波長帯よりも長い赤外の波長帯域の光(赤外光)を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体各部までの距離(以下、「距離情報」という)を取得する。情報処理部3は、情報取得装置2により取得された距離情報に基づいて、目標領域に存在する所定の物体を検出し、さらに、当該物体の動きを検出する。そして、情報処理部3は、当該物体の動きに応じて、パーソナルコンピュータ1の機能を制御する。
The information acquisition device 2 projects light (infrared light) in an infrared wavelength band longer than the visible light wavelength band over the entire target region, and receives the reflected light with a CMOS image sensor, thereby achieving the target. The distance to each part of the object existing in the region (hereinafter referred to as “distance information”) is acquired. Based on the distance information acquired by the information acquisition device 2, the
たとえば、ユーザが手を用いて所定のジェスチャを行うと、情報取得装置2からジェスチャに応じた距離情報が情報処理部3に送信される。この情報に基づき、情報処理部3は、ユーザの手を検出対象物体として検出し、手の動きに対応付けられた機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。
For example, when the user performs a predetermined gesture using his / her hand, distance information corresponding to the gesture is transmitted from the information acquisition device 2 to the
図2は、情報取得装置2と情報処理部3の構成を示す図である。
FIG. 2 is a diagram illustrating the configuration of the information acquisition device 2 and the
情報取得装置2は、光学部の構成として、投射部100と撮像部200とを備えている。投射部100と撮像部200は、X軸方向に並ぶように、配置されている。
The information acquisition device 2 includes a
投射部100は、赤外の波長帯域の光を出射する光源110を備えている。
The
撮像部200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置2は、回路部の構成として、CPU(Central Processing Unit)21と、赤外光源駆動回路22と、撮像信号
処理回路23と、入出力回路24と、メモリ25を備えている。
The
なお、このように、投射部100が赤外の波長帯域の光を出射する光源110を備え、撮像部200が撮像レンズ220とフィルタ230とを備える構成は、請求項8に記載の構成の一例である。
The configuration in which the
光源110から目標領域に投射された光は、目標領域に存在する物体によって反射され、アパーチャ210を介して撮像レンズ220に入射する。
The light projected from the
アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光を制限する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、光源110の出射波長を含む波長帯域の光を透過し、可視光の波長帯域の光をカットするバンドパスフィルタである。
The
CMOSイメージセンサ240は、後述のように、可視光の波長帯域と、光源110か
ら出射される赤外光の波長帯域に対して感度を有するカラーのイメージセンサである。CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。
As will be described later, the
本実施の形態において、CMOSイメージセンサ240の撮像有効領域(センサとして信号を出力する領域)は、たとえば、VGA(横640画素×縦480画素)のサイズである。CMOSイメージセンサ240の撮像有効領域は、XGA(横1024画素×縦768画素)のサイズや、SXGA(横1280画素×縦1024画素)のサイズ等、他のサイズであっても良い。
In the present embodiment, the effective imaging area of the CMOS image sensor 240 (area in which a signal is output as a sensor) is, for example, the size of VGA (640 horizontal pixels × 480 vertical pixels). The imaging effective area of the
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、光源制御部21aと、距離取得部21bとの機能が付与される。
The
光源制御部21aは、赤外光源駆動回路22を制御する。距離取得部21bは、CMOSイメージセンサ240から出力される信号に基づいて、後述のように距離情報を取得する。
The light
赤外光源駆動回路22は、CPU21からの制御信号に応じて光源110を駆動する。
The infrared light
撮像信号処理回路23は、CPU21からの制御を受けてCMOSイメージセンサ240を駆動し、CMOSイメージセンサ240から出力される信号から、各画素の輝度信号を取得し、取得した輝度信号をCPU21に出力する。後述のように、撮像信号処理回路23は、CPU21により設定された露光時間をCMOSイメージセンサ240の各画素に適用し、さらに、CMOSイメージセンサ240から出力される信号に対してCPU21により設定されたゲインを適用して、画素毎に、輝度信号を取得する。
The imaging
CPU21は、撮像信号処理回路23から供給される輝度信号をもとに、情報取得装置2から検出対象物体の各部までの距離を、距離取得部21bによる処理によって算出する。距離情報は、CMOSイメージセンサ240の画素毎に取得される。距離情報の取得処理については、追って、図6(a)を参照して説明する。
Based on the luminance signal supplied from the imaging
入出力回路24は、情報処理部3とのデータ通信を制御する。
The input /
メモリ25は、CPU21により実行される制御プログラムの他、距離情報の取得に用いられる距離変換関数を保持している。この他、メモリ25は、CPU21における処理の際のワーク領域としても用いられる。なお、距離変換関数については、追って、図5(b)を参照して説明する。
In addition to the control program executed by the
情報処理部3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理部3には、図2に示す構成の他、パーソナルコンピュータ1の各部を駆動および制御するための構成が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
The
CPU31は、メモリ33に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU31には、物体検出部31aの機能と、当該物体検出部31aからの信号に応じて、パーソナルコンピュータ1の機能を制御するための機能制御部31bの機能が付与される。
The
物体検出部31aは、距離取得部21bによって取得される距離情報から物体の形状を抽出し、さらに、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aにより検出された物体の動きが所定の動きパターンに合致しているかを判定し、物体の動きが所定の動きパターンに合致している場合に、当該動きパターンに対応する制御を実行する。
The
図3(a)〜(c)は、投射部100および撮像部200の構成を示す図である。図3(a)は、光源110の構成を示す図、図3(b)は、回路基板300に設置された状態の投射部100および撮像部200を示す平面図であり、図3(c)は、図3(b)のA−A’断面図である。
3A to 3C are diagrams illustrating configurations of the
図3(a)に示すように、本実施の形態において、光源110は、発光ダイオード(L
ED:Light Emitting Diode)からなっている。赤外光を発する発光素子(図示せず)は、ハウジング110a内に収容される。発光素子から発せられた赤外光は、上面の出射部110bから所定の放射角にて外部に出射される。図3(b)、(c)に示すように、光源110は、回路基板300上に実装されている。
As shown in FIG. 3A, in the present embodiment, the
ED: Light Emitting Diode). A light emitting element (not shown) that emits infrared light is accommodated in the
なお、このように、光源110がLEDからなる構成は、請求項9に記載の構成の一例である。
Note that the configuration in which the
図3(b)、(c)を参照して、撮像部200は、上述のアパーチャ210、撮像レンズ220、フィルタ230およびCMOSイメージセンサ240の他、レンズバレル250と、撮像レンズホルダ260を備えている。CMOSイメージセンサ240は、回路基板300上に実装されている。撮像レンズ220は、レンズバレル250に装着され、レンズバレル250は、撮像レンズ220を保持した状態で撮像レンズホルダ260に装着される。撮像レンズホルダ260は、下面に凹部を有し、この凹部に、フィルタ230が装着される。こうして、撮像レンズ220とフィルタ230とを保持した状態で、撮像レンズホルダ260が、CMOSイメージセンサ240を覆うように、回路基板300上に設置される。
3B and 3C, the
本実施の形態において、撮像レンズ220は、4枚のレンズにより構成されている。しかしながら、撮像レンズ220を構成するレンズの数はこれに限られるものではなく、他の枚数のレンズから撮像レンズ220が構成されても良い。
In the present embodiment, the
回路基板300には、投射部100と撮像部200の他、情報取得装置2を構成する回路部400が実装される。図2に示すCPU21、赤外光源駆動回路22、撮像信号処理回路23、入出力回路24およびメモリ25は、かかる回路部400に含まれる。
In addition to the
図4(a)は、目標領域に対する赤外光の投射状態および撮像部200による目標領域の撮像状態を模式的に示す図である。
FIG. 4A is a diagram schematically illustrating a projection state of infrared light on the target region and an imaging state of the target region by the
図4(a)の下部には、投射部100による赤外光の投射状態と、撮像部200による目標領域の撮像状態が示されている。また、図4(a)の上部には、目標領域における赤外光の投射範囲と、目標領域に対する撮像部200の撮像範囲が模式的に示されている。さらに、図4(a)の上部には、CMOSイメージセンサ240の撮像有効領域に対応する領域が示されている。図4(a)において、ΔLは、情報取得装置2による距離取得範囲を示し、LmaxとLminは、それぞれ、情報取得装置2によって取得可能な最大距離と最小距離を示している。図4(a)の上部には、目標領域が最大距離Lmaxの位置にあるときの投射範囲、撮像範囲および撮像有効領域が示されている。
In the lower part of FIG. 4A, the projection state of infrared light by the
図4(a)に示すように、撮像範囲と投射範囲は、目標領域において互いに重なり合っており、撮像範囲と投射範囲とが重なる範囲に、撮像有効領域が位置付けられる。目標領域をCMOSイメージセンサ240で撮像するためには、CMOSイメージセンサ240の撮像有効領域に対応する領域が、投射範囲内に含まれている必要がある。一方、距離が短くなるにつれて、投射範囲が狭くなり、やがて、投射範囲が撮像有効領域に対応する領域に掛らなくなる。したがって、最小距離Lminは、少なくとも、投射範囲が撮像有効領域全体に掛かり得る最小の限界距離よりも長く設定される必要がある。
As shown in FIG. 4A, the imaging range and the projection range overlap each other in the target area, and the imaging effective area is positioned in a range where the imaging range and the projection range overlap. In order to image the target area with the
一方、最大距離Lmaxは、手等の検出対象物体が存在し得る距離範囲を想定して設定される。最大距離Lmaxが長すぎると、検出対象物体の背景が撮像画像に映り込み、これにより、検出対象物体の検出精度が低下する惧れがある。したがって、最大距離Lmaxは、検出対象物体の背景が撮像画像に映り込まないよう、手等の検出対象物体が存在し得る距離範囲を想定して設定される。 On the other hand, the maximum distance Lmax is set assuming a distance range in which a detection target object such as a hand can exist. If the maximum distance Lmax is too long, the background of the detection target object is reflected in the captured image, which may reduce the detection accuracy of the detection target object. Therefore, the maximum distance Lmax is set assuming a distance range in which a detection target object such as a hand can exist so that the background of the detection target object does not appear in the captured image.
なお、図3(a)に示すLEDが光源110として用いられる場合、図4(a)の下図に示すように、赤外光は、略均等に広がるように投射部100から出射される。このため、図4(a)の上図に示すように、投射範囲のうち、撮像範囲および撮像有効領域に掛らない範囲が広くなり、赤外光の利用効率が低くなってしまう。
When the LED shown in FIG. 3A is used as the
この問題は、図4(b)に示すように、赤外光が目標領域において撮像範囲の近傍に集まるように、投射部100から出射される赤外光を指向させることにより解消される。このような構成は、図3(d)に示すLED111を光源110として用いることにより実現され得る。
This problem is solved by directing the infrared light emitted from the
図3(d)を参照して、LED111は、基部111aと、ハウジング111bとを備える。赤外光を発する発光素子(図示せず)は、透光性のハウジング111b内にモールドされる。ハウジング111bの上面は、レンズ面111cとなっており、このレンズ面111cによって、上面から外部に出射される赤外光の指向が調整される。レンズ面111cは、図4(b)に示すように、目標領域において赤外光が撮像範囲の近傍に集まるように調整される。これにより、撮像有効領域に導かれない赤外光の光量が削減され、赤外光の利用効率が高められる。
With reference to FIG.3 (d), LED111 is provided with the
図5(a)は、CMOSイメージセンサ240上の各画素の感度を模式的に示す図である。
FIG. 5A is a diagram schematically illustrating the sensitivity of each pixel on the
本実施の形態では、CMOSイメージセンサ240として、カラーセンサが用いられる。したがって、CMOSイメージセンサ240には、赤、緑、青をそれぞれ検知する3種の画素が含まれる。
In the present embodiment, a color sensor is used as the
図5(a)において、R、G、Bは、それぞれ、CMOSイメージセンサ240に含まれる赤、緑、青の画素の感度を示している。図5(a)に示すとおり、赤、緑、青の画素の感度は、赤外の波長帯域である800nm以上の帯域において、略同じ感度となっている(図5(a)の斜線部分を参照)。したがって、図3(c)に示すフィルタ230によって、可視光の波長帯域が除去されると、CMOSイメージセンサ240の赤、緑、青の画素の感度は、互いに略等しくなる。このため、赤、緑、青の画素に、それぞれ、同じ光量の赤外光が入射すると、各色の画素から出力される信号の値は略等しくなる。よって、各画素からの信号を画素間で調整する必要はなく、各画素からの信号をそのまま距離情報の取得に用いることができる。
In FIG. 5A, R, G, and B indicate the sensitivity of red, green, and blue pixels included in the
図5(b)は、メモリ25に保持された距離変換関数の波形を模式的に示す図である。便宜上、図5(b)には、図4(a)、(b)に示す最大距離Lmaxおよび最小距離Lminと、距離取得範囲ΔLが併せて示されている。
FIG. 5B is a diagram schematically showing the waveform of the distance conversion function held in the
図5(b)に示すように、距離変換関数は、CMOSイメージセンサ240を介して取得される輝度値と、当該輝度値に対応する距離の関係を規定する。一般に、直進する光の光量は、距離の2乗に反比例して減衰する。したがって、投射部100から出射された赤外光は、投射部100から目標領域までの距離と目標領域から撮像部200までの距離を加算した距離の2乗分の1に光量が減衰した状態で、撮像部200によって受光される。このため、図5(b)に示すように、CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、距離と輝度との関係を規定する距離変換関数は、図5(b)に示すような曲線波形になる。
As shown in FIG. 5B, the distance conversion function defines the relationship between the luminance value acquired via the
情報取得装置2では、距離と輝度値との関係が距離変換関数に略整合するように、CMOSイメージセンサ240の露光時間が調整され、同時に、輝度値の取得に適用にされるゲインが調整される。図5(b)に示す例では、最小距離Lminは30cmに設定され、最大距離Lmaxは80cmに設定されている。輝度値は、256階調で取得される。
In the information acquisition device 2, the exposure time of the
この場合、最小距離Lminに物体が存在するときの輝度値が230程度となり、最大距離Lmaxに物体が存在するときの輝度値が50程度となり、さらに、距離取得範囲ΔL内の他の距離の位置に物体が存在するときの輝度値が図5(b)の距離変換関数の波形に略整合するように、CMOSイメージセンサ240の露光時間が調整され、同時に、輝度値の取得に適用にされるゲインが調整される。より詳細には、投射部100から所定のパワーで赤外光を出射させた状態で、基準面(スクリーン)を最小距離Lminの位置から最大距離Lmaxの位置まで移動させて順次輝度値(階調)を取得する。このとき、取得した各輝度値が、図5(b)の波形に略整合するように、CMOSイメージセンサ240の露光時間が調整され、同時に、輝度値の取得に適用にされるゲインが調整される。
In this case, the luminance value when the object exists at the minimum distance Lmin is about 230, the luminance value when the object exists at the maximum distance Lmax is about 50, and the position of another distance within the distance acquisition range ΔL. The exposure time of the
なお、露光時間とゲインのうち露光時間の調整のみによって、輝度値と距離の関係を図5(b)に示す距離変換関数に略整合させることが可能である場合には、露光時間の調整のみが行われれば良い。あるいは、ゲインの調整のみによって輝度値と距離の関係を図5(b)に示す距離変換関数に略整合させることが可能である場合には、ゲインの調整のみが行われれば良い。さらに、露光時間とゲイン以外の他のパラメータが調整されても良い。 If the relationship between the brightness value and the distance can be substantially matched to the distance conversion function shown in FIG. 5B by adjusting only the exposure time of the exposure time and gain, only the adjustment of the exposure time is possible. Should be done. Alternatively, when it is possible to substantially match the relationship between the luminance value and the distance with the distance conversion function shown in FIG. 5B only by adjusting the gain, it is only necessary to adjust the gain. Further, parameters other than the exposure time and gain may be adjusted.
かかる調整は、情報取得装置2の製造時に行われる。そして、調整された露光時間とゲインは、メモリ25に保持され、距離情報の取得の際に用いられる。
Such adjustment is performed when the information acquisition apparatus 2 is manufactured. The adjusted exposure time and gain are stored in the
なお、このように、距離取得範囲ΔLに対応した輝度値が各画素から得られるように、輝度値を取得するためのパラメータ(露光時間、ゲイン)を調整する構成は、請求項4に記載の構成の一例である。また、調整対象のパラメータが露光時間およびゲインである構成は、請求項5、6に記載の構成の一例である。
The configuration for adjusting the parameters (exposure time, gain) for acquiring the luminance value so that the luminance value corresponding to the distance acquisition range ΔL is obtained from each pixel in this way is described in
図6(a)は、距離情報の取得処理を示すフローチャートである。図6(a)の処理は、図2に示すCPU21の機能のうち、距離取得部21bの機能によって実行される。
FIG. 6A is a flowchart illustrating distance information acquisition processing. The process of FIG. 6A is executed by the function of the
距離情報の取得タイミングが到来すると(S101:YES)、CPU21は、上記のように設定された露光時間とゲインをメモリ25から読み出して、撮像信号処理回路23に設定する。これにより撮像信号処理回路23は、設定された露光時間とゲインでもって
、CMOSイメージセンサ240から撮像画像を取得し(S102)、取得した撮像画像から、画素毎に輝度値を取得する(S103)。取得された輝度値は、CPU21に送信される。CPU21は、撮像信号処理回路23から受信した各画素の輝度値をメモリ25に保持し、さらに、各画素の輝度値を所定の閾値Bshと比較する。そして、CPU21は、輝度値が閾値Bshに満たない画素に対してエラーを設定する(S104)。
When the distance information acquisition timing arrives (S101: YES), the
なお、S104において、輝度値が閾値Bshに満たない画素に対してエラーを設定する処理は、請求項7に記載の構成の一例である。 In S104, the process of setting an error for a pixel whose luminance value is less than the threshold value Bsh is an example of a configuration according to claim 7.
続いて、CPU21は、閾値Bsh以上の輝度値を、メモリ25に保持された距離変換関数に基づく演算により距離に変換し(S105)、かかる変換により取得された距離を、それぞれ、対応する画素に設定して距離画像を生成する(S106)。この際、CPU21は、S104においてエラーとなった画素に、エラーを示す値(たとえば、0)を設定する。
Subsequently, the
なお、S105において、メモリ25に保持された距離変換関数に基づく演算によって輝度値を距離に変換する処理は、請求項3に記載の構成の一例である。
In S105, the process of converting the luminance value into the distance by the calculation based on the distance conversion function held in the
こうして、距離画像が生成された後、CPU21は、距離情報の取得動作が終了したか否かを判定する(S107)。そして、距離情報の取得動作が終了していなければ(S107:NO)、CPU21は、処理をS101に戻して、次の距離情報の取得タイミングを待つ。
After the distance image is generated in this way, the
なお、S104における閾値Bshは、たとえば、図5(b)に示す距離変換関数において、最大距離Lmaxに対応する輝度値に設定される。これにより、最大距離Lmaxよりも遠方にある物体から反射された赤外光に基づく輝度値が、距離情報の取得対象から除外されることとなる。このため、検出対象物体の背景にある物体が撮像画像に映り込むことによって検出対象物体の検出精度が低下することが抑制される。 Note that the threshold value Bsh in S104 is set to a luminance value corresponding to the maximum distance Lmax in the distance conversion function shown in FIG. 5B, for example. Thereby, the luminance value based on the infrared light reflected from the object farther than the maximum distance Lmax is excluded from the distance information acquisition target. For this reason, it is suppressed that the detection accuracy of a detection target object falls because the object in the background of a detection target object reflects in a captured image.
図6(b)は、物体検出処理を示すフローチャートである。図6(b)の処理は、図2に示すCPU31の機能のうち、物体検出部31aの機能によって実行される。
FIG. 6B is a flowchart showing the object detection process. 6B is executed by the function of the
図6(a)のS106において距離画像が取得されると(S201:YES)、CPU31は、距離画像における最高階調の距離値(最も情報取得装置2に接近することを表す距離値)から所定の値ΔDを減じた値を距離閾値Dshに設定する(S202)。
When the distance image is acquired in S106 of FIG. 6A (S201: YES), the
次に、CPU31は、距離画像上において、距離値(階調値)が距離閾値Dshよりも高い領域を、対象領域として区分する(S203)。そして、CPU31は、輪郭抽出エンジンを実行し、区分した対象領域の輪郭と、メモリ25に保持された物体形状抽出テンプレートとを比較して、物体形状抽出テンプレートに保持された輪郭に対応する輪郭の対象領域を、検出対象物体に対応する領域として抽出する(S204)。なお、S204において検出対象物体が抽出されない場合、当該距離画像に対する検出対象物体の抽出は、エラーとされる。
Next, the
こうして、検出対象物体の抽出処理が終了すると、CPU31は、物体検出動作が終了したか否かを判定する(S205)。物体検出動作が終了していない場合(S205:NO)、CPU31は、S201に戻り、次の距離画像が取得されるのを待つ。そして、次の距離画像が取得されると(S201:YES)、CPU21は、S202以降の処理を実行し、当該距離画像から検出対象物体を抽出する(S202〜S204)。
Thus, when the extraction process of the detection target object is finished, the
<実施の形態の効果>
以上、本実施の形態によれば、目標領域に投射される光をドットパターンに変換する必要がないため、投射部100の構成を簡素なものとすることができる。また、輝度値に基づいて各画素の距離情報が取得されるため、簡素な演算処理により距離情報を取得することができる。
<Effect of Embodiment>
As described above, according to the present embodiment, it is not necessary to convert the light projected onto the target area into a dot pattern, so that the configuration of the
また、距離取得範囲ΔLに対応した輝度値が各画素から得られるように、CMOSイメージセンサ240の露光時間とゲインが設定されるため、最大距離Lmaxよりも遠方の物体から反射され画素に入射する赤外光の輝度は、図6(a)のS104における閾値Bshよりも小さくなり、距離情報の取得対象から除外される。これにより、距離取得範囲ΔLよりも遠方にある物体の画像が撮像画像に映り込むことにより検出対象物体の検出精度が低下することを抑制することができる。
Further, since the exposure time and gain of the
<変更例>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、本発明の構成例も他に種々の変更が可能である。
<Example of change>
While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the configuration example of the present invention.
たとえば、上記実施の形態では、光源110としてLEDを用いたが、LEDに代えて半導体レーザを光源110として用いることも可能である。
For example, in the above-described embodiment, an LED is used as the
図7(a)、(b)は、光源110に半導体レーザを用いる場合の投射部100と撮像部200の構成例を示す図である。図7(a)は、回路基板300に設置された状態の投射部100および撮像部200を示す平面図であり、図7(b)は、図7(a)のA−A’断面図である。図7(a)、(b)において、図3(b)、(c)の各部材と同一の部材には同一の符号が付されている。本変更における撮像部200の構成は、図3(b)、(c)に示す実施の形態の撮像部200の構成と同じである。
FIGS. 7A and 7B are diagrams illustrating a configuration example of the
本変更例では、半導体レーザからなる光源112と、凹レンズ120と、レンズホルダ130が配されている。光源112は、CANタイプの半導体レーザであり、赤外の波長帯のレーザ光を出射する。光源112は、回路基板300上に実装される。凹レンズ120は、レンズホルダ130に保持される。凹レンズ120を保持したレンズホルダ130が、光源112を覆うように、回路基板300に設置される。凹レンズ120は、光源112から出射されたレーザ光が、目標領域において、図7(c)に示すように撮像範囲の近傍に集まるように、レーザ光を指向させる。
In this modification, a
なお、このように、光源110が半導体レーザからなり、光源110から出射されたレーザ光を凹レンズ120により目標領域に投射する構成は、請求項10に記載の構成の一例である。
The configuration in which the
本変更例においても、上記実施の形態と同様、目標領域に投射される光をドットパターンとする必要がないため、投射部100の構成を簡素なものとすることができる。
Also in this modified example, since the light projected on the target area does not need to be a dot pattern as in the above embodiment, the configuration of the
なお、図7(a)、(b)の構成例では、凹レンズ120を保持するレンズホルダ130が用いられたが、図7(d)のように、光源112である半導体レーザのCANの出射面に凹レンズ140が装着され、凹レンズ140と光源112が一体化されていても良い。こうすると、レンズホルダ130を省略することができ、投射部100の構成をより簡素化することができる。
7A and 7B, the
また、上記実施の形態では、可視光の波長帯域の光を除去するためにフィルタ230が用いられたが、撮像レンズ220の材料として可視光の波長帯域の光を吸収する材料を用
い、撮像レンズ220にフィルタの機能を付与しても良い。
In the above embodiment, the
図7(e)は、この場合の撮像部200の構成例を示す図である。
FIG. 7E is a diagram illustrating a configuration example of the
この構成例では、撮像レンズ221が、樹脂材料に染料を混ぜ込んだ材料から形成されている、染料としては、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低いものが用いられる。なお、ここでは、撮像レンズ221の材料に染料が混ぜ込まれたが、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低い材料であれば、染料以外の材料が混ぜ込まれても良い。また、図7(e)のように4枚のレンズから撮像レンズ221が形成される場合、必ずしも、全てのレンズに染料が混ぜ込まれなくても良く、可視光を適正に除去可能であれば、1つ、2つまたは3つのレンズに染料が混ぜ込まれても良い。
In this configuration example, the
この構成例によれば、フィルタ230を省略できるため、撮像部200の構成をより簡素化することができ、また、撮像部200の背高を低くすることができる。
According to this configuration example, since the
なお、このように、撮像レンズ221が、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低い染料を樹脂材料に混ぜ込んだ材料から形成される構成は、請求項11に記載の構成の一例である。
In addition, the configuration in which the
また、上記実施の形態では、距離変換関数を用いた演算により輝度値が距離に変換されたが、輝度値と距離とを対応付けたテーブルをメモリ25に保持しておき、このテーブルに基づいて、輝度値から距離を取得するようにしても良い。また、図6(a)の処理では、S105において距離が取得されたが、ここで取得される距離は、距離値でなくとも良く、距離を表すことが可能な情報であれば良い。
In the above embodiment, the luminance value is converted into the distance by the calculation using the distance conversion function. However, a table in which the luminance value and the distance are associated with each other is stored in the
また、上記実施の形態では、距離変換関数に基づいて輝度値を距離に変換して距離情報を取得したが、輝度値をそのまま距離に関する情報として取得しても良い。 In the above embodiment, the distance value is acquired by converting the luminance value into the distance based on the distance conversion function. However, the luminance value may be acquired as it is as information about the distance.
図8(a)は、輝度値をそのまま距離に関する情報として取得する場合の輝度画像生成処理を示すフローチャートである。 FIG. 8A is a flowchart showing a luminance image generation process in the case where the luminance value is directly acquired as information on the distance.
図8(a)のフローチャートでは、図6(a)のS105が省略され、さらに、図6(a)のS106がS111に変更されている。すなわち、図8(a)のフローチャートでは、各画素の輝度値が距離値に変換されることなく、対応する画素に輝度値が設定されて輝度画像が生成される(S111)。上記実施の形態と同様、S104においてエラーが設定された画素には、エラーを示す値(たとえば、0)が設定される。 In the flowchart of FIG. 8A, S105 of FIG. 6A is omitted, and S106 of FIG. 6A is changed to S111. That is, in the flowchart of FIG. 8A, the luminance value is set to the corresponding pixel without generating the luminance value of each pixel into a distance value (S111). Similar to the above-described embodiment, a value indicating an error (for example, 0) is set to the pixel for which an error is set in S104.
なお、このように、輝度値を距離に関する情報として取得する構成は、請求項2に記載の構成の一例である。 Note that, in this way, the configuration for acquiring the luminance value as the information regarding the distance is an example of the configuration according to claim 2.
図8(b)は、物体検出処理を示すフローチャートである。図8(b)のフローチャートでは、距離画像に代えて輝度画像が参照される。 FIG. 8B is a flowchart showing the object detection process. In the flowchart of FIG. 8B, a luminance image is referred to instead of the distance image.
すなわち、図8(a)のS111において輝度画像が取得されると(S211:YES)、CPU31は、輝度画像における最高階調の輝度値(最も情報取得装置2に接近することを表す輝度値)から所定の値ΔBを減じた値を輝度閾値Bsh2に設定する(S212)。
That is, when the luminance image is acquired in S111 of FIG. 8A (S211: YES), the
次に、CPU31は、輝度画像上において、輝度値(階調値)が輝度閾値Bsh2より
も高い領域を、対象領域として区分する(S213)。そして、CPU31は、輪郭抽出エンジンを実行し、区分した対象領域の輪郭と、メモリ25に保持された物体形状抽出テンプレートとを比較して、物体形状抽出テンプレートに保持された輪郭に対応する輪郭の対象領域を、検出対象物体に対応する領域として抽出する(S214)。S214において検出対象物体が抽出されない場合、当該距離画像に対する検出対象物体の抽出は、エラーとされる。CPU31は、S211〜S214の処理を物体検出動作が終了するまで繰り返す(S215)。
Next, the
図8(a)のフローチャートでは、距離変換関数に基づいて輝度値が距離に変換されないため、輝度画像上の各画素の輝度値は、正確な距離を表現するものとはならない。すなわち、図5(b)に示すように、輝度と距離は、曲線状のグラフによって表わされる関係を有するため、輝度値を正確な距離として取得するためには、輝度値をこの曲線に従って調整する必要がある。図8(a)のフローチャートでは、取得された輝度値がそのまま輝度画像に設定されるため、輝度画像上の各画素の輝度値は、正確な距離を表わさず、誤差を含むものとなる。 In the flowchart of FIG. 8A, since the luminance value is not converted to the distance based on the distance conversion function, the luminance value of each pixel on the luminance image does not represent an accurate distance. That is, as shown in FIG. 5B, since the luminance and the distance have a relationship represented by a curved graph, the luminance value is adjusted according to this curve in order to obtain the luminance value as an accurate distance. There is a need. In the flowchart of FIG. 8A, since the acquired luminance value is set as it is in the luminance image, the luminance value of each pixel on the luminance image does not represent an accurate distance and includes an error.
しかしながら、この場合も、各画素の輝度値は、大まかな距離を表わすものとなるため、輝度画像を用いて検出対象物体を検出することは可能である。したがって、本変更例によっても、図8(b)のフローチャートによって、検出対象物体を検出することができる。 However, in this case as well, the luminance value of each pixel represents a rough distance, so it is possible to detect the detection target object using the luminance image. Therefore, also according to this modification, the detection target object can be detected by the flowchart of FIG.
なお、図8(a)のフローチャートでは、S103で取得された輝度値が、S111において、そのまま輝度画像に設定されたが、輝度画像に設定される値は、輝度値でなくとも良く、輝度を表わすことが可能な情報であれば良い。 In the flowchart of FIG. 8A, the luminance value acquired in S103 is set as a luminance image as it is in S111. However, the value set in the luminance image may not be a luminance value, Any information that can be expressed may be used.
<他の変更例>
上記実施の形態では、情報取得装置2と情報処理装置3側の物体検出部31aによって物体検出装置が構成されたが、一つの装置に情報取得装置2の機能と物体検出部31aの機能の両方が配されても良い。また、上記実施の形態では、輝度値が距離に変換されたが、輝度値が距離に変換されることなく、輝度値に基づいて物体検出が行われても良い。
<Other changes>
In the above embodiment, the object detection device is configured by the information acquisition device 2 and the
図9は、この場合の構成例を示す図である。図9の構成例では、図2の情報取得装置2が物体検出装置7に置き換えられている。なお、説明の便宜上、図9において、図2の構成と同一の構成には同一の符号が付されている。 FIG. 9 is a diagram showing a configuration example in this case. In the configuration example of FIG. 9, the information acquisition device 2 of FIG. 2 is replaced with an object detection device 7. For convenience of explanation, the same reference numerals in FIG. 9 denote the same parts as in FIG.
なお、図9に示す物体検出装置7は、請求項13に記載の「物体検出装置」の一例である。また、図9に示す輝度情報取得部21cと撮像信号処理回路23は、請求項13に記載の「輝度取得部」に相当し、物体検出部21dは、請求項13に記載の「物体検出部」に相当する。
The object detection device 7 shown in FIG. 9 is an example of the “object detection device” according to the thirteenth aspect. Further, the luminance
図9の構成例では、CPU31から物体検出部31aの機能が除かれ、CPU21に物体検出部21dの機能が付加されている。また、メモリ33から物体形状抽出テンプレートが除かれ、メモリ25に物体形状抽出テンプレートが追加されている。さらに、図9の構成例では、図2の距離取得部21bが輝度情報取得部21cに置き換えられている。輝度情報取得部21cは、CMOSイメージセンサ240から取得される輝度値に基づいて輝度画像を生成する。
In the configuration example of FIG. 9, the function of the
図9の構成例においても、上記実施の形態と同様、物体検出が可能な距離範囲(上記実施の形態の距離取得範囲ΔLに相当)に対応した輝度値が各画素から得られるように、輝度値を取得するためのパラメータ(露光時間、ゲイン)が調整され、調整されたパラメー
タの値が撮像信号処理回路23に設定される。このようにパラメータを調整する構成は、請求項14に記載の構成の一例である。また、調整対象のパラメータが露光時間およびゲインである構成は、請求項15、16に記載の構成の一例である。
In the configuration example of FIG. 9 as well, in the same way as in the above embodiment, the luminance value is obtained from each pixel so that the luminance value corresponding to the distance range in which object detection is possible (corresponding to the distance acquisition range ΔL in the above embodiment) is obtained. Parameters (exposure time, gain) for acquiring values are adjusted, and the adjusted parameter values are set in the imaging
また、図9の構成例においても、上記実施の形態と同様、赤外光を出射する光源110が投射部100に配され、フィルタ230とCMOSイメージセンサ240が撮像部200に配される。ここで、光源110は、図3(a)または図3(d)の構成を有するLEDからなり、あるいは、図7(a)、(b)または図7(d)のように半導体レーザ112と凹レンズ120、140の組合せから構成され得る。また、フィルタ230は、光源110の出射波長を含む波長帯域の光を透過し、可視光の波長帯域の光をカットするバンドパスフィルタであり、CMOSイメージセンサ240は、可視光の波長帯域と、光源110から出射される赤外光の波長帯域に対して感度を有するカラーのイメージセンサである。
9, the
このように、投射部100が赤外の波長帯域の光を出射する光源110を備え、撮像部200が撮像レンズ220とフィルタ230とを備える構成は、請求項17に記載の構成の一例である。また、光源110がLEDからなる構成は、請求項18に記載の構成の一例であり、あるいは、光源110が半導体レーザ112からなり、光源110から出射されたレーザ光を凹レンズ120、140により目標領域に投射する構成は、請求項19に記載の構成の一例である。
Thus, the configuration in which the
さらに、図9の構成例においても、上記実施の形態の変更例に係る図7(e)の構成と同様、撮像レンズ220が、可視光の波長帯域の光の吸収が高く、赤外の波長帯域の光の吸収が低い染料を樹脂材料に混ぜ込んだ材料から形成されても良い。この構成は、請求項20に記載の構成の一例である。
Furthermore, in the configuration example of FIG. 9 as well, the
図10は、本変更例における物体検出処理を示すフローチャートである。図10のフローチャートのうち、S102〜S111は、図9の輝度情報取得部21cにより行われ、S112〜S114は、図9の物体検出部21dにより行われる。S102〜S111の処理は、図8(a)のS102〜S111と同じであり、S112〜S114の処理は、図8(b)のS212〜S214と同じであるので、ここでは、これらステップの説明は省略する。
FIG. 10 is a flowchart showing object detection processing in the present modification. In the flowchart of FIG. 10, S102 to S111 are performed by the luminance
物体検出タイミングが到来すると(S201:YES)、CPU21は、S102〜S111の処理により輝度画像を生成する。そして、CPU21は、生成した輝度画像を参照してS112〜S114の処理を実行し、検出対象物体を検出する。S201〜S114の処理は、物体検出動作が終了するまで繰り返し実行される(S115)。
When the object detection timing arrives (S201: YES), the
本変更例においても、上記実施の形態と同様、目標領域に投射される光をドットパターンに変換する必要がないため、投射部100の構成を簡素なものとすることができる。また、輝度値に基づいて目標領域上の物体が検出されるため、簡素な演算処理により距離情報を取得することができる。
Also in this modified example, since it is not necessary to convert the light projected on the target area into a dot pattern as in the above embodiment, the configuration of the
また、上記実施の形態および変更例では、CMOSイメージセンサ240上の全ての画素について距離および輝度値が取得されたが、必ずしも全ての画素について距離および輝度値が取得されなくとも良く、たとえば、数画素おきに距離および輝度値が取得されても良い。
In the above embodiment and the modification, the distance and the luminance value are acquired for all the pixels on the
また、上記実施の形態では、赤外撮像部200の可視光除去フィルタ230が撮像レンズ220とCMOSイメージセンサ240との間に配置されたが、可視光除去フィルタ2
30の配置位置は、これに限られるものではなく、撮像レンズ220よりも目標領域側であっても良い。同様に、可視光撮像部300の赤外除去フィルタ330に配置位置も適宜変更可能である。
In the above-described embodiment, the visible
The arrangement position of 30 is not limited to this, and may be closer to the target area than the
また、上記実施の形態では、CPU21による機能によってソフトウエア処理により距離情報が取得されたが、距離情報の取得が回路によるハードウエア処理により実現されても良い。
In the above embodiment, the distance information is acquired by software processing by the function of the
さらに、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。また、赤外以外の波長帯域の光を距離取得に用いることもできる。
Furthermore, in the above-described embodiment, the
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。 In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.
1 … パーソナルコンピュータ
2 … 情報取得装置
7 … 物体検出装置
21b … 距離取得部
21c … 輝度情報取得部(輝度取得部)
21d … 物体検出部
23 … 撮像信号処理回路(輝度取得部)
31a … 物体検出部
100 … 投射部
110 … 光源
111 … LED(光源)
112 … 半導体レーザ(光源)
120、140 … 凹レンズ
200 … 撮像部
220、221 … 撮像レンズ
230 … フィルタ
240 … CMOSイメージセンサ(イメージセンサ、カラーイメージセンサ)
DESCRIPTION OF SYMBOLS 1 ... Personal computer 2 ... Information acquisition apparatus 7 ...
21d: Object detection unit 23: Imaging signal processing circuit (luminance acquisition unit)
31a ...
112 ... Semiconductor laser (light source)
120, 140 ...
Claims (20)
前記目標領域をイメージセンサにより撮像する撮像部と、
前記イメージセンサ上の所定の画素の輝度値を取得する輝度取得部と、
前記輝度取得部により取得された輝度値に基づいて、前記画素に対応する前記目標領域上の位置までの距離に関する情報を取得する距離取得部と、を備える、
ことを特徴とする情報取得装置。 A projection unit that projects light onto the target area;
An imaging unit for imaging the target area by an image sensor;
A luminance acquisition unit for acquiring a luminance value of a predetermined pixel on the image sensor;
A distance acquisition unit that acquires information related to a distance to a position on the target region corresponding to the pixel based on the luminance value acquired by the luminance acquisition unit;
An information acquisition apparatus characterized by that.
前記距離取得部は、前記輝度値を前記距離に関する情報として取得する、
ことを特徴とする情報取得装置。 The information acquisition device according to claim 1,
The distance acquisition unit acquires the luminance value as information on the distance.
An information acquisition apparatus characterized by that.
前記距離取得部は、輝度値と距離との関係を規定する規定情報を備え、前記規定情報に基づいて、前記画素に対する前記距離に関する情報を取得する、
ことを特徴とする情報取得装置。 The information acquisition device according to claim 1,
The distance acquisition unit includes definition information that defines a relationship between a luminance value and a distance, and acquires information on the distance to the pixel based on the definition information.
An information acquisition apparatus characterized by that.
前記輝度取得部は、取得対象とされる距離範囲に対応した前記輝度値が前記画素から得られるように、前記イメージセンサから前記輝度値を取得するための所定のパラメータの値が調整される、
ことを特徴とする情報取得装置。 In the information acquisition device according to any one of claims 1 to 3,
The luminance acquisition unit adjusts a value of a predetermined parameter for acquiring the luminance value from the image sensor so that the luminance value corresponding to a distance range to be acquired is acquired from the pixel.
An information acquisition apparatus characterized by that.
前記パラメータは、前記イメージセンサ上の各画素に適用される露光時間を含む、
ことを特徴とする情報取得装置。 The information acquisition device according to claim 4,
The parameter includes an exposure time applied to each pixel on the image sensor.
An information acquisition apparatus characterized by that.
前記パラメータは、前記イメージセンサ上の各画素から取得される信号に適用されるゲインを含む、
ことを特徴とする情報取得装置。 In the information acquisition device according to claim 4 or 5,
The parameter includes a gain applied to a signal acquired from each pixel on the image sensor.
An information acquisition apparatus characterized by that.
前記距離取得部は、前記輝度取得部から取得された前記輝度値のうち、所定の閾値に満たない前記輝度値を、前記距離に関する情報の取得対象から除外する、
ことを特徴とする情報取得装置。 In the information acquisition device according to any one of claims 1 to 6,
The distance acquisition unit excludes the luminance value that is less than a predetermined threshold among the luminance values acquired from the luminance acquisition unit, from an acquisition target of information related to the distance.
An information acquisition apparatus characterized by that.
前記投射部は、赤外の波長帯域の光を出射する光源を含み、
前記撮像部は、前記赤外の波長帯域の光を透過するフィルタと、前記目標領域に照射された前記光を前記イメージセンサに集光する撮像レンズと、を備える、
ことを特徴とする情報取得装置。 In the information acquisition device according to any one of claims 1 to 7,
The projection unit includes a light source that emits light in an infrared wavelength band,
The imaging unit includes a filter that transmits light in the infrared wavelength band, and an imaging lens that focuses the light irradiated on the target region onto the image sensor.
An information acquisition apparatus characterized by that.
前記光源は、発光ダイオードである、
ことを特徴とする情報取得装置。 In the information acquisition device according to claim 8,
The light source is a light emitting diode;
An information acquisition apparatus characterized by that.
前記光源は、半導体レーザであり、
前記投射部は、前記半導体レーザから出射されるレーザ光を前記目標領域に投射する凹レンズを含む、
ことを特徴とする情報取得装置。 In the information acquisition device according to claim 8,
The light source is a semiconductor laser;
The projection unit includes a concave lens that projects laser light emitted from the semiconductor laser onto the target area.
An information acquisition apparatus characterized by that.
前記撮像レンズは、可視光を吸収し、前記赤外の波長帯域の光を透過する材料からなり、前記フィルタが前記撮像レンズに一体的に含まれている、
ことを特徴とする情報取得装置。 In the information acquisition device according to any one of claims 8 to 10,
The imaging lens is made of a material that absorbs visible light and transmits light in the infrared wavelength band, and the filter is integrally included in the imaging lens.
An information acquisition apparatus characterized by that.
前記情報取得装置によって取得された前記距離に関する情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。 The information acquisition device according to any one of claims 1 to 11,
An object detection unit that detects an object present in the target area based on the information about the distance acquired by the information acquisition device;
An object detection apparatus characterized by that.
カラーイメージセンサおよび可視光をカットし赤外の波長帯域の光を透過するフィルタを備え、前記目標領域を前記カラーイメージセンサにより撮像する撮像部と、
前記カラーイメージセンサ上の所定の画素の輝度値を取得する輝度取得部と、
前記輝度取得部により取得された輝度値に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。 A projection unit for projecting light in the infrared wavelength band to the target region;
An image capturing unit that includes a color image sensor and a filter that cuts visible light and transmits light in an infrared wavelength band, and images the target region by the color image sensor;
A luminance acquisition unit for acquiring a luminance value of a predetermined pixel on the color image sensor;
An object detection unit that detects an object present in the target region based on the luminance value acquired by the luminance acquisition unit;
An object detection apparatus characterized by that.
前記輝度取得部は、取得対象とされる距離範囲に対応した前記輝度値が前記画素から得られるように、前記イメージセンサから前記輝度値を取得するための所定のパラメータの値が調整される、
ことを特徴とする物体検出装置。 The object detection device according to claim 13.
The luminance acquisition unit adjusts a value of a predetermined parameter for acquiring the luminance value from the image sensor so that the luminance value corresponding to a distance range to be acquired is acquired from the pixel.
An object detection apparatus characterized by that.
前記パラメータは、前記イメージセンサ上の各画素に適用される露光時間を含む、
ことを特徴とする物体検出装置。 The object detection device according to claim 14, wherein
The parameter includes an exposure time applied to each pixel on the image sensor.
An object detection apparatus characterized by that.
前記パラメータは、前記イメージセンサ上の各画素から取得される信号に適用されるゲインを含む、
ことを特徴とする物体検出装置。 The object detection apparatus according to claim 14 or 15,
The parameter includes a gain applied to a signal acquired from each pixel on the image sensor.
An object detection apparatus characterized by that.
前記投射部は、前記赤外の波長帯域の光を出射する光源を含み、
前記撮像部は、前記目標領域に照射された前記光を前記カラーイメージセンサに集光する撮像レンズと、を備える、
ことを特徴とする物体検出装置。 The object detection device according to any one of claims 13 to 16,
The projection unit includes a light source that emits light in the infrared wavelength band,
The imaging unit includes an imaging lens that condenses the light applied to the target area on the color image sensor,
An object detection apparatus characterized by that.
前記光源は、発光ダイオードである、
ことを特徴とする物体検出装置。 The object detection apparatus according to claim 17,
The light source is a light emitting diode;
An object detection apparatus characterized by that.
前記光源は、半導体レーザであり、
前記投射部は、前記半導体レーザから出射されるレーザ光を前記目標領域に投射する凹
レンズを含む、
ことを特徴とする物体検出装置。 The object detection apparatus according to claim 17,
The light source is a semiconductor laser;
The projection unit includes a concave lens that projects laser light emitted from the semiconductor laser onto the target area.
An object detection apparatus characterized by that.
前記撮像レンズは、可視光を吸収し、前記赤外の波長帯域の光を透過する材料からなり、前記フィルタが前記撮像レンズに一体的に含まれている、
ことを特徴とする物体検出装置。 In the object detection device according to any one of claims 17 to 19,
The imaging lens is made of a material that absorbs visible light and transmits light in the infrared wavelength band, and the filter is integrally included in the imaging lens.
An object detection apparatus characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013023776A JP2016065717A (en) | 2013-02-08 | 2013-02-08 | Information acquisition device and object detection device |
PCT/JP2013/007537 WO2014122712A1 (en) | 2013-02-08 | 2013-12-24 | Information acquisition device and object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013023776A JP2016065717A (en) | 2013-02-08 | 2013-02-08 | Information acquisition device and object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016065717A true JP2016065717A (en) | 2016-04-28 |
Family
ID=51299328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013023776A Pending JP2016065717A (en) | 2013-02-08 | 2013-02-08 | Information acquisition device and object detection device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2016065717A (en) |
WO (1) | WO2014122712A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9911023B2 (en) * | 2015-08-17 | 2018-03-06 | Hand Held Products, Inc. | Indicia reader having a filtered multifunction image sensor |
WO2021005659A1 (en) * | 2019-07-05 | 2021-01-14 | パナソニックセミコンダクターソリューションズ株式会社 | Information processing system, sensor system, information processing method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3868621B2 (en) * | 1998-03-17 | 2007-01-17 | 株式会社東芝 | Image acquisition apparatus, image acquisition method, and recording medium |
EP1751495A2 (en) * | 2004-01-28 | 2007-02-14 | Canesta, Inc. | Single chip red, green, blue, distance (rgb-z) sensor |
JP2011158447A (en) * | 2010-02-04 | 2011-08-18 | Sony Corp | Image processing apparatus and method, program, and electronic apparatus |
US8553934B2 (en) * | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
JP2014112033A (en) * | 2011-03-25 | 2014-06-19 | Sanyo Electric Co Ltd | Light receiving apparatus, object detecting device, and information acquisition device |
-
2013
- 2013-02-08 JP JP2013023776A patent/JP2016065717A/en active Pending
- 2013-12-24 WO PCT/JP2013/007537 patent/WO2014122712A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2014122712A1 (en) | 2014-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014122713A1 (en) | Information acquisition device and object detection device | |
US11575843B2 (en) | Image sensor modules including primary high-resolution imagers and secondary imagers | |
JP6302414B2 (en) | Motion sensor device having a plurality of light sources | |
US9699377B2 (en) | Depth detecting apparatus and method, and gesture detecting apparatus and gesture detecting method | |
WO2016010481A1 (en) | Optoelectronic modules operable to distinguish between signals indicative of reflections from an object of interest and signals indicative of a spurious reflection | |
US20150138325A1 (en) | Camera integrated with light source | |
EP3571976B1 (en) | Endoscope apparatus | |
US20240418862A1 (en) | Processing apparatus, electronic apparatus, processing method, and program | |
JP2013190394A (en) | Pattern illumination apparatus and distance measuring apparatus | |
US20250008216A1 (en) | Information processing device, imaging device, information processing method, and program | |
CN101764907A (en) | Document reader | |
CN111988594A (en) | Image processing apparatus, image pickup apparatus, monitoring system, and medium | |
CN113329140A (en) | Compensating vignetting | |
WO2013015145A1 (en) | Information acquiring apparatus and object detecting apparatus | |
WO2014122712A1 (en) | Information acquisition device and object detection device | |
JP2014181949A (en) | Information acquisition device and object detection device | |
JP2015230229A (en) | Noncontact laser scanning spectral image acquisition device and spectral image acquisition method | |
JP2010071702A (en) | Device for commanding illuminance detection, device for measuring illuminance, and illuminance detector | |
TWI258706B (en) | Method and device for optical navigation | |
JP2014174101A (en) | Object detection device | |
JP2014163830A (en) | Information acquisition device and object detection device | |
US11402202B2 (en) | Proximity sensors and methods for operating the same | |
JP2023134584A (en) | Processing device, electronic device, processing method, and program | |
JP2021018081A (en) | Imaging apparatus, measuring device, and measuring method | |
JP2001086354A (en) | Image-processing method and image processor |