JP2011243862A - 撮像デバイス及び撮像装置 - Google Patents
撮像デバイス及び撮像装置 Download PDFInfo
- Publication number
- JP2011243862A JP2011243862A JP2010116498A JP2010116498A JP2011243862A JP 2011243862 A JP2011243862 A JP 2011243862A JP 2010116498 A JP2010116498 A JP 2010116498A JP 2010116498 A JP2010116498 A JP 2010116498A JP 2011243862 A JP2011243862 A JP 2011243862A
- Authority
- JP
- Japan
- Prior art keywords
- light
- visible light
- image
- imaging device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【課題】光源から投射された光を利用して被写体までの距離を取得する距離画像センサ、及び光源から投射された光により生体を検出する生体検出センサの機能を、RGB等の画像及び近赤外光画像を取得する1つの撮像デバイスを用いて実現する。
【解決手段】本発明の撮像デバイスは、光学フィルタ32、可視光センサ(2つの層38と39で形成される可視光センサ)と近赤外光センサ(2つの層36と37で形成される非可視光センサ)を光の進入方向に配置し、可視光画像と近赤外光画像を分離して出力する出力部40を有する。そのため、各画像間の画像ズレがなく、かつ解像度の欠損もなく、距離測定や生体検出の機能を高解像度撮像が可能な1つの撮像デバイスを用いて実現することが可能となる。
【選択図】図6
【解決手段】本発明の撮像デバイスは、光学フィルタ32、可視光センサ(2つの層38と39で形成される可視光センサ)と近赤外光センサ(2つの層36と37で形成される非可視光センサ)を光の進入方向に配置し、可視光画像と近赤外光画像を分離して出力する出力部40を有する。そのため、各画像間の画像ズレがなく、かつ解像度の欠損もなく、距離測定や生体検出の機能を高解像度撮像が可能な1つの撮像デバイスを用いて実現することが可能となる。
【選択図】図6
Description
本発明は、距離画像センサと生体検出センサの機能を、RGB等の撮影(可視光)画像及び近赤外光画像を取得する1つの撮像デバイスを用いて実現する撮像装置と、その撮像デバイスに関する。
例えば体を使ったモーション認識やジェスチャー認識の用途のために、画像に距離情報を付加した距離画像カメラが提案されている。距離測定方式としては、光源から近赤外光を発光し、被写体によって反射された光の遅れ時間を計測して距離を測定するTOF(Time of flight)方式が一般的である。
TOF方式では距離画像センサは近赤外光を検出するセンサであり、TOF方式の距離画像カメラの多くは近赤外光による明暗画像と距離画像を出力するものになっている。
TOF方式では距離画像センサは近赤外光を検出するセンサであり、TOF方式の距離画像カメラの多くは近赤外光による明暗画像と距離画像を出力するものになっている。
しかし、例えばセキュリティ用途や画像合成等の用途によっては、可視光のカラー画像との合成が求められ、その場合は距離画像カメラとカラー画像用カメラの2カメラ構成となっている。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、といった短所がある。
距離画像とカラー画像を一体の撮像デバイスで撮像することで、前記の問題を解消することができる。従来から、距離画像とカラー画像を一体の撮像デバイスで撮像する手法が提案されている(例えば特許文献1,2参照)。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、といった短所がある。
距離画像とカラー画像を一体の撮像デバイスで撮像することで、前記の問題を解消することができる。従来から、距離画像とカラー画像を一体の撮像デバイスで撮像する手法が提案されている(例えば特許文献1,2参照)。
特許文献1には、赤(R)、緑(G)、青(B)の可視光検出用と近赤外光(NIR)検出用の2つの撮像デバイスを使用する方法と、RGBとNIRを1つの撮像デバイスで検出する方法が挙げられている。
特許文献2に記載の方法は、撮像デバイスのカラーフィルタでベイヤー配列と呼ばれる赤(R)、緑(G)、緑(G)、青(B)の並び内で、Gの1つを近赤外(NIR)に置き換えてR,G,B,NIRを検出する。
一方、画像の中から人の皮膚部のみを検出する方法が提案されている(例えば、特許文献3参照)。
特許文献3に記載の方法により、生体(例えば人の皮膚部のみ)を検出する画像を抽出することが可能である。
得られた生体画像は平面画像であり、かつ近赤外光による明暗画像になる。
特許文献3に記載の方法により、生体(例えば人の皮膚部のみ)を検出する画像を抽出することが可能である。
得られた生体画像は平面画像であり、かつ近赤外光による明暗画像になる。
上記特許文献1に記載された、2つの撮像デバイスを使用する方法は、RGBとNIRの波長を分光するプリズムが撮像レンズと撮像デバイスの間に存在するため、撮像レンズの焦点距離を短くすることに制約がある。その結果、画角を広げることが困難である。
特許文献1に記載された、1つの撮像デバイスを使用する他の方法を採用するならば、画角拡大の困難さは解消される。この方法で使用される撮像デバイスは、RGBの可視光画素の間に、NIRの画素がちりばめられているものである。
そのため、この撮像デバイスから取得された画像においてはRGB画像や距離測定画像の各々に対し十分な解像度が得られない、また被写体の同一箇所に対し距離測定画素(NIR画素)とRGB画素とが同じ位置の情報を取得できないという不利益を伴う。
特許文献1に記載された、1つの撮像デバイスを使用する他の方法を採用するならば、画角拡大の困難さは解消される。この方法で使用される撮像デバイスは、RGBの可視光画素の間に、NIRの画素がちりばめられているものである。
そのため、この撮像デバイスから取得された画像においてはRGB画像や距離測定画像の各々に対し十分な解像度が得られない、また被写体の同一箇所に対し距離測定画素(NIR画素)とRGB画素とが同じ位置の情報を取得できないという不利益を伴う。
上記特許文献2に記載された方法においても同様な不利益がある。特許文献2に記載された方法においては、繰り返し色配列の複数画素内で緑(G)の画素を1つ減らすことにより、本来同じ画素数を持った原色系撮像デバイスが出し得るRGB画像より解像度が低いという不利益がある。
また、被写体の同一箇所に対し距離測定画素がRGB画素と同じ位置で情報を取得できないため、RGB画像と異なる画像の位置で距離を計測せざるを得ない。
また、被写体の同一箇所に対し距離測定画素がRGB画素と同じ位置で情報を取得できないため、RGB画像と異なる画像の位置で距離を計測せざるを得ない。
上記特許文献3に記載された生体画像を取得可能な方法において、仮に距離情報を付加することができれば、例えば、人の顔や手を立体画像として取り込むことが可能になる。また、生体画像にカラー画像を合成することで、色情報も付加することが可能である。
しかし、特許文献3に記載の方法は、上記特許文献1と同様に、画角を広げることが困難である。
また、上記特許文献1,2と同様に、画角を広げた場合でも距離測定画素が撮像デバイス内に占める割合がある程度高い。そのため、RGB画像や距離測定画像の各々に対し十分な解像度が得られない、また距離測定画素(NIR画素)がRGB画素と同じ位置の情報を取得できないという不利益がある。
しかし、特許文献3に記載の方法は、上記特許文献1と同様に、画角を広げることが困難である。
また、上記特許文献1,2と同様に、画角を広げた場合でも距離測定画素が撮像デバイス内に占める割合がある程度高い。そのため、RGB画像や距離測定画像の各々に対し十分な解像度が得られない、また距離測定画素(NIR画素)がRGB画素と同じ位置の情報を取得できないという不利益がある。
同一被写体を同じ画角で別々に撮像したNIR画像とRGBカラー画像とを用いて、生体画像の抽出は可能である。この場合、NIR画像で生体検出し、検出された生体部分と同じ画素アドレス範囲のRGB画像の部分を抽出すればよい。
しかし、同一被写体を同じ画角で撮像しても得られた2つの画像に多少なりともずれがあるのが常であるから、この画像のずれが生体画像の誤差成分となり、生体画像の高精度な抽出は困難である。
しかし、同一被写体を同じ画角で撮像しても得られた2つの画像に多少なりともずれがあるのが常であるから、この画像のずれが生体画像の誤差成分となり、生体画像の高精度な抽出は困難である。
本発明は、それぞれの解像度が高く、また画像内位置の対応がとりやすいため距離の測定や生体検出が容易な可視光画像と近赤外光画像を別々に出力可能な構成を有する撮像デバイスを提供するものである。また、本発明は、かかる構成の撮像デバイスを用いて、通常のRGB等の画像取得とともに、距離測定と生体検出の少なくとも一方の処理が可能な撮像装置(例えば、カメラシステム)を提供するものである。
本発明の一形態に係る撮像デバイスは、画像光が入射する側に光学フィルタが配設された画素アレイを備え、前記画素アレイの画素が、第1フィルタ領域、可視光センサ部および非可視光センサ部を有する。
前記第1フィルタ領域は、原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する。
前記可視光センサ部は、前記第1フィルタ領域からの前記可視光に主感度を有する。
前記非可視光センサ部は、前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する。
前記第1フィルタ領域は、原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する。
前記可視光センサ部は、前記第1フィルタ領域からの前記可視光に主感度を有する。
前記非可視光センサ部は、前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する。
本発明では、出力部が前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられている。出力部は、前記可視光センサ部の光電変換により発生する可視光画像の信号と、前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する。
本発明では好適に、前記出力部は、複数の電荷蓄積部と、前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、を有する。
本発明では好適に、前記出力部は、複数の電荷蓄積部と、前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、を有する。
このような構成によれば、可視光センサ部と非可視光センサ部とが同一画素に設けられている。このため、可視光センサ部の光電変換により画素データが発生した可視光画像と、非可視光センサ部の光電変換により画素データが発生した非可視光画像との各画素データが位置的に対応する。出力部が画素ごとに、あるいは、出力信号線に共通接続された複数画素に共有されて設けられている。したがって、画素データが位置的に対応する可視光画像と非可視光画像を分離して出力することが可能である。このとき、画素ごとに可視光センサ部を有する場合、可視光画像の解像度、言い換えると1フレーム画像に含まれる画素データ密度は最大となることから、画像品質が損なわれない。
一方、非可視光画像の各画素データは、可視光画像の画素データより通常、電荷量として少ない。特に距離測定や生体検出の場合、被写体に非可視光を当てて、その反射により散乱された反射光(戻り光)を受光する。このため、これらの用途だと、1画素分の非可視光センサ部から得られる非可視光画素のデータ量(電荷量)は可視光画素のデータ量より桁違いに小さいことがある。
本発明で好ましい形態では、複数の電荷蓄積部を出力部に有し、その電荷の入力をスイッチで制御する構成を有することから、複数画素分の非可視光データを1つにまとめる(合成する)ことができる。合成後の非可視光データは、非可視光画像の一部であるが、データ量が増大しているためノイズに埋もれることなく撮像デバイス内の処理部に入力され、または処理のために外部に排出可能である。
この出力部の望ましい構成は、距離測定や生体検出のためにも有用である。
例えば、TOF方式の距離測定の場合、被写体に非可視光を一定時間だけ被写体にパルス照射し、非可視光の戻り光が撮像デバイスに入射され、一定の決まった受光時間を経て可視光センサ部から検出信号として出力される。例えば、出射パルスの出射時を基準に検出信号が得られるまでの遅延を検出する。具体的には、例えば、非可視光の出射パルス長に対応する検出信号のパルス持続時間の途中でパルス信号電荷を2分し、その2分した信号電荷量の比から遅延時間を求める方法がある。
複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成は、この方法の実施に適合している。
例えば、TOF方式の距離測定の場合、被写体に非可視光を一定時間だけ被写体にパルス照射し、非可視光の戻り光が撮像デバイスに入射され、一定の決まった受光時間を経て可視光センサ部から検出信号として出力される。例えば、出射パルスの出射時を基準に検出信号が得られるまでの遅延を検出する。具体的には、例えば、非可視光の出射パルス長に対応する検出信号のパルス持続時間の途中でパルス信号電荷を2分し、その2分した信号電荷量の比から遅延時間を求める方法がある。
複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成は、この方法の実施に適合している。
また、生体検出の場合、一方は人の皮膚で主に反射され他方は主に吸収される異なる波長領域をもつ2つの非可視光を被写体に当てる。なお、この2つの非可視光は、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。
そして、それぞれの非可視光の戻り光を同一の撮像デバイスで受光する。このとき、2つの非可視光に対応する2つの戻り光を光電変換して得られた2つの検出信号を分離するのに、複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成を好適に利用できる。
そして、それぞれの非可視光の戻り光を同一の撮像デバイスで受光する。このとき、2つの非可視光に対応する2つの戻り光を光電変換して得られた2つの検出信号を分離するのに、複数の電荷蓄積部とその振り分けのためのスイッチとを有する出力部の構成を好適に利用できる。
本発明の他の一形態に係る撮像装置は、画像光が入射する側に光学フィルタが配設された画素アレイを備える撮像デバイスと、発光部、レンズ、制御部および信号処理部を有する。
前記発光部は、可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられている。
前記レンズは、前記戻り光を前記撮像デバイスに結像させる。
前記制御部は、前記発光部の発光タイミング等を制御する。
前記信号処理部は、前記撮像デバイスから出力される可視光画像の信号を処理する。
前記発光部は、可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられている。
前記レンズは、前記戻り光を前記撮像デバイスに結像させる。
前記制御部は、前記発光部の発光タイミング等を制御する。
前記信号処理部は、前記撮像デバイスから出力される可視光画像の信号を処理する。
本発明では、撮像装置内の撮像デバイスが、上記した本発明の一形態に係る撮像デバイスと同様に構成されている。そのため、可視光画像を処理して出力する以外に、前述した距離測定や生体検出のための処理が可能である。
より詳細には、前記信号処理部は前記可視光画像の信号を信号処理する。また、前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する。
より詳細には、前記信号処理部は前記可視光画像の信号を信号処理する。また、前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する。
本発明によれば、それぞれの解像度が高く、また画像内位置の対応がとりやすいため距離の測定や生体検出が容易な可視光画像と近赤外光画像を別々に出力可能な構成を有する撮像デバイスを提供することができる。また、本発明によれば、かかる構成の撮像デバイスを用いて、通常のRGB等の画像取得とともに、距離測定と生体検出の少なくとも一方の処理が可能な撮像装置(例えば、カメラシステム)を提供することができる。
本発明の実施形態を、図面を参照して以下の順に説明する。
1.第1の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
2.第2の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で3層配置した実施形態である。
3.第3の実施の形態:単一画素に全ての色のセンサ部を有する実施形態である。
4.第4の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
5.第5の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で4層配置した実施形態である。
6.第6の実施の形態:電荷蓄積部を専用と共用に分けてNIR画素データの混合を行う実施形態である。
7.第7の実施の形態:第6の実施形態の撮像デバイスを補色系に変更しセンサ部を3層配置とした実施形態である。
8.第8の実施の形態:第7の実施形態からセンサ部を2層配置に変更した実施形態である。
9.第9の実施の形態:画素共通のNIRセンサ部を有する実施形態である。
10.第10の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
11.第11の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
1.第1の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
2.第2の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で3層配置した実施形態である。
3.第3の実施の形態:単一画素に全ての色のセンサ部を有する実施形態である。
4.第4の実施の形態:補色系色配置の画素でセンサ部を基板深さ方向で2層配置した実施形態である。
5.第5の実施の形態:原色系色配置の画素でセンサ部を基板深さ方向で4層配置した実施形態である。
6.第6の実施の形態:電荷蓄積部を専用と共用に分けてNIR画素データの混合を行う実施形態である。
7.第7の実施の形態:第6の実施形態の撮像デバイスを補色系に変更しセンサ部を3層配置とした実施形態である。
8.第8の実施の形態:第7の実施形態からセンサ部を2層配置に変更した実施形態である。
9.第9の実施の形態:画素共通のNIRセンサ部を有する実施形態である。
10.第10の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
11.第11の実施の形態:画素共通のNIRセンサ部を有する他の実施形態である。
<1.第1の実施の形態>
[撮像装置の構成]
図1に、距離測定と生体検出の両方が可能な構成例を含む撮像装置の構成図を示す。
図1に図解する撮像装置1は、ゲーム機等の民生用電子機器、車載センサ機器あるいは計測機などの産業用電子機器等に用いることができる。
撮像装置1は、被写体100との距離を測定するための第1の発光部2Aと、第1の発光部2Aとの反射光量差を検出するための第2の発光部2Bとを有する。詳細は後述するが、第1および第2の発光部2A,2Bは、互いに異なる波長領域の非可視光を被写体100に向けて出射し、そのときの反射光量差は、第1の発光部2Aと第2の発光部2Bの両方を用いた生体検出時に取得される。被写体100との距離を測定するためには、第1の発光部2Aと第2の発光部2Bの少なくとも一方から非可視光を照射すればよいため、ここでは一例として第1の発光部2Aを用いる。
本発明の明細書中、非可視光というとき可視光の波長領域より長波長側の非可視光に限定される。非可視光は、可視光の波長領域に対し長波長側に近接した近赤外(NIR)光、赤外(IR)光、NIR光を主体としてIR領域を一部含む光の何れでもよいが、以下、非可視光がNIR光とする。
[撮像装置の構成]
図1に、距離測定と生体検出の両方が可能な構成例を含む撮像装置の構成図を示す。
図1に図解する撮像装置1は、ゲーム機等の民生用電子機器、車載センサ機器あるいは計測機などの産業用電子機器等に用いることができる。
撮像装置1は、被写体100との距離を測定するための第1の発光部2Aと、第1の発光部2Aとの反射光量差を検出するための第2の発光部2Bとを有する。詳細は後述するが、第1および第2の発光部2A,2Bは、互いに異なる波長領域の非可視光を被写体100に向けて出射し、そのときの反射光量差は、第1の発光部2Aと第2の発光部2Bの両方を用いた生体検出時に取得される。被写体100との距離を測定するためには、第1の発光部2Aと第2の発光部2Bの少なくとも一方から非可視光を照射すればよいため、ここでは一例として第1の発光部2Aを用いる。
本発明の明細書中、非可視光というとき可視光の波長領域より長波長側の非可視光に限定される。非可視光は、可視光の波長領域に対し長波長側に近接した近赤外(NIR)光、赤外(IR)光、NIR光を主体としてIR領域を一部含む光の何れでもよいが、以下、非可視光がNIR光とする。
撮像装置1は、第1および第2の発光部2A,2Bからの近赤外光(NIR光)が被写体100で反射したときの戻り光を受光する撮像デバイス3と、被写体100と撮像デバイス3間に配設され、戻り光の像を撮像デバイス3に結像させるレンズ4とを有する。
撮像装置1は、さらに、撮像デバイス3の出力信号を処理する信号処理部5と制御部6を有する。制御部6は、第1および第2の発光部2A,2B、撮像デバイス3および信号処理部5を統括制御し、場合によってはレンズ4を含む光学系を統括制御する。
具体的に、制御部6は、第1の発光部2A(および第2の発光部2B:生体検出の場合)の発光タイミング、撮像デバイス3の電子シャッタ及びスイッチ43(後述)のタイミング等を制御する。信号処理部5は、撮像デバイス3による出力データから、RGB等の可視光画像の処理(ノイズ除去や色補正等)を行うほか、画像距離測定や生体検出の処理を実行可能な構成である。
撮像装置1は、さらに、撮像デバイス3の出力信号を処理する信号処理部5と制御部6を有する。制御部6は、第1および第2の発光部2A,2B、撮像デバイス3および信号処理部5を統括制御し、場合によってはレンズ4を含む光学系を統括制御する。
具体的に、制御部6は、第1の発光部2A(および第2の発光部2B:生体検出の場合)の発光タイミング、撮像デバイス3の電子シャッタ及びスイッチ43(後述)のタイミング等を制御する。信号処理部5は、撮像デバイス3による出力データから、RGB等の可視光画像の処理(ノイズ除去や色補正等)を行うほか、画像距離測定や生体検出の処理を実行可能な構成である。
第1の発光部2Aは、例えば発光ダイオード(LED)等の発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。
第1の発光部2Aの発光部材21は非可視光、例えば近赤外光を発光し、近赤外光の発光部材21への発光方向は被写体100に向けられている。
第2の発光部2Bも、第1の発光部2Aと同様に発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。第2の発光部2Bにおける発光部材21の波長も主として近赤外光であり、発光部材21の発光方向は被写体100に向けられている。但し、第1の発光部2Aからの近赤外光と、第2の発光部2Bからの近赤外光は異なる波長領域の光である。
第1の発光部2Aの発光部材21は非可視光、例えば近赤外光を発光し、近赤外光の発光部材21への発光方向は被写体100に向けられている。
第2の発光部2Bも、第1の発光部2Aと同様に発光部材21とそれを発光させるためのドライバ回路22を含んで構成されている。第2の発光部2Bにおける発光部材21の波長も主として近赤外光であり、発光部材21の発光方向は被写体100に向けられている。但し、第1の発光部2Aからの近赤外光と、第2の発光部2Bからの近赤外光は異なる波長領域の光である。
人間の眼の色や明るさに対する感度特性は、可視光領域に感度をもつ。可視光領域は定義が様々であるが、一般には、700乃至750nm付近(例えば780nm)を上限とし、400nm弱(例えば380nm)を下限とする電磁波の波長領域である。可視光領域に隣接した赤外領域を近赤外領域といい、この領域は、700乃至800nmの下限から、1.5乃至3μm(例えば2.5μm)の上限までの電磁波の波長領域である。ただし、人間の目は約700nmより長波長側では殆ど感度を有さない。
ところで、生体(代表的には人の皮膚)の反射率は光の波長が750〜800nm近辺で大きくなり、970nmで小さくなると言われる。最も好ましい光の波長としては、第1の発光部2Aの波長が800nm近辺(近赤外光の下限付近)、第2の発光部2Bの波長が970nm近辺となる。
ただし、生体を検出するためには、認識可能なレベルまで反射光量の差がつけばよいので、その範囲で波長の差をつけられれば、第1,第2の発光部2Bからの光の波長は、この限りではない。
第1の発光部2Aの波長領域と第2の発光部2Bの波長領域は重ならないほうが望ましいが、LEDの発光波長はある幅を有するため、2つの波長領域が一部重なることは許容される。
第1および第2の発光部2A,2Bが発光する2つの非可視光は、可視光の波長定義によっては、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。例えば、可視光の長波長側境界を800nmと定義した場合、第1の発光部2Aの波長が800nm近辺とすると、その波長範囲は短波長側の一部が可視光領域と重なることになる。一方、可視光の長波長側境界を750nm近辺と定義した場合は、第1の発光部2Aの波長範囲が可視光領域と重なることは通常ない。
ただし、生体を検出するためには、認識可能なレベルまで反射光量の差がつけばよいので、その範囲で波長の差をつけられれば、第1,第2の発光部2Bからの光の波長は、この限りではない。
第1の発光部2Aの波長領域と第2の発光部2Bの波長領域は重ならないほうが望ましいが、LEDの発光波長はある幅を有するため、2つの波長領域が一部重なることは許容される。
第1および第2の発光部2A,2Bが発光する2つの非可視光は、可視光の波長定義によっては、その非可視光領域の短波長側の一部が可視光領域に重なることは許容される。例えば、可視光の長波長側境界を800nmと定義した場合、第1の発光部2Aの波長が800nm近辺とすると、その波長範囲は短波長側の一部が可視光領域と重なることになる。一方、可視光の長波長側境界を750nm近辺と定義した場合は、第1の発光部2Aの波長範囲が可視光領域と重なることは通常ない。
撮像レンズ4は、カメラやカムコーダ等で使用される一般的なものであり、撮像デバイス3のサイズや画角等の仕様により選択されるものである。レンズ4は、望ましくは、制御部6の制御により被写体100との距離に応じて焦点調整機能を有する光学系の一部品として配置されている。
[撮像デバイスの構成]
図2に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
RGB画像等の撮影画像(本明細書では可視光画像と呼ぶ)を高解像度で発生させるための撮像デバイス3は、図2に示すように、光の入射側からマイクロレンズアレイ31、光学フィルタ32、画素回路層33、フォトセンサを半導体基板35に形成したものである。
フォトセンサと画素回路の一部は半導体基板35の活性領域(例えば複数のウエル)を利用して形成されている。画素回路層33は、半導体基板35に形成される基板トランジスタなどの回路素子以外の配置領域であり、例えば、誘電膜を介して積層された導電層を利用してキャパシタ等の受動素子が画素回路層33に配置される。フォトセンサと画素回路の基板トランジスタ等とは素子分離またはチャネルストッパ領域により電気的干渉が防止される。なお、TFTなどから一部のトランジスタを画素回路層33内に形成することは可能である。
図2に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
RGB画像等の撮影画像(本明細書では可視光画像と呼ぶ)を高解像度で発生させるための撮像デバイス3は、図2に示すように、光の入射側からマイクロレンズアレイ31、光学フィルタ32、画素回路層33、フォトセンサを半導体基板35に形成したものである。
フォトセンサと画素回路の一部は半導体基板35の活性領域(例えば複数のウエル)を利用して形成されている。画素回路層33は、半導体基板35に形成される基板トランジスタなどの回路素子以外の配置領域であり、例えば、誘電膜を介して積層された導電層を利用してキャパシタ等の受動素子が画素回路層33に配置される。フォトセンサと画素回路の基板トランジスタ等とは素子分離またはチャネルストッパ領域により電気的干渉が防止される。なお、TFTなどから一部のトランジスタを画素回路層33内に形成することは可能である。
撮像レンズ4で集光された光は、マイクロレンズアレイ31によって画素ごとにさらに集光されて、光学フィルタ32を透過してフォトセンサに入射される。光学フィルタ32は、マイクロレンズアレイ31で集光された光が透過する波長選択性をもつフィルタ部と、フィルタ部間で光を遮断する部分(いわゆるブラックマトリクス)とで区分される。光遮断部は必須ではないが、混色や外光の混入防止のためには、これを有することが望ましい。
波長選択された光は、画素回路層33の配線や導電層などにより光を遮断しないように設けられた画素開口を通ることで損失を受けずにフォトセンサに入射され、そこで光電変換される。光電変換により発生した電荷(受光電荷あるいは光電荷という)は、フォトセンサ内で一定時間蓄積された後、画素回路の出力部を経由して画像データとして画素アレイから排出される。撮像デバイス3における画素アレイ以外の周辺領域には出力処理(ノイズ抑圧や信号変換)のための処理回路が配置される場合もあり、その場合、周辺回路における出力処理を経てから画素データが図1の信号処理部5に出力される。
波長選択された光は、画素回路層33の配線や導電層などにより光を遮断しないように設けられた画素開口を通ることで損失を受けずにフォトセンサに入射され、そこで光電変換される。光電変換により発生した電荷(受光電荷あるいは光電荷という)は、フォトセンサ内で一定時間蓄積された後、画素回路の出力部を経由して画像データとして画素アレイから排出される。撮像デバイス3における画素アレイ以外の周辺領域には出力処理(ノイズ抑圧や信号変換)のための処理回路が配置される場合もあり、その場合、周辺回路における出力処理を経てから画素データが図1の信号処理部5に出力される。
マイクロレンズアレイ31は、フォトセンサへの集光効率を向上させるためのものである。
本発明では図2に示す構成部品の中で、光学フィルタ32、フォトセンサ34に特徴があり、以下に詳述する。
本発明では図2に示す構成部品の中で、光学フィルタ32、フォトセンサ34に特徴があり、以下に詳述する。
光学フィルタ32は、基本的な色配列に関しては、例えば図3(A)に示すように、一般的な撮像デバイス3の原色系カラーフィルタであるベイヤー配列と呼ばれる色配列となっている。ベイヤー配列では、赤(R)、緑(G)、緑(G)、青(B)の並びで、各色を透過させるフィルタ部が配列されている。
各色のフィルタ部の各フィルタ部は、各々が対応する1色の透過に加えて、近赤外(NIR)の波長も透過する特性になっている。各フィルタ部はR+NIR、G+NIR、B+NIRの透過特性をもつ。
図3(B)に示す光学フィルタ配列は、R+NIR、G+NIR、B+NIRにより示す表記によって、各色の可視光透過特性に加えて近赤外波長の透過特性をもつことを示している。第1実施形態では、図3(B)の配列をもつ光学フィルタ32が用いられる。
各色のフィルタ部の各フィルタ部は、各々が対応する1色の透過に加えて、近赤外(NIR)の波長も透過する特性になっている。各フィルタ部はR+NIR、G+NIR、B+NIRの透過特性をもつ。
図3(B)に示す光学フィルタ配列は、R+NIR、G+NIR、B+NIRにより示す表記によって、各色の可視光透過特性に加えて近赤外波長の透過特性をもつことを示している。第1実施形態では、図3(B)の配列をもつ光学フィルタ32が用いられる。
光学フィルタ32の特性を実現する手法としては、酸化金属膜等からなる複数の高屈折率膜を低屈折率の光透過膜を間に介在させて幾層にも重ねる手法が例示できる。このときの高屈折率膜の種類(例えば酸化金属膜の材質)や層数、低屈折率膜の種類(例えば光透過膜の材質)や厚さを制御することにより所望の波長選択特性の多層膜を実現できる。
図2に示すフォトセンサ34は、基板表面に近いRGBの可視光を検出する可視光センサ部と、可視光センサ部よりも光の入射方向において遠い位置(基板深部側)に形成されたNIRを検出する非可視光センサ部(以下、NIRセンサ部と呼ぶ)との2つのセンサ部の縦積み構造になっている。
可視光センサ部は、検出波長が長いセンサ部ほど基板深部側に位置する可視光センサ部を実現するために、複数の色に対応した検出波長に応じた複数の層として、N型とP型の半導体層の多層構造となっている。
言い換えると、3色あるいは4色の可視光を光電変換する可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど画像光が進入する光学フィルタ32の側から遠い位置に配置して構成している。
言い換えると、3色あるいは4色の可視光を光電変換する可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど画像光が進入する光学フィルタ32の側から遠い位置に配置して構成している。
なお、本実施形態における撮像デバイス3はRGBの原色系であるため3色の可視光を受光するが、後述する他の実施形態のように、例えば補色系の場合、4色の可視光を受光する。また、原色系でもRGBに加えて白(W)の受光画素をもつ4色配列の場合もある。
図3(B)に示す色配列の場合は、可視光センサ部は3色に主感度をもつ3つのセンサ部の縦積み構造を採る。
図4は、基板深部側から順にRGBに対応した3つのセンサ部(PN接合をもつフォトダイオード)の縦積みを実現する多重拡散層構造の模式図である。また、図5は、一般的な半導体基板材であるシリコン内の光吸収長対波長を表すグラフである。
図4は、基板深部側から順にRGBに対応した3つのセンサ部(PN接合をもつフォトダイオード)の縦積みを実現する多重拡散層構造の模式図である。また、図5は、一般的な半導体基板材であるシリコン内の光吸収長対波長を表すグラフである。
図4に示す多重拡散層で実現した3つのセンサ部の縦積み構造は、図5のシリコンの光学特性を利用したものである。
図5に示されるように、シリコン表面(基板表面)側では、短波長側の光吸収係数が高く、逆に基板深部側では長波長側の光吸収係数が高くなる。これは、シリコン基板への入射光の波長が大きくなればなるほど、その光は吸収される前により深くシリコン内に入り込むことに起因する。よって、フォトダイオードを半導体基板内部の表面付近に形成した場合、長波長光に対して短波長光の吸収係数が相対的に高く、短波長光の方が表面付近でキャリアに変換される割合が高いため、短波長光に対する感度が相対的に高くなる。
図5に示されるように、シリコン表面(基板表面)側では、短波長側の光吸収係数が高く、逆に基板深部側では長波長側の光吸収係数が高くなる。これは、シリコン基板への入射光の波長が大きくなればなるほど、その光は吸収される前により深くシリコン内に入り込むことに起因する。よって、フォトダイオードを半導体基板内部の表面付近に形成した場合、長波長光に対して短波長光の吸収係数が相対的に高く、短波長光の方が表面付近でキャリアに変換される割合が高いため、短波長光に対する感度が相対的に高くなる。
400〜490nmの波長をもつ青色光は、その大部分が約0.2〜0.5μmの深さでシリコン基板に吸収される。このため、図4に示すように最も浅いn型層39と次に深いp型ウェル38とによって、青(B)の波長に主感度をもつフォトダイオード(センサ部)が、図4の例では基板表面から0.2μm程度の深さを中心に形成されている。
一方、600〜750nmと最も波長が長い赤色光は、その大部分が約2.0〜7.5μmの深さでシリコンに吸収される。このため、図4に示すように最も深いn型ウェル37とp型の半導体基板35とによって、赤(R)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から2.8μm程度の深さを中心に形成されている。
500〜560nmと青と赤の間の波長をもつ緑色光は、その大部分が約0.8〜1.5μmの深さでシリコンに吸収される。そのため、図4の例では、p型ウェル38とn型ウェル37によって、緑(G)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から0.8μmの深さを中心に形成されている。
図4の各センサ部中心(pn接合面)の深さは一例であり、青(B)センサ部は0.2〜0.5μm、緑(G)センサ部は0.8〜1.5μm、赤(R)センサ部は2.0〜7.5μmの各深さ範囲内で任意に設定される。
一方、600〜750nmと最も波長が長い赤色光は、その大部分が約2.0〜7.5μmの深さでシリコンに吸収される。このため、図4に示すように最も深いn型ウェル37とp型の半導体基板35とによって、赤(R)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から2.8μm程度の深さを中心に形成されている。
500〜560nmと青と赤の間の波長をもつ緑色光は、その大部分が約0.8〜1.5μmの深さでシリコンに吸収される。そのため、図4の例では、p型ウェル38とn型ウェル37によって、緑(G)の波長に主感度をもつ他のフォトダイオード(センサ部)が、図4の例では基板表面から0.8μmの深さを中心に形成されている。
図4の各センサ部中心(pn接合面)の深さは一例であり、青(B)センサ部は0.2〜0.5μm、緑(G)センサ部は0.8〜1.5μm、赤(R)センサ部は2.0〜7.5μmの各深さ範囲内で任意に設定される。
一方、800〜900nmの波長の近赤外光は30μm以下程度の深さでシリコン基板に吸収される。そのため、図4には図示していないが、n型ウェル37より更に深いp型ウェルを設けることで近赤外光センサ部が形成される。
図6に、第1の実施形態に関わる撮像デバイス3の、より詳細な模式断面図を示す。図6は図2の構成をさらに詳細表示した図であり、両図に共通な構成は同一符号で示す。
図6に示す断面は、図3(B)に示す光学フィルタ配列において、A−A線の断面に相当する。
図6に示されるように、近赤外光(NIR)のセンサ部を図4の構成に付加するために、半導体基板35に画素に共通なp型ウェル36が形成されている。
図6に示す断面は、図3(B)に示す光学フィルタ配列において、A−A線の断面に相当する。
図6に示されるように、近赤外光(NIR)のセンサ部を図4の構成に付加するために、半導体基板35に画素に共通なp型ウェル36が形成されている。
フィルタ部(R+NIR)を透過した光を受光する画素のフォトセンサ34Rは、画素に共通なp型ウェル36の内部に形成されている。
最も深い1層目のn型ウェル37が、第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。3層目のn型層39Rは、赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。2層目のp型ウェル38Rは、上記1層目と3層目の深さ方向の間に形成されている。
p型ウェル36と1層目のn型ウェル37によるpn接合位置にNIR検出のための非可視光センサ部が形成され、2層目のp型ウェル38Rと3層目のn型層39Rによるpn接合位置にR検出のための可視光線センサ部が形成されている。
最も深い1層目のn型ウェル37が、第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。3層目のn型層39Rは、赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。2層目のp型ウェル38Rは、上記1層目と3層目の深さ方向の間に形成されている。
p型ウェル36と1層目のn型ウェル37によるpn接合位置にNIR検出のための非可視光センサ部が形成され、2層目のp型ウェル38Rと3層目のn型層39Rによるpn接合位置にR検出のための可視光線センサ部が形成されている。
本例では信号電荷(受光電荷)が電子であるため、各センサ部のn型層が電荷蓄積層となる。よって、n型ウェル37からNIR画像(非可視光画像)を構成するNIR画素データが出力される。また、n型層39Rから可視光画像のR画素成分のデータが出力される。
このように、フィルタ部(R+NIR)を透過したRとNIRの光は、フォトセンサ34Rの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gにおいて、1層目のn型ウェル37はフォトセンサ34Rと同じである。ただし、2層目のp型ウェル38Gと3層目のn型層39Gの深さが緑(G)の感度範囲に両者の境界(pn接合)が位置するように形成される。
具体的には、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Gは1層目と3層目の間の深さに形成されている。
n型層39Gから可視光画像のG画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサ34Gの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
具体的には、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Gは1層目と3層目の間の深さに形成されている。
n型層39Gから可視光画像のG画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサ34Gの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bにおいて、1層目のn型ウェル37はフォトセンサ34R、34Gと同じである。ただし、2層目のp型ウェル38Bと3層目のn型層39Bの深さが青(B)の感度範囲に両者の境界(pn接合)が位置するように形成される。
具体的には、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Bは1層目と3層目の間の深さに形成されている。
n型層39Bから可視光画像のB画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(B+NIR)を透過したBとNIRの光は、フォトセンサ34Bの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
具体的には、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されており、2層目のp型ウェル38Bは1層目と3層目の間の深さに形成されている。
n型層39Bから可視光画像のB画素成分のデータが出力され、n型ウェル37から非可視光画像のNIR画素データが出力される。
このように、フィルタ部(B+NIR)を透過したBとNIRの光は、フォトセンサ34Bの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
[出力部]
本例の場合、各画素ごとに出力部40が設けられている。
出力部40は、複数の電荷蓄積部41と、n型ウェル37からの受光電荷の出力先を複数の電荷蓄積部41の何れかに切り替えるスイッチ43とを有する。出力部40に出力回路42を含む。出力回路42は、セレクタの機能を基本として、必要に応じて増幅やリセットの機能を併せもつ。1つの出力回路42に対し、n型層39R,39G,39Bの何れかの可視光画素データと、電荷蓄積部41の少なくとも1つからのNIR画素データとが入力可能となっている。出力回路42は、基本的には、これらの画素データを選択して出力するセレクタの一種である。
出力部40は、図1の制御部6からの制御信号を不図示の外部端子を介して入力するか、または、制御部6によって統括制御される撮像デバイス3の内部の制御回路によって制御信号が与えられる。これにより、スイッチ切り替え、電荷蓄積制御および出力選択制御が実行される。
本例の場合、各画素ごとに出力部40が設けられている。
出力部40は、複数の電荷蓄積部41と、n型ウェル37からの受光電荷の出力先を複数の電荷蓄積部41の何れかに切り替えるスイッチ43とを有する。出力部40に出力回路42を含む。出力回路42は、セレクタの機能を基本として、必要に応じて増幅やリセットの機能を併せもつ。1つの出力回路42に対し、n型層39R,39G,39Bの何れかの可視光画素データと、電荷蓄積部41の少なくとも1つからのNIR画素データとが入力可能となっている。出力回路42は、基本的には、これらの画素データを選択して出力するセレクタの一種である。
出力部40は、図1の制御部6からの制御信号を不図示の外部端子を介して入力するか、または、制御部6によって統括制御される撮像デバイス3の内部の制御回路によって制御信号が与えられる。これにより、スイッチ切り替え、電荷蓄積制御および出力選択制御が実行される。
出力部40から可視光画素データが出力される場合、不図示の出力信号線(垂直信号線ともいう)から撮像デバイス3内の周辺回路を経て、可視光画素データが順次出力され、図1の信号処理部5に送られる。信号処理部5は、ノイズ除去や色補正等の必要な信号処理を行って可視光画像(本例ではRGB画像)を生成する。
一方、出力部40から非可視光データ(NIR画素データ)が出力されると、これを明暗画像の構成データとして利用してもよいが、本例では距離検出や生体検出にNIR画素データを利用する。この検出処理は図1の信号処理部5により行われる。
一方、出力部40から非可視光データ(NIR画素データ)が出力されると、これを明暗画像の構成データとして利用してもよいが、本例では距離検出や生体検出にNIR画素データを利用する。この検出処理は図1の信号処理部5により行われる。
なお、撮像デバイス3がCCDであるか、あるいはCMOSイメージセンサであるかといったデバイスの種類によっては、出力部40の構成や配置箇所が異なることがある。
例えば、CMOSイメージセンサの場合、画素回路と呼ばれ信号電荷のリセットと増幅読み出しの動作を行う回路が画素ごとに設けられる。そのため、画素ごとの画素回路内に、出力部40を形成することが可能である。その場合、画素回路の規模が大きくなるが、電荷蓄積部41は、例えば2つの導電層間に誘電体膜を挟むキャパシタ等で構成されるため、基板トランジスタ回路の上層に積層される。また、出力回路42も複数のスイッチ程度で構成可能である。よって、CMOSイメージセンサの場合、画素サイズを大きくしなくとも出力部40を実装可能である。
例えば、CMOSイメージセンサの場合、画素回路と呼ばれ信号電荷のリセットと増幅読み出しの動作を行う回路が画素ごとに設けられる。そのため、画素ごとの画素回路内に、出力部40を形成することが可能である。その場合、画素回路の規模が大きくなるが、電荷蓄積部41は、例えば2つの導電層間に誘電体膜を挟むキャパシタ等で構成されるため、基板トランジスタ回路の上層に積層される。また、出力回路42も複数のスイッチ程度で構成可能である。よって、CMOSイメージセンサの場合、画素サイズを大きくしなくとも出力部40を実装可能である。
一方、CCDの場合は、垂直電荷転送のための垂直レジスタと受光部で画素面積のほとんどが占められ、スイッチの類は、読み出しゲートと呼ばれるトランジスタが画素ごとに設けられる。そのためトランジスタの付加はCMOSイメージセンサほど容易でない。
ただし、読み出しゲートや垂直CCDを広く覆う遮光膜上にTFTによってトランジスタ回路を形成することが可能である。また、裏面照射型の撮像デバイスでは、マイクロレンズアレイやカラーフィルタが基板裏面に貼られ、基板裏面から光を受光し、表面側から排出可能となっている。そのため、表面側に比較的大きな回路を形成しても、そのことが画素サイズの拡大要因になりにくい。
よって、撮像デバイス3がCCDの場合でも出力部40の実装が可能である。
ただし、読み出しゲートや垂直CCDを広く覆う遮光膜上にTFTによってトランジスタ回路を形成することが可能である。また、裏面照射型の撮像デバイスでは、マイクロレンズアレイやカラーフィルタが基板裏面に貼られ、基板裏面から光を受光し、表面側から排出可能となっている。そのため、表面側に比較的大きな回路を形成しても、そのことが画素サイズの拡大要因になりにくい。
よって、撮像デバイス3がCCDの場合でも出力部40の実装が可能である。
なお、撮像デバイス3の種類によらず、複数の画素で出力部40を共用する構成も可能である。例えば、1本の出力信号線に共通接続される画素ならば、複数の画素に対して出力部40への入力を切り替えるスイッチをさらに付加することで出力部40の共用が可能である。
[距離測定手法]
被写体までの距離測定について説明する。
光を投射し、被写体100からの反射光を検出し、その遅れ時間を計測するTOF(Time of flight)を利用した距離測定方式は、既にいくつか提案されている。
被写体までの距離測定について説明する。
光を投射し、被写体100からの反射光を検出し、その遅れ時間を計測するTOF(Time of flight)を利用した距離測定方式は、既にいくつか提案されている。
本発明の実施形態では、以下の方式が採用可能である。
図1に示すように、第1の発光部2Aから被写体100に向け、非可視(ここではNIR)のパルス光を発光する。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)のセンサ部にて、戻り光が光電変換され電荷が発生する。発生した電荷は、パルス光の発光と同期して交互に作動するスイッチ43により、第1,第2の電荷蓄積部41,41へと振り分けられ、出力回路42から画素外部の出力信号線やレジスタ等で転送される。
このとき第1,第2の電荷蓄積部に振り分けられる電荷の配分比から、被写体100までの距離を求める。その際、パルス状の照射光に対応して被写体での反射光がセンサ部に入射されない期間を存在させる。この期間はセンサ部で光電変換される光は被写体の背景光や周りからのノイズ光であるため、この期間の発生電荷をスイッチ43を作動させることで第3の電荷蓄積部41へ転送する。この背景光の電荷は、検出電荷とは識別可能に外部の信号処理部5まで送られ、信号処理部5によって背景光除去のための処理に使用される。
背景光やノイズのみの期間以外が距離測定期間となる。
図1に示すように、第1の発光部2Aから被写体100に向け、非可視(ここではNIR)のパルス光を発光する。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)のセンサ部にて、戻り光が光電変換され電荷が発生する。発生した電荷は、パルス光の発光と同期して交互に作動するスイッチ43により、第1,第2の電荷蓄積部41,41へと振り分けられ、出力回路42から画素外部の出力信号線やレジスタ等で転送される。
このとき第1,第2の電荷蓄積部に振り分けられる電荷の配分比から、被写体100までの距離を求める。その際、パルス状の照射光に対応して被写体での反射光がセンサ部に入射されない期間を存在させる。この期間はセンサ部で光電変換される光は被写体の背景光や周りからのノイズ光であるため、この期間の発生電荷をスイッチ43を作動させることで第3の電荷蓄積部41へ転送する。この背景光の電荷は、検出電荷とは識別可能に外部の信号処理部5まで送られ、信号処理部5によって背景光除去のための処理に使用される。
背景光やノイズのみの期間以外が距離測定期間となる。
図7に、具体的なパルス波形に対する距離測定タイミングの設定例を示す。
図7(A)に発光パルスを示し、発光パルスに時間的に遅れた受光パルス、即ち光電変換により発生した信号のパルス(以下、受光パルスという)を図7(B)に示す。
図7(A)に示す発光パルスは、ここでは1パルスのみ示すが、実際には発光パルスが周期的に被写体に向けて繰り返し発光される。被写体で反射して発生した戻り光が撮像デバイスで受光される。このときの受光開始点は、対応する発光パルスの発行開始点より時間的に遅れる。この発光開始から受光開始までの時間差が被写体の距離におおよそ比例するため、この時間差が検出対象である。
図7(A)に発光パルスを示し、発光パルスに時間的に遅れた受光パルス、即ち光電変換により発生した信号のパルス(以下、受光パルスという)を図7(B)に示す。
図7(A)に示す発光パルスは、ここでは1パルスのみ示すが、実際には発光パルスが周期的に被写体に向けて繰り返し発光される。被写体で反射して発生した戻り光が撮像デバイスで受光される。このときの受光開始点は、対応する発光パルスの発行開始点より時間的に遅れる。この発光開始から受光開始までの時間差が被写体の距離におおよそ比例するため、この時間差が検出対象である。
時間差測定のために、本例では距離測定期間を設定する。ここでは、受光開始から受光終了までの受光パルスの持続時間を距離測定期間とする。距離測定期間は確実に受光パルスが持続している期間であればよいため、受光パルスの持続期間内であれば、任意に設定可能である。
CPU等の制御部は、この距離測定期間内のあるタイミングで図6に示すスイッチ43を切り替えて、それより前の受光パルス部分のA電荷と、それより後の受光パルス部分のB電荷との2つに、受光パルスの電荷を振り分ける。振り分けられたA電荷とB電荷は図6に示す異なる2つの電荷蓄積部41,41で蓄積され、互いに識別が可能なように、例えば異なるタイミングで出力信号線を通して電圧値として読み出される。
CPU等の制御部は、この距離測定期間内のあるタイミングで図6に示すスイッチ43を切り替えて、それより前の受光パルス部分のA電荷と、それより後の受光パルス部分のB電荷との2つに、受光パルスの電荷を振り分ける。振り分けられたA電荷とB電荷は図6に示す異なる2つの電荷蓄積部41,41で蓄積され、互いに識別が可能なように、例えば異なるタイミングで出力信号線を通して電圧値として読み出される。
読み出されたA電荷とB電荷(電荷量に比例した2つの電圧値)は、図1に示す信号処理部5に入力され、両電荷(両電圧値)の比が計算される。そして、この計算の結果から、検出対象である上記時間差、つまり発光開始から受光開始までの時間差におおよそ比例した被写体までの距離が信号処理部5にて算出される。
なお、本発明の距離測定方法について、その方法は上記したものに限定されない。非可視光(NIR)センサ部より後段のスイッチ43や電荷蓄積部41、配線、信号処理部5等を変更することにより、他の方法でも実現可能である。
また、この距離測定は、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と距離測定を同時に並行して行うことができる。さらに、距離測定をRGB画像と対応させた画素アドレスのデータを用いて行うことができるため、測定結果と被写体との対応関係が取りやすい。例えば、被写体の画像位置(画素アドレス範囲)と距離測定の戻り光が検出された画素アドレスが大きく異なる場合は、エラーとして測定結果を無効化することが可能である。
また、この距離測定は、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と距離測定を同時に並行して行うことができる。さらに、距離測定をRGB画像と対応させた画素アドレスのデータを用いて行うことができるため、測定結果と被写体との対応関係が取りやすい。例えば、被写体の画像位置(画素アドレス範囲)と距離測定の戻り光が検出された画素アドレスが大きく異なる場合は、エラーとして測定結果を無効化することが可能である。
[生体検出手法]
つぎに、人の皮膚等の生体検出方法について説明する。
図1において、第1の発光部2Aから被写体100に向け、第1の波長領域をもつ非可視光(第1NIR光)が投射される。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)センサ部にて光電変換される。
第2の発光部2Bからは、第1の波長領域とは異なる波長領域の非可視光(第2NIR光)が投射される。
被写体100からの反射光(戻り光)は、同様にして撮像デバイス3にて光電変換される。
第1の発光部2Aによる投射と第2の発光部2Bによる投射は交互になされるように制御される。また非可視光(NIR)センサ部の出力を複数の電荷蓄積部41に対して振り分けるスイッチ43が、第1および第2の発光部2A,2Bによる投射と同期して開閉される。その結果、第1の発光部2Aからの反射光は第1の電荷蓄積部41へ、第2の発光部2Bからの反射光は他の第2の電荷蓄積部41へ入力されて蓄積される。
つぎに、人の皮膚等の生体検出方法について説明する。
図1において、第1の発光部2Aから被写体100に向け、第1の波長領域をもつ非可視光(第1NIR光)が投射される。
被写体100からの反射光(戻り光)を撮像デバイス3にて受光し、内部の非可視光(NIR)センサ部にて光電変換される。
第2の発光部2Bからは、第1の波長領域とは異なる波長領域の非可視光(第2NIR光)が投射される。
被写体100からの反射光(戻り光)は、同様にして撮像デバイス3にて光電変換される。
第1の発光部2Aによる投射と第2の発光部2Bによる投射は交互になされるように制御される。また非可視光(NIR)センサ部の出力を複数の電荷蓄積部41に対して振り分けるスイッチ43が、第1および第2の発光部2A,2Bによる投射と同期して開閉される。その結果、第1の発光部2Aからの反射光は第1の電荷蓄積部41へ、第2の発光部2Bからの反射光は他の第2の電荷蓄積部41へ入力されて蓄積される。
それぞれの検出信号は、配線を介して信号処理部5に取り込まれる。第1の発光部2Aから出射された第1NIR光の反射光により発生したNIR画素データから第1の非可視光画像が取得される。第2の発光部2Bから出射された第2NIR光の反射光により発生したNIR画素データから第2の非可視光画像が取得される。
第1および第2の非可視光画像は、同じ対象を同じ画角で同じ時間だけ撮像した画像であるため、照射光の波長が同じならば画像内の各アドレスにおけるデータ量は基本的に同じとなる。
第1および第2の非可視光画像は、同じ対象を同じ画角で同じ時間だけ撮像した画像であるため、照射光の波長が同じならば画像内の各アドレスにおけるデータ量は基本的に同じとなる。
ここでは2つの照射光の波長が人の肌で反射率の差が大きくなるように選択されている。このため、第1の非可視光画像と第2の非可視光画像において各アドレスの画素データ間で差分を取ると、人の肌の画像箇所だけ、この差分が増大し、その増大箇所を閾値判定することで生体検出を行う。
その際、第1の発光部2Aと第2の発光部2Bの照射光の波長差による非可視光(NIR)センサ部の感度差を補正した後、両者の差を演算する。この生体検出では、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と生体検出を同時に並行して行うことができる。
生体検出の結果は、RGB画像(可視光画像)から人の肌部分を抜き取る処理等に用いられる。
本実施形態の撮像デバイス3においては、可視光センサ部と非可視光センサ部がデバイス内で光の入射方向に並んで(基板深部方向に重ねて)配設されている。そのため、RGB画像のアドレスと非可視光画像のアドレスが同じならば、被写体100の同じ点を撮像したものであることが保証される。そのため、生体検出の精度が高く、肌画像の抽出が正確に行える。
その際、第1の発光部2Aと第2の発光部2Bの照射光の波長差による非可視光(NIR)センサ部の感度差を補正した後、両者の差を演算する。この生体検出では、RGBのセンサ部と別のセンサ部を使用しているため、RGB画像の取得と生体検出を同時に並行して行うことができる。
生体検出の結果は、RGB画像(可視光画像)から人の肌部分を抜き取る処理等に用いられる。
本実施形態の撮像デバイス3においては、可視光センサ部と非可視光センサ部がデバイス内で光の入射方向に並んで(基板深部方向に重ねて)配設されている。そのため、RGB画像のアドレスと非可視光画像のアドレスが同じならば、被写体100の同じ点を撮像したものであることが保証される。そのため、生体検出の精度が高く、肌画像の抽出が正確に行える。
[近赤外光画像(明暗画像)]
つぎに近赤外光画像について説明する。
各画素の非可視光(NIR)センサ部は、近赤外光(NIR)を検出するものであり、非可視光(NIR)センサ部からの検出信号は、通常の近赤外光画像(NIR画像)として利用してもよい。
NIR画像は、一般的なCCDやCMOSイメージセンサと同様、フレームごとに出力部(画素回路または垂直・水平転送レジスタ等)を経由して外部に出力され、図1の信号処理部5にて必要な処理が施される。
つぎに近赤外光画像について説明する。
各画素の非可視光(NIR)センサ部は、近赤外光(NIR)を検出するものであり、非可視光(NIR)センサ部からの検出信号は、通常の近赤外光画像(NIR画像)として利用してもよい。
NIR画像は、一般的なCCDやCMOSイメージセンサと同様、フレームごとに出力部(画素回路または垂直・水平転送レジスタ等)を経由して外部に出力され、図1の信号処理部5にて必要な処理が施される。
夜間等のように近赤外光が少ない場合は、第1,第2の発光部2A,2Bの一方または両方により被写体100を照らす。この近赤外光画像の取得は、RGB画像の取得時とは別のフォトセンサ(フォトセンサ内のセンサ部)を使用しているため、RGB画像の取得と近赤外光画像の取得を同時に並行して行うことができる。
距離測定、生体検出、RGB画像、近赤外光画像を取得する際、RGBセンサ部を使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像取得の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作のうち複数を実行するためには、これを時系列で順番に行う必要がある。
距離測定、生体検出、RGB画像、近赤外光画像を取得する際、RGBセンサ部を使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像取得の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作のうち複数を実行するためには、これを時系列で順番に行う必要がある。
<2.第2の実施形態>
本発明の第2の実施形態について説明する。
第1の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第1の実施形態では撮像デバイス3のカラーフィルタとして、赤、緑、青の原色系のもの(図3(B))を用いた。第2の実施形態では、シアン(Cy=B+G)、マゼンタ(Mg=B+R)、黄(Ye=G+R)、緑(G)の補色系カラーフィルタ(図8(A))に、NIR波長を透過する機能を付加したもの(図8(B))を用いる。
本発明の第2の実施形態について説明する。
第1の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第1の実施形態では撮像デバイス3のカラーフィルタとして、赤、緑、青の原色系のもの(図3(B))を用いた。第2の実施形態では、シアン(Cy=B+G)、マゼンタ(Mg=B+R)、黄(Ye=G+R)、緑(G)の補色系カラーフィルタ(図8(A))に、NIR波長を透過する機能を付加したもの(図8(B))を用いる。
図8(B)に示す光学フィルタ32において、各色のフィルタ部は、各々の色の透過に加えて近赤外(NIR)の波長も透過する特性になっている。各フィルタ部は、シアン(Cy)をB+G+NIR(以下、Cy+NIR)と表記する。また、マゼンタ(Mg)をB+R+NIR(以下、Mg+NIR)と表記し、黄(Ye)をG+R+NIR(以下、Ye+NIR)と表記し、緑(G)をG+NIRと表記する。各フィルタ部は、それぞれの光の透過特性をもつ。
Cy、Mg、Ye、Gの補色系カラーフィルタについては、その基本は既に広く一般的に使用されているもの(図8(A))である。この基本構成にNIRの透過特性を付加して図8(B)のフィルタを形成する方法は、前述した原色系フィルタと同様な多層膜構造の方法で実現可能である。
Cy、Mg、Ye、Gの補色系カラーフィルタについては、その基本は既に広く一般的に使用されているもの(図8(A))である。この基本構成にNIRの透過特性を付加して図8(B)のフィルタを形成する方法は、前述した原色系フィルタと同様な多層膜構造の方法で実現可能である。
図9に、デバイス断面の模式図を示す。
第2の実施形態のフォトセンサも表面に近いRGBの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成される。
Cy、Mg、YeについてはそれぞれRGBの可視光が2色ずつ混ざっている。そのため、このフォトセンサは、RGBの2色をそれぞれ検出するn型の層が2層必要となり、その間を分離するp型のバッファ層PBが追加されている。
第2の実施形態の構造も、光の波長によってシリコン基板へ入り込む深さが異なることを利用したものである。
第2の実施形態のフォトセンサも表面に近いRGBの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成される。
Cy、Mg、YeについてはそれぞれRGBの可視光が2色ずつ混ざっている。そのため、このフォトセンサは、RGBの2色をそれぞれ検出するn型の層が2層必要となり、その間を分離するp型のバッファ層PBが追加されている。
第2の実施形態の構造も、光の波長によってシリコン基板へ入り込む深さが異なることを利用したものである。
フィルタ部(Cy+NIR)を透過した光を受光するフォトセンサは、最表面側の3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。2層目のn型層が緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。一番深い1層目のセンサ部のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Cy+NIR)を透過したBとGとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39B、Gが2層目のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離して出力される。
フィルタ部(Mg+NIR)を透過した光を受光するフォトセンサは、3層目のn型層39Bが青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。2層目のn型層が赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。一番深い1層目のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
光学フィルタ(Mg+NIR)を透過したBとRとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39R、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして出力される。
光学フィルタ(Mg+NIR)を透過したBとRとNIRの光は、センサ部の深さによって分光され、Bが第3層のn型層39R、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして出力される。
フィルタ部(Ye+NIR)を透過した光を受光するフォトセンサは、3層目のn型層39Gが緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のn型層は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のn型層(n型ウェル37)は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Ye+NIR)を透過したGとRとNIRの光は、フォトセンサの深さによって分光され、Gが第3層のn型層39G、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離されて出力される。
フィルタ部(Ye+NIR)を透過したGとRとNIRの光は、フォトセンサの深さによって分光され、Gが第3層のn型層39G、Rが第2層のn型層、NIRが第1層のn型ウェル37で蓄積され可視光または非可視光の画素データとして分離されて出力される。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(G+NIR)を透過したGとNIRの光は、センサ部の深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
これに関しては、第1の実施形態のG+NIR部(図6)と同じ構造である。
フィルタ部(G+NIR)を透過したGとNIRの光は、センサ部の深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
これに関しては、第1の実施形態のG+NIR部(図6)と同じ構造である。
各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素のフィルタ部からはRGBの2色が混合された光がフォトセンサに入射される。この入射光をRGBに分離してセンサ部で検出し、それらの同じ色の原色信号同士(例えばRはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
各画素のフィルタ部からはRGBの2色が混合された光がフォトセンサに入射される。この入射光をRGBに分離してセンサ部で検出し、それらの同じ色の原色信号同士(例えばRはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
第2の実施形態は、第1の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。
<3.第3の実施形態>
本発明の第3の実施形態について説明する。
図10に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1,第2の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第3の実施形態では撮像デバイス3に原色系や補色系といった光学フィルタが存在しない。受光した全波長の光がフォトセンサ内に入り込み、センサ部の深さによる分光でR、G、B、NIRを検出する。
本発明の第3の実施形態について説明する。
図10に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1,第2の実施形態と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
第3の実施形態では撮像デバイス3に原色系や補色系といった光学フィルタが存在しない。受光した全波長の光がフォトセンサ内に入り込み、センサ部の深さによる分光でR、G、B、NIRを検出する。
第3の実施形態のフォトセンサは全ての画素で同じ4層構造のセンサ部(n型層に電荷蓄積するpn接合ダイオード)を有している。第2の実施形態と同様に、n型層の間にはp型のバッファ層PBが介在する。
4層目のセンサ部のpn接合は青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。3層目のセンサ部のpn接合は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のセンサ部pn接合は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のセンサ部のpn接合は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
4層目のセンサ部のpn接合は青色光に強く感度をもつ深さ(表面から0.2〜0.5μm程度)に形成されている。3層目のセンサ部のpn接合は緑色光に強く感度をもつ深さ(表面から0.8〜1.5μm程度)に形成されている。2層目のセンサ部pn接合は赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。1層目のセンサ部のpn接合は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
各センサ部のpn接合深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素にR、G、B、NIRが混合された光が入射され、この光をフォトセンサ34で分離して各々のセンサ部から出力する。RGBの各画素データは、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
各画素にR、G、B、NIRが混合された光が入射され、この光をフォトセンサ34で分離して各々のセンサ部から出力する。RGBの各画素データは、通常のRGBのカラー画像として利用される。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
第3の実施形態は、他の実施形態と比較して、RGBの光量が増える、光学フィルタ32が不要という利点がある一方で、4層構造になる分、製造工程が増えるという不利な点がある。
<4.第4の実施形態>
本発明の第4の実施形態について説明する。
図11に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1の実施形態(図6)と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
光学フィルタ32は一般的な撮像デバイス3のカラーフィルタであるRGB透過フィルタのうち、少なくともGとBに関しては近赤外(NIR)の波長も透過する特性を加えたものを使用する。
本発明の第4の実施形態について説明する。
図11に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第1の実施形態(図6)と異なるのは、撮像デバイス3の光学フィルタ32とフォトセンサ34の構造である。
光学フィルタ32は一般的な撮像デバイス3のカラーフィルタであるRGB透過フィルタのうち、少なくともGとBに関しては近赤外(NIR)の波長も透過する特性を加えたものを使用する。
第4の実施形態では、Rの画素に関しては、フォトセンサによるNIRの検出をしないので、光学フィルタ32のNIR透過機能は必須ではない。よって第4の実施形態の光学フィルタ32は、RGBフィルタの基本構成がRのみ透過(IRは遮断)、G+NIRを透過、B+NIRを透過の特性をもつ。
第4の実施形態はNIRセンサ部を第1〜第3の実施形態と比較して、深さを浅く設定することを特徴とする。
第1〜第3の実施形態では、NIRセンサ部の形成深さを30μm以下程度としていたが、第4の実施形態では製造工程を容易にするようにNIRセンサ部の深さを10μm以下の程度とする。
NIRセンサ部の深さを浅くする場合、第1の実施形態のままだと、R検出用のセンサ部とNIRセンサ部が近接または同じ深さに形成されることになる。そのため、NIRセンサ部とRセンサ部を深さ方向の層構造で形成することが困難になる。
第1〜第3の実施形態では、NIRセンサ部の形成深さを30μm以下程度としていたが、第4の実施形態では製造工程を容易にするようにNIRセンサ部の深さを10μm以下の程度とする。
NIRセンサ部の深さを浅くする場合、第1の実施形態のままだと、R検出用のセンサ部とNIRセンサ部が近接または同じ深さに形成されることになる。そのため、NIRセンサ部とRセンサ部を深さ方向の層構造で形成することが困難になる。
その解決策として、赤を透過するフィルタ部をもつ画素ではNIRセンサ部を形成せず、NIRの検出を行わない。NIRの検出を行わない画素では、周辺の画素のNIR検出値から平均化しデータ補間してNIR画素データを生成する。あるいは、RGGBの4画素を1点として、解像度を落として使用する。
またNIRの検出深さを浅くすることの不利な点として、当然NIR波長の光の感度低下が生じる。その分は、第1および第2の発光部2A,2Bの投射光量を増すことで対処が可能になる。
またNIRの検出深さを浅くすることの不利な点として、当然NIR波長の光の感度低下が生じる。その分は、第1および第2の発光部2A,2Bの投射光量を増すことで対処が可能になる。
フィルタ部(R)を透過した光を受光するフォトセンサ34Rは、1層目のセンサ部を構成するn型ウェル37が赤色光に強く感度をもつ深さ(表面から2.0〜7.5μm程度)に形成されている。第1層のセンサ部によりRの検出が行われる。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gと、フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bは、図6の場合と同じように形成されている。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサ34Gと、フィルタ部(B+NIR)を透過した光を受光するフォトセンサ34Bは、図6の場合と同じように形成されている。
各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。また、CCDやCMOSイメージセンサへの適用、距離測定、生体検出、近赤外光画像として使用されることでも第1の実施形態と同じである。この点は、上記第2および第3の実施形態と共通する。
<5.第5の実施形態>
本発明の第5の実施形態について説明する。
図12に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第5の実施形態(図12)が第2の実施形態(図9)と異なるのは、撮像デバイス3のフォトセンサの構造である。
カラーフィルタは補色系カラーフィルタを用い、第2の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
本発明の第5の実施形態について説明する。
図12に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第5の実施形態(図12)が第2の実施形態(図9)と異なるのは、撮像デバイス3のフォトセンサの構造である。
カラーフィルタは補色系カラーフィルタを用い、第2の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
図12に示すフォトセンサの構造が第2の実施形態(図9)と異なるのは、可視光Cy、Mg、Ye、Gの各々を1層のn型層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。一般的な撮像デバイス3でも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。
フィルタ部(Cy+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Cy+NIR)を透過したCyとNIRの光は、フォトセンサの深さによって分光され、それぞれCyが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
フィルタ部(Cy+NIR)を透過したCyとNIRの光は、フォトセンサの深さによって分光され、それぞれCyが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
フィルタ部(Mg+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Mg+NIR)を透過したMgとNIRの光は、フォトセンサの深さによって分光され、それぞれMgが第2層センサ部、NIRが第1層のNIRセンサ部から検出される。
フィルタ部(Mg+NIR)を透過したMgとNIRの光は、フォトセンサの深さによって分光され、それぞれMgが第2層センサ部、NIRが第1層のNIRセンサ部から検出される。
フィルタ部(Ye+NIR)を透過した光を受光するフォトセンサは、1層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。2層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(Ye+NIR)を透過したYeとNIRの光は、フォトセンサの深さによって分光され、それぞれYeが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
フィルタ部(Ye+NIR)を透過したYeとNIRの光は、フォトセンサの深さによって分光され、それぞれYeが第2層目の可視光センサ部、NIRが第1層目のNIRセンサ部から検出される。
フィルタ部(G+NIR)を透過した光を受光するフォトセンサは、2層目のセンサ部は可視光に強く感度をもつ深さ(10μm以下程度)に形成されている。1層目のセンサ部は第1の発光部2A(図1)の発光波長(近赤外光)に強く感度をもつ深さ(表面から30μm以下程度)に形成されている。
フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
フィルタ部(G+NIR)を透過したGとNIRの光は、フォトセンサの深さによって分光され、画素回路層33に形成された出力部によって分離されて出力される。
各センサ部の深さについては一例であり、各光の分光特性と検出光量が使用上問題とならない範囲で変更が可能である。
各画素のCy、Mg、Ye、Gの画素データをセンサ部の出力から検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
各画素のCy、Mg、Ye、Gの画素データをセンサ部の出力から検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRセンサ部からの検出信号の扱い、即ち、明暗画像として用いるか、距離測定と生体検出の少なくとも一方の処理に用いるかは第1の実施形態と同様に任意である。また、これらの処理自体は第1の実施形態で説明した手法を用いることができる。
第2の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるといる利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。
<6.第6の実施形態>
図13に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第6の実施形態(図13)が第1の実施形態(図6)と異なるのは、出力部40の構成である。例えば色配列のRGBの3画素に共通の共通電荷蓄積部41Cが付加されている。既存の電荷蓄積部を本実施形態では、専用電荷蓄積部41Xと呼ぶ。
この構成の変更に対応して、図13のスイッチ43は切片を4つの接点に切り替えるスイッチとして構成されている。
専用電荷蓄積部41Xは、近赤外画像、生体検出、距離測定で使用され、共通電荷蓄積部41Cは距離測定で使用される。例えば、距離測定時に、距離測定が十分可能な光量をフォトセンサで受光している場合、専用電荷蓄積部41Xを使用し、一画素だけの光量では足りない場合は共通電荷蓄積部41Cを使用する。
図13に、撮像デバイス3の画素アレイにおける断面構成を模式的に示す。
第6の実施形態(図13)が第1の実施形態(図6)と異なるのは、出力部40の構成である。例えば色配列のRGBの3画素に共通の共通電荷蓄積部41Cが付加されている。既存の電荷蓄積部を本実施形態では、専用電荷蓄積部41Xと呼ぶ。
この構成の変更に対応して、図13のスイッチ43は切片を4つの接点に切り替えるスイッチとして構成されている。
専用電荷蓄積部41Xは、近赤外画像、生体検出、距離測定で使用され、共通電荷蓄積部41Cは距離測定で使用される。例えば、距離測定時に、距離測定が十分可能な光量をフォトセンサで受光している場合、専用電荷蓄積部41Xを使用し、一画素だけの光量では足りない場合は共通電荷蓄積部41Cを使用する。
図14に、電荷蓄積部を共通で使用する場合の配線図を示す。
図14の場合、距離画像の画素サイズはRGB画像やNIR画像に対して4倍の面積に増え、その分受光する光量も増やすことができる。
一方、RGB画像やNIR画像に対して、距離画像の解像度は1/4倍に落ちる。RGB画像に対する距離データの欠損部は、周辺距離画像の平均値により補間して使用する。補間の方法については後述する。
図14の場合、距離画像の画素サイズはRGB画像やNIR画像に対して4倍の面積に増え、その分受光する光量も増やすことができる。
一方、RGB画像やNIR画像に対して、距離画像の解像度は1/4倍に落ちる。RGB画像に対する距離データの欠損部は、周辺距離画像の平均値により補間して使用する。補間の方法については後述する。
距離測定や生体検出を行い、RGB画像や近赤外光画像を取得する際、RGB用フォトセンサを使用するRGB画像の取得と、NIRセンサ部を使用する距離測定、生体検出、近赤外光画像の3動作の1つは同時に実行することが可能である。NIRセンサ部を使用する上記3動作の複数を行うためには、時系列で順番に動作させる必要がある。
[データ補間方法]
次に距離画像のデータ補間方法について説明する。
共通電荷蓄積部41Cを使用して距離測定を行う場合、RGB画像、NIR画像、生体検出画像に対して、距離画像の解像度が低くなる。距離画像の解像度が低くなる分は、複数のエリアの平均値を計算して補間する。
次に距離画像のデータ補間方法について説明する。
共通電荷蓄積部41Cを使用して距離測定を行う場合、RGB画像、NIR画像、生体検出画像に対して、距離画像の解像度が低くなる。距離画像の解像度が低くなる分は、複数のエリアの平均値を計算して補間する。
図15に示す画素配列を例に挙げる。図16〜図19は補間手法の説明図である。
距離測定画像は反射光検出であるため画素ごとのデータ量が少ないため、ここでは2×2のデータ単位に合成される。この合成は、図14の構成を用いると簡単に行える。
距離測定画像は反射光検出であるため画素ごとのデータ量が少ないため、ここでは2×2のデータ単位に合成される。この合成は、図14の構成を用いると簡単に行える。
図16のように、RGB画像、NIR画像、生体検出画像のエリア1と距離測定エリア(NIR_1)が一致している場合は、エリア1の距離データはNIR_1の測定値になる。
図17のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、2つの距離測定エリア(NIR_1とNIR_3)にまたがっている場合は、2つの距離測定エリアの出力を平均した平均値を距離データとして与える。エリア2の距離データは距離データ(NIR_1+NIR_3)の半分になる。
図17のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、2つの距離測定エリア(NIR_1とNIR_3)にまたがっている場合は、2つの距離測定エリアの出力を平均した平均値を距離データとして与える。エリア2の距離データは距離データ(NIR_1+NIR_3)の半分になる。
図18の場合も、図17と同様であり、エリア3の距離データは距離データ(NIR_1+NIR_2)の半分になり、これをエリア3の距離データとする。
図19のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、4つの距離測定エリア(NIR_1〜4)にまたがっている場合は、4つの距離測定エリアの出力を平均した平均値を距離データとする。エリア4の距離データは距離データ(NIR_1+NIR_2+NIR_3+NIR_4)の1/4であり、これがエリア4の距離データとなる。
以上のやり方で、距離データの欠損部に関して、データ補間を行う。
図19のように、RGB画像、NIR画像、生体検出画像のエリア2と一致した距離測定エリアがなく、4つの距離測定エリア(NIR_1〜4)にまたがっている場合は、4つの距離測定エリアの出力を平均した平均値を距離データとする。エリア4の距離データは距離データ(NIR_1+NIR_2+NIR_3+NIR_4)の1/4であり、これがエリア4の距離データとなる。
以上のやり方で、距離データの欠損部に関して、データ補間を行う。
<7.第7の実施形態>
本発明の第7の実施形態について説明する。
第7の実施形態が第6の実施形態と異なるのは、撮像デバイスの光学フィルタとフォトセンサ構造である。第6の実施形態(図13、図14)では撮像デバイス3のカラーフィルタ32に赤、緑、青の原色系のものを用いた。
これに対し、第7の実施形態では、図8(A)の補色系カラーフィルタを基本として、図8(B)のように近赤外(NIR)の波長も透過する特性も与えたものを用いる。
フォトセンサ34の構成は図8(B)と同じであり、画素回路層33の構成は図13と同じである。
本発明の第7の実施形態について説明する。
第7の実施形態が第6の実施形態と異なるのは、撮像デバイスの光学フィルタとフォトセンサ構造である。第6の実施形態(図13、図14)では撮像デバイス3のカラーフィルタ32に赤、緑、青の原色系のものを用いた。
これに対し、第7の実施形態では、図8(A)の補色系カラーフィルタを基本として、図8(B)のように近赤外(NIR)の波長も透過する特性も与えたものを用いる。
フォトセンサ34の構成は図8(B)と同じであり、画素回路層33の構成は図13と同じである。
図20に、4つの画素につき電荷蓄積部を共通で使用する場合の第7の実施形態に関わる配線図を示す。
図9を用いて既に述べたように、シアン(Cy)のフィルタ部はB+G+NIRの透過特性をもち、この特性をもつ画素からは、図20に示すようにB,G,NIRの各画素データが分離して出力される。また、マゼンタ(Mg)のフィルタ部はB+R+NIRの透過特性をもつため、その特性をもつ画素からはB,R,NIRの各画素データが分離して出力される。同様に、黄(Ye)のフィルタ部はG+R+NIR、緑(G)のフィルタ部はG+NIRの透過特性をもつため、それぞれの画素からはG,R,NIRの画素データと、G,NIRの画素データが分離して出力される。
このような色ごとの受光とそのセンサ構造については図9の説明で述べたので省略する。
図9を用いて既に述べたように、シアン(Cy)のフィルタ部はB+G+NIRの透過特性をもち、この特性をもつ画素からは、図20に示すようにB,G,NIRの各画素データが分離して出力される。また、マゼンタ(Mg)のフィルタ部はB+R+NIRの透過特性をもつため、その特性をもつ画素からはB,R,NIRの各画素データが分離して出力される。同様に、黄(Ye)のフィルタ部はG+R+NIR、緑(G)のフィルタ部はG+NIRの透過特性をもつため、それぞれの画素からはG,R,NIRの画素データと、G,NIRの画素データが分離して出力される。
このような色ごとの受光とそのセンサ構造については図9の説明で述べたので省略する。
本実施形態においても、第6の実施形態と同様に、各画素の混合されたR、G、Bを各々RGB分離して出力するフォトセンサから取得する。それらの同じ色の信号(例えば、RはR同士)を足し算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。
NIRフォトセンサからの検出信号の扱いは、第1および第6の実施形態と同様である。また、補間手法も、図15から図19に示すものとフィルタ特性を表す符号が混色系対応とすれば、これらの図をそのまま用いることができ、手法自体も同じであるため、ここでの説明を省略する。
第7の実施形態は、第6の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。
NIRフォトセンサからの検出信号の扱いは、第1および第6の実施形態と同様である。また、補間手法も、図15から図19に示すものとフィルタ特性を表す符号が混色系対応とすれば、これらの図をそのまま用いることができ、手法自体も同じであるため、ここでの説明を省略する。
第7の実施形態は、第6の実施形態と比較して、RGBの光量が2倍に増えるという利点と、3層構造になる分、製造工程が増えるという不利な点がある。
<8.第8の実施形態>
本発明の第8の実施形態について説明する。
第7の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。
カラーフィルタは補色系カラーフィルタを用い、第7の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
フォトセンサ構造で第7の実施形態と異なるのは、可視光を1層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。この検出構造は、図12を用いて既に説明したことから、ここでの図示を省略する。
一般的な撮像デバイスでも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。
本発明の第8の実施形態について説明する。
第7の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。
カラーフィルタは補色系カラーフィルタを用い、第7の実施形態と同様にシアン(Cy)はCy+NIR(B+G+NIR)、マゼンタ(Mg)はMg+NIR(B+R+NIR)、黄(Ye)はYe+NIR(G+R+NIR)、緑(G)はG+NIRの透過特性をもつ。
フォトセンサ構造で第7の実施形態と異なるのは、可視光を1層で検出する点である。表面に近いCy、Mg、Ye、Gの可視光を検出する層と、深い位置に形成されたNIRを検出する層で構成され、合計2層の電荷蓄積層(n型層)構造になっている。この検出構造は、図12を用いて既に説明したことから、ここでの図示を省略する。
一般的な撮像デバイスでも、Cy、Mg、Ye、Gは1層のフォトセンサで検出しており、実績がある方法である。
各画素のCy、Mg、Ye、Gをフォトセンサから検出し、それらを演算することによりRGB信号に変換し、通常のRGBのカラー画像として利用される。演算方法は一般的な補色系カラーフィルタを用いた撮像装置と同様である。
NIRフォトセンサからの検出信号の扱いは、実施形態1と同様である。第7の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるという利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。
NIRフォトセンサからの検出信号の扱いは、実施形態1と同様である。第7の実施形態と比較して、フォトセンサが3層から2層になり製造が簡単になるという利点と、可視光がCy、Mg、Ye、Gで検出されるので、検出後にRGBに分光するための演算が必要という不利な点がある。
<9.第9〜第11の実施形態>
以下の3つの実施形態は、第6〜第8の実施形態の変形に関する。この変形は、図6、図9、図12に示す他の実施形態への適用も可能である。
図21に、第9の実施形態に関わる撮像デバイス3の画素アレイにおける断面構成を模式的に示す。図22には、4つの画素につき電荷蓄積部を共通で使用する場合の配線図を示す。以下、図21および図22を用いて主に第9の実施形態で、この変形の内容を説明する。
本発明の第9の実施形態が第6の実施形態および図6に関わる第1の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。カラーフィルタは原色系カラーフィルタを用い、第1の実施形態と同様に赤(R)はR+NIR、緑(G)はG+NIR、青(B)はB+NIRの透過特性をもつ。
以下の3つの実施形態は、第6〜第8の実施形態の変形に関する。この変形は、図6、図9、図12に示す他の実施形態への適用も可能である。
図21に、第9の実施形態に関わる撮像デバイス3の画素アレイにおける断面構成を模式的に示す。図22には、4つの画素につき電荷蓄積部を共通で使用する場合の配線図を示す。以下、図21および図22を用いて主に第9の実施形態で、この変形の内容を説明する。
本発明の第9の実施形態が第6の実施形態および図6に関わる第1の実施形態と異なるのは、撮像デバイスのフォトセンサ構造である。カラーフィルタは原色系カラーフィルタを用い、第1の実施形態と同様に赤(R)はR+NIR、緑(G)はG+NIR、青(B)はB+NIRの透過特性をもつ。
フォトセンサ構造での相違点は、NIRフォトセンサの構造である。第6の実施形態等では、各画素に1つずつNIR用検出用フォトセンサが配置され電荷蓄積部41にて複数のNIRフォトセンサから電荷を集める構造を有する。
これに対し、第9の実施形態では、図21に示すように、第6の実施形態では複数の画素でNIRフォトセンサ自体が一体化され、複数の画素にまたがって面積の大きなNIRフォトセンサが形成されている。具体的には、符号71で示す第1層目のn型層が、3画素共通な大きな面積で形成されている。
この点以外のフォトセンサ構造と、光学フィルタの構成(波長透過特性)に変更はない。
これに対し、第9の実施形態では、図21に示すように、第6の実施形態では複数の画素でNIRフォトセンサ自体が一体化され、複数の画素にまたがって面積の大きなNIRフォトセンサが形成されている。具体的には、符号71で示す第1層目のn型層が、3画素共通な大きな面積で形成されている。
この点以外のフォトセンサ構造と、光学フィルタの構成(波長透過特性)に変更はない。
各画素の第2層のセンサ部は、既出の実施形態と同様に、赤、緑、青(RGB)を検出するものであり、第2層のセンサ部(n型層)からの検出信号は、通常のカラー画像(RGB画像)として利用される。
RGGBの4画素で共通の大面積の第1層のセンサ部は、NIRを検出するものであり、第1層のセンサ部からの検出信号は、距離測定と生体検出と近赤外光画像に利用される。
RGGBの4画素で共通の大面積の第1層のセンサ部は、NIRを検出するものであり、第1層のセンサ部からの検出信号は、距離測定と生体検出と近赤外光画像に利用される。
前述したように、NIRフォトセンサは複数のRGBの複数の画素にわたって配置されており、RGBの複数の画素を透過してきたNIR光を検出する。
第1層のセンサ部には、各画素共通に使用する複数の共通電荷蓄積部41Cがスイッチ43を介して接続されている。このスイッチ43を制御することで、第1層のセンサ部(厳密には大面積のn型ウェル37)から出力される電荷を複数の電荷蓄積部へ移すことが可能になっている(図22参照)。
第9の実施形態では、第6の実施形態と比較して、フォトセンサが電荷蓄積部を含む出力部40の構成が簡素化される利点と、NIR画像、生体検出の解像度が下がる、RGB画像に対してデータ補間が必須になる等の不利な点がある。
第1層のセンサ部には、各画素共通に使用する複数の共通電荷蓄積部41Cがスイッチ43を介して接続されている。このスイッチ43を制御することで、第1層のセンサ部(厳密には大面積のn型ウェル37)から出力される電荷を複数の電荷蓄積部へ移すことが可能になっている(図22参照)。
第9の実施形態では、第6の実施形態と比較して、フォトセンサが電荷蓄積部を含む出力部40の構成が簡素化される利点と、NIR画像、生体検出の解像度が下がる、RGB画像に対してデータ補間が必須になる等の不利な点がある。
図23と図24に、第10の実施形態に関わり、図21と図22に対応した模式断面図と配線図を示す。
第10の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第7の実施形態および図9と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。
また、効果および利点と不利な点も、第9の実施形態と同様である。
第10の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第7の実施形態および図9と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。
また、効果および利点と不利な点も、第9の実施形態と同様である。
図25と図26に、第11の実施形態に関わり、図21と図22に対応した模式断面図と配線図を示す。
第11の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第8の実施形態および図12と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。また、効果および利点と不利な点も、第9の実施形態と同様である。
第11の実施形態では、図21と同様に、n型ウェル37(第1層のセンサ部のn型層であるn型ウェル37)が4画素共通に広い面積で形成されている以外は、フォトセンサ構造が第8の実施形態および図12と同じ構成となっている。画素回路層33の構成は、第9の実施形態と同様である。また、効果および利点と不利な点も、第9の実施形態と同様である。
なお、以上の第9〜第11の実施形態のように、第1層のNIRセンサ部の面積を大面積とすることは、RGGBやCyYeMgG等の色配列の基本単位(本例では4画素)に限定する必要はない。この色配列の基本単位の複数倍の大きさまでNIRセンサ部の大きさを拡張してNIR光の検出単位を構成してもよい。
以上の第1〜第11に関わる実施形態により、距離画像センサ、生体検出センサ、RGB画像、近赤外光画像を1つのカメラシステムで実現が可能になる。また、そのための撮像デバイスを新たに提供できる。
この発明は、一般的なRGB画像や近赤外光画像のビデオカメラやデジタルカメラ、インターネットに繋げるWebカメラにも適用できる。また、モーション認識やジェスチャー認識といった動作を利用したパーソナルコンピュータやゲームのコントローラ分野でも利用が可能である。
他にも人の顔や手を認識したセキュリティ判別の分野でも利用が可能である。その他、障害物の認識や、物体認識の用途でロボット・生産設備の分野でも利用が可能である。
他にも人の顔や手を認識したセキュリティ判別の分野でも利用が可能である。その他、障害物の認識や、物体認識の用途でロボット・生産設備の分野でも利用が可能である。
以上の第1から第11の実施形態によれば、以下の効果が得られる。
以前より、距離測定と近赤外光画像、生体検出と近赤外光画像の各々を1つの撮像デバイスで両立するものは存在する。
以前より、距離測定と近赤外光画像、生体検出と近赤外光画像の各々を1つの撮像デバイスで両立するものは存在する。
しかし、用途によっては(例えばモーション認識、ジェスチャー認識、物や人の顔や手の3D画像認識等)、距離測定とRGB画像、生体検出とRGB画像、生体検出と距離測定、生体検出と距離測定とRGB画像が必要とされることがある。この場合、RGBカメラとのそれらの2カメラ構成でしか実現できない。
2カメラ構成の場合、視点が異なるため、被写体の位置によりカメラ間の位置ずれが生じる、2カメラのフレーム同期が必要になる、ズームを行いたい場合にカメラの同期制御が必要になり複雑な構成になる、等の問題が生じる。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、等の問題が生じる。
本発明の第1から第11の実施形態では、撮像デバイスを1つで実現することで前記問題が解消される。
2カメラ構成の場合、視点が異なるため、被写体の位置によりカメラ間の位置ずれが生じる、2カメラのフレーム同期が必要になる、ズームを行いたい場合にカメラの同期制御が必要になり複雑な構成になる、等の問題が生じる。
2カメラ構成の場合、視点が異なるため、被写体の位置によっては2カメラ間の視差により2つの画像に位置ずれが生じる、2カメラ間でフレーム同期制御が必要になる、ズームを行いたい場合に2カメラ間で視野の同期制御が必要になり複雑な構成になる、等の問題が生じる。
本発明の第1から第11の実施形態では、撮像デバイスを1つで実現することで前記問題が解消される。
次に、取得した情報の処理例について説明する。
距離測定結果とRGB画像を取得し、距離情報によってRGB画像の画素を選択することで、例えば画素単位で視点のずれがない被写体のみの抽出が可能である。
生体検出とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択することで、例えば顔や手のみのカラー画像抽出が可能である。
生体検出と距離測定を取得し、生体検出画像に距離情報を加えることで、顔や手の3次元情報の抽出が可能である。
生体検出と距離測定とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択し、距離情報を加えることで、顔や手の3次元カラー情報の抽出が可能である。
距離測定結果とRGB画像を取得し、距離情報によってRGB画像の画素を選択することで、例えば画素単位で視点のずれがない被写体のみの抽出が可能である。
生体検出とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択することで、例えば顔や手のみのカラー画像抽出が可能である。
生体検出と距離測定を取得し、生体検出画像に距離情報を加えることで、顔や手の3次元情報の抽出が可能である。
生体検出と距離測定とRGB画像を取得し、生物体の検出情報によってRGB画像の画素を選択し、距離情報を加えることで、顔や手の3次元カラー情報の抽出が可能である。
本発明が考案される以前にも、RGB画像と近赤外光画像を両立する技術自体は存在していた。
1つは赤外光カットフィルタを機構的に出し入れして切り替えるタイプで、カムコーダ等で広く適用されている。
もう1つは、赤外光カットフィルタの切り替えは不要な方法である。この方法では、R+NIR,G+NIR,B+NIR,NIRの光学フィルタで画像を取得する。R+NIR,G+NIR,B+NIRの検出結果からNIR成分を削除してRGB信号を取得し、同時にNIRフィルタの画素からNIR信号を取得する。
1つは赤外光カットフィルタを機構的に出し入れして切り替えるタイプで、カムコーダ等で広く適用されている。
もう1つは、赤外光カットフィルタの切り替えは不要な方法である。この方法では、R+NIR,G+NIR,B+NIR,NIRの光学フィルタで画像を取得する。R+NIR,G+NIR,B+NIRの検出結果からNIR成分を削除してRGB信号を取得し、同時にNIRフィルタの画素からNIR信号を取得する。
このうち後者は、カラーフィルタのベイヤー配列からGを1つ除くことにより、解像度が落ちるという不利な点がある。
本発明の適用により、赤外光カットフィルタを機構的に切り替える必要がなく、解像度も落ちない、RGB画像と近赤外光画像の両立が可能になる。
また、本発明の適用により、距離画像センサを含む撮像デバイスの画素小型化で問題となる、距離測定の際の光量不足に対し、発光光量を増やすことなく、面積が1/4の画素小型化に対応する手法、撮像デバイス、撮像装置が提供可能になる。
本発明の適用により、赤外光カットフィルタを機構的に切り替える必要がなく、解像度も落ちない、RGB画像と近赤外光画像の両立が可能になる。
また、本発明の適用により、距離画像センサを含む撮像デバイスの画素小型化で問題となる、距離測定の際の光量不足に対し、発光光量を増やすことなく、面積が1/4の画素小型化に対応する手法、撮像デバイス、撮像装置が提供可能になる。
1…撮像装置、2…発光部、2A,2B…第1および第2の発光部、3…撮像デバイス、4…レンズ、5…信号処理部、6…制御部、32…光学フィルタ、33…画素回路層、34…フォトセンサ、35…半導体基板、36、37…n型層(n型ウェル等)、40…出力部、41…電荷蓄積部、41C…共通電荷蓄積部、41X…専用電荷蓄積部、42…出力回路、43…スイッチ。
Claims (21)
- 画像光が入射する側に光学フィルタが配設された画素アレイを備え、
前記画素アレイの画素が、
原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する第1フィルタ領域と、
前記第1フィルタ領域からの前記可視光に主感度を有する可視光センサ部と、
前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する非可視光センサ部と、
を有し、
前記可視光センサ部の光電変換により発生する可視光画像の信号と前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する出力部が、前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられている
撮像デバイス。 - 前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
を有する請求項1に記載の撮像デバイス。 - 前記電荷蓄積部が各出力部内にN×M個(N,Mはそれぞれ2以上の整数)設けられ、
前記スイッチを制御して、前記非可視光画像の画素配列におけるN行、M列分の受光電荷をまとめて検出単位として出力する制御を行う制御回路、または、該制御の信号を外部から入力して前記スイッチに印加するための端子を有する
請求項2に記載の撮像デバイス。 - 前記非可視光センサ部は、前記可視光センサ部の画素配列におけるN行、M列分(NとMはそれぞれ2以上の整数)の大きさを有する
請求項1に記載の撮像デバイス。 - 前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
を有し、
前記スイッチを制御して、前記非可視光画像の画素配列のN行、M列分の大きさの前記非可視光センサ部の受光電荷をさらに複数にまとめて検出単位として出力する制御を行う制御回路、または、該制御の信号を外部から入力して前記スイッチに印加するための端子を
さらに有する請求項4に記載の撮像デバイス。 - 前記複数の電荷蓄積部は、
複数の前記非可視光センサ部との接続が前記スイッチによって制御され、該スイッチを介して前記複数の非可視光センサ部の全てから受光電荷の供給を受ける2以上の共通電荷蓄積部と、
前記複数の非可視光センサ部の何れか1つとの接続が他の前記スイッチによって制御され、対応するスイッチを介して対応する非可視光センサ部から受光電荷の供給を受ける2以上の専用電荷蓄積部と、
を含む請求項3または5に記載の撮像デバイス。 - 前記第1フィルタ領域が複数色の可視光を透過可能に構成され、
前記複数色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する複数のセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項1〜5の何れかに記載の撮像デバイス。 - 前記第1フィルタ領域が原色系または補色系の3色あるいは4色の可視光を透過可能に構成され、
前記3色あるいは4色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項7に記載の撮像デバイス。 - 前記複数色の可視光を光電変換する前記可視光センサ部は、前記複数色の可視光に対応した可視光域に感度を有する単一のセンサ部である
請求項1〜5の何れかに記載の撮像デバイス。 - 前記光学フィルタは、原色系の複数色で最も波長が長い色、または、補色系の複数色で最も波長が長い色に対応した波長の可視光を透過し、前記非可視光を遮断する第2フィルタ領域を有し、
前記画素アレイの前記第2フィルタ領域を含む画素に、前記第2フィルタ領域からの前記可視光に主感度を有する可視光センサ部を含む
請求項1〜6の何れかに記載の撮像デバイス。 - 画像光が入射する側に光学フィルタが配設された画素アレイを備える撮像デバイスと、
可視光の波長領域より長波長側に単一または互いに異なる複数の波長領域をもつ少なくとも1つの非可視光を発光して投射し、投射光の一部が被写体で反射した戻り光が前記撮像デバイスに到達するように仕向けられた発光部と、
前記戻り光を前記撮像デバイスに結像させるレンズと、
前記発光部の発光タイミングを制御する制御部と、
前記撮像デバイスから出力される可視光画像の信号を処理する信号処理部と、
を有し、
前記画素アレイの画素が、
原色系または補色系の複数色のうち、少なくとも1色に対応した波長の可視光、および、可視光より波長が長い非可視光を透過する第1フィルタ領域と、
前記第1フィルタ領域からの前記可視光に主感度を有する可視光センサ部と、
前記可視光センサ部よりも前記画像光が進入する側から遠い位置に形成され、前記第1フィルタ領域からの前記非可視光に主感度を有する非可視光センサ部と、
を有し、
前記可視光センサ部の光電変換により発生する可視光画像の信号と前記非可視光センサ部の光電変換により発生する非可視光画像の信号とを分離して出力する出力部が、前記画素アレイの画素ごとに設けられ、または、出力信号線に共通接続された複数の画素で共有して設けられ、
前記信号処理部は前記可視光画像の信号を信号処理し、
前記信号処理部と前記制御部は、前記撮像デバイスの受光時間と近赤外光の発光を制御し、得られた前記非可視光画像の信号に基づいて、前記被写体までの距離を測定する演算処理と前記被写体の肌の画像を検出する生体検出の処理との少なくとも一方を実行する
撮像装置。 - 前記発光部は、1つの前記非可視光の発光と停止のタイミングを独立に制御可能に構成され、
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
前記複数の電荷蓄積部からの各蓄積電荷量に対応した複数の非可視光画像を出力する出力回路と、
を有し、
前記信号処理部および前記制御部は、前記撮像デバイスの受光時間、前記非可視光の発光と停止のタイミングに対して前記スイッチの切り替えタイミングを制御し、該制御により得られた前記複数の非可視光画像に基づいて、前記被写体までの距離を測定する演算処理を実行可能である
請求項11に記載の撮像装置。 - 前記発光部は、波長領域が異なる第1および第2の非可視光の発光と停止のタイミングを独立に制御可能に構成され、
前記出力部は、
複数の電荷蓄積部と、
前記非可視光センサ部の発生電荷を前記複数の電荷蓄積部に振り分けるスイッチと、
前記複数の電荷蓄積部からの各蓄積電荷量に対応した複数の非可視光画像を出力する出力回路と、
を有し、
前記信号処理部および前記制御部は、前記撮像デバイスの受光時間、前記スイッチの切り替えタイミングおよび前記複数の近赤外光の発光と停止のタイミングを制御し、該制御により得られた前記複数の非可視光画像に基づいて、前記被写体の肌の画像を検出する生体検出処理を実行可能である
請求項11または12に記載の撮像装置。 - 前記信号処理部および前記制御部は、前記撮像デバイスの前記戻り光の受光期間内に前記スイッチを第1の電荷蓄積部から第2の電荷蓄積部に切り替え、当該切り替えにより前記第1および第2の電荷蓄積部に振り分けられた前記戻り光の受光電荷量の比に基づいて、前記被写体までの距離を求める
請求項12に記載の撮像装置。 - 前記信号処理部および前記制御部は、前記可視光画像の処理において前記被写体の画像内で距離測定範囲を設定し、設定した前記距離測定範囲に対し、前記撮像デバイスの画素アドレスが対応した前記非可視光画像の画像部分を用いて前記距離を測定する演算処理を実行する
請求項11,12または14に記載の撮像装置。 - 前記可視光画像の前記距離測定範囲に対応した非可視光画像が得られない場合、前記非可視光画像において前記距離測定範囲に画素アドレスで対応する非可視光画像部分に隣接する他の複数の非可視光画像部分からデータを取得し、取得した複数の非可視光画像部分のデータを補間処理し、前記演算処理に用いる非可視光画像の画像部分のデータを生成する
請求項15に記載の撮像装置。 - 前記発光部が発光する前記第1および第2の非可視光は、一方が生体の肌で主に吸収され他方が生体の肌で主に反射される異なる波長領域の非可視光であり、
前記信号処理部および前記制御部は、前記第1および第2の非可視光の各戻り光から得られた第1および第2の生体検出画像を、前記スイッチの切り替えによって第1および第2の電荷蓄積部に分離し、前記第1の電荷蓄積部から得られた第1の生体検出画像と、前記第2の電荷蓄積部から得られた第2の生体検出画像とのレベル差を画素ごとに求め、求めたレベル差が予め設定した閾値以上の前記非可視光画像の範囲を前記被写体の人肌範囲と認定し、当該人肌範囲と画素アドレスが対応する前記可視光画像の範囲を生体画像として抽出する
請求項13に記載の撮像装置。 - 前記撮像デバイスにおいて、
前記第1フィルタ領域が複数色の可視光を透過可能に構成され、
前記複数色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する複数のセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項11〜17の何れかに記載の撮像装置。 - 前記撮像デバイスにおいて、
前記第1フィルタ領域が原色系または補色系の3色あるいは4色の可視光を透過可能に構成され、
前記3色あるいは4色の可視光を光電変換する前記可視光センサ部は、異なる波長域に主感度を有する3つまたは4つのセンサ部を、波長が長い波長域に対応したセンサ部ほど前記画像光が進入する側から遠い位置に配置して構成している
請求項18に記載の撮像装置。 - 前記撮像デバイスにおいて、
前記複数色の可視光を光電変換する前記可視光センサ部は、前記複数色の可視光に対応した広い可視光域に感度を有する単一のセンサ部である
請求項11〜17の何れかに記載の撮像装置。 - 前記光学フィルタは、原色系の複数色で最も波長が長い色、または、補色系の複数色で最も波長が長い色に対応した波長の可視光を透過し、前記非可視光を遮断する第2フィルタ領域を有し、
前記画素アレイの前記第2フィルタ領域を含む画素に、前記第2フィルタ領域からの前記可視光に主感度を有する可視光センサ部を含む
請求項11〜18の何れかに記載の撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010116498A JP2011243862A (ja) | 2010-05-20 | 2010-05-20 | 撮像デバイス及び撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010116498A JP2011243862A (ja) | 2010-05-20 | 2010-05-20 | 撮像デバイス及び撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011243862A true JP2011243862A (ja) | 2011-12-01 |
Family
ID=45410195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010116498A Pending JP2011243862A (ja) | 2010-05-20 | 2010-05-20 | 撮像デバイス及び撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011243862A (ja) |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012029130A (ja) * | 2010-07-26 | 2012-02-09 | Konica Minolta Opto Inc | 撮像装置及び画像入力装置 |
JP2013183460A (ja) * | 2012-03-01 | 2013-09-12 | Omnivision Technologies Inc | 飛行時間センサのための回路構成及び方法 |
JP2013211836A (ja) * | 2012-03-01 | 2013-10-10 | Nissan Motor Co Ltd | カメラ装置及び画像処理方法 |
KR20140111017A (ko) * | 2012-01-06 | 2014-09-17 | 마이크로소프트 코포레이션 | 브로드밴드 이미지화기 |
WO2014157086A1 (ja) * | 2013-03-25 | 2014-10-02 | 国立大学法人静岡大学 | 撮像装置 |
WO2014196216A1 (ja) * | 2013-06-05 | 2014-12-11 | 株式会社 東芝 | イメージセンサ装置及びその製造方法 |
WO2014207983A1 (ja) * | 2013-06-27 | 2014-12-31 | パナソニックIpマネジメント株式会社 | 距離測定装置 |
JP2015050494A (ja) * | 2013-08-30 | 2015-03-16 | 日立オートモティブシステムズ株式会社 | 撮像装置 |
WO2015059897A1 (ja) * | 2013-10-23 | 2015-04-30 | 日本電気株式会社 | 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ |
WO2015075926A1 (ja) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | 測距撮像システム |
WO2015098063A1 (en) * | 2013-12-25 | 2015-07-02 | Panasonic Intellectual Property Management Co., Ltd. | Image output apparatus, image output method, and image output system, the image output comprising the detection of a specified substance in a predetermined region |
WO2016017407A1 (ja) * | 2014-08-01 | 2016-02-04 | シャープ株式会社 | レーザ測距装置 |
JP2016024234A (ja) * | 2014-07-16 | 2016-02-08 | キヤノン株式会社 | 撮像装置 |
WO2016031128A1 (ja) * | 2014-08-27 | 2016-03-03 | パナソニックIpマネジメント株式会社 | 物質検出センサ、物質検出方法及び物質検出システム |
US9380242B2 (en) | 2013-10-25 | 2016-06-28 | Samsung Electronics Co., Ltd. | Image sensor and devices having the same |
WO2016125602A1 (ja) * | 2015-02-05 | 2016-08-11 | ソニー株式会社 | 固体撮像素子、および電子装置 |
WO2016170833A1 (ja) * | 2015-04-24 | 2016-10-27 | ソニー株式会社 | 固体撮像素子、半導体装置、及び、電子機器 |
JP2016220019A (ja) * | 2015-05-20 | 2016-12-22 | 日本放送協会 | 撮像装置 |
JP2017505907A (ja) * | 2014-01-29 | 2017-02-23 | エルジー イノテック カンパニー リミテッド | 深さ情報抽出装置および方法 |
KR101729563B1 (ko) * | 2015-02-13 | 2017-05-11 | 엘지전자 주식회사 | 디지털 디바이스 및 그의 생체 인증 방법 |
JP2017526945A (ja) * | 2014-06-18 | 2017-09-14 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | 金属誘電体光学フィルター、センサーデバイス、および製造方法 |
WO2017169122A1 (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 光電変換素子および光電変換装置 |
JP2017229001A (ja) * | 2016-06-24 | 2017-12-28 | 株式会社ニコン | 撮像装置および測距装置 |
WO2018040307A1 (zh) * | 2016-08-31 | 2018-03-08 | 上海依图网络科技有限公司 | 一种基于红外可见双目图像的活体检测方法及装置 |
US9996726B2 (en) | 2013-08-02 | 2018-06-12 | Qualcomm Incorporated | Feature identification using an RGB-NIR camera pair |
JP2018096988A (ja) * | 2016-12-15 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2018116972A1 (ja) * | 2016-12-22 | 2018-06-28 | 日本電気株式会社 | 画像処理方法、画像処理装置および記録媒体 |
JPWO2017038203A1 (ja) * | 2015-08-28 | 2018-07-05 | 富士フイルム株式会社 | 距離画像取得装置付きプロジェクタ装置及びプロジェクションマッピング方法 |
US10197716B2 (en) | 2012-12-19 | 2019-02-05 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
JP2019023658A (ja) * | 2012-03-09 | 2019-02-14 | 株式会社半導体エネルギー研究所 | 半導体装置 |
US10222523B2 (en) | 2012-12-19 | 2019-03-05 | Viavi Solutions Inc. | Sensor device including one or more metal-dielectric optical filters |
JP2019060898A (ja) * | 2012-03-21 | 2019-04-18 | 株式会社半導体エネルギー研究所 | 距離測定装置 |
JP2019086785A (ja) * | 2018-12-27 | 2019-06-06 | 株式会社ニコン | 撮像素子および撮像装置 |
US10334185B2 (en) | 2014-03-06 | 2019-06-25 | Nec Corporation | Image capturing device, signal separation device, and image capturing method |
US10378955B2 (en) | 2012-12-19 | 2019-08-13 | Viavi Solutions Inc. | Spectroscopic assembly and method |
US10440292B2 (en) | 2015-09-18 | 2019-10-08 | Nec Corporation | Color signal and near-infrared signal generated by using pattern information defining intensity-corresponding pattern |
US10452894B2 (en) | 2012-06-26 | 2019-10-22 | Qualcomm Incorporated | Systems and method for facial verification |
US10863115B2 (en) | 2016-06-24 | 2020-12-08 | Nec Corporation | Generation of visible and near-infrared images based on estimated incident light spectral characteristics and image capturing device spectral sensitivity characteristics |
WO2020259128A1 (zh) * | 2019-06-28 | 2020-12-30 | 北京旷视科技有限公司 | 活体检测方法、装置、电子设备及计算机可读存储介质 |
CN112788313A (zh) * | 2020-12-25 | 2021-05-11 | RealMe重庆移动通信有限公司 | 图像传感器、成像系统和终端 |
WO2021192459A1 (ja) * | 2020-03-23 | 2021-09-30 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置 |
WO2022059525A1 (ja) * | 2020-09-16 | 2022-03-24 | ソニーグループ株式会社 | 固体撮像装置及び認識システム |
WO2022186074A1 (ja) * | 2021-03-05 | 2022-09-09 | キヤノン株式会社 | 計測装置、記憶媒体、製造システム、及び物品の製造方法 |
CN115136024A (zh) * | 2020-02-18 | 2022-09-30 | 株式会社电装 | 物体检测装置、受光部以及物体检测装置的控制方法 |
WO2023013777A1 (ja) * | 2021-08-05 | 2023-02-09 | 株式会社小糸製作所 | ゲーティングカメラ、車両用センシングシステム、車両用灯具 |
US12366692B2 (en) | 2023-07-10 | 2025-07-22 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
-
2010
- 2010-05-20 JP JP2010116498A patent/JP2011243862A/ja active Pending
Cited By (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012029130A (ja) * | 2010-07-26 | 2012-02-09 | Konica Minolta Opto Inc | 撮像装置及び画像入力装置 |
KR20140111017A (ko) * | 2012-01-06 | 2014-09-17 | 마이크로소프트 코포레이션 | 브로드밴드 이미지화기 |
JP2015504249A (ja) * | 2012-01-06 | 2015-02-05 | マイクロソフト コーポレーション | 広帯域撮像素子 |
KR102000321B1 (ko) * | 2012-01-06 | 2019-07-15 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 브로드밴드 이미지화기 |
US9961276B2 (en) | 2012-03-01 | 2018-05-01 | Nissan Motor Co., Ltd. | Camera apparatus and image processing method |
US8686367B2 (en) | 2012-03-01 | 2014-04-01 | Omnivision Technologies, Inc. | Circuit configuration and method for time of flight sensor |
KR101465318B1 (ko) * | 2012-03-01 | 2014-12-04 | 옴니비전 테크놀러지즈 인코포레이티드 | 비행 시간 센서를 위한 회로 구성 및 방법 |
JP2013211836A (ja) * | 2012-03-01 | 2013-10-10 | Nissan Motor Co Ltd | カメラ装置及び画像処理方法 |
JP2013183460A (ja) * | 2012-03-01 | 2013-09-12 | Omnivision Technologies Inc | 飛行時間センサのための回路構成及び方法 |
JP2021076609A (ja) * | 2012-03-09 | 2021-05-20 | 株式会社半導体エネルギー研究所 | 半導体装置 |
JP2019023658A (ja) * | 2012-03-09 | 2019-02-14 | 株式会社半導体エネルギー研究所 | 半導体装置 |
JP7608653B2 (ja) | 2012-03-09 | 2025-01-06 | 株式会社半導体エネルギー研究所 | 撮像装置、表示装置及び電子機器 |
JP2024050997A (ja) * | 2012-03-09 | 2024-04-10 | 株式会社半導体エネルギー研究所 | 撮像装置、表示装置及び電子機器 |
JP2020060575A (ja) * | 2012-03-09 | 2020-04-16 | 株式会社半導体エネルギー研究所 | 半導体装置 |
JP2021063823A (ja) * | 2012-03-09 | 2021-04-22 | 株式会社半導体エネルギー研究所 | 半導体装置 |
JP2021063822A (ja) * | 2012-03-09 | 2021-04-22 | 株式会社半導体エネルギー研究所 | 半導体装置 |
JP6999062B2 (ja) | 2012-03-21 | 2022-01-18 | 株式会社半導体エネルギー研究所 | 装置 |
JP2022000665A (ja) * | 2012-03-21 | 2022-01-04 | 株式会社半導体エネルギー研究所 | 装置 |
JP2019060898A (ja) * | 2012-03-21 | 2019-04-18 | 株式会社半導体エネルギー研究所 | 距離測定装置 |
US10452894B2 (en) | 2012-06-26 | 2019-10-22 | Qualcomm Incorporated | Systems and method for facial verification |
US10928570B2 (en) | 2012-12-19 | 2021-02-23 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
US10670455B2 (en) | 2012-12-19 | 2020-06-02 | Viavi Solutions Inc. | Spectroscopic assembly and method |
US11782199B2 (en) | 2012-12-19 | 2023-10-10 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
US10197716B2 (en) | 2012-12-19 | 2019-02-05 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
US10222523B2 (en) | 2012-12-19 | 2019-03-05 | Viavi Solutions Inc. | Sensor device including one or more metal-dielectric optical filters |
US10378955B2 (en) | 2012-12-19 | 2019-08-13 | Viavi Solutions Inc. | Spectroscopic assembly and method |
WO2014157086A1 (ja) * | 2013-03-25 | 2014-10-02 | 国立大学法人静岡大学 | 撮像装置 |
US9787924B2 (en) | 2013-06-05 | 2017-10-10 | Kabushiki Kaisha Toshiba | Image sensor device, image processing device and method for manufacturing image sensor device |
WO2014196216A1 (ja) * | 2013-06-05 | 2014-12-11 | 株式会社 東芝 | イメージセンサ装置及びその製造方法 |
WO2014207983A1 (ja) * | 2013-06-27 | 2014-12-31 | パナソニックIpマネジメント株式会社 | 距離測定装置 |
JPWO2014207983A1 (ja) * | 2013-06-27 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 距離測定装置および固体撮像素子 |
US10422859B2 (en) | 2013-06-27 | 2019-09-24 | Panasonic Intellectual Property Management Co, Ltd. | Distance measuring device and solid-state image sensor |
US9996726B2 (en) | 2013-08-02 | 2018-06-12 | Qualcomm Incorporated | Feature identification using an RGB-NIR camera pair |
JP2015050494A (ja) * | 2013-08-30 | 2015-03-16 | 日立オートモティブシステムズ株式会社 | 撮像装置 |
JPWO2015059897A1 (ja) * | 2013-10-23 | 2017-03-09 | 日本電気株式会社 | 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ |
US10171757B2 (en) | 2013-10-23 | 2019-01-01 | Nec Corporation | Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter |
WO2015059897A1 (ja) * | 2013-10-23 | 2015-04-30 | 日本電気株式会社 | 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ |
US20160255286A1 (en) * | 2013-10-23 | 2016-09-01 | Nec Corporation | Image capturing device, image capturing method, coded infrared cut filter, and coded particular color cut filter |
US9380242B2 (en) | 2013-10-25 | 2016-06-28 | Samsung Electronics Co., Ltd. | Image sensor and devices having the same |
WO2015075926A1 (ja) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | 測距撮像システム |
US10302766B2 (en) | 2013-11-20 | 2019-05-28 | Panasonic Intellectual Property Management Co., Ltd. | Range imaging system and solid-state imaging device |
US11175406B2 (en) | 2013-11-20 | 2021-11-16 | Nuvoton Technology Corporation Japan | Range imaging system and solid-state imaging device |
JP2018185342A (ja) * | 2013-11-20 | 2018-11-22 | パナソニックIpマネジメント株式会社 | 測距撮像システム |
US9819881B2 (en) | 2013-12-25 | 2017-11-14 | Panasonic Intellectual Property Management Co., Ltd. | Image output apparatus, image output method, and image output system |
WO2015098063A1 (en) * | 2013-12-25 | 2015-07-02 | Panasonic Intellectual Property Management Co., Ltd. | Image output apparatus, image output method, and image output system, the image output comprising the detection of a specified substance in a predetermined region |
JP2017505907A (ja) * | 2014-01-29 | 2017-02-23 | エルジー イノテック カンパニー リミテッド | 深さ情報抽出装置および方法 |
JP2020126060A (ja) * | 2014-01-29 | 2020-08-20 | エルジー イノテック カンパニー リミテッド | 深さ情報抽出装置および方法 |
US11680789B2 (en) | 2014-01-29 | 2023-06-20 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
US10802148B2 (en) | 2014-01-29 | 2020-10-13 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
US10338221B2 (en) | 2014-01-29 | 2019-07-02 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
US10334185B2 (en) | 2014-03-06 | 2019-06-25 | Nec Corporation | Image capturing device, signal separation device, and image capturing method |
JP2017526945A (ja) * | 2014-06-18 | 2017-09-14 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | 金属誘電体光学フィルター、センサーデバイス、および製造方法 |
JP2016024234A (ja) * | 2014-07-16 | 2016-02-08 | キヤノン株式会社 | 撮像装置 |
WO2016017407A1 (ja) * | 2014-08-01 | 2016-02-04 | シャープ株式会社 | レーザ測距装置 |
JP2016048196A (ja) * | 2014-08-27 | 2016-04-07 | パナソニックIpマネジメント株式会社 | 物質検出センサ、物質検出方法及び物質検出システム |
WO2016031128A1 (ja) * | 2014-08-27 | 2016-03-03 | パナソニックIpマネジメント株式会社 | 物質検出センサ、物質検出方法及び物質検出システム |
US11190711B2 (en) | 2015-02-05 | 2021-11-30 | Sony Semiconductor Solutions Corporation | Solid-state image sensor and electronic device |
WO2016125602A1 (ja) * | 2015-02-05 | 2016-08-11 | ソニー株式会社 | 固体撮像素子、および電子装置 |
KR101729563B1 (ko) * | 2015-02-13 | 2017-05-11 | 엘지전자 주식회사 | 디지털 디바이스 및 그의 생체 인증 방법 |
CN113658967A (zh) * | 2015-04-24 | 2021-11-16 | 索尼公司 | 光检测设备 |
CN107534049B (zh) * | 2015-04-24 | 2021-07-20 | 索尼公司 | 固态图像元件、半导体装置和电子设备 |
WO2016170833A1 (ja) * | 2015-04-24 | 2016-10-27 | ソニー株式会社 | 固体撮像素子、半導体装置、及び、電子機器 |
CN107534049A (zh) * | 2015-04-24 | 2018-01-02 | 索尼公司 | 固态图像元件、半导体装置和电子设备 |
US11889218B2 (en) * | 2015-04-24 | 2024-01-30 | Sony Corporation | Stacked substrate solid state image sensor |
CN113658967B (zh) * | 2015-04-24 | 2024-03-22 | 索尼公司 | 光检测设备 |
US20210409621A1 (en) * | 2015-04-24 | 2021-12-30 | Sony Group Corporation | Solid state image sensor |
JPWO2016170833A1 (ja) * | 2015-04-24 | 2018-02-15 | ソニー株式会社 | 固体撮像素子、半導体装置、及び、電子機器 |
KR102513628B1 (ko) * | 2015-04-24 | 2023-03-24 | 소니그룹주식회사 | 고체 촬상 소자, 반도체 장치, 및, 전자 기기 |
US10554910B2 (en) | 2015-04-24 | 2020-02-04 | Sony Corporation | Solid state image sensor, semiconductor device, and electronic device |
US11153515B2 (en) * | 2015-04-24 | 2021-10-19 | Sony Corporation | Solid state image sensor comprising stacked substrates, semiconductor device, and electronic device |
KR20170141661A (ko) * | 2015-04-24 | 2017-12-26 | 소니 주식회사 | 고체 촬상 소자, 반도체 장치, 및, 전자 기기 |
US20180109741A1 (en) * | 2015-04-24 | 2018-04-19 | Sony Corporation | Solid state image sensor, semiconductor device, and electronic device |
JP2016220019A (ja) * | 2015-05-20 | 2016-12-22 | 日本放送協会 | 撮像装置 |
JPWO2017038203A1 (ja) * | 2015-08-28 | 2018-07-05 | 富士フイルム株式会社 | 距離画像取得装置付きプロジェクタ装置及びプロジェクションマッピング方法 |
US10412352B2 (en) | 2015-08-28 | 2019-09-10 | Fujifilm Corporation | Projector apparatus with distance image acquisition device and projection mapping method |
US10440292B2 (en) | 2015-09-18 | 2019-10-08 | Nec Corporation | Color signal and near-infrared signal generated by using pattern information defining intensity-corresponding pattern |
US10483306B2 (en) | 2016-03-30 | 2019-11-19 | Sony Corporation | Photoelectric conversion element and photoelectric conversion device |
WO2017169122A1 (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 光電変換素子および光電変換装置 |
TWI731035B (zh) * | 2016-03-30 | 2021-06-21 | 日商新力股份有限公司 | 光電轉換元件及光電轉換裝置 |
JPWO2017169122A1 (ja) * | 2016-03-30 | 2019-02-07 | ソニー株式会社 | 光電変換素子および光電変換装置 |
US10863115B2 (en) | 2016-06-24 | 2020-12-08 | Nec Corporation | Generation of visible and near-infrared images based on estimated incident light spectral characteristics and image capturing device spectral sensitivity characteristics |
JP2017229001A (ja) * | 2016-06-24 | 2017-12-28 | 株式会社ニコン | 撮像装置および測距装置 |
WO2018040307A1 (zh) * | 2016-08-31 | 2018-03-08 | 上海依图网络科技有限公司 | 一种基于红外可见双目图像的活体检测方法及装置 |
JP7065421B2 (ja) | 2016-12-15 | 2022-05-12 | パナソニックIpマネジメント株式会社 | 撮像装置および対象物の内部の情報を取得する方法 |
JP2018096988A (ja) * | 2016-12-15 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US10931895B2 (en) | 2016-12-22 | 2021-02-23 | Nec Corporation | Image processing method, image processing device, and storage medium |
WO2018116972A1 (ja) * | 2016-12-22 | 2018-06-28 | 日本電気株式会社 | 画像処理方法、画像処理装置および記録媒体 |
JP2019086785A (ja) * | 2018-12-27 | 2019-06-06 | 株式会社ニコン | 撮像素子および撮像装置 |
WO2020259128A1 (zh) * | 2019-06-28 | 2020-12-30 | 北京旷视科技有限公司 | 活体检测方法、装置、电子设备及计算机可读存储介质 |
CN115136024A (zh) * | 2020-02-18 | 2022-09-30 | 株式会社电装 | 物体检测装置、受光部以及物体检测装置的控制方法 |
WO2021192459A1 (ja) * | 2020-03-23 | 2021-09-30 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置 |
WO2022059525A1 (ja) * | 2020-09-16 | 2022-03-24 | ソニーグループ株式会社 | 固体撮像装置及び認識システム |
CN112788313B (zh) * | 2020-12-25 | 2023-04-07 | RealMe重庆移动通信有限公司 | 图像传感器、成像系统和终端 |
CN112788313A (zh) * | 2020-12-25 | 2021-05-11 | RealMe重庆移动通信有限公司 | 图像传感器、成像系统和终端 |
JP2022135340A (ja) * | 2021-03-05 | 2022-09-15 | キヤノン株式会社 | 3次元計測装置、コンピュータプログラム、製造システム、及び物品の製造方法 |
WO2022186074A1 (ja) * | 2021-03-05 | 2022-09-09 | キヤノン株式会社 | 計測装置、記憶媒体、製造システム、及び物品の製造方法 |
WO2023013777A1 (ja) * | 2021-08-05 | 2023-02-09 | 株式会社小糸製作所 | ゲーティングカメラ、車両用センシングシステム、車両用灯具 |
US12366692B2 (en) | 2023-07-10 | 2025-07-22 | Viavi Solutions Inc. | Metal-dielectric optical filter, sensor device, and fabrication method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011243862A (ja) | 撮像デバイス及び撮像装置 | |
JP6198366B2 (ja) | 積層型イメージセンサー | |
US8384818B2 (en) | Solid-state imaging device including arrays of optical elements and photosensitive cells | |
JP2021073722A (ja) | 撮像素子、および電子装置 | |
US9679933B2 (en) | Image sensors and methods of forming the same | |
US8569700B2 (en) | Image sensor for two-dimensional and three-dimensional image capture | |
US8208052B2 (en) | Image capture device | |
US8988576B2 (en) | Solid-state imaging device and digital camera | |
JP2015128131A (ja) | 固体撮像素子および電子機器 | |
US11838662B2 (en) | Solid-state imaging device and electronic apparatus | |
EP3439038A1 (en) | Image capturing element and image capturing device | |
KR20110115072A (ko) | 촬상 장치 | |
US10136108B2 (en) | Imaging device | |
KR102779530B1 (ko) | 이미지 센서 | |
EP4033535A1 (en) | Image sensor, camera assembly and mobile terminal | |
US10490592B2 (en) | Stacked image sensor | |
WO2010100897A1 (ja) | 固体撮像素子および撮像装置 | |
JPWO2010100896A1 (ja) | 撮像装置および両面照射型固体撮像素子 | |
CN114615447B (zh) | 图像感测装置 | |
JP2011205085A (ja) | 撮像素子 | |
JP6245942B2 (ja) | 撮像素子 | |
JP2011243785A (ja) | 固体撮像素子 | |
JP7042451B2 (ja) | 固体撮像装置 | |
WO2016163242A1 (ja) | 固体撮像素子および電子機器 | |
JP6578012B2 (ja) | 固体撮像素子 |