JP2004228662A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2004228662A JP2004228662A JP2003011014A JP2003011014A JP2004228662A JP 2004228662 A JP2004228662 A JP 2004228662A JP 2003011014 A JP2003011014 A JP 2003011014A JP 2003011014 A JP2003011014 A JP 2003011014A JP 2004228662 A JP2004228662 A JP 2004228662A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- image
- light
- filters
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims description 109
- 239000003086 colorant Substances 0.000 claims description 58
- 230000008707 rearrangement Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 4
- 230000006835 compression Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 21
- 238000010586 diagram Methods 0.000 description 60
- 230000003595 spectral effect Effects 0.000 description 48
- 230000005540 biological transmission Effects 0.000 description 36
- 238000004364 calculation method Methods 0.000 description 13
- 230000001965 increasing effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 7
- 239000004904 UV filter Substances 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000975 dye Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 108010010803 Gelatin Proteins 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 229920000159 gelatin Polymers 0.000 description 1
- 239000008273 gelatin Substances 0.000 description 1
- 235000019322 gelatine Nutrition 0.000 description 1
- 235000011852 gelatine desserts Nutrition 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
Landscapes
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、複数の波長帯の光の強度を取得する技術に関する。
【0002】
【従来の技術】
一般に、デジタルスチルカメラ、デジタルビデオカメラなどの撮像装置では、3原色にそれぞれ対応する3つの波長帯に係る被写体からの反射光の強度を得る撮像センサを備えることで、被写体のカラー情報を得るようにしている。図1は、従来の一般的な撮像センサ300を示す図である。撮像センサ300は、2次元に配列された複数の受光画素Pを有しており、受光画素Pにはそれぞれ3原色に対応する波長帯の光を透過するフィルタのいずれかが付されている。図に示すように、緑色波長帯の光を透過するGフィルタは市松状(市松模様の一方の領域)に配置され、青色波長帯の光を透過するBフィルタおよび赤色波長帯の光を透過するRフィルタは残りの領域(市松模様の他方の領域)に均等に配置される。このRGBの配列は「ベイヤー配列」と呼ばれている。このような撮像センサを採用することにより、撮像装置は3つの波長帯の光の強度(3原色)を被写体のカラー情報として得ることができる(例えば、特許文献1参照。)。
【0003】
その一方で、従来より、条件等色(メタメリズム)の問題を解決するためや、物体の成分の解析等を行うために、撮像装置で得られる画像から被写体の分光反射率を求める試みがなされている。被写体の分光反射率は、被写体からの反射光の離散的なカラー情報から反射光の分光分布を求め、さらに、反射光の分光分布から照明光の分光分布を取り除くことなどで求めることができる。反射光の離散的なカラー情報から分光分布を求める手法としては、スプライン補間処理、主成分分析による推定、Winner推定などが知られている。
【0004】
しかしながら、一般の撮像装置で得られる3つの波長帯の光の強度のみでは、反射光の分光分布を高精度に得ることはできない。このため、4以上の波長帯の光の強度を取得可能な撮像装置であるマルチバンドカメラが提案されている。従来より提案されているマルチバンドカメラの方式としては、以下のものがある。
【0005】
1.分光透過特性の異なる4以上フィルタを円盤状に配置し、これらのフィルタを入射光の行路中に順次に配置して撮像を行うカラーホイール式。
【0006】
2.干渉計や液晶の偏光現象により特定の波長帯のみを透過する光学素子を用いて、透過する波長帯を順次変化させて撮像を行うチューナブルフィルタ式。
【0007】
3.入射光を回折により波長帯ごとに分解し、走査により二次元の撮影を行うグレーティング式。
【0008】
その他、この出願に関連する先行技術文献情報として特許文献2がある。
【0009】
【特許文献1】
米国特許第3971065号明細書
【特許文献2】
特開2001−61109号公報
【0010】
【発明が解決しようとする課題】
しかしながら、従来から提案されたマルチバンドカメラは、波長帯の切り替えや走査が必要なため、いずれも1度の露光では目的とする全ての波長帯の光の強度を得ることができず、撮影に時間がかかり、比較的高速に移動する物体などを被写体にすることができないという問題があった。
【0011】
本発明は、上記課題に鑑みてなされたものであり、1度の露光によって4以上の波長帯の光の強度を得ることができる技術を提供することを目的とする。
【0012】
【課題を解決するための手段】
上記課題を解決するため、請求項1の発明は、撮像装置であって、緑色波長帯の光を透過する第1タイプフィルタ、前記第1タイプフィルタよりも短い波長帯の光を透過する第2タイプフィルタ、および、前記第1タイプフィルタよりも長い波長帯の光を透過する第3タイプフィルタのいずれかがそれぞれ付された複数の受光画素を2次元に配列して有する撮像センサ、を備え、前記第1タイプフィルタは、前記複数の受光画素の配列における市松模様の一方の領域に対応する前記受光画素に付され、前記第2および第3タイプフィルタは、前記市松模様の他方の領域に対応する前記受光画素にそれぞれ均等に付され、前記第1ないし第3タイプフィルタのうちの少なくとも1つは、透過する光の波長帯が異なる2以上の種類のフィルタを含むことを特徴とする。
【0013】
また、請求項2の発明は、請求項1に記載の撮像装置において、前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する画像を出力し、前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、前記グループごとに、該グループに含まれる色に対応する画素の値から、1原色に対応する画素の値を導出する導出手段、をさらに備えている。
【0014】
また、請求項3の発明は、請求項1に記載の撮像装置において、前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する第1画像を出力し、前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、前記グループごとに、該グループに含まれる色に対応する画素の値から、1の第2画像を生成する生成手段と、生成される3つの前記第2画像で構成される第3画像を圧縮して1の圧縮画像を生成する圧縮手段と、をさらに備えている。
【0015】
また、請求項4の発明は、撮像装置であって、複数の受光画素からなる4以上の所定数の結像領域を平面的に配列して有する撮像センサと、前記所定数の結像領域上に被写体の光像をそれぞれ結像する前記所定数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、前記所定数のマイクロレンズにそれぞれ対応する前記所定数のフィルタを平面的に配列して有するフィルタアレイと、を備え、前記所定数のフィルタは、透過する光の波長帯が互いに異なることを特徴とする。
【0016】
また、請求項5の発明は、撮像装置であって、複数の受光画素からなる複数の結像領域を平面的に配列して有する撮像センサと、前記複数の結像領域上に被写体の光像をそれぞれ結像する複数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、前記複数のマイクロレンズにそれぞれ対応する複数のフィルタを平面的に配列して有するフィルタアレイと、前記複数の結像領域のそれぞれにて得られる被写体の画像に含まれる画素を、再配置することで1の再配置画像を生成する再配置手段と、を備え、前記複数のフィルタは、透過する光の波長帯が異なる4以上の種類があることを特徴とする。
【0017】
【発明の実施の形態】
以下、図面を参照しつつ本発明の実施の形態について説明する。
【0018】
<1.第1の実施の形態>
<1−1.構成>
図2は、本発明の実施の形態に係る撮像装置の基本的な構成を示す図である。この撮像装置1は、例えば、デジタルスチルカメラ、デジタルビデオカメラ、または、測色計として構成される。どのような装置として構成される場合であっても撮像装置1の基本的な構成は同様である。すなわち、撮像装置1は主として、撮像部40、A/D変換器41、画像処理部42、全体制御部50、カードスロット43、操作入力部44およびデータ出力端子45を備えている。
【0019】
撮像部40は、レンズ2と、該レンズ2によって結像される被写体の光像を光電変換して画像信号(以下、単に「画像」という。)を出力する撮像センサ3とを備えている。撮像センサ3から出力された画像は、A/D変換器41においてデジタル信号とされ、必要に応じて画像処理部42において所定の処理が施される。このようにして得られた画像は、カードスロット43に装着されるメモリカード91に記録されたり、データ出力端子45を介して接続される外部装置92に送信される。
【0020】
操作入力部44は、撮像開始の指示などの各種コマンドをユーザから受け付けるための操作部材を示している。撮像装置1は、操作入力部44の操作に応答して所定の動作を行う。
【0021】
全体制御部50は、上述した撮像装置1の各部を統括制御する制御機能や、各種データ処理を行うデータ処理機能を有し、マイクロコンピュータを備えて構成される。具体的には、全体制御部50は、その本体部であるCPU51、制御プログラムなどを記憶するROM52、および、作業領域となるRAM53などを備えている。全体制御部50の各種の機能は、ROM52に記憶された制御プログラムをCPU51が実行することにより実現される。
【0022】
撮像部40が備える撮像センサ3は、それぞれ特定の波長帯の光を通過するフィルタ(カラーフィルタ)が付された複数の受光画素を二次元に配列して備えている。受光画素はそれぞれ、自身に付されたフィルタを透過した光を光電変換し、その強度に応じた信号電荷を出力する。本実施の形態では、このフィルタとして、透過する光の波長帯が異なる4種類のものがある。これにより、撮像装置1は4つの波長帯の光の強度を取得可能なマルチバンドカメラとなっている。
【0023】
図3は、受光画素に付される4種類のフィルタの分光透過特性の例を示す図である。4種類のフィルタは、それぞれ可視波長帯(約380〜約780nm)の光を透過する分光透過特性を有している。図に示すように、4種類のフィルタには、透過する波長帯が短いものからBフィルタ、G1フィルタ、G2フィルタおよびRフィルタがある。Bフィルタは青色波長帯の光を透過し、G1フィルタは緑色波長帯のうち比較的短い波長帯の光を透過し、G2フィルタは緑色波長帯のうち比較的長い波長帯の光を透過し、Rフィルタは赤色波長帯の光を透過する。つまり、本実施の形態では、緑色波長帯の光を透過するタイプのフィルタ(以下、「Gタイプフィルタ」という。)として、G1フィルタおよびG2フィルタの2種類のフィルタが含まれている。G1フィルタおよびG2フィルタの分光透過特性線のピークはそれぞれ、例えば、BフィルタおよびRフィルタの分光透過特性線のピーク間を3等分した位置に配置される。なお、以下、Rフィルタが透過する光の色をR、G1フィルタが透過する光の色をG1、G2フィルタが透過する光の色をG2、Bフィルタが透過する光の色をBとする。また、緑色波長帯の光を透過する一般的なGフィルタが透過する光の色をGとする。ここで、R,G,Bは光の3原色である。
【0024】
図4は、これらの4種類のフィルタの撮像センサ3における配置例を示す図である。図4に示すように、Gタイプフィルタ(G1フィルタおよびG2フィルタ)は、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付されている。そして、G1フィルタとG2フィルタとは、垂直方向に対して交互に配置される。一方、BフィルタおよびRフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに付される。そして、BフィルタとRフィルタとは、垂直方向に対して交互に配置される。つまり、G1フィルタおよびG2フィルタはベイヤー配列(図1参照。)のGフィルタの位置に均等に配置され、BフィルタおよびRフィルタはベイヤー配列と同様の位置に配置される。これにより、4種類のフィルタはそれぞれ撮像センサ3の受光面全体において均等に配置される。
【0025】
これらの4種類のフィルタは、シリコンなどで構成される受光画素上に、フォトリソグラフィ技術を用いた染色層(ゼラチンなどの樹脂膜)の選択的な形成を4回繰り返すことにより形成される。各フィルタの分光透過特性は、染色層を染色する色素と、染色層の膜厚とによって調整される。なお、フィルタの分光透過特性は図3に示すものには限定されず、撮像装置1の目的に応じた特性にしてもよい。例えば、撮像装置1が、蛍光灯などの輝線スペクトルを有する光を放射する(あるいは反射する)物体を撮像対象とするものであれば、撮像センサ3の一のフィルタはその輝線スペクトルを主として透過する分光透過特性を有するようにしてもよい。また、このように特定の目的に使用される撮像装置1の場合は、使用される環境や経年による特性の変化を考慮して、フィルタの分光透過特性を調整することが好ましい。
【0026】
撮像センサ3の各受光画素から出力される信号は、その信号が出力された受光画素に付されたフィルタの種類に応じて、図3に示す4つの波長帯のいずれかの光の強度を示すこととなる。したがって、撮像装置1は1度の露光によって4つの波長帯の光の強度を得ることができることとなる。
【0027】
<1−2.画像処理>
撮像センサ3の各受光画素から出力される信号は、撮像センサ3から出力される画像(以下、「センサ出力画像」という。)中の各画素の値となる。したがって、センサ出力画像に含まれる各画素の値は、4つの波長帯のいずれかの光の強度、すなわち、B,G1,G2,Rのいずれかの色に対応する値を示すこととなる。これにより、センサ出力画像は4種の色の値を有する状態となる。センサ出力画像中において各画素が対応する色の配列は、図4に示すフィルタの配列と同様となる。
【0028】
センサ出力画像は、出力先における用途に応じて適切な処理を施すことが好ましい。このため、本実施の形態の撮像装置1では、画像処理部42において、センサ出力画像の出力先に応じた画像処理が、センサ出力画像に対してなされる。以下、画像処理部42の処理内容について説明する。なお以下の説明においては、画像中においてRに対応する画素をR画素、Bに対応する画素をB画素、Gに対応する画素をG画素、G1に対応する画素をG1画素、G2に対応する画素をG2画素とそれぞれ称する。
【0029】
<1−2−1.演算>
まず、外部装置92としてコンピュータが接続され、このコンピュータにおいて被写体からの光の分光分布などを求めるための演算にセンサ出力画像を用いる場合について説明する。この場合は、センサ出力画像はA/D変換器41においてデジタル信号とされた後、画像処理部42において画像処理を行わずに、そのままデータ出力端子45を介して外部装置92であるコンピュータに出力される。このように画像処理を行わずにセンサ出力画像を出力することで、画像処理によるデータの劣化のない4つの波長帯の光の強度(4種の色)を含む画像を出力することができる。そして、このような4つの波長帯の光の強度を含む画像を用いることで、コンピュータにおいて被写体からの光の分光分布などを演算する際の演算精度を向上することができる。
【0030】
<1−2−2.表示>
次に、外部装置92としてカラー表示装置が接続され、このカラー表示装置においてセンサ出力画像を表示する場合について説明する。一般に、カラー表示装置は、各画素のカラー情報がRGBの3原色で表現された画像を表示するように構成されることから、センサ出力画像はそのままではカラー表示装置における表示に用いることができない。このため、カラー表示装置においてセンサ出力画像を表示する場合は、センサ出力画像から、各画素がRGBの3原色の値を有する通常画像が画像処理部42において生成される。
【0031】
図5は、センサ出力画像D1から通常画像D3を生成する手法を概念的に示す図である。通常画像D3の生成にあたっては、まず、センサ出力画像D1から、各画素がRGBの3原色のいずれかの値を有し3原色の配列がベイヤー配列となる画像(以下、「ベイヤー画像」という。)D2が生成され、さらに、生成されたベイヤー画像D2に対して欠落画素値の補間(一画素において不足している色情報の生成処理)がなされて通常画像D3が生成される。
【0032】
ベイヤー画像D2の生成にあたっては、RGBの3原色に対応する3つのグループにR,G1,G2,Bを区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値が求められる。具体的には、原色Rのグループには、R,G1,G2,BのうちのRが区分される。このため、センサ出力画像D1中のR画素の値は、ベイヤー画像D2のR画素の値とされる。同様に、原色BのグループにはR,G1,G2,BのうちのBが区分されるため、センサ出力画像D1中のB画素の値は、ベイヤー画像D2のB画素の値とされる。また、原色GのグループにはR,G1,G2,BのうちのG1,G2が区分される。このため、センサ出力画像D1のG1画素およびG2画素の値から、ベイヤー画像D2のG画素の値が導出される。
【0033】
センサ出力画像D1のG1画素と同一位置のベイヤー画像D2のG画素の値は、センサ出力画像D1のG1画素を中心とした3×3画素に対して図6に示すフィルタマスクを用いたコンボリューション演算がなされることにより導出される。すなわち、このG画素の値は、G1画素の値に重みαを乗算した結果と、その近傍の4つのG2画素の値の平均値に重みβを乗算した結果とを加算することにより導出される。また、センサ出力画像D1のG2画素と同一位置のベイヤー画像D2のG画素の値は、センサ出力画像D1のG2画素を中心とした3×3画素に対して図7に示すフィルタマスクを用いたコンボリューション演算がなされることにより導出される。つまり、このG画素の値は、G2画素の値に重みβを乗算した結果と、その近傍の4つのG1画素の値の平均値に重みαを乗算した結果とを加算することにより導出される。ここで、重みα,βは、次の式(1)を満たすものである。
【0034】
α+β=1 …(1)
この重みα,βは、G1フィルタおよびG2フィルタの分光透過特性と、一般的なGフィルタの分光透過特性との関係により決定することができる。例えば、G1フィルタおよびG2フィルタのそれぞれが透過する光の波長帯が、一般的なGフィルタが透過する光の波長帯の中心位置に対して対称に分布する場合はα=β=0.5とすればよい。また、G2フィルタと比較してG1フィルタが一般的なGフィルタに近似する分光透過特性を有する場合はαを比較的大きくし、逆に、G2フィルタが一般的なGフィルタに近似する分光透過特性を有する場合はβを比較的大きくすればよい。
【0035】
このようにしてベイヤー画像D2が生成されると、欠落画素値の補間がなされる。すなわち、ベイヤー画像D2中のR画素の値から全画素に係るRの値、G画素の値から全画素に係るGの値、B画素の値から全画素に係るBの値がそれぞれ線形補間等により求められる。これにより、各画素がRGBの3原色の値を有する通常画像D3が生成される。なお、この欠落画素値の補間処理は、1色の値のみで構成される3つの色成分画像を生成することと等価である。
【0036】
このように、3原色に対応する3つのグループにR,G1,G2,Bを区分し、グループごとにベイヤー画像の1原色に対応する画素の値を導出するため、4種の色の値を有するセンサ出力画像D1から、カラー情報が3原色で表現された通常画像D3を生成することができる。これにより、そのままでは表示不可能なセンサ出力画像を、カラー表示装置の表示に用いることができる。
【0037】
なお、カラー表示装置がテレビジョン信号を必要とするものである場合は、上記のようにして通常画像D3を生成した後、各画素のRGB値を、NTSC方式、PAL方式、SECAM方式などにおける所定の形式のテレビジョン信号に変換すればよい。このRGB値からテレビジョン信号への変換は、周知の手法により容易に行うことができる。
【0038】
<1−2−3.印刷>
次に、外部装置92としてカラー印刷装置が接続され、このカラー印刷装置においてセンサ出力画像を印刷する場合について説明する。一般に、カラー印刷装置は、各画素のカラー情報がCMY(シアン・マゼンダ・イエロー)の3色、あるいは、CMYK(シアン・マゼンダ・イエロー・ブラック)の4色で表現された画像を印刷するように構成される。このため、センサ出力画像はそのままではカラー印刷装置における印刷に用いることができない。
【0039】
したがってこの場合は、画像処理部42において、表示に用いる場合と同様の手法により、まず、各画素のカラー情報がRGBの3原色で表現される通常画像が生成され、さらに、生成された通常画像の各画素のRGB値がCMY値またはCMYK値に変換される。RGB値からCMY値またはCMYK値への変換は、周知の手法により容易に行うことができる。このような処理により、センサ出力画像をカラー印刷装置における印刷に用いることができる。
【0040】
ところで、センサ出力画像を表示や印刷に用いる場合は、画像をより美しくするために、被写体のエッジを強調する先鋭化処理、コントラストを調整する階調補正処理、色相や彩度を調整する色補正処理などの画像処理を行うようにしてもよい。これらの画像処理のうち先鋭化処理は、通常画像を生成する前の段階において、センサ出力画像に対して行うことが好ましい。
【0041】
先鋭化処理においては、センサ出力画像の一の画素を注目画素とし、この注目画素を中心とした5×5画素に対して、図8のフィルタマスクを用いたコンボリューション演算を行うことにより、注目画素の新たな値が求められる。センサ出力画像の全画素をそれぞれ注目画素としてこのような演算を行うことにより、センサ出力画像中の被写体のエッジが強調される。センサ出力画像においては、注目画素を中心とした5×5画素領域内に、注目画素と同一の色に対応し、かつ、水平または垂直方向が同一となる画素が4つ存在する。これは、いずれの色に対応する画素が注目画素となった場合でも同様である。したがって、センサ出力画像に対して図8に示すフィルタマスクを用いた演算を行うことで、同一色に対応する画素間に関して演算を行うことができる。つまり、他の色に対応する画素の値に影響されない演算結果を得ることができる。なお、階調補正処理および色補正処理に関しては、注目画素の処理結果が周辺画素の値に影響されないため、センサ出力画像および通常画像のいずれに対して行ってもよい。
【0042】
<1−2−4.記録>
次に、センサ出力画像をメモリカード91に記録する場合について説明する。一般に、フィルタ配列がベイヤー配列となる撮像センサから出力される画像(ベイヤー画像)を記録する際には、欠落画素値の補間を行って、各画素がRGBの3原色の値を有する通常画像としてから圧縮処理を行い、圧縮画像として記録する。つまり、RGBの3原色ごとの色成分画像を生成し、3つの色成分画像で構成される通常画像を圧縮することとなる。
【0043】
これと同様に、本実施の形態の撮像センサ3から得られるセンサ出力画像から、B、G1、G2、Rの4つの色ごとの色成分画像を生成し、4つの色成分画像から構成される画像を圧縮して圧縮画像を生成すると、色数が増加した分、圧縮画像のデータ量が増加してしまうこととなる。その一方で、表示に用いる場合と同様の手法により、カラー情報が3原色で表現される通常画像を生成し、この通常画像を圧縮した場合は、4つの色の値のうちG1およびG2の値が失われてしまうこととなる。
【0044】
このため、本実施の形態の撮像装置1では、RGBの3原色に対応する3つのグループにR,G1,G2,Bを区分し、画素の値を維持しつつ、それぞれのグループごとに1つの色成分画像が生成される。図9は、センサ出力画像から3つの色成分画像を生成する手法を概念的に示す図である。図に示すように、センサ出力画像D1のR画素の値からRの値のみで構成される一の色成分画像D4rが生成され、センサ出力画像D1のB画素の値からBの値のみで構成される一の色成分画像D4bが生成される。さらに、センサ出力画像D1のG1画素およびG2画素の値から一の色成分画像D4gが生成される。
【0045】
この色成分画像D4gの生成にあたって、G1あるいはG2に対応していない画素の値は、その周辺に存在するG1画素およびG2画素の双方の値に基づいて導出される。これとともに、G1画素およびG2画素の値は変更されずに、そのまま色成分画像D4gにおいても維持される。つまり、色成分画像D4gは、G1およびG2の双方の値を有することとなる。これにより、3つの色成分画像D4r,D4g,D4bから構成される画像D4を圧縮した圧縮画像には、R,G1,G2,Bの4つの色の値が含まれる。また、この圧縮画像は、3つの色成分画像で構成される画像を圧縮したものであるため、通常画像を圧縮した圧縮画像と比較してデータ量はほぼ同等となり、4つの色成分画像から構成される画像を圧縮して圧縮画像を生成する場合よりも、データ量を抑制することができる。
【0046】
このようにして得られた圧縮画像を利用する場合は、圧縮画像に対して伸張処理を行って、画像D4を復元し、この画像D4に含まれる色成分画像D4gからG1画素およびG2画素をそれぞれ抽出することにより、R,G1,G2,Bの4つの色の値を利用することができる。
【0047】
<1−3.変形例>
本実施の形態は、上記に記載に限定されるものではなく様々な変形が可能である。以下、このような変形例について説明する。なお、以下においては、名称に記号が付されたフィルタが透過する光の色を、そのフィルタに付された記号で示すこととする。例えば、Xフィルタが透過する光の色は、Xで示すものとする。
【0048】
<1−3−1.BまたはRタイプフィルタの複数化>
上記実施の形態では、緑色波長帯の光を透過するGタイプフィルタに、G1フィルタおよびG2フィルタの2種類のフィルタが含まれていたが、青色波長帯の光を透過するタイプのフィルタ(以下、「Bタイプフィルタ」という。)、または、赤色波長帯の光を透過するタイプのフィルタ(以下、「Rタイプフィルタ」という。)が2種類以上のフィルタを含むようにしてもよい。
【0049】
図10は、受光画素に付されるフィルタとして、青色波長帯のうち比較的短い波長帯の光を透過するB1フィルタ、青色波長帯のうち比較的長い波長帯の光を透過するB2フィルタ、ならびに、GフィルタおよびRフィルタの4種類のフィルタがある場合における、撮像センサ3におけるフィルタの配置例を示す図である。この場合は、Bタイプフィルタに、B1フィルタおよびB2フィルタの2種類のフィルタが含まれている。これにより撮像センサ3からは、B1,B2,G,Rの4色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、4つの波長帯の光の強度が得られる。
【0050】
また、図11は、受光画素に付されるフィルタとして、赤色波長帯のうち比較的短い波長帯の光を透過するR1フィルタ、赤色波長帯のうち比較的長い波長帯の光を透過するR2フィルタ、ならびに、GフィルタおよびBフィルタの4種類のフィルタがある場合における、撮像センサ3におけるフィルタの配置例を示す図である。この場合は、Rタイプフィルタに、R1フィルタおよびR2フィルタの2種類のフィルタが含まれている。これにより撮像センサ3からは、B,G,R1,R2の4色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、4つの波長帯の光の強度が得られる。
【0051】
いずれの場合であっても、Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、BタイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付されるようにしている。人間の眼は緑色波長帯の光に対しての感度が高いため、このようにGタイプフィルタを市松模様の一方の領域に配置して、BタイプフィルタおよびRタイプフィルタよりも配置数を多くすることで、取得される画像の解像感を高めることができる。
【0052】
また、表示等に用いるために、図10または図11に示す撮像センサ3から得られるセンサ出力画像からベイヤー画像を生成する際においても、上記と同様に、RGBの3原色に対応する3つのグループに4つの色を区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値を求めるようにすればよい。例えば、図10に示す撮像センサ3から得られるセンサ出力画像のB1画素と同一位置のベイヤー画像のB画素の値は、センサ出力画像のB1画素を中心とした5×5画素に対して図12に示すフィルタマスクを用いたコンボリューション演算を行うことにより導出することができる。また、センサ出力画像のB2画素と同一位置のベイヤー画像のB画素の値は、図12に示すフィルタマスクのαとβとを入れ替えたものを用いることにより導出することができる。
【0053】
<1−3−2.6種類のフィルタ>
また、Bタイプフィルタ、Gタイプフィルタ、Rタイプフィルタがそれぞれ2種類のフィルタを含むようにして、計6種類のフィルタによって、6つの波長帯の光の強度が得られるようになっていてもよい。
【0054】
図13は、このような場合の6種類のフィルタの分光透過特性の例を示す図である。図に示すように6種類のフィルタとして、透過する波長帯が短いものからB1フィルタ、B2フィルタ、G1フィルタ、G2フィルタ、R1フィルタおよびR2フィルタがある。これにより、Bタイプフィルタとして2種類のフィルタ、Gタイプフィルタとして2種類のフィルタ、Rタイプフィルタとして2種類のフィルタがそれぞれ含まれている。
【0055】
図14は、これら6種類のフィルタの撮像センサ3における配置例を示す図である。この場合においても、Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、BタイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付されるようにしている。これにより撮像センサ3からは、B1,B2,G1,G2,R1,R2の6色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、6つの波長帯の光の強度が得られる。
【0056】
また、この撮像センサ3から得られるセンサ出力画像からベイヤー画像を生成する際においても、上記と同様に、RGBの3原色に対応する3つのグループに6つの色を区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値を求めるようにすればよい。原色BのグループにはB1,B2が区分され、原色GのグループにはG1,G2が区分され、原色RのグループにはR1,R2が区分される。そして、ベイヤー画像のG画素の値の導出には図6の如きフィルタマスクを用いればよく、ベイヤー画像のB画素およびR画素の値の導出には図12の如きフィルタマスクを用いればよい。
【0057】
<1−3−3.8種類のフィルタ>
また、Bタイプフィルタ、Rタイプフィルタがそれぞれ2種類のフィルタを含み、Gタイプフィルタが4種類のフィルタを含むようにして、計8種類のフィルタによって、8つの波長帯の光の強度が得られるようになっていてもよい。
【0058】
図15は、このような場合の8種類のフィルタの分光透過特性の例を示す図である。図に示すように8種類のフィルタとして、透過する波長帯が短いものからB1フィルタ、B2フィルタ、G1フィルタ、G2フィルタ、G3フィルタ、G4フィルタ、R1フィルタおよびR2フィルタがある。これにより、Bタイプフィルタとして2種類のフィルタ、Gタイプフィルタとして4種類のフィルタ、Rタイプフィルタとして2種類のフィルタがそれぞれ含まれている。
【0059】
図16は、これら8種類のフィルタの撮像センサ3における配置例を示す図である。この場合においても、Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付される。そして、この領域内において、G1〜G4フィルタがそれぞれ均等に配置される。また、BタイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付される。これにより撮像センサ3からは、B1,B2,G1,G2,G3,G4,R1,R2の8色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、8つの波長帯の光の強度が得られる。
【0060】
このように取得できる波長帯の数が増加するほど、コンピュータなどにおいて被写体からの光の分光分布などを演算する際の演算精度を向上させることができる。取得できる波長帯の数はフィルタの種類の数に一致するが、このフィルタの種類の数は4以上であればどのような数であってもよい。精度の高い分光分布を得るためには、4以上の波長帯の光の強度を得る必要がある。
【0061】
また、この撮像センサ3から得られるセンサ出力画像からベイヤー画像を生成する際においても、上記と同様に、RGBの3原色に対応する3つのグループに8つの色を区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値を求めるようにすればよい。原色BのグループにはB1,B2が区分され、原色GのグループにはG1,G2,G3,G4が区分され、原色RのグループにはR1,R2が区分される。
【0062】
ベイヤー画像のB画素およびR画素の値の導出には図12の如きフィルタマスクを用いればよい。一方、ベイヤー画像のG画素の値の導出には、例えば、図17に示すフィルタマスクを用いることができる。より具体的には、例えば、センサ出力画像のG1画素と同一位置のベイヤー画像のG画素の値は、センサ出力画像のG1画素を中心とした5×5画素に対して図17に示すフィルタマスクを用いたコンボリューション演算により導出される。つまり、このG画素の値は、G1画素の値に重みα1を乗算した結果に対して、その近傍の4つのG2画素、2つのG3画素、および、2つのG4画素の値にそれぞれ重みα2、α3、α4を乗算した結果の平均値を加算することにより導出される。ここで、重みα1,α2,α3,α4は、次の式(2)を満たすものである。
【0063】
α1+α2+α3+α4=1 …(2)
これらの重みα1〜α4は、G1〜G4フィルタそれぞれの分光透過特性と、一般的なGフィルタの分光透過特性との関係により決定することができる。すなわち、分光透過特性がGフィルタと近似するフィルタが付された画素の値ほど、重みが大きくなるようにα1〜α4が決定される。なお、G2画素、G3画素、G4画素のそれぞれと同一位置のベイヤー画像のG画素の値は、図17に示すフィルタマスクの重みα1〜α4を適宜変更したものを用いて導出すればよい。
【0064】
<1−3−4.近紫外または近赤外の波長帯>
上記実施の形態のフィルタは、全て可視波長帯の光を透過するものであったが、シリコンで構成される受光画素は近紫外の波長(約300nm)から近赤外の波長(約1100nm)までの光の光電変換が可能であるため、複数の種類のフィルタには、近紫外や近赤外の波長帯の光を透過するフィルタが含まれていてもよい。
【0065】
図18は、近紫外の波長帯の光を透過するUVフィルタを含む4種類のフィルタの分光透過特性の例を示す図である。図に示すように4種類のフィルタとして、可視波長帯の光を透過するBフィルタ、GフィルタおよびRフィルタとともに、近紫外の波長帯の光を透過するUVフィルタがある。
【0066】
図19は、これら4種類のフィルタの撮像センサ3における配置例を示す図である。UVフィルタは、Gタイプフィルタよりも短い波長帯の光を透過するタイプのフィルタ(以下、「短波長タイプフィルタ」という。)に分類される。この短波長タイプフィルタには、UVフィルタおよびBフィルタの2種類のフィルタが含まれている。Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、短波長タイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付される。そして、UVフィルタと、Bフィルタとは、短波長タイプフィルタが配置される領域にそれぞれ均等に配置される。
【0067】
このような撮像センサ3からは、近紫外の波長帯と、RGBの3原色にそれぞれ対応する波長帯とからなる4つの波長帯の光の強度が得られる。つまり、この撮像センサ3においては、1度の露光で、被写体のカラー情報とともに、被写体からの光についての近紫外の波長帯の情報が得られることとなる。
【0068】
図20は、近赤外の波長帯の光を透過するIRフィルタを含む4種類のフィルタの分光透過特性の例を示す図である。図に示すように4種類のフィルタとして、可視波長帯の光を透過するBフィルタ、GフィルタおよびRフィルタとともに、近赤外の波長帯の光を透過するIRフィルタがある。
【0069】
図21は、これら4種類のフィルタの撮像センサ3における配置例を示す図である。IRフィルタは、Gタイプフィルタよりも長い波長帯の光を透過するタイプのフィルタ(以下、「長波長タイプフィルタ」という。)に分類される。この長波長タイプフィルタには、IRフィルタおよびRフィルタの2種類のフィルタが含まれている。Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、長波長タイプフィルタおよびBタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付される。そして、IRフィルタと、Rフィルタとは、長波長タイプフィルタが配置される領域にそれぞれ均等に配置される。
【0070】
このような撮像センサ3からは、近赤外の波長帯と、RGBの3原色にそれぞれ対応する波長帯とからなる4つの波長帯の光の強度が得られる。つまり、この撮像センサ3においては、1度の露光で、被写体のカラー情報とともに、被写体からの光についての近赤外の波長帯の情報が得られることとなる。
【0071】
近紫外の波長帯は、昆虫などが視感度を有する波長帯であるため、近紫外の波長帯の光の強度が得られれば、植物などの被写体に関して種々の分析を行うことができる。また、近紫外の波長帯の光は被写体における散乱が多いため、顔のしわやしみの検出にも適している。一方、近赤外の波長帯の光は、被写体における散乱や水の吸収が少なく生体を透過しやすいため、近赤外の波長帯の光の強度が得られれば、生体の被写体に関して種々の分析を行うことができる。
【0072】
<1−3−5.等色関数の再現>
撮像センサ3の受光画素に付されるフィルタとして、4種類のフィルタがあれば、人間の眼の感度を表す等色関数を再現することも可能である。図22は、等色関数を示す図である。図に示すように、等色関数は、r,g,bの3つの曲線で表現される。このうち曲線rは、負の側に飛び出している部分rnがある。
【0073】
このため、このような等色関数を再現するために、図23に示すように、等色関数の曲線rの正の部分の特性と一致する分光透過特性を有するR1フィルタ、等色関数の曲線rの負の部分rnの特性と正負が逆となる分光透過特性を有するR2フィルタ、等色関数の曲線gの特性と一致する分光透過特性を有するGフィルタ、等色関数の曲線bの特性と一致する分光透過特性を有するBフィルタをそれぞれ設定する。これらの4種類のフィルタは、例えば、図11と同様に撮像センサ3に配置すればよい。
【0074】
そして、Gフィルタが付された受光画素で得られる値を原色Gの値、Bフィルタが付された受光画素で得られる値を原色Bの値とし、R1フィルタが付された受光画素で得られる値から、R2フィルタが付された受光画素で得られる値を減算した結果を原色Rの値とする。このようにすれば、実質的に等色関数を再現することとなり、人間の眼で感じる値に相当する3原色の値が得られることとなる。
【0075】
<1−3−6.ハニカム配列>
また、撮像センサ3は、受光画素の配列がハニカム配列となるハニカムセンサであってもよい。ハニカムセンサにおいては、蜂巣状に(隣接する受光画素が半画素分ずれるように)受光画素が配置される。図24は、ハニカムセンサ3aに対する、Bフィルタ、G1フィルタ、G2フィルタおよびRフィルタの4種類のフィルタの配置例を示す図である。図24に示すフィルタの配置は、図4に示したフィルタの配置を45度回転させたものに相当する。
【0076】
このようなハニカムセンサ3aは、受光画素P間の配線部が不要になるためスペースに余裕が生まれ、上記で説明したような撮像センサ3と比較して、各受光画素を大型化することが可能となる。
【0077】
透過する光の波長帯が互いに異なるフィルタの種類を増加させた場合、それぞれのフィルタが透過する光の帯域幅は狭くなるため、このようなフィルタが付された受光画素の感度は低下する可能性がある。撮像センサ3としてハニカムセンサ3aを採用すると、各受光画素を大型化することができるため、このような受光画素の感度の低下を防止することができる。
【0078】
<2.第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。第1の実施の形態においては、フィルタは撮像センサの受光画素ごとに配置されるものであったが、本実施の形態においては複数の受光画素を含むユニットごとに配置されるようになっている。本実施の形態の撮像装置1の構成は、図2に示すものとほぼ同様であるが、撮像部40の構成が相違する。
【0079】
図25は、本実施の形態の撮像部40の概略構成を示す分解斜視図である。被写体からの光は図25の上部から入射する。図に示すように、撮像部40は、水平2×垂直2の計4つのマイクロレンズ21を平面的に配列して有するマイクロレンズアレイ20と、水平2×垂直2の計4つのフィルタ61を平面的に配列して有するフィルタアレイ60と、水平2×垂直2の計4つの格子71を平面的に配列して有する隔壁70と、複数の受光画素を平面的に配列して有する撮像センサ30とを、光が入射する側からこの順に備えている。
【0080】
撮像センサ30の複数の受光画素で構成される受光面は、水平2×垂直2の計4つの結像領域31に区分され、4つの結像領域31に対して4つのマイクロレンズ21がそれぞれ被写体の光像を結像するようになっている。また、4つのフィルタ61は、4つのマイクロレンズ21のそれぞれに対応して配置され、マイクロレンズ21を通過した光のうち特定の波長帯の光のみを透過する。さらに、4つの格子71は、4のマイクロレンズ21のそれぞれに対応して配置され、1のマイクロレンズ21を通過した光と、他のマイクロレンズ21を通過した光との干渉を防止するように機能する。
【0081】
つまり、1の結像領域31に対して、1のマイクロレンズ21と、1のフィルタ61と、1の格子71とが対応づけられて、これらが図中の破線による角柱で示す如く1のユニットUを形成している。マイクロレンズ21によって同一ユニットU内の結像領域31中に結像された被写体の光像は、該結像領域31に含まれる複数の受光画素において光電変換されて一の画像とされる。したがって、ユニットUごとに一の被写体の画像が得られ、撮像センサ30の全体では、4つの被写体の画像が得られる。取得される4つの画像は、A/D変換器41においてデジタル信号とされ、必要に応じて画像処理部42において所定の処理が施され、メモリカード91に記憶されたり外部装置92に送信される。
【0082】
マイクロレンズの焦点距離は、通常のレンズの焦点距離よりも短いため、撮像部40を本実施の形態の構成とすることで撮像装置1を小型化することができる。また、第1の実施の形態のように複数種類のフィルタを受光画素ごとに形成すると、撮像センサの製造上の工程数が多くなり、撮像装置の製造コストが高くなる可能性があるが、本実施の形態の撮像部40の構成によれば、フィルタをユニット毎に配置すればよいためフィルタのサイズを比較的大きくすることができる。このことから、フィルタの製造は比較的容易となり、これにより撮像装置の製造コストを低減することができる。
【0083】
各ユニットU内のフィルタが透過する光の波長帯は、同一ユニットUにて得られる画像中の画素の色に対応する。フィルタアレイ60を形成する4つのフィルタ61は、透過する光の波長帯が互いに異なっている。つまり、本実施の形態においては4種類のフィルタが採用されている。この4種類のフィルタとしては、図3に示す分光透過特性を有するBフィルタ、G1フィルタ、G2フィルタおよびRフィルタが用いられている。図26は、フィルタアレイ60中における4種類のフィルタ61の各ユニットUへの配置例を示す図である。
【0084】
このような構成により、撮像装置1としては、1度の露光によって同一被写体に関して色が異なる4つの画像が得られる。つまり、撮像装置1は、4つの波長帯の光の強度を1度の露光によって得ることができることとなる。さらに、撮像装置1は、被写体の同一点からの光に関して、4つ波長帯の強度を得ることができる。つまり、欠落画素値の補間などを行わずに、B,G1,G2,Rの4つの色成分画像を取得できることとなり、欠落画素値の補間によって生じる偽色やモアレなどが発生することもない。
【0085】
なお、本実施の形態においては、フィルタアレイ60中におけるフィルタの配列は特に限定されず、4種類のフィルタがどのように配置されていてもよい。また、4種類のフィルタとしては、透過する光の波長帯が互いに異なっていれば、どのような波長帯を透過するものであってもよい。
【0086】
例えば、4種類のフィルタに、近紫外や近赤外の波長帯の光を透過するフィルタを含めるようにしてもよい。図27は、図19に示す分光透過特性を有するUVフィルタ、Bフィルタ、GフィルタおよびRフィルタを採用した場合における、フィルタアレイ60中におけるフィルタ61の配置例を示す図である。また、図28は、図20に示す分光透過特性を有するBフィルタ、Gフィルタ、RフィルタおよびIRフィルタを採用した場合における、フィルタアレイ60中におけるフィルタ61の配置例を示す図である。このような構成とすると、撮像センサ30では、1度の露光で、被写体のカラー情報とともに、被写体からの光についての近紫外または近赤外の波長帯の情報が得られるため、前述したように、被写体に対して様々な分析を行うことができる。
【0087】
また、4種類のフィルタに、全波長帯の光を透過する透明のフィルタ(以下、「Wフィルタ」という。)を含めるようにしてもよい。図29は、このような場合におけるフィルタアレイ60中におけるフィルタ61の配置例を示す図である。このような構成とすると、撮像センサ30では、1度の露光で、被写体のカラー情報とともに、被写体からの光についての純粋な輝度成分の情報が得られることとなる。これとともに、Wフィルタは全波長帯の光を透過するため、Wフィルタが配置されるユニットU中に含まれる受光画素の感度を向上させることができる。したがって、図29に示すフィルタアレイ60が採用された撮像装置1は、被写体の輝度が極端に低い場合であっても、Wフィルタが配置されるユニットUを用いることにより、その被写体の画像を得ることができる。このため、この撮像装置1は、昼夜を問わない使用が要求される監視カメラや車載カメラなどに利用することができる。
【0088】
また、ユニットUの数は4つに限定されず、4以上であればどのような数であってもよい。図30は、ユニットUの数を6つとした場合のフィルタアレイ60中におけるフィルタ61の配置例を示す図である。このような場合であっても、6つのフィルタ61は透過する光の波長帯が互いに異なるようにし、図30の例においては図13に示す分光透過特性を有する6種類のフィルタが採用されている。このようにユニットUの数を増加させると、1度の露光で取得できる波長帯の数を増加することができるため、コンピュータなどにおいて被写体からの光の分光分布などを演算する際の演算精度を向上させることができる。
【0089】
また、図31に示すように、可視波長帯を例えば16分割し、分割されたそれぞれの波長帯の光を透過可能な16種類のフィルタ(F1〜F16フィルタ)を用意し、図32に示すように、16のユニットUにF1〜F16フィルタをそれぞれ配置するようにしてもよい。図32に示すフィルタアレイ60が採用された撮像装置1では、1度の露光で16の波長帯の光の強度を得ることができ、精度の高い分光測色計として利用することができる。なお、撮像装置1を分光測色計として利用する場合は、1度の露光で取得できる波長帯の数は16以上であることが好ましい。
【0090】
<3.第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。本実施の形態の撮像装置1の構成は第2の実施の形態とほぼ同様であるが、本実施の形態では、各ユニットUごとに取得される複数の画像を再配置して、1つの再配置画像を生成するようにしている。
【0091】
図33は、本実施の形態の撮像部40の概略構成を示す分解斜視図である。本実施の形態の撮像部40は、第2の実施の形態とほぼ同様に、複数のマイクロレンズ21を平面的に配列して有するマイクロレンズアレイ20と、複数のフィルタ61を平面的に配列して有するフィルタアレイ60と、複数の格子71を平面的に配列して有する隔壁70と、複数の受光画素を平面的に配列して有する撮像センサ30とを、光が入射する側からこの順に備えている。撮像センサ30の複数の受光画素で構成される受光面は、複数の結像領域31に区分される。そして、この結像領域31に対して、1のマイクロレンズ21と、1のフィルタ61と、1の格子71とが対応づけられて、これらが1のユニットUを形成している。ただし、本実施の形態の撮像部40は多数のユニットU、具体的には、水平方向にM個、素直方向にN個に配列された複数のユニットUを備えている。
【0092】
図34は、複数のユニットUと複数の受光画素Pとの関係を示す図であり、上部は撮像センサ30内におけるユニットU(すなわち結像領域31)の配列を、下部は一のユニットU内における受光画素Pの配列を示している。図に示すように、撮像センサ30の受光面は水平M個×垂直N個のユニットUに区分され、一のユニットUには水平m個×垂直n個の受光画素Pが含まれている。
【0093】
各ユニットUでは、水平m×垂直n画素からなる被写体の画像(以下、「ユニット画像」という。)が得られる。このユニット画像は、A/D変換器41においてデジタル信号とされた後、画像処理部42に入力される。そして、画像処理部42において各ユニットUで得られたユニット画像に含まれる画素が再配置され、水平方向N×n画素、垂直方向M×m画素からなる再配置画像が生成される。
【0094】
マイクロレンズアレイ20を形成する複数のマイクロレンズ21間には視差があることから、この視差を原因として、結像領域31間において微妙に異なった位置に被写体の光像が結像される。したがって、複数のユニット画像間では、含まれる被写体像の位置は微妙に異なることとなる。本実施の形態では、このようなユニット画像間の被写体像の位置の相違を利用し、複数のユニット画像の画素を再配置することで、高解像度となる単一の再配置画像を得るようにしている。
【0095】
ここで、撮像センサ30上における各ユニットUの水平方向の座標をI,垂直方向の座標をJとし、ユニットU内における受光画素Pの水平方向の座標をi,垂直方向の座標をjとし、各ユニット画像の識別には取得されたユニットUの座標(I,J)を用い、ユニット画像中の各画素の識別には取得された受光画素Pの座標(i,j)を用いるものとする。図34においては、各ユニットU内にそれぞれの座標(I,J)を示し、各受光画素P内にそれぞれの座標(i,j)を示している。
【0096】
そして、再配置画像中の各画素の水平方向の座標をx、垂直方向の座標をyとすると、再配置処理においてユニット画像(I,J)中の画素(i,j)を配置すべき座標(x,y)は、次の式(3)および式(4)で表現される。
【0097】
x=M(i−1)+I …(3)
y=N(j−1)+J …(4)
再配置処理においては、式(3)および式(4)により求められる座標(x,y)を各画素の目標座標とし、全ユニット画像の全画素をそれぞれの目標座標に配置することで、再配置画像が生成されることとなる。
【0098】
本実施の形態では、フィルタアレイ60を形成する複数のフィルタ61として、透過する光の波長帯が異なる4種類のフィルタが採用されている。この4種類のフィルタとしては、図3に示す分光透過特性を有するBフィルタ、G1フィルタ、G2フィルタおよびRフィルタが用いられている。
【0099】
図35は、フィルタアレイ60中における4種類のフィルタの各ユニットU(すなわち、各マイクロレンズ21)への配置例を示す図である。図35に示すように、Gタイプフィルタ(G1フィルタおよびG2フィルタ)は、ユニットUの配列における市松模様の一方の領域に対応するユニットUに配置されている。そして、G1フィルタとG2フィルタとは、垂直方向に対して交互に配置される。一方、BフィルタおよびRフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応するユニットUに配置される。そして、BフィルタとRフィルタとは、垂直方向に対して交互に配置される。つまり、このフィルタの配列は、図4に示すフィルタの配列と同様となっている。
【0100】
各ユニット画像中の画素の色は、取得されたユニットU内のフィルタ61が透過する光の波長帯に対応する。つまり、Bフィルタが配置されたユニットUからはB画素のみのユニット画像、G1フィルタが配置されたユニットUからはG1画素のみのユニット画像、G2フィルタが配置されたユニットUからはG2画素のみのユニット画像、Rフィルタが配置されたユニットUからはR画素のみのユニット画像がそれぞれ得られる。したがって、本実施の形態の撮像装置1においても、1度の露光によって4つの波長帯の光の強度を得ることができる。
【0101】
また、これらのユニット画像について、上記のような再配置処理を行うと、再配置画像中の画素が対応する色の配列は、フィルタアレイ60中における4種類のフィルタの配列と同様になる。このため、図35に示すフィルタアレイ60を採用すると、図4に示す撮像センサ3から得られるセンサ出力画像と同等の画像が、再配置画像として得られることとなる。このことから、この再配置画像については、第1の実施の形態と全く同様の画像処理を行うことができる。
【0102】
なお、本実施の形態においてもフィルタの種類の数は4以上であればどのような数であってもよく、また、フィルタとしては、どのような波長帯の光を透過するものであってもよい。したがって、フィルタアレイ60中におけるフィルタの配列としては、図10、図11、図14、図16、図19、図21に示した配列のいずれであっても採用することができる。
【0103】
◎なお、上述した具体的実施の形態には以下の構成を有する発明が含まれている。
【0104】
(1) 請求項5に記載の撮像装置において、
前記複数のフィルタはそれぞれ、緑色波長帯の光を透過する第1タイプフィルタ、前記第1タイプフィルタよりも短い波長帯の光を透過する第2タイプフィルタ、および、前記第1タイプフィルタよりも長い波長帯の光を透過する第3タイプフィルタのいずれかに区分され、
前記第1タイプフィルタは、前記複数のマイクロレンズの配列における市松模様の一方の領域に対応する前記マイクロレンズに対して配置され、
前記第2および第3タイプフィルタは、前記市松模様の他方の領域に対応する前記マイクロレンズに対してそれぞれ均等に配置されることを特徴とする撮像装置。
【0105】
これによれば、人間の眼は緑色波長帯の光に対しての感度が高いため、緑色波長帯の光を透過する第1タイプフィルタを市松模様の一方の領域に配置して、第2および第3タイプフィルタよりも配置数を多くすることで、取得される画像の解像感を高めることができる。
【0106】
(2) 請求項1または上記(1)に記載の撮像装置において、
前記第2タイプフィルタは、近紫外線の波長帯を透過するフィルタを含むことを特徴とする撮像装置。
【0107】
これによれば、近紫外線の波長帯の光の強度を得ることができるため、被写体に対して様々な分析を行うことができる。
【0108】
(3) 請求項1または上記(1)に記載の撮像装置において、
前記第3タイプフィルタは、近赤外線の波長帯を透過するフィルタを含むことを特徴とする撮像装置。
【0109】
これによれば、近赤外線の波長帯の光の強度を得ることができるため、被写体に対して様々な分析を行うことができる。
【0110】
(4) 請求項4に記載の撮像装置において、
前記所定数のフィルタは、近紫外線または近赤外線の波長帯を透過するフィルタを含むことを特徴とする撮像装置。
【0111】
これによれば、近紫外線または近赤外線の波長帯の光の強度を得ることができるため、被写体に対して様々な分析を行うことができる。
【0112】
【発明の効果】
以上、説明したように、請求項1の発明によれば、1度の露光によって4以上の波長帯の光の強度を得ることができる。また、人間の眼は緑色波長帯の光に対しての感度が高いため、緑色波長帯の光を透過する第1タイプフィルタを市松模様の一方の領域に配置して、第2および第3タイプフィルタよりも配置数を多くすることで、取得される画像の解像感を高めることができる。
【0113】
また、請求項2の発明によれば、3原色に対応する3つのグループごとに1原色に対応する画素の値が導出されるため、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する画像を、一般的なカラー表示装置への表示やカラー印刷装置での印刷に用いることができる。
【0114】
また、請求項3の発明によれば、3つの第2画像から構成される第3画像を圧縮して1の圧縮画像を生成するため、4以上の第2画像から構成される第3画像を圧縮して1の圧縮画像を生成する場合よりも圧縮画像のデータ量を抑制することができる。
【0115】
また、請求項4の発明によれば、被写体からの同一点からの4以上の波長帯の光の強度を1度の露光によって得ることができる。また、撮像装置を小型化することができる。
【0116】
また、請求項5の発明によれば、1度の露光によって4以上の波長帯の光の強度を得ることができる。また、撮像装置を小型化することができる。
【図面の簡単な説明】
【図1】フィルタの配列がベイヤー配列となる撮像センサを示す図である。
【図2】撮像装置の基本的な構成を示す図である。
【図3】フィルタの分光透過特性の例を示す図である。
【図4】フィルタの配置例を示す図である。
【図5】センサ出力画像から通常画像を生成する手法を示す図である。
【図6】演算に用いるフィルタマスクの例を示す図である。
【図7】演算に用いるフィルタマスクの例を示す図である。
【図8】演算に用いるフィルタマスクの例を示す図である。
【図9】センサ出力画像から3つの色成分画像を生成する手法を示す図である。
【図10】フィルタの配置例を示す図である。
【図11】フィルタの配置例を示す図である。
【図12】演算に用いるフィルタマスクの例を示す図である。
【図13】フィルタの分光透過特性の例を示す図である。
【図14】フィルタの配置例を示す図である。
【図15】フィルタの分光透過特性の例を示す図である。
【図16】フィルタの配置例を示す図である。
【図17】演算に用いるフィルタマスクの例を示す図である。
【図18】フィルタの分光透過特性の例を示す図である。
【図19】フィルタの配置例を示す図である。
【図20】フィルタの分光透過特性の例を示す図である。
【図21】フィルタの配置例を示す図である。
【図22】等色関数を示す図である。
【図23】フィルタの分光透過特性の例を示す図である。
【図24】ハニカムセンサに対するフィルタの配置例を示す図である。
【図25】第2の実施の形態の撮像部の概略構成を示す図である。
【図26】フィルタアレイにおけるフィルタの配置例を示す図である。
【図27】フィルタアレイにおけるフィルタの配置例を示す図である。
【図28】フィルタアレイにおけるフィルタの配置例を示す図である。
【図29】フィルタアレイにおけるフィルタの配置例を示す図である。
【図30】フィルタアレイにおけるフィルタの配置例を示す図である。
【図31】フィルタの分光透過特性の例を示す図である。
【図32】フィルタアレイにおけるフィルタの配置例を示す図である。
【図33】第3の実施の形態の撮像部の概略構成を示す図である。
【図34】複数のユニットと複数の受光画素との関係を示す図である。
【図35】フィルタアレイにおけるフィルタの配置例を示す図である。
【符号の説明】
1 撮像装置
2 レンズ
3 撮像センサ
20 マイクロレンズアレイ
30 撮像センサ
60 フィルタアレイ
70 隔壁
U ユニット
P 受光画素[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for acquiring light intensities in a plurality of wavelength bands.
[0002]
[Prior art]
Generally, an imaging apparatus such as a digital still camera and a digital video camera includes an imaging sensor that obtains the intensity of light reflected from a subject in three wavelength bands respectively corresponding to three primary colors to obtain color information of the subject. I have to. FIG. 1 is a diagram showing a conventional
[0003]
On the other hand, in the past, attempts have been made to obtain the spectral reflectance of an object from an image obtained by an imaging apparatus in order to solve the problem of metamerism or to analyze the components of an object. I have. The spectral reflectance of the subject can be obtained by obtaining the spectral distribution of the reflected light from discrete color information of the reflected light from the subject, and removing the spectral distribution of the illumination light from the spectral distribution of the reflected light. As a method of obtaining a spectral distribution from discrete color information of reflected light, spline interpolation processing, estimation by principal component analysis, Winner estimation, and the like are known.
[0004]
However, the spectral distribution of the reflected light cannot be obtained with high accuracy only by the intensity of light in three wavelength bands obtained by a general imaging device. For this reason, a multi-band camera, which is an imaging device capable of acquiring the intensity of light in four or more wavelength bands, has been proposed. Conventionally proposed methods of a multi-band camera include the following.
[0005]
1. A color wheel type in which four or more filters having different spectral transmission characteristics are arranged in a disk shape, and these filters are sequentially arranged in the path of incident light to perform imaging.
[0006]
2. A tunable filter system that uses an interferometer or an optical element that transmits only a specific wavelength band due to the polarization phenomenon of liquid crystal, and sequentially changes the transmitted wavelength band to perform imaging.
[0007]
3. A grating system that separates incident light into different wavelength bands by diffraction and performs two-dimensional imaging by scanning.
[0008]
In addition, there is
[0009]
[Patent Document 1]
U.S. Pat. No. 3,971,065
[Patent Document 2]
JP 2001-61109 A
[0010]
[Problems to be solved by the invention]
However, conventionally proposed multi-band cameras require switching and scanning of wavelength bands, and in each case, it is not possible to obtain the intensity of light in all the target wavelength bands with a single exposure. There is a problem that it takes a long time and an object or the like that moves at a relatively high speed cannot be a subject.
[0011]
The present invention has been made in view of the above problems, and has as its object to provide a technique capable of obtaining light intensities in four or more wavelength bands by one exposure.
[0012]
[Means for Solving the Problems]
In order to solve the above problem, an invention according to
[0013]
According to a second aspect of the present invention, in the imaging device according to the first aspect, the image sensor outputs an image having a plurality of pixels corresponding to any one of four or more colors, and the four or more types are output. Are classified into any one of three groups corresponding to the three primary colors. For each of the groups, the value of the pixel corresponding to the one primary color is determined from the value of the pixel corresponding to the color included in the group. Derivation means for deriving a value is further provided.
[0014]
According to a third aspect of the present invention, in the imaging device according to the first aspect, the image sensor outputs a first image having a plurality of pixels respectively corresponding to any one of four or more colors. Each kind of color is classified into any one of three groups corresponding to the three primary colors, and for each of the groups, from the pixel values corresponding to the colors included in the group, one second image And a compression unit that compresses a third image composed of the three generated second images to generate one compressed image.
[0015]
The invention according to
[0016]
The invention according to
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
<1. First Embodiment>
<1-1. Configuration>
FIG. 2 is a diagram illustrating a basic configuration of the imaging device according to the embodiment of the present invention. The
[0019]
The
[0020]
The
[0021]
The
[0022]
The
[0023]
FIG. 3 is a diagram illustrating an example of spectral transmission characteristics of four types of filters attached to light receiving pixels. Each of the four types of filters has a spectral transmission characteristic of transmitting light in a visible wavelength band (about 380 to about 780 nm). As shown in the figure, among the four types of filters, there are a B filter, a G1 filter, a G2 filter, and an R filter, starting from the one that transmits short wavelength bands. The B filter transmits light in the blue wavelength band, the G1 filter transmits light in a relatively short wavelength band of the green wavelength band, the G2 filter transmits light in a relatively long wavelength band in the green wavelength band, The R filter transmits light in the red wavelength band. That is, in the present embodiment, two types of filters, a G1 filter and a G2 filter, are included as filters of a type that transmits light in the green wavelength band (hereinafter, referred to as “G-type filters”). The peaks of the spectral transmission characteristic lines of the G1 filter and the G2 filter are arranged, for example, at positions where the peaks of the spectral transmission characteristic lines of the B filter and the R filter are equally divided into three. Hereinafter, the color of light transmitted by the R filter is R, the color of light transmitted by the G1 filter is G1, the color of light transmitted by the G2 filter is G2, and the color of light transmitted by the B filter is B. Also, let G be the color of light transmitted by a general G filter that transmits light in the green wavelength band. Here, R, G, and B are three primary colors of light.
[0024]
FIG. 4 is a diagram showing an example of the arrangement of these four types of filters in the
[0025]
These four types of filters are formed by repeating the selective formation of a dyed layer (a resin film of gelatin or the like) using photolithography technology four times on light-receiving pixels made of silicon or the like. The spectral transmission characteristics of each filter are adjusted by the dye that dyes the dyed layer and the thickness of the dyed layer. Note that the spectral transmission characteristics of the filter are not limited to those shown in FIG. 3, and may be characteristics according to the purpose of the
[0026]
The signal output from each light receiving pixel of the
[0027]
<1-2. Image processing>
The signal output from each light receiving pixel of the
[0028]
The sensor output image is preferably subjected to appropriate processing according to the use at the output destination. For this reason, in the
[0029]
<1-2-1. Operation>
First, a case will be described in which a computer is connected as the
[0030]
<1-2-2. Display>
Next, a case where a color display device is connected as the
[0031]
FIG. 5 is a diagram conceptually illustrating a method of generating the normal image D3 from the sensor output image D1. In generating the normal image D3, first, from the sensor output image D1, an image in which each pixel has any one of the three primary colors of RGB and the arrangement of the three primary colors is a Bayer array (hereinafter, referred to as a “Bayer image”). ) D2 is generated, and the generated Bayer image D2 is subjected to interpolation of missing pixel values (a process of generating missing color information in one pixel) to generate a normal image D3.
[0032]
In generating the Bayer image D2, R, G1, G2, and B are divided into three groups corresponding to the three primary colors of RGB, and the value of the pixel corresponding to one primary color of the Bayer image is obtained for each group. Specifically, R among R, G1, G2, and B is classified into the group of primary colors R. Therefore, the value of the R pixel in the sensor output image D1 is set to the value of the R pixel in the Bayer image D2. Similarly, since B among R, G1, G2, and B is classified into the group of primary colors B, the value of the B pixel in the sensor output image D1 is the value of the B pixel in the Bayer image D2. Further, G1 and G2 among R, G1, G2 and B are classified into the group of primary colors G. Therefore, the value of the G pixel of the Bayer image D2 is derived from the values of the G1 pixel and the G2 pixel of the sensor output image D1.
[0033]
The value of the G pixel of the Bayer image D2 at the same position as the G1 pixel of the sensor output image D1 is obtained by convolving the 3 × 3 pixels centered on the G1 pixel of the sensor output image D1 using the filter mask shown in FIG. It is derived by performing an operation. That is, the value of the G pixel is derived by adding the result of multiplying the value of the G1 pixel by the weight α and the result of multiplying the average value of the values of the four G2 pixels in the vicinity by the weight β. . The G pixel value of the Bayer image D2 at the same position as the G2 pixel of the sensor output image D1 is calculated using the filter mask shown in FIG. 7 for 3 × 3 pixels centered on the G2 pixel of the sensor output image D1. It is derived by performing a convolution operation. That is, the value of the G pixel is derived by adding the result of multiplying the value of the G2 pixel by the weight β and the result of multiplying the average value of the values of the four G1 pixels in the vicinity by the weight α. . Here, the weights α and β satisfy the following equation (1).
[0034]
α + β = 1 (1)
The weights α and β can be determined based on the relationship between the spectral transmission characteristics of the G1 filter and the G2 filter and the spectral transmission characteristics of a general G filter. For example, when the wavelength bands of the light transmitted by the G1 filter and the G2 filter are distributed symmetrically with respect to the center position of the wavelength band of the light transmitted by the general G filter, α = β = 0.5. do it. If the G1 filter has a spectral transmission characteristic that is closer to a general G filter than the G2 filter, α is relatively large, and conversely, the spectral transmission characteristic that the G2 filter approximates a general G filter. , Β may be made relatively large.
[0035]
When the Bayer image D2 is generated in this way, interpolation of the missing pixel value is performed. That is, the value of the R pixel in the Bayer image D2 is the value of R for all pixels, the value of the G pixel is the value of G for all pixels, and the value of the B pixel is B for all pixels. Required by Thereby, the normal image D3 in which each pixel has the values of the three primary colors of RGB is generated. Note that the interpolation processing of the missing pixel value is equivalent to generating three color component images composed of only one color value.
[0036]
In this manner, R, G1, G2, and B are divided into three groups corresponding to the three primary colors, and the values of the pixels corresponding to the one primary color of the Bayer image are derived for each group. A normal image D3 in which color information is expressed by three primary colors can be generated from the sensor output image D1. Thus, a sensor output image that cannot be displayed as it is can be used for display on a color display device.
[0037]
When the color display device requires a television signal, after generating the normal image D3 as described above, the RGB values of each pixel are determined by a predetermined method such as the NTSC system, the PAL system, and the SECAM system. May be converted into a television signal of the following format. The conversion from the RGB values to the television signal can be easily performed by a known method.
[0038]
<1-2-3. Printing>
Next, a case where a color printing device is connected as the
[0039]
Therefore, in this case, the
[0040]
By the way, when the sensor output image is used for display or printing, in order to make the image more beautiful, sharpening processing for enhancing the edge of the subject, gradation correction processing for adjusting contrast, and color correction for adjusting hue and saturation are performed. Image processing such as processing may be performed. Of these image processes, the sharpening process is preferably performed on the sensor output image at a stage before the normal image is generated.
[0041]
In the sharpening process, one pixel of the sensor output image is set as a target pixel, and convolution operation using the filter mask of FIG. 8 is performed on 5 × 5 pixels centered on the target pixel to obtain the target pixel. A new value for the pixel is determined. By performing such a calculation using all the pixels of the sensor output image as the target pixels, the edge of the subject in the sensor output image is emphasized. In the sensor output image, there are four pixels corresponding to the same color as the target pixel and having the same horizontal or vertical direction in a 5 × 5 pixel region centered on the target pixel. This is the same even when a pixel corresponding to any color becomes a target pixel. Therefore, by performing the calculation using the filter mask shown in FIG. 8 on the sensor output image, the calculation can be performed between pixels corresponding to the same color. That is, it is possible to obtain a calculation result that is not affected by the values of the pixels corresponding to other colors. Note that the gradation correction processing and the color correction processing may be performed on any of the sensor output image and the normal image because the processing result of the target pixel is not affected by the values of the peripheral pixels.
[0042]
<1-2-4. Record>
Next, a case where a sensor output image is recorded on the
[0043]
Similarly, a color component image for each of four colors B, G1, G2, and R is generated from a sensor output image obtained from the
[0044]
For this reason, in the
[0045]
In generating the color component image D4g, the value of the pixel not corresponding to G1 or G2 is derived based on the values of both the G1 pixel and the G2 pixel existing around the pixel. At the same time, the values of the G1 pixel and the G2 pixel are not changed and are maintained as they are in the color component image D4g. That is, the color component image D4g has both values of G1 and G2. Accordingly, a compressed image obtained by compressing the image D4 including the three color component images D4r, D4g, and D4b includes four color values of R, G1, G2, and B. Further, since this compressed image is obtained by compressing an image composed of three color component images, the data amount is substantially equal to that of a compressed image obtained by compressing a normal image, and the compressed image is composed of four color component images. The amount of data can be suppressed as compared with a case where a compressed image is generated by compressing an image to be compressed.
[0046]
When the compressed image obtained in this manner is used, an expansion process is performed on the compressed image to restore the image D4, and G1 and G2 pixels are respectively extracted from the color component image D4g included in the image D4. By extracting, the values of the four colors R, G1, G2, and B can be used.
[0047]
<1-3. Modification>
This embodiment is not limited to the above description, and various modifications are possible. Hereinafter, such modified examples will be described. In the following, the color of light transmitted by a filter with a symbol attached to its name is indicated by the symbol attached to the filter. For example, the color of light transmitted by the X filter is indicated by X.
[0048]
<1-3-1. Multiple B or R type filters>
In the above embodiment, the G-type filter that transmits light in the green wavelength band includes two types of filters, the G1 filter and the G2 filter. However, a filter that transmits light in the blue wavelength band (hereinafter, referred to as a G-type filter). A filter that transmits light in the red wavelength band (hereinafter, referred to as an “R-type filter”) may include two or more types of filters.
[0049]
FIG. 10 shows a B1 filter that transmits light in a relatively short wavelength band among blue wavelength bands, a B2 filter that transmits light in a relatively long wavelength band among blue wavelength bands, and a filter attached to a light receiving pixel. FIG. 9 is a diagram showing an example of the arrangement of filters in the
[0050]
FIG. 11 shows an R1 filter that transmits light of a relatively short wavelength band in the red wavelength band and an R2 filter that transmits light of a relatively long wavelength band in the red wavelength band, as filters attached to the light receiving pixels. FIG. 9 is a diagram illustrating an example of the arrangement of filters in the
[0051]
In any case, the G-type filter is attached to the light-receiving pixels P corresponding to one of the areas of the checkered pattern in the array of the plurality of light-receiving pixels P, and the B-type filter and the R-type filter have the checkered pattern. The light receiving pixels P corresponding to the other area (the area where the G type filter is not disposed) are evenly applied. Since the human eye has high sensitivity to light in the green wavelength band, the G-type filter is arranged in one of the checkered areas as described above, and the number of arrangements is larger than that of the B-type filter and the R-type filter. This can enhance the resolution of the acquired image.
[0052]
Also, when generating a Bayer image from a sensor output image obtained from the
[0053]
<1-3-2.6 types of filters>
Further, the B-type filter, the G-type filter, and the R-type filter may include two types of filters, respectively, and the intensity of light in six wavelength bands may be obtained by a total of six types of filters.
[0054]
FIG. 13 is a diagram illustrating an example of the spectral transmission characteristics of the six types of filters in such a case. As shown in the figure, as the six types of filters, there are a B1 filter, a B2 filter, a G1 filter, a G2 filter, an R1 filter, and an R2 filter, starting from a filter that transmits a short wavelength band. Thus, two types of filters are included as a B type filter, two types of filters are included as a G type filter, and two types of filters are included as an R type filter.
[0055]
FIG. 14 is a diagram illustrating an example of the arrangement of these six types of filters in the
[0056]
Also, when generating a Bayer image from the sensor output image obtained from the
[0057]
<1-3-3.8 types of filters>
Also, the B-type filter and the R-type filter each include two types of filters, and the G-type filter includes four types of filters so that a total of eight types of filters can obtain light intensities in eight wavelength bands. It may be.
[0058]
FIG. 15 is a diagram illustrating an example of the spectral transmission characteristics of the eight types of filters in such a case. As shown in the figure, as the eight types of filters, there are a B1 filter, a B2 filter, a G1 filter, a G2 filter, a G3 filter, a G4 filter, an R1 filter, and an R2 filter, starting from a filter that transmits a short wavelength band. Accordingly, two types of filters are included as the B type filter, four types of filters are included as the G type filter, and two types of filters are included as the R type filter.
[0059]
FIG. 16 is a diagram illustrating an example of the arrangement of these eight types of filters in the
[0060]
As the number of wavelength bands that can be obtained in this way increases, the calculation accuracy when calculating the spectral distribution of light from a subject or the like in a computer or the like can be improved. The number of wavelength bands that can be acquired matches the number of types of filters, but the number of types of filters may be any number as long as it is four or more. In order to obtain a highly accurate spectral distribution, it is necessary to obtain light intensities in four or more wavelength bands.
[0061]
Also, when generating a Bayer image from the sensor output image obtained from the
[0062]
To derive the values of the B pixel and the R pixel of the Bayer image, a filter mask as shown in FIG. 12 may be used. On the other hand, for deriving the value of the G pixel of the Bayer image, for example, a filter mask shown in FIG. 17 can be used. More specifically, for example, the value of the G pixel of the Bayer image at the same position as the G1 pixel of the sensor output image is calculated using the filter mask shown in FIG. 17 for 5 × 5 pixels centered on the G1 pixel of the sensor output image. Is derived by a convolution operation using. That is, the value of the G pixel is obtained by adding the weight α to the value of the G1 pixel. 1 , The values of the four G2 pixels, two G3 pixels, and two G4 pixels in the vicinity are weighted by α. 2 , Α 3 , Α 4 Is obtained by adding the average value of the result of multiplying by. Where the weight α 1 , Α 2 , Α 3 , Α 4 Satisfies the following expression (2).
[0063]
α 1 + Α 2 + Α 3 + Α 4 = 1 ... (2)
These weights α 1 ~ Α 4 Can be determined by the relationship between the spectral transmission characteristics of each of the G1 to G4 filters and the spectral transmission characteristics of a general G filter. That is, α is set so that the weight of a pixel to which a filter whose spectral transmission characteristic approximates to that of the G filter is added becomes larger. 1 ~ Α 4 Is determined. The value of the G pixel of the Bayer image at the same position as each of the G2 pixel, G3 pixel, and G4 pixel is calculated by the weight α of the filter mask shown in FIG. 1 ~ Α 4 May be derived using an appropriately modified one.
[0064]
<1-3-4. Near ultraviolet or near infrared wavelength band>
Although the filters of the above embodiments all transmit light in the visible wavelength band, the light receiving pixels made of silicon have wavelengths from near ultraviolet (about 300 nm) to near infrared (about 1100 nm). Since the light can be subjected to photoelectric conversion, the plurality of types of filters may include a filter that transmits light in a near-ultraviolet or near-infrared wavelength band.
[0065]
FIG. 18 is a diagram illustrating an example of spectral transmission characteristics of four types of filters including a UV filter that transmits light in a near ultraviolet wavelength band. As shown in the figure, the four types of filters include a B filter, a G filter, and an R filter that transmit light in the visible wavelength band, and a UV filter that transmits light in the near ultraviolet wavelength band.
[0066]
FIG. 19 is a diagram illustrating an example of the arrangement of these four types of filters in the
[0067]
From such an
[0068]
FIG. 20 is a diagram illustrating an example of spectral transmission characteristics of four types of filters including an IR filter that transmits light in a near-infrared wavelength band. As shown in the figure, there are four types of filters, a B filter, a G filter, and an R filter that transmit light in the visible wavelength band, and an IR filter that transmits light in the near infrared wavelength band.
[0069]
FIG. 21 is a diagram showing an example of arrangement of these four types of filters in the
[0070]
From such an
[0071]
The near-ultraviolet wavelength band is a wavelength band in which insects and the like have visibility, so that if light intensity in the near-ultraviolet wavelength band is obtained, various analyzes can be performed on subjects such as plants. Also, light in the near-ultraviolet wavelength band is often scattered by the subject, and is therefore suitable for detecting wrinkles and spots on the face. On the other hand, light in the near-infrared wavelength band is less likely to be scattered or absorbed by the subject and easily penetrates the living body. It can be performed.
[0072]
<1-3-5. Reproduction of color matching function>
If there are four types of filters as filters applied to the light receiving pixels of the
[0073]
Therefore, in order to reproduce such a color matching function, as shown in FIG. 23, an R1 filter having a spectral transmission characteristic that matches the characteristic of the positive portion of the curve r of the color matching function, and a curve of the color matching function An R2 filter having a spectral transmission characteristic whose polarity is opposite to the characteristic of the negative part rn of r, a G filter having a spectral transmission characteristic matching the characteristic of the curve g of the color matching function, and a characteristic of a curve b of the color matching function B filters having the same spectral transmission characteristics are set. These four types of filters may be arranged on the
[0074]
The value obtained from the light-receiving pixel with the G filter is the primary color G value, the value obtained from the light-receiving pixel with the B filter is the primary color B value, and the value obtained from the light-receiving pixel with the R1 filter is obtained. The value obtained by subtracting the value obtained by the light receiving pixel provided with the R2 filter from the value is defined as the value of the primary color R. By doing so, the color matching function is substantially reproduced, and the values of the three primary colors corresponding to the values felt by the human eye can be obtained.
[0075]
<1-3-6. Honeycomb arrangement>
Further, the
[0076]
In such a
[0077]
When the types of filters having different wavelength bands of transmitted light are increased, the bandwidth of light transmitted by each filter becomes narrower, so that the sensitivity of a light receiving pixel provided with such a filter may be reduced. There is. When the
[0078]
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, the filter is arranged for each light receiving pixel of the image sensor, but in the present embodiment, the filter is arranged for each unit including a plurality of light receiving pixels. . The configuration of the
[0079]
FIG. 25 is an exploded perspective view illustrating a schematic configuration of the
[0080]
The light-receiving surface composed of a plurality of light-receiving pixels of the
[0081]
That is, one
[0082]
Since the focal length of the microlens is shorter than the focal length of a normal lens, the
[0083]
The wavelength band of the light transmitted by the filter in each unit U corresponds to the color of a pixel in an image obtained in the same unit U. The four
[0084]
With such a configuration, the
[0085]
In the present embodiment, the arrangement of the filters in
[0086]
For example, the four types of filters may include a filter that transmits light in the near ultraviolet or near infrared wavelength band. FIG. 27 is a diagram illustrating an arrangement example of the
[0087]
Further, the four types of filters may include a transparent filter (hereinafter, referred to as “W filter”) that transmits light in all wavelength bands. FIG. 29 is a diagram illustrating an example of the arrangement of the
[0088]
Further, the number of units U is not limited to four, and may be any number as long as it is four or more. FIG. 30 is a diagram illustrating an example of the arrangement of the
[0089]
In addition, as shown in FIG. 31, the visible wavelength band is divided into, for example, 16, and 16 types of filters (F1 to F16 filters) capable of transmitting light in the respective divided wavelength bands are prepared, as shown in FIG. Alternatively, F1 to F16 filters may be arranged in 16 units U, respectively. In the
[0090]
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. Although the configuration of the
[0091]
FIG. 33 is an exploded perspective view illustrating a schematic configuration of the
[0092]
FIG. 34 is a diagram showing a relationship between a plurality of units U and a plurality of light receiving pixels P. The upper part shows the arrangement of the units U (that is, the imaging regions 31) in the
[0093]
In each unit U, an image of a subject composed of horizontal m × vertical n pixels (hereinafter, referred to as “unit image”) is obtained. The unit image is converted into a digital signal by the A /
[0094]
Since there is a parallax between the plurality of
[0095]
Here, the horizontal coordinate of each unit U on the
[0096]
Then, assuming that the horizontal coordinate of each pixel in the rearranged image is x and the vertical coordinate is y, the coordinates at which the pixel (i, j) in the unit image (I, J) is to be arranged in the rearrangement processing. (X, y) is expressed by the following equations (3) and (4).
[0097]
x = M (i-1) + I (3)
y = N (j-1) + J (4)
In the rearrangement process, the coordinates (x, y) obtained by Expressions (3) and (4) are set as target coordinates of each pixel, and all pixels of all unit images are arranged at the respective target coordinates. An arrangement image is generated.
[0098]
In the present embodiment, four types of filters having different wavelength bands of transmitted light are employed as the plurality of
[0099]
FIG. 35 is a diagram showing an example of the arrangement of four types of filters in each unit U (that is, each microlens 21) in the
[0100]
The color of the pixel in each unit image corresponds to the wavelength band of light transmitted by the
[0101]
When the above rearrangement processing is performed on these unit images, the arrangement of the colors corresponding to the pixels in the rearranged image becomes the same as the arrangement of the four types of filters in the
[0102]
In the present embodiment, the number of types of filters may be any number as long as it is four or more, and the filter may transmit any wavelength band. Good. Therefore, as the arrangement of the filters in the
[0103]
◎ Note that the specific embodiments described above include inventions having the following configurations.
[0104]
(1) In the imaging device according to
Each of the plurality of filters is a first type filter that transmits light in a green wavelength band, a second type filter that transmits light in a wavelength band shorter than the first type filter, and longer than the first type filter. Divided into any of the third type filters that transmit light in the wavelength band,
The first type filter is disposed with respect to the microlenses corresponding to one area of a checkered pattern in the array of the plurality of microlenses,
The imaging apparatus according to
[0105]
According to this, since the human eye has high sensitivity to light in the green wavelength band, the first type filter that transmits light in the green wavelength band is arranged in one of the checkered areas, and By increasing the number of arrangements compared to the third type filter, it is possible to enhance the resolution of the acquired image.
[0106]
(2) In the imaging device according to
The second type filter includes a filter that transmits a near ultraviolet wavelength band.
[0107]
According to this, since the intensity of light in the near ultraviolet wavelength band can be obtained, various analyzes can be performed on the subject.
[0108]
(3) In the imaging device according to
The third type filter includes a filter that transmits a near-infrared wavelength band.
[0109]
According to this, since the intensity of light in the near-infrared wavelength band can be obtained, various analyzes can be performed on the subject.
[0110]
(4) In the imaging device according to
The imaging apparatus according to
[0111]
According to this, since the intensity of light in the near ultraviolet or near infrared wavelength band can be obtained, various analyzes can be performed on the subject.
[0112]
【The invention's effect】
As described above, according to the first aspect of the invention, it is possible to obtain light intensities of four or more wavelength bands by one exposure. In addition, since the human eye has high sensitivity to light in the green wavelength band, the first type filter that transmits light in the green wavelength band is arranged in one of the checkered areas, and the second and third types of filters are arranged. By increasing the number of arrangements compared to the filters, it is possible to enhance the resolution of the acquired image.
[0113]
According to the second aspect of the present invention, a value of a pixel corresponding to one primary color is derived for each of three groups corresponding to three primary colors, so that a plurality of pixels corresponding to any one of four or more types of colors are provided. Can be used for display on a general color display device and printing on a color printing device.
[0114]
According to the third aspect of the present invention, a third image composed of four or more second images is generated by compressing a third image composed of three second images to generate one compressed image. The data amount of the compressed image can be reduced as compared with the case where one compressed image is generated by compression.
[0115]
According to the fourth aspect of the present invention, the intensity of light in four or more wavelength bands from the same point from the subject can be obtained by one exposure. Further, the size of the imaging device can be reduced.
[0116]
According to the fifth aspect of the present invention, it is possible to obtain light intensities of four or more wavelength bands by one exposure. Further, the size of the imaging device can be reduced.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an imaging sensor in which a filter array is a Bayer array.
FIG. 2 is a diagram illustrating a basic configuration of an imaging device.
FIG. 3 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 4 is a diagram illustrating an example of an arrangement of filters.
FIG. 5 is a diagram illustrating a method of generating a normal image from a sensor output image.
FIG. 6 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 7 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 8 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 9 is a diagram illustrating a method of generating three color component images from a sensor output image.
FIG. 10 is a diagram illustrating an example of an arrangement of filters.
FIG. 11 is a diagram illustrating an example of an arrangement of filters.
FIG. 12 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 13 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 14 is a diagram illustrating an example of an arrangement of filters.
FIG. 15 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 16 is a diagram illustrating an example of an arrangement of filters.
FIG. 17 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 18 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 19 is a diagram illustrating an example of an arrangement of filters.
FIG. 20 is a diagram illustrating an example of spectral transmission characteristics of a filter.
FIG. 21 is a diagram illustrating an example of an arrangement of filters.
FIG. 22 is a diagram illustrating a color matching function.
FIG. 23 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 24 is a diagram illustrating an example of an arrangement of a filter with respect to a honeycomb sensor.
FIG. 25 is a diagram illustrating a schematic configuration of an imaging unit according to the second embodiment.
FIG. 26 is a diagram illustrating an example of the arrangement of filters in a filter array.
FIG. 27 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 28 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 29 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 30 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 31 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 32 is a diagram showing an example of the arrangement of filters in a filter array.
FIG. 33 is a diagram illustrating a schematic configuration of an imaging unit according to a third embodiment.
FIG. 34 is a diagram showing a relationship between a plurality of units and a plurality of light receiving pixels.
FIG. 35 is a diagram illustrating an example of the arrangement of filters in a filter array.
[Explanation of symbols]
1 Imaging device
2 lens
3 Image sensor
20 micro lens array
30 Image sensor
60 filter array
70 Partition
U unit
P light receiving pixel
Claims (5)
緑色波長帯の光を透過する第1タイプフィルタ、前記第1タイプフィルタよりも短い波長帯の光を透過する第2タイプフィルタ、および、前記第1タイプフィルタよりも長い波長帯の光を透過する第3タイプフィルタのいずれかがそれぞれ付された複数の受光画素を2次元に配列して有する撮像センサ、
を備え、
前記第1タイプフィルタは、前記複数の受光画素の配列における市松模様の一方の領域に対応する前記受光画素に付され、
前記第2および第3タイプフィルタは、前記市松模様の他方の領域に対応する前記受光画素にそれぞれ均等に付され、
前記第1ないし第3タイプフィルタのうちの少なくとも1つは、透過する光の波長帯が異なる2以上の種類のフィルタを含むことを特徴とする撮像装置。An imaging device,
A first type filter transmitting light in a green wavelength band, a second type filter transmitting light in a wavelength band shorter than the first type filter, and transmitting light in a wavelength band longer than the first type filter. An image sensor having a plurality of light receiving pixels to which any of the third type filters are respectively arranged in a two-dimensional array;
With
The first type filter is attached to the light receiving pixels corresponding to one area of a checkered pattern in the array of the plurality of light receiving pixels,
The second and third type filters are equally applied to the light receiving pixels corresponding to the other area of the checkered pattern, respectively.
At least one of the first to third type filters includes two or more types of filters having different wavelength bands of transmitted light.
前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する画像を出力し、
前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、
前記グループごとに、該グループに含まれる色に対応する画素の値から、1原色に対応する画素の値を導出する導出手段、
をさらに備えることを特徴とする撮像装置。The imaging device according to claim 1,
The image sensor outputs an image having a plurality of pixels respectively corresponding to any of four or more colors,
Each of the four or more colors is classified into one of three groups corresponding to three primary colors.
Deriving means for deriving, for each group, a value of a pixel corresponding to one primary color from a value of a pixel corresponding to a color included in the group;
An imaging device, further comprising:
前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する第1画像を出力し、
前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、
前記グループごとに、該グループに含まれる色に対応する画素の値から、1の第2画像を生成する生成手段と、
生成される3つの前記第2画像で構成される第3画像を圧縮して1の圧縮画像を生成する圧縮手段と、
をさらに備えることを特徴とする撮像装置。The imaging device according to claim 1,
The image sensor outputs a first image having a plurality of pixels corresponding to any of four or more colors,
Each of the four or more colors is classified into one of three groups corresponding to three primary colors.
Generating means for generating, for each group, one second image from values of pixels corresponding to colors included in the group;
Compression means for compressing a third image composed of the three generated second images to generate one compressed image;
An imaging device, further comprising:
複数の受光画素からなる4以上の所定数の結像領域を平面的に配列して有する撮像センサと、
前記所定数の結像領域上に被写体の光像をそれぞれ結像する前記所定数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、
前記所定数のマイクロレンズにそれぞれ対応する前記所定数のフィルタを平面的に配列して有するフィルタアレイと、
を備え、
前記所定数のフィルタは、透過する光の波長帯が互いに異なることを特徴とする撮像装置。An imaging device,
An image sensor having a predetermined number of four or more image forming regions composed of a plurality of light receiving pixels arranged in a plane,
A microlens array having the predetermined number of microlenses for forming a light image of a subject on the predetermined number of image formation areas in a plane array,
A filter array having the predetermined number of filters respectively corresponding to the predetermined number of microlenses arranged in a plane,
With
The imaging apparatus according to claim 1, wherein the predetermined number of filters have different wavelength bands of transmitted light.
複数の受光画素からなる複数の結像領域を平面的に配列して有する撮像センサと、
前記複数の結像領域上に被写体の光像をそれぞれ結像する複数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、
前記複数のマイクロレンズにそれぞれ対応する複数のフィルタを平面的に配列して有するフィルタアレイと、
前記複数の結像領域のそれぞれにて得られる被写体の画像に含まれる画素を、再配置することで1の再配置画像を生成する再配置手段と、
を備え、
前記複数のフィルタは、透過する光の波長帯が異なる4以上の種類があることを特徴とする撮像装置。An imaging device,
An imaging sensor having a plurality of imaging regions consisting of a plurality of light receiving pixels arranged in a plane,
A microlens array having a plurality of microlenses that respectively form a plurality of microlenses for forming light images of a subject on the plurality of imaging regions,
A filter array having a plurality of filters respectively corresponding to the plurality of microlenses arranged in a plane,
A rearrangement unit configured to rearrange pixels included in an image of a subject obtained in each of the plurality of imaging regions to generate one rearranged image;
With
The image pickup apparatus, wherein the plurality of filters include four or more types having different wavelength bands of transmitted light.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003011014A JP2004228662A (en) | 2003-01-20 | 2003-01-20 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003011014A JP2004228662A (en) | 2003-01-20 | 2003-01-20 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004228662A true JP2004228662A (en) | 2004-08-12 |
Family
ID=32900043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003011014A Pending JP2004228662A (en) | 2003-01-20 | 2003-01-20 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004228662A (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005046248A1 (en) * | 2003-11-11 | 2005-05-19 | Olympus Corporation | Multi-spectrum image pick up device |
JP2006311524A (en) * | 2005-03-30 | 2006-11-09 | Pentax Corp | Imaging device |
JP2007103401A (en) * | 2005-09-30 | 2007-04-19 | Matsushita Electric Ind Co Ltd | Imaging apparatus and image processing apparatus |
WO2007119468A1 (en) * | 2006-03-22 | 2007-10-25 | Matsushita Electric Industrial Co., Ltd. | Imaging device |
JP2008085659A (en) * | 2006-09-27 | 2008-04-10 | Pentax Corp | Digital camera |
JP2008518229A (en) * | 2004-10-25 | 2008-05-29 | アールピー ベンチャーズ テクノロジー オフィス アーベー | Multispectral and hyperspectral imaging systems |
JP2008136251A (en) * | 2003-11-11 | 2008-06-12 | Olympus Corp | Multispectral image capturing apparatus |
JPWO2006064564A1 (en) * | 2004-12-16 | 2008-06-12 | 富士通株式会社 | Imaging apparatus, imaging device, and image processing method |
EP2136550A2 (en) * | 2008-06-18 | 2009-12-23 | Ricoh Company, Ltd. | Image pickup |
JP2010062604A (en) * | 2008-09-01 | 2010-03-18 | Rohm Co Ltd | Imaging sensor |
JP2010078970A (en) * | 2008-09-26 | 2010-04-08 | Toppan Printing Co Ltd | Color filter, its manufacturing method, and solid imaging element having the color filter |
JP2010531540A (en) * | 2007-06-18 | 2010-09-24 | シリコンファイル・テクノロジーズ・インコーポレイテッド | A pixel array having a wide dynamic range and good color reproducibility and resolution, and an image sensor using the pixel array |
JP2010212969A (en) * | 2009-03-10 | 2010-09-24 | Canon Inc | Color image sensor |
WO2010122797A1 (en) * | 2009-04-22 | 2010-10-28 | パナソニック株式会社 | Solid-stage imaging element |
JP2010273040A (en) * | 2009-05-20 | 2010-12-02 | Canon Inc | Image input device, image processing method, and computer program |
US7864235B2 (en) | 2005-03-30 | 2011-01-04 | Hoya Corporation | Imaging device and imaging method including generation of primary color signals |
US8134191B2 (en) | 2006-01-24 | 2012-03-13 | Panasonic Corporation | Solid-state imaging device, signal processing method, and camera |
JP2013066168A (en) * | 2011-08-26 | 2013-04-11 | Panasonic Corp | Imaging element and imaging apparatus |
WO2013190938A1 (en) * | 2012-06-21 | 2013-12-27 | オリンパス株式会社 | Image capturing module and image capturing device |
US8629916B2 (en) | 2008-08-19 | 2014-01-14 | Rohm Co., Ltd. | Camera with imaging unit and imaging unit for camera |
JP2014533463A (en) * | 2011-11-04 | 2014-12-11 | アイメックImec | A spectral camera with overlapping segments of image copies interleaved on a sensor array |
JP2015019378A (en) * | 2005-03-07 | 2015-01-29 | ディーエックスオー ラブズ | Sensor for digital image capturing device and digital image capturing device |
WO2016031922A1 (en) * | 2014-08-28 | 2016-03-03 | 平本 政夫 | Multispectral camera |
US9609252B2 (en) | 2011-08-25 | 2017-03-28 | Sony Corporation | Image sensor, imaging apparatus and live body imaging apparatus |
US9638575B2 (en) | 2013-06-19 | 2017-05-02 | Ricoh Company, Ltd. | Measuring apparatus, measuring system, and measuring method |
JP2019015565A (en) * | 2017-07-05 | 2019-01-31 | パイオニア株式会社 | Spectroscopic image acquisition device |
JP2019023646A (en) * | 2012-10-19 | 2019-02-14 | ハイパーメツド・イメージング・インコーポレイテツド | Single-sensor hyperspectral imaging device |
JP2019097058A (en) * | 2017-11-24 | 2019-06-20 | ブリルニクス インク | Solid-state imaging apparatus, manufacturing method of solid-state imaging apparatus, and electronic apparatus |
EP3993399A1 (en) * | 2020-11-02 | 2022-05-04 | Beijing Xiaomi Mobile Software Co., Ltd. | Color filter structure, related photographing method, device, terminal, and storage medium |
EP4222949A1 (en) * | 2021-04-12 | 2023-08-09 | Viavi Solutions Inc. | Optical filter for an optical sensor device |
DE102006038814B4 (en) | 2005-08-18 | 2025-07-17 | Hoya Corp. | Electronic endoscope, endoscope light source unit, endoscope processor and electronic endoscope system |
-
2003
- 2003-01-20 JP JP2003011014A patent/JP2004228662A/en active Pending
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7868936B2 (en) | 2003-11-11 | 2011-01-11 | Olympus Corporation | Multispectral image capturing apparatus |
WO2005046248A1 (en) * | 2003-11-11 | 2005-05-19 | Olympus Corporation | Multi-spectrum image pick up device |
US8134618B2 (en) | 2003-11-11 | 2012-03-13 | Olympus Corporation | Multispectral image capturing apparatus |
JP2008136251A (en) * | 2003-11-11 | 2008-06-12 | Olympus Corp | Multispectral image capturing apparatus |
US7612822B2 (en) | 2003-11-11 | 2009-11-03 | Olympus Corporation | Multispectral image capturing apparatus |
JP2008518229A (en) * | 2004-10-25 | 2008-05-29 | アールピー ベンチャーズ テクノロジー オフィス アーベー | Multispectral and hyperspectral imaging systems |
JP4536072B2 (en) * | 2004-12-16 | 2010-09-01 | 富士通セミコンダクター株式会社 | Imaging device |
JPWO2006064564A1 (en) * | 2004-12-16 | 2008-06-12 | 富士通株式会社 | Imaging apparatus, imaging device, and image processing method |
JP2015019378A (en) * | 2005-03-07 | 2015-01-29 | ディーエックスオー ラブズ | Sensor for digital image capturing device and digital image capturing device |
US7864235B2 (en) | 2005-03-30 | 2011-01-04 | Hoya Corporation | Imaging device and imaging method including generation of primary color signals |
JP2006311524A (en) * | 2005-03-30 | 2006-11-09 | Pentax Corp | Imaging device |
DE102006038814B4 (en) | 2005-08-18 | 2025-07-17 | Hoya Corp. | Electronic endoscope, endoscope light source unit, endoscope processor and electronic endoscope system |
JP2007103401A (en) * | 2005-09-30 | 2007-04-19 | Matsushita Electric Ind Co Ltd | Imaging apparatus and image processing apparatus |
US8134191B2 (en) | 2006-01-24 | 2012-03-13 | Panasonic Corporation | Solid-state imaging device, signal processing method, and camera |
CN101834988B (en) * | 2006-03-22 | 2012-10-17 | 松下电器产业株式会社 | camera device |
WO2007119468A1 (en) * | 2006-03-22 | 2007-10-25 | Matsushita Electric Industrial Co., Ltd. | Imaging device |
US8471918B2 (en) | 2006-03-22 | 2013-06-25 | Panasonic Corporation | Imaging device with plural imaging regions and parallax computing portion |
US7880773B2 (en) | 2006-09-27 | 2011-02-01 | Hoya Corporation | Imaging device |
JP2008085659A (en) * | 2006-09-27 | 2008-04-10 | Pentax Corp | Digital camera |
US8854514B1 (en) * | 2007-06-18 | 2014-10-07 | Siliconfile Technologies Inc. | Pixel array having wide dynamic range and good color reproduction and resolution and image sensor using the pixel array |
US20140293099A1 (en) * | 2007-06-18 | 2014-10-02 | Siliconfile Technologies Inc. | Pixel array having wide dynamic range and good color reproduction and resolution and image sensor using the pixel array |
US8792029B2 (en) | 2007-06-18 | 2014-07-29 | Siliconfile Technologies Inc. | Pixel array having wide dynamic range and good color reproduction and resolution and image sensor using the pixel array |
EP2156659A4 (en) * | 2007-06-18 | 2013-10-30 | Siliconfile Technologies Inc | PIXÉLISÉ MATRIX HAVING A WIDE DYNAMIC RANGE AND A GOOD REPRODUCTION AND COLOR RESOLUTION AND IMAGE SENSOR USING THE PIXÉLISÉE MATRIX |
JP2010531540A (en) * | 2007-06-18 | 2010-09-24 | シリコンファイル・テクノロジーズ・インコーポレイテッド | A pixel array having a wide dynamic range and good color reproducibility and resolution, and an image sensor using the pixel array |
EP2136550A2 (en) * | 2008-06-18 | 2009-12-23 | Ricoh Company, Ltd. | Image pickup |
US8629916B2 (en) | 2008-08-19 | 2014-01-14 | Rohm Co., Ltd. | Camera with imaging unit and imaging unit for camera |
JP2010062604A (en) * | 2008-09-01 | 2010-03-18 | Rohm Co Ltd | Imaging sensor |
JP2010078970A (en) * | 2008-09-26 | 2010-04-08 | Toppan Printing Co Ltd | Color filter, its manufacturing method, and solid imaging element having the color filter |
JP2010212969A (en) * | 2009-03-10 | 2010-09-24 | Canon Inc | Color image sensor |
WO2010122797A1 (en) * | 2009-04-22 | 2010-10-28 | パナソニック株式会社 | Solid-stage imaging element |
JP2010273040A (en) * | 2009-05-20 | 2010-12-02 | Canon Inc | Image input device, image processing method, and computer program |
US9609252B2 (en) | 2011-08-25 | 2017-03-28 | Sony Corporation | Image sensor, imaging apparatus and live body imaging apparatus |
JP2013066168A (en) * | 2011-08-26 | 2013-04-11 | Panasonic Corp | Imaging element and imaging apparatus |
JP2014533463A (en) * | 2011-11-04 | 2014-12-11 | アイメックImec | A spectral camera with overlapping segments of image copies interleaved on a sensor array |
US11092725B2 (en) | 2012-06-05 | 2021-08-17 | Samsung Electronics Co., Ltd. | Single-sensor hyperspectral imaging device |
US11493675B2 (en) | 2012-06-05 | 2022-11-08 | Samsung Electronics Co., Ltd. | Single-sensor hyperspectral imaging device |
US10534116B2 (en) | 2012-06-05 | 2020-01-14 | Hypermed Imaging, Inc. | Single-sensor hyperspectral imaging device |
US9494768B2 (en) | 2012-06-21 | 2016-11-15 | Olympus Corporation | Image capturing module and image capturing apparatus |
JP2014006079A (en) * | 2012-06-21 | 2014-01-16 | Olympus Corp | Imaging module and imaging device |
WO2013190938A1 (en) * | 2012-06-21 | 2013-12-27 | オリンパス株式会社 | Image capturing module and image capturing device |
JP2019023646A (en) * | 2012-10-19 | 2019-02-14 | ハイパーメツド・イメージング・インコーポレイテツド | Single-sensor hyperspectral imaging device |
JP2020115640A (en) * | 2012-10-19 | 2020-07-30 | ハイパーメツド・イメージング・インコーポレイテツド | Single-sensor hyperspectral imaging device |
JP7000479B2 (en) | 2012-10-19 | 2022-01-19 | サムスン エレクトロニクス カンパニー リミテッド | Single sensor hyperspectral imaging device |
US9638575B2 (en) | 2013-06-19 | 2017-05-02 | Ricoh Company, Ltd. | Measuring apparatus, measuring system, and measuring method |
WO2016031922A1 (en) * | 2014-08-28 | 2016-03-03 | 平本 政夫 | Multispectral camera |
JPWO2016031922A1 (en) * | 2014-08-28 | 2017-06-15 | 平本 政夫 | Multispectral camera |
JP2019015565A (en) * | 2017-07-05 | 2019-01-31 | パイオニア株式会社 | Spectroscopic image acquisition device |
JP2019097058A (en) * | 2017-11-24 | 2019-06-20 | ブリルニクス インク | Solid-state imaging apparatus, manufacturing method of solid-state imaging apparatus, and electronic apparatus |
CN114449137A (en) * | 2020-11-02 | 2022-05-06 | 北京小米移动软件有限公司 | Optical filter structure, shooting method, device, terminal and storage medium |
EP3993399A1 (en) * | 2020-11-02 | 2022-05-04 | Beijing Xiaomi Mobile Software Co., Ltd. | Color filter structure, related photographing method, device, terminal, and storage medium |
US12196990B2 (en) | 2020-11-02 | 2025-01-14 | Beijing Xiaomi Mobile Software Co., Ltd. | Color filter structure, related photographing method, device, terminal, and storage medium |
EP4222949A1 (en) * | 2021-04-12 | 2023-08-09 | Viavi Solutions Inc. | Optical filter for an optical sensor device |
US12092522B2 (en) | 2021-04-12 | 2024-09-17 | Viavi Solutions Inc. | Optical filter for an optical sensor device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004228662A (en) | Imaging device | |
US5889554A (en) | Process and system for generating a full color image of multispectral image from the image data of a CCD image sensor with a mosaic color filter | |
US8576313B2 (en) | Color filters and demosaicing techniques for digital imaging | |
Lyon et al. | Eyeing the camera: Into the next century | |
US7400332B2 (en) | Hexagonal color pixel structure with white pixels | |
US20180270462A1 (en) | Imaging processing device and imaging processing method | |
US7745779B2 (en) | Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers | |
TWI444050B (en) | Method and apparatus for achieving full color reaction from color mosaic imager | |
JP6582987B2 (en) | Video imaging device, video imaging method, code-type infrared cut filter, and code-type specific color cut filter | |
KR101639382B1 (en) | Apparatus and method for generating HDR image | |
US20030160881A1 (en) | Four color image sensing apparatus | |
CN101309429A (en) | Device and method for processing video signal, imaging device and computer program | |
WO2017193738A1 (en) | Image sensor, imaging method, and imaging device | |
US20070153099A1 (en) | Image signal processing apparatus, imaging apparatus, image signal processing method and computer program thereof | |
WO2012057622A1 (en) | System and method for imaging using multi aperture camera | |
JP2009511960A (en) | System and method for high performance color filter mosaic array | |
JP2013546249A5 (en) | ||
JP5698875B2 (en) | Color imaging device and imaging apparatus | |
US7864235B2 (en) | Imaging device and imaging method including generation of primary color signals | |
CN209345244U (en) | Imaging Systems and Camera Modules | |
JP2015053578A (en) | Color image pickup device and color image pickup method | |
WO2013164902A1 (en) | Solid-state imaging device | |
JP2004200357A (en) | Color imaging device, color filter array, and color imaging device | |
JP4344257B2 (en) | Imaging apparatus and color separation optical system | |
JP2012010141A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050613 |