[go: up one dir, main page]

JP2004228662A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2004228662A
JP2004228662A JP2003011014A JP2003011014A JP2004228662A JP 2004228662 A JP2004228662 A JP 2004228662A JP 2003011014 A JP2003011014 A JP 2003011014A JP 2003011014 A JP2003011014 A JP 2003011014A JP 2004228662 A JP2004228662 A JP 2004228662A
Authority
JP
Japan
Prior art keywords
filter
image
light
filters
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003011014A
Other languages
Japanese (ja)
Inventor
Shinya Matsuda
伸也 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003011014A priority Critical patent/JP2004228662A/en
Publication of JP2004228662A publication Critical patent/JP2004228662A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique by which the intensity of the light of not less than four wavelength bands can be obtained by one exposure. <P>SOLUTION: An image pickup sensor 3 is provided with a plurality of light-receiving elements P which are two-dimensionally arranged, and a filter for transmitting the light of a specific wavelength band is attached on each of the light-receiving elements P. This filter includes four kinds of filters i.e. a B filter for transmitting the light of a blue wavelength band, a G1 filter for transmitting the light of a green wavelength band being comparatively short, G2 filter for transmitting the light of a green wavelength band being comparatively long, and an R filter for transmitting the light of a red wavelength band. In this way, the intensity of lights of four wavelength bands can be obtained by one exposure. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、複数の波長帯の光の強度を取得する技術に関する。
【0002】
【従来の技術】
一般に、デジタルスチルカメラ、デジタルビデオカメラなどの撮像装置では、3原色にそれぞれ対応する3つの波長帯に係る被写体からの反射光の強度を得る撮像センサを備えることで、被写体のカラー情報を得るようにしている。図1は、従来の一般的な撮像センサ300を示す図である。撮像センサ300は、2次元に配列された複数の受光画素Pを有しており、受光画素Pにはそれぞれ3原色に対応する波長帯の光を透過するフィルタのいずれかが付されている。図に示すように、緑色波長帯の光を透過するGフィルタは市松状(市松模様の一方の領域)に配置され、青色波長帯の光を透過するBフィルタおよび赤色波長帯の光を透過するRフィルタは残りの領域(市松模様の他方の領域)に均等に配置される。このRGBの配列は「ベイヤー配列」と呼ばれている。このような撮像センサを採用することにより、撮像装置は3つの波長帯の光の強度(3原色)を被写体のカラー情報として得ることができる(例えば、特許文献1参照。)。
【0003】
その一方で、従来より、条件等色(メタメリズム)の問題を解決するためや、物体の成分の解析等を行うために、撮像装置で得られる画像から被写体の分光反射率を求める試みがなされている。被写体の分光反射率は、被写体からの反射光の離散的なカラー情報から反射光の分光分布を求め、さらに、反射光の分光分布から照明光の分光分布を取り除くことなどで求めることができる。反射光の離散的なカラー情報から分光分布を求める手法としては、スプライン補間処理、主成分分析による推定、Winner推定などが知られている。
【0004】
しかしながら、一般の撮像装置で得られる3つの波長帯の光の強度のみでは、反射光の分光分布を高精度に得ることはできない。このため、4以上の波長帯の光の強度を取得可能な撮像装置であるマルチバンドカメラが提案されている。従来より提案されているマルチバンドカメラの方式としては、以下のものがある。
【0005】
1.分光透過特性の異なる4以上フィルタを円盤状に配置し、これらのフィルタを入射光の行路中に順次に配置して撮像を行うカラーホイール式。
【0006】
2.干渉計や液晶の偏光現象により特定の波長帯のみを透過する光学素子を用いて、透過する波長帯を順次変化させて撮像を行うチューナブルフィルタ式。
【0007】
3.入射光を回折により波長帯ごとに分解し、走査により二次元の撮影を行うグレーティング式。
【0008】
その他、この出願に関連する先行技術文献情報として特許文献2がある。
【0009】
【特許文献1】
米国特許第3971065号明細書
【特許文献2】
特開2001−61109号公報
【0010】
【発明が解決しようとする課題】
しかしながら、従来から提案されたマルチバンドカメラは、波長帯の切り替えや走査が必要なため、いずれも1度の露光では目的とする全ての波長帯の光の強度を得ることができず、撮影に時間がかかり、比較的高速に移動する物体などを被写体にすることができないという問題があった。
【0011】
本発明は、上記課題に鑑みてなされたものであり、1度の露光によって4以上の波長帯の光の強度を得ることができる技術を提供することを目的とする。
【0012】
【課題を解決するための手段】
上記課題を解決するため、請求項1の発明は、撮像装置であって、緑色波長帯の光を透過する第1タイプフィルタ、前記第1タイプフィルタよりも短い波長帯の光を透過する第2タイプフィルタ、および、前記第1タイプフィルタよりも長い波長帯の光を透過する第3タイプフィルタのいずれかがそれぞれ付された複数の受光画素を2次元に配列して有する撮像センサ、を備え、前記第1タイプフィルタは、前記複数の受光画素の配列における市松模様の一方の領域に対応する前記受光画素に付され、前記第2および第3タイプフィルタは、前記市松模様の他方の領域に対応する前記受光画素にそれぞれ均等に付され、前記第1ないし第3タイプフィルタのうちの少なくとも1つは、透過する光の波長帯が異なる2以上の種類のフィルタを含むことを特徴とする。
【0013】
また、請求項2の発明は、請求項1に記載の撮像装置において、前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する画像を出力し、前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、前記グループごとに、該グループに含まれる色に対応する画素の値から、1原色に対応する画素の値を導出する導出手段、をさらに備えている。
【0014】
また、請求項3の発明は、請求項1に記載の撮像装置において、前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する第1画像を出力し、前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、前記グループごとに、該グループに含まれる色に対応する画素の値から、1の第2画像を生成する生成手段と、生成される3つの前記第2画像で構成される第3画像を圧縮して1の圧縮画像を生成する圧縮手段と、をさらに備えている。
【0015】
また、請求項4の発明は、撮像装置であって、複数の受光画素からなる4以上の所定数の結像領域を平面的に配列して有する撮像センサと、前記所定数の結像領域上に被写体の光像をそれぞれ結像する前記所定数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、前記所定数のマイクロレンズにそれぞれ対応する前記所定数のフィルタを平面的に配列して有するフィルタアレイと、を備え、前記所定数のフィルタは、透過する光の波長帯が互いに異なることを特徴とする。
【0016】
また、請求項5の発明は、撮像装置であって、複数の受光画素からなる複数の結像領域を平面的に配列して有する撮像センサと、前記複数の結像領域上に被写体の光像をそれぞれ結像する複数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、前記複数のマイクロレンズにそれぞれ対応する複数のフィルタを平面的に配列して有するフィルタアレイと、前記複数の結像領域のそれぞれにて得られる被写体の画像に含まれる画素を、再配置することで1の再配置画像を生成する再配置手段と、を備え、前記複数のフィルタは、透過する光の波長帯が異なる4以上の種類があることを特徴とする。
【0017】
【発明の実施の形態】
以下、図面を参照しつつ本発明の実施の形態について説明する。
【0018】
<1.第1の実施の形態>
<1−1.構成>
図2は、本発明の実施の形態に係る撮像装置の基本的な構成を示す図である。この撮像装置1は、例えば、デジタルスチルカメラ、デジタルビデオカメラ、または、測色計として構成される。どのような装置として構成される場合であっても撮像装置1の基本的な構成は同様である。すなわち、撮像装置1は主として、撮像部40、A/D変換器41、画像処理部42、全体制御部50、カードスロット43、操作入力部44およびデータ出力端子45を備えている。
【0019】
撮像部40は、レンズ2と、該レンズ2によって結像される被写体の光像を光電変換して画像信号(以下、単に「画像」という。)を出力する撮像センサ3とを備えている。撮像センサ3から出力された画像は、A/D変換器41においてデジタル信号とされ、必要に応じて画像処理部42において所定の処理が施される。このようにして得られた画像は、カードスロット43に装着されるメモリカード91に記録されたり、データ出力端子45を介して接続される外部装置92に送信される。
【0020】
操作入力部44は、撮像開始の指示などの各種コマンドをユーザから受け付けるための操作部材を示している。撮像装置1は、操作入力部44の操作に応答して所定の動作を行う。
【0021】
全体制御部50は、上述した撮像装置1の各部を統括制御する制御機能や、各種データ処理を行うデータ処理機能を有し、マイクロコンピュータを備えて構成される。具体的には、全体制御部50は、その本体部であるCPU51、制御プログラムなどを記憶するROM52、および、作業領域となるRAM53などを備えている。全体制御部50の各種の機能は、ROM52に記憶された制御プログラムをCPU51が実行することにより実現される。
【0022】
撮像部40が備える撮像センサ3は、それぞれ特定の波長帯の光を通過するフィルタ(カラーフィルタ)が付された複数の受光画素を二次元に配列して備えている。受光画素はそれぞれ、自身に付されたフィルタを透過した光を光電変換し、その強度に応じた信号電荷を出力する。本実施の形態では、このフィルタとして、透過する光の波長帯が異なる4種類のものがある。これにより、撮像装置1は4つの波長帯の光の強度を取得可能なマルチバンドカメラとなっている。
【0023】
図3は、受光画素に付される4種類のフィルタの分光透過特性の例を示す図である。4種類のフィルタは、それぞれ可視波長帯(約380〜約780nm)の光を透過する分光透過特性を有している。図に示すように、4種類のフィルタには、透過する波長帯が短いものからBフィルタ、G1フィルタ、G2フィルタおよびRフィルタがある。Bフィルタは青色波長帯の光を透過し、G1フィルタは緑色波長帯のうち比較的短い波長帯の光を透過し、G2フィルタは緑色波長帯のうち比較的長い波長帯の光を透過し、Rフィルタは赤色波長帯の光を透過する。つまり、本実施の形態では、緑色波長帯の光を透過するタイプのフィルタ(以下、「Gタイプフィルタ」という。)として、G1フィルタおよびG2フィルタの2種類のフィルタが含まれている。G1フィルタおよびG2フィルタの分光透過特性線のピークはそれぞれ、例えば、BフィルタおよびRフィルタの分光透過特性線のピーク間を3等分した位置に配置される。なお、以下、Rフィルタが透過する光の色をR、G1フィルタが透過する光の色をG1、G2フィルタが透過する光の色をG2、Bフィルタが透過する光の色をBとする。また、緑色波長帯の光を透過する一般的なGフィルタが透過する光の色をGとする。ここで、R,G,Bは光の3原色である。
【0024】
図4は、これらの4種類のフィルタの撮像センサ3における配置例を示す図である。図4に示すように、Gタイプフィルタ(G1フィルタおよびG2フィルタ)は、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付されている。そして、G1フィルタとG2フィルタとは、垂直方向に対して交互に配置される。一方、BフィルタおよびRフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに付される。そして、BフィルタとRフィルタとは、垂直方向に対して交互に配置される。つまり、G1フィルタおよびG2フィルタはベイヤー配列(図1参照。)のGフィルタの位置に均等に配置され、BフィルタおよびRフィルタはベイヤー配列と同様の位置に配置される。これにより、4種類のフィルタはそれぞれ撮像センサ3の受光面全体において均等に配置される。
【0025】
これらの4種類のフィルタは、シリコンなどで構成される受光画素上に、フォトリソグラフィ技術を用いた染色層(ゼラチンなどの樹脂膜)の選択的な形成を4回繰り返すことにより形成される。各フィルタの分光透過特性は、染色層を染色する色素と、染色層の膜厚とによって調整される。なお、フィルタの分光透過特性は図3に示すものには限定されず、撮像装置1の目的に応じた特性にしてもよい。例えば、撮像装置1が、蛍光灯などの輝線スペクトルを有する光を放射する(あるいは反射する)物体を撮像対象とするものであれば、撮像センサ3の一のフィルタはその輝線スペクトルを主として透過する分光透過特性を有するようにしてもよい。また、このように特定の目的に使用される撮像装置1の場合は、使用される環境や経年による特性の変化を考慮して、フィルタの分光透過特性を調整することが好ましい。
【0026】
撮像センサ3の各受光画素から出力される信号は、その信号が出力された受光画素に付されたフィルタの種類に応じて、図3に示す4つの波長帯のいずれかの光の強度を示すこととなる。したがって、撮像装置1は1度の露光によって4つの波長帯の光の強度を得ることができることとなる。
【0027】
<1−2.画像処理>
撮像センサ3の各受光画素から出力される信号は、撮像センサ3から出力される画像(以下、「センサ出力画像」という。)中の各画素の値となる。したがって、センサ出力画像に含まれる各画素の値は、4つの波長帯のいずれかの光の強度、すなわち、B,G1,G2,Rのいずれかの色に対応する値を示すこととなる。これにより、センサ出力画像は4種の色の値を有する状態となる。センサ出力画像中において各画素が対応する色の配列は、図4に示すフィルタの配列と同様となる。
【0028】
センサ出力画像は、出力先における用途に応じて適切な処理を施すことが好ましい。このため、本実施の形態の撮像装置1では、画像処理部42において、センサ出力画像の出力先に応じた画像処理が、センサ出力画像に対してなされる。以下、画像処理部42の処理内容について説明する。なお以下の説明においては、画像中においてRに対応する画素をR画素、Bに対応する画素をB画素、Gに対応する画素をG画素、G1に対応する画素をG1画素、G2に対応する画素をG2画素とそれぞれ称する。
【0029】
<1−2−1.演算>
まず、外部装置92としてコンピュータが接続され、このコンピュータにおいて被写体からの光の分光分布などを求めるための演算にセンサ出力画像を用いる場合について説明する。この場合は、センサ出力画像はA/D変換器41においてデジタル信号とされた後、画像処理部42において画像処理を行わずに、そのままデータ出力端子45を介して外部装置92であるコンピュータに出力される。このように画像処理を行わずにセンサ出力画像を出力することで、画像処理によるデータの劣化のない4つの波長帯の光の強度(4種の色)を含む画像を出力することができる。そして、このような4つの波長帯の光の強度を含む画像を用いることで、コンピュータにおいて被写体からの光の分光分布などを演算する際の演算精度を向上することができる。
【0030】
<1−2−2.表示>
次に、外部装置92としてカラー表示装置が接続され、このカラー表示装置においてセンサ出力画像を表示する場合について説明する。一般に、カラー表示装置は、各画素のカラー情報がRGBの3原色で表現された画像を表示するように構成されることから、センサ出力画像はそのままではカラー表示装置における表示に用いることができない。このため、カラー表示装置においてセンサ出力画像を表示する場合は、センサ出力画像から、各画素がRGBの3原色の値を有する通常画像が画像処理部42において生成される。
【0031】
図5は、センサ出力画像D1から通常画像D3を生成する手法を概念的に示す図である。通常画像D3の生成にあたっては、まず、センサ出力画像D1から、各画素がRGBの3原色のいずれかの値を有し3原色の配列がベイヤー配列となる画像(以下、「ベイヤー画像」という。)D2が生成され、さらに、生成されたベイヤー画像D2に対して欠落画素値の補間(一画素において不足している色情報の生成処理)がなされて通常画像D3が生成される。
【0032】
ベイヤー画像D2の生成にあたっては、RGBの3原色に対応する3つのグループにR,G1,G2,Bを区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値が求められる。具体的には、原色Rのグループには、R,G1,G2,BのうちのRが区分される。このため、センサ出力画像D1中のR画素の値は、ベイヤー画像D2のR画素の値とされる。同様に、原色BのグループにはR,G1,G2,BのうちのBが区分されるため、センサ出力画像D1中のB画素の値は、ベイヤー画像D2のB画素の値とされる。また、原色GのグループにはR,G1,G2,BのうちのG1,G2が区分される。このため、センサ出力画像D1のG1画素およびG2画素の値から、ベイヤー画像D2のG画素の値が導出される。
【0033】
センサ出力画像D1のG1画素と同一位置のベイヤー画像D2のG画素の値は、センサ出力画像D1のG1画素を中心とした3×3画素に対して図6に示すフィルタマスクを用いたコンボリューション演算がなされることにより導出される。すなわち、このG画素の値は、G1画素の値に重みαを乗算した結果と、その近傍の4つのG2画素の値の平均値に重みβを乗算した結果とを加算することにより導出される。また、センサ出力画像D1のG2画素と同一位置のベイヤー画像D2のG画素の値は、センサ出力画像D1のG2画素を中心とした3×3画素に対して図7に示すフィルタマスクを用いたコンボリューション演算がなされることにより導出される。つまり、このG画素の値は、G2画素の値に重みβを乗算した結果と、その近傍の4つのG1画素の値の平均値に重みαを乗算した結果とを加算することにより導出される。ここで、重みα,βは、次の式(1)を満たすものである。
【0034】
α+β=1 …(1)
この重みα,βは、G1フィルタおよびG2フィルタの分光透過特性と、一般的なGフィルタの分光透過特性との関係により決定することができる。例えば、G1フィルタおよびG2フィルタのそれぞれが透過する光の波長帯が、一般的なGフィルタが透過する光の波長帯の中心位置に対して対称に分布する場合はα=β=0.5とすればよい。また、G2フィルタと比較してG1フィルタが一般的なGフィルタに近似する分光透過特性を有する場合はαを比較的大きくし、逆に、G2フィルタが一般的なGフィルタに近似する分光透過特性を有する場合はβを比較的大きくすればよい。
【0035】
このようにしてベイヤー画像D2が生成されると、欠落画素値の補間がなされる。すなわち、ベイヤー画像D2中のR画素の値から全画素に係るRの値、G画素の値から全画素に係るGの値、B画素の値から全画素に係るBの値がそれぞれ線形補間等により求められる。これにより、各画素がRGBの3原色の値を有する通常画像D3が生成される。なお、この欠落画素値の補間処理は、1色の値のみで構成される3つの色成分画像を生成することと等価である。
【0036】
このように、3原色に対応する3つのグループにR,G1,G2,Bを区分し、グループごとにベイヤー画像の1原色に対応する画素の値を導出するため、4種の色の値を有するセンサ出力画像D1から、カラー情報が3原色で表現された通常画像D3を生成することができる。これにより、そのままでは表示不可能なセンサ出力画像を、カラー表示装置の表示に用いることができる。
【0037】
なお、カラー表示装置がテレビジョン信号を必要とするものである場合は、上記のようにして通常画像D3を生成した後、各画素のRGB値を、NTSC方式、PAL方式、SECAM方式などにおける所定の形式のテレビジョン信号に変換すればよい。このRGB値からテレビジョン信号への変換は、周知の手法により容易に行うことができる。
【0038】
<1−2−3.印刷>
次に、外部装置92としてカラー印刷装置が接続され、このカラー印刷装置においてセンサ出力画像を印刷する場合について説明する。一般に、カラー印刷装置は、各画素のカラー情報がCMY(シアン・マゼンダ・イエロー)の3色、あるいは、CMYK(シアン・マゼンダ・イエロー・ブラック)の4色で表現された画像を印刷するように構成される。このため、センサ出力画像はそのままではカラー印刷装置における印刷に用いることができない。
【0039】
したがってこの場合は、画像処理部42において、表示に用いる場合と同様の手法により、まず、各画素のカラー情報がRGBの3原色で表現される通常画像が生成され、さらに、生成された通常画像の各画素のRGB値がCMY値またはCMYK値に変換される。RGB値からCMY値またはCMYK値への変換は、周知の手法により容易に行うことができる。このような処理により、センサ出力画像をカラー印刷装置における印刷に用いることができる。
【0040】
ところで、センサ出力画像を表示や印刷に用いる場合は、画像をより美しくするために、被写体のエッジを強調する先鋭化処理、コントラストを調整する階調補正処理、色相や彩度を調整する色補正処理などの画像処理を行うようにしてもよい。これらの画像処理のうち先鋭化処理は、通常画像を生成する前の段階において、センサ出力画像に対して行うことが好ましい。
【0041】
先鋭化処理においては、センサ出力画像の一の画素を注目画素とし、この注目画素を中心とした5×5画素に対して、図8のフィルタマスクを用いたコンボリューション演算を行うことにより、注目画素の新たな値が求められる。センサ出力画像の全画素をそれぞれ注目画素としてこのような演算を行うことにより、センサ出力画像中の被写体のエッジが強調される。センサ出力画像においては、注目画素を中心とした5×5画素領域内に、注目画素と同一の色に対応し、かつ、水平または垂直方向が同一となる画素が4つ存在する。これは、いずれの色に対応する画素が注目画素となった場合でも同様である。したがって、センサ出力画像に対して図8に示すフィルタマスクを用いた演算を行うことで、同一色に対応する画素間に関して演算を行うことができる。つまり、他の色に対応する画素の値に影響されない演算結果を得ることができる。なお、階調補正処理および色補正処理に関しては、注目画素の処理結果が周辺画素の値に影響されないため、センサ出力画像および通常画像のいずれに対して行ってもよい。
【0042】
<1−2−4.記録>
次に、センサ出力画像をメモリカード91に記録する場合について説明する。一般に、フィルタ配列がベイヤー配列となる撮像センサから出力される画像(ベイヤー画像)を記録する際には、欠落画素値の補間を行って、各画素がRGBの3原色の値を有する通常画像としてから圧縮処理を行い、圧縮画像として記録する。つまり、RGBの3原色ごとの色成分画像を生成し、3つの色成分画像で構成される通常画像を圧縮することとなる。
【0043】
これと同様に、本実施の形態の撮像センサ3から得られるセンサ出力画像から、B、G1、G2、Rの4つの色ごとの色成分画像を生成し、4つの色成分画像から構成される画像を圧縮して圧縮画像を生成すると、色数が増加した分、圧縮画像のデータ量が増加してしまうこととなる。その一方で、表示に用いる場合と同様の手法により、カラー情報が3原色で表現される通常画像を生成し、この通常画像を圧縮した場合は、4つの色の値のうちG1およびG2の値が失われてしまうこととなる。
【0044】
このため、本実施の形態の撮像装置1では、RGBの3原色に対応する3つのグループにR,G1,G2,Bを区分し、画素の値を維持しつつ、それぞれのグループごとに1つの色成分画像が生成される。図9は、センサ出力画像から3つの色成分画像を生成する手法を概念的に示す図である。図に示すように、センサ出力画像D1のR画素の値からRの値のみで構成される一の色成分画像D4rが生成され、センサ出力画像D1のB画素の値からBの値のみで構成される一の色成分画像D4bが生成される。さらに、センサ出力画像D1のG1画素およびG2画素の値から一の色成分画像D4gが生成される。
【0045】
この色成分画像D4gの生成にあたって、G1あるいはG2に対応していない画素の値は、その周辺に存在するG1画素およびG2画素の双方の値に基づいて導出される。これとともに、G1画素およびG2画素の値は変更されずに、そのまま色成分画像D4gにおいても維持される。つまり、色成分画像D4gは、G1およびG2の双方の値を有することとなる。これにより、3つの色成分画像D4r,D4g,D4bから構成される画像D4を圧縮した圧縮画像には、R,G1,G2,Bの4つの色の値が含まれる。また、この圧縮画像は、3つの色成分画像で構成される画像を圧縮したものであるため、通常画像を圧縮した圧縮画像と比較してデータ量はほぼ同等となり、4つの色成分画像から構成される画像を圧縮して圧縮画像を生成する場合よりも、データ量を抑制することができる。
【0046】
このようにして得られた圧縮画像を利用する場合は、圧縮画像に対して伸張処理を行って、画像D4を復元し、この画像D4に含まれる色成分画像D4gからG1画素およびG2画素をそれぞれ抽出することにより、R,G1,G2,Bの4つの色の値を利用することができる。
【0047】
<1−3.変形例>
本実施の形態は、上記に記載に限定されるものではなく様々な変形が可能である。以下、このような変形例について説明する。なお、以下においては、名称に記号が付されたフィルタが透過する光の色を、そのフィルタに付された記号で示すこととする。例えば、Xフィルタが透過する光の色は、Xで示すものとする。
【0048】
<1−3−1.BまたはRタイプフィルタの複数化>
上記実施の形態では、緑色波長帯の光を透過するGタイプフィルタに、G1フィルタおよびG2フィルタの2種類のフィルタが含まれていたが、青色波長帯の光を透過するタイプのフィルタ(以下、「Bタイプフィルタ」という。)、または、赤色波長帯の光を透過するタイプのフィルタ(以下、「Rタイプフィルタ」という。)が2種類以上のフィルタを含むようにしてもよい。
【0049】
図10は、受光画素に付されるフィルタとして、青色波長帯のうち比較的短い波長帯の光を透過するB1フィルタ、青色波長帯のうち比較的長い波長帯の光を透過するB2フィルタ、ならびに、GフィルタおよびRフィルタの4種類のフィルタがある場合における、撮像センサ3におけるフィルタの配置例を示す図である。この場合は、Bタイプフィルタに、B1フィルタおよびB2フィルタの2種類のフィルタが含まれている。これにより撮像センサ3からは、B1,B2,G,Rの4色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、4つの波長帯の光の強度が得られる。
【0050】
また、図11は、受光画素に付されるフィルタとして、赤色波長帯のうち比較的短い波長帯の光を透過するR1フィルタ、赤色波長帯のうち比較的長い波長帯の光を透過するR2フィルタ、ならびに、GフィルタおよびBフィルタの4種類のフィルタがある場合における、撮像センサ3におけるフィルタの配置例を示す図である。この場合は、Rタイプフィルタに、R1フィルタおよびR2フィルタの2種類のフィルタが含まれている。これにより撮像センサ3からは、B,G,R1,R2の4色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、4つの波長帯の光の強度が得られる。
【0051】
いずれの場合であっても、Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、BタイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付されるようにしている。人間の眼は緑色波長帯の光に対しての感度が高いため、このようにGタイプフィルタを市松模様の一方の領域に配置して、BタイプフィルタおよびRタイプフィルタよりも配置数を多くすることで、取得される画像の解像感を高めることができる。
【0052】
また、表示等に用いるために、図10または図11に示す撮像センサ3から得られるセンサ出力画像からベイヤー画像を生成する際においても、上記と同様に、RGBの3原色に対応する3つのグループに4つの色を区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値を求めるようにすればよい。例えば、図10に示す撮像センサ3から得られるセンサ出力画像のB1画素と同一位置のベイヤー画像のB画素の値は、センサ出力画像のB1画素を中心とした5×5画素に対して図12に示すフィルタマスクを用いたコンボリューション演算を行うことにより導出することができる。また、センサ出力画像のB2画素と同一位置のベイヤー画像のB画素の値は、図12に示すフィルタマスクのαとβとを入れ替えたものを用いることにより導出することができる。
【0053】
<1−3−2.6種類のフィルタ>
また、Bタイプフィルタ、Gタイプフィルタ、Rタイプフィルタがそれぞれ2種類のフィルタを含むようにして、計6種類のフィルタによって、6つの波長帯の光の強度が得られるようになっていてもよい。
【0054】
図13は、このような場合の6種類のフィルタの分光透過特性の例を示す図である。図に示すように6種類のフィルタとして、透過する波長帯が短いものからB1フィルタ、B2フィルタ、G1フィルタ、G2フィルタ、R1フィルタおよびR2フィルタがある。これにより、Bタイプフィルタとして2種類のフィルタ、Gタイプフィルタとして2種類のフィルタ、Rタイプフィルタとして2種類のフィルタがそれぞれ含まれている。
【0055】
図14は、これら6種類のフィルタの撮像センサ3における配置例を示す図である。この場合においても、Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、BタイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付されるようにしている。これにより撮像センサ3からは、B1,B2,G1,G2,R1,R2の6色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、6つの波長帯の光の強度が得られる。
【0056】
また、この撮像センサ3から得られるセンサ出力画像からベイヤー画像を生成する際においても、上記と同様に、RGBの3原色に対応する3つのグループに6つの色を区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値を求めるようにすればよい。原色BのグループにはB1,B2が区分され、原色GのグループにはG1,G2が区分され、原色RのグループにはR1,R2が区分される。そして、ベイヤー画像のG画素の値の導出には図6の如きフィルタマスクを用いればよく、ベイヤー画像のB画素およびR画素の値の導出には図12の如きフィルタマスクを用いればよい。
【0057】
<1−3−3.8種類のフィルタ>
また、Bタイプフィルタ、Rタイプフィルタがそれぞれ2種類のフィルタを含み、Gタイプフィルタが4種類のフィルタを含むようにして、計8種類のフィルタによって、8つの波長帯の光の強度が得られるようになっていてもよい。
【0058】
図15は、このような場合の8種類のフィルタの分光透過特性の例を示す図である。図に示すように8種類のフィルタとして、透過する波長帯が短いものからB1フィルタ、B2フィルタ、G1フィルタ、G2フィルタ、G3フィルタ、G4フィルタ、R1フィルタおよびR2フィルタがある。これにより、Bタイプフィルタとして2種類のフィルタ、Gタイプフィルタとして4種類のフィルタ、Rタイプフィルタとして2種類のフィルタがそれぞれ含まれている。
【0059】
図16は、これら8種類のフィルタの撮像センサ3における配置例を示す図である。この場合においても、Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付される。そして、この領域内において、G1〜G4フィルタがそれぞれ均等に配置される。また、BタイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付される。これにより撮像センサ3からは、B1,B2,G1,G2,G3,G4,R1,R2の8色のいずれかにそれぞれ対応する複数の画素を含むセンサ出力画像が出力され、8つの波長帯の光の強度が得られる。
【0060】
このように取得できる波長帯の数が増加するほど、コンピュータなどにおいて被写体からの光の分光分布などを演算する際の演算精度を向上させることができる。取得できる波長帯の数はフィルタの種類の数に一致するが、このフィルタの種類の数は4以上であればどのような数であってもよい。精度の高い分光分布を得るためには、4以上の波長帯の光の強度を得る必要がある。
【0061】
また、この撮像センサ3から得られるセンサ出力画像からベイヤー画像を生成する際においても、上記と同様に、RGBの3原色に対応する3つのグループに8つの色を区分し、それぞれのグループごとにベイヤー画像の1原色に対応する画素の値を求めるようにすればよい。原色BのグループにはB1,B2が区分され、原色GのグループにはG1,G2,G3,G4が区分され、原色RのグループにはR1,R2が区分される。
【0062】
ベイヤー画像のB画素およびR画素の値の導出には図12の如きフィルタマスクを用いればよい。一方、ベイヤー画像のG画素の値の導出には、例えば、図17に示すフィルタマスクを用いることができる。より具体的には、例えば、センサ出力画像のG1画素と同一位置のベイヤー画像のG画素の値は、センサ出力画像のG1画素を中心とした5×5画素に対して図17に示すフィルタマスクを用いたコンボリューション演算により導出される。つまり、このG画素の値は、G1画素の値に重みαを乗算した結果に対して、その近傍の4つのG2画素、2つのG3画素、および、2つのG4画素の値にそれぞれ重みα、α、αを乗算した結果の平均値を加算することにより導出される。ここで、重みα,α,α,αは、次の式(2)を満たすものである。
【0063】
α+α+α+α=1 …(2)
これらの重みα〜αは、G1〜G4フィルタそれぞれの分光透過特性と、一般的なGフィルタの分光透過特性との関係により決定することができる。すなわち、分光透過特性がGフィルタと近似するフィルタが付された画素の値ほど、重みが大きくなるようにα〜αが決定される。なお、G2画素、G3画素、G4画素のそれぞれと同一位置のベイヤー画像のG画素の値は、図17に示すフィルタマスクの重みα〜αを適宜変更したものを用いて導出すればよい。
【0064】
<1−3−4.近紫外または近赤外の波長帯>
上記実施の形態のフィルタは、全て可視波長帯の光を透過するものであったが、シリコンで構成される受光画素は近紫外の波長(約300nm)から近赤外の波長(約1100nm)までの光の光電変換が可能であるため、複数の種類のフィルタには、近紫外や近赤外の波長帯の光を透過するフィルタが含まれていてもよい。
【0065】
図18は、近紫外の波長帯の光を透過するUVフィルタを含む4種類のフィルタの分光透過特性の例を示す図である。図に示すように4種類のフィルタとして、可視波長帯の光を透過するBフィルタ、GフィルタおよびRフィルタとともに、近紫外の波長帯の光を透過するUVフィルタがある。
【0066】
図19は、これら4種類のフィルタの撮像センサ3における配置例を示す図である。UVフィルタは、Gタイプフィルタよりも短い波長帯の光を透過するタイプのフィルタ(以下、「短波長タイプフィルタ」という。)に分類される。この短波長タイプフィルタには、UVフィルタおよびBフィルタの2種類のフィルタが含まれている。Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、短波長タイプフィルタおよびRタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付される。そして、UVフィルタと、Bフィルタとは、短波長タイプフィルタが配置される領域にそれぞれ均等に配置される。
【0067】
このような撮像センサ3からは、近紫外の波長帯と、RGBの3原色にそれぞれ対応する波長帯とからなる4つの波長帯の光の強度が得られる。つまり、この撮像センサ3においては、1度の露光で、被写体のカラー情報とともに、被写体からの光についての近紫外の波長帯の情報が得られることとなる。
【0068】
図20は、近赤外の波長帯の光を透過するIRフィルタを含む4種類のフィルタの分光透過特性の例を示す図である。図に示すように4種類のフィルタとして、可視波長帯の光を透過するBフィルタ、GフィルタおよびRフィルタとともに、近赤外の波長帯の光を透過するIRフィルタがある。
【0069】
図21は、これら4種類のフィルタの撮像センサ3における配置例を示す図である。IRフィルタは、Gタイプフィルタよりも長い波長帯の光を透過するタイプのフィルタ(以下、「長波長タイプフィルタ」という。)に分類される。この長波長タイプフィルタには、IRフィルタおよびRフィルタの2種類のフィルタが含まれている。Gタイプフィルタは、複数の受光画素Pの配列における市松模様の一方の領域に対応する受光画素Pに付され、長波長タイプフィルタおよびBタイプフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応する受光画素Pに均等に付される。そして、IRフィルタと、Rフィルタとは、長波長タイプフィルタが配置される領域にそれぞれ均等に配置される。
【0070】
このような撮像センサ3からは、近赤外の波長帯と、RGBの3原色にそれぞれ対応する波長帯とからなる4つの波長帯の光の強度が得られる。つまり、この撮像センサ3においては、1度の露光で、被写体のカラー情報とともに、被写体からの光についての近赤外の波長帯の情報が得られることとなる。
【0071】
近紫外の波長帯は、昆虫などが視感度を有する波長帯であるため、近紫外の波長帯の光の強度が得られれば、植物などの被写体に関して種々の分析を行うことができる。また、近紫外の波長帯の光は被写体における散乱が多いため、顔のしわやしみの検出にも適している。一方、近赤外の波長帯の光は、被写体における散乱や水の吸収が少なく生体を透過しやすいため、近赤外の波長帯の光の強度が得られれば、生体の被写体に関して種々の分析を行うことができる。
【0072】
<1−3−5.等色関数の再現>
撮像センサ3の受光画素に付されるフィルタとして、4種類のフィルタがあれば、人間の眼の感度を表す等色関数を再現することも可能である。図22は、等色関数を示す図である。図に示すように、等色関数は、r,g,bの3つの曲線で表現される。このうち曲線rは、負の側に飛び出している部分rnがある。
【0073】
このため、このような等色関数を再現するために、図23に示すように、等色関数の曲線rの正の部分の特性と一致する分光透過特性を有するR1フィルタ、等色関数の曲線rの負の部分rnの特性と正負が逆となる分光透過特性を有するR2フィルタ、等色関数の曲線gの特性と一致する分光透過特性を有するGフィルタ、等色関数の曲線bの特性と一致する分光透過特性を有するBフィルタをそれぞれ設定する。これらの4種類のフィルタは、例えば、図11と同様に撮像センサ3に配置すればよい。
【0074】
そして、Gフィルタが付された受光画素で得られる値を原色Gの値、Bフィルタが付された受光画素で得られる値を原色Bの値とし、R1フィルタが付された受光画素で得られる値から、R2フィルタが付された受光画素で得られる値を減算した結果を原色Rの値とする。このようにすれば、実質的に等色関数を再現することとなり、人間の眼で感じる値に相当する3原色の値が得られることとなる。
【0075】
<1−3−6.ハニカム配列>
また、撮像センサ3は、受光画素の配列がハニカム配列となるハニカムセンサであってもよい。ハニカムセンサにおいては、蜂巣状に(隣接する受光画素が半画素分ずれるように)受光画素が配置される。図24は、ハニカムセンサ3aに対する、Bフィルタ、G1フィルタ、G2フィルタおよびRフィルタの4種類のフィルタの配置例を示す図である。図24に示すフィルタの配置は、図4に示したフィルタの配置を45度回転させたものに相当する。
【0076】
このようなハニカムセンサ3aは、受光画素P間の配線部が不要になるためスペースに余裕が生まれ、上記で説明したような撮像センサ3と比較して、各受光画素を大型化することが可能となる。
【0077】
透過する光の波長帯が互いに異なるフィルタの種類を増加させた場合、それぞれのフィルタが透過する光の帯域幅は狭くなるため、このようなフィルタが付された受光画素の感度は低下する可能性がある。撮像センサ3としてハニカムセンサ3aを採用すると、各受光画素を大型化することができるため、このような受光画素の感度の低下を防止することができる。
【0078】
<2.第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。第1の実施の形態においては、フィルタは撮像センサの受光画素ごとに配置されるものであったが、本実施の形態においては複数の受光画素を含むユニットごとに配置されるようになっている。本実施の形態の撮像装置1の構成は、図2に示すものとほぼ同様であるが、撮像部40の構成が相違する。
【0079】
図25は、本実施の形態の撮像部40の概略構成を示す分解斜視図である。被写体からの光は図25の上部から入射する。図に示すように、撮像部40は、水平2×垂直2の計4つのマイクロレンズ21を平面的に配列して有するマイクロレンズアレイ20と、水平2×垂直2の計4つのフィルタ61を平面的に配列して有するフィルタアレイ60と、水平2×垂直2の計4つの格子71を平面的に配列して有する隔壁70と、複数の受光画素を平面的に配列して有する撮像センサ30とを、光が入射する側からこの順に備えている。
【0080】
撮像センサ30の複数の受光画素で構成される受光面は、水平2×垂直2の計4つの結像領域31に区分され、4つの結像領域31に対して4つのマイクロレンズ21がそれぞれ被写体の光像を結像するようになっている。また、4つのフィルタ61は、4つのマイクロレンズ21のそれぞれに対応して配置され、マイクロレンズ21を通過した光のうち特定の波長帯の光のみを透過する。さらに、4つの格子71は、4のマイクロレンズ21のそれぞれに対応して配置され、1のマイクロレンズ21を通過した光と、他のマイクロレンズ21を通過した光との干渉を防止するように機能する。
【0081】
つまり、1の結像領域31に対して、1のマイクロレンズ21と、1のフィルタ61と、1の格子71とが対応づけられて、これらが図中の破線による角柱で示す如く1のユニットUを形成している。マイクロレンズ21によって同一ユニットU内の結像領域31中に結像された被写体の光像は、該結像領域31に含まれる複数の受光画素において光電変換されて一の画像とされる。したがって、ユニットUごとに一の被写体の画像が得られ、撮像センサ30の全体では、4つの被写体の画像が得られる。取得される4つの画像は、A/D変換器41においてデジタル信号とされ、必要に応じて画像処理部42において所定の処理が施され、メモリカード91に記憶されたり外部装置92に送信される。
【0082】
マイクロレンズの焦点距離は、通常のレンズの焦点距離よりも短いため、撮像部40を本実施の形態の構成とすることで撮像装置1を小型化することができる。また、第1の実施の形態のように複数種類のフィルタを受光画素ごとに形成すると、撮像センサの製造上の工程数が多くなり、撮像装置の製造コストが高くなる可能性があるが、本実施の形態の撮像部40の構成によれば、フィルタをユニット毎に配置すればよいためフィルタのサイズを比較的大きくすることができる。このことから、フィルタの製造は比較的容易となり、これにより撮像装置の製造コストを低減することができる。
【0083】
各ユニットU内のフィルタが透過する光の波長帯は、同一ユニットUにて得られる画像中の画素の色に対応する。フィルタアレイ60を形成する4つのフィルタ61は、透過する光の波長帯が互いに異なっている。つまり、本実施の形態においては4種類のフィルタが採用されている。この4種類のフィルタとしては、図3に示す分光透過特性を有するBフィルタ、G1フィルタ、G2フィルタおよびRフィルタが用いられている。図26は、フィルタアレイ60中における4種類のフィルタ61の各ユニットUへの配置例を示す図である。
【0084】
このような構成により、撮像装置1としては、1度の露光によって同一被写体に関して色が異なる4つの画像が得られる。つまり、撮像装置1は、4つの波長帯の光の強度を1度の露光によって得ることができることとなる。さらに、撮像装置1は、被写体の同一点からの光に関して、4つ波長帯の強度を得ることができる。つまり、欠落画素値の補間などを行わずに、B,G1,G2,Rの4つの色成分画像を取得できることとなり、欠落画素値の補間によって生じる偽色やモアレなどが発生することもない。
【0085】
なお、本実施の形態においては、フィルタアレイ60中におけるフィルタの配列は特に限定されず、4種類のフィルタがどのように配置されていてもよい。また、4種類のフィルタとしては、透過する光の波長帯が互いに異なっていれば、どのような波長帯を透過するものであってもよい。
【0086】
例えば、4種類のフィルタに、近紫外や近赤外の波長帯の光を透過するフィルタを含めるようにしてもよい。図27は、図19に示す分光透過特性を有するUVフィルタ、Bフィルタ、GフィルタおよびRフィルタを採用した場合における、フィルタアレイ60中におけるフィルタ61の配置例を示す図である。また、図28は、図20に示す分光透過特性を有するBフィルタ、Gフィルタ、RフィルタおよびIRフィルタを採用した場合における、フィルタアレイ60中におけるフィルタ61の配置例を示す図である。このような構成とすると、撮像センサ30では、1度の露光で、被写体のカラー情報とともに、被写体からの光についての近紫外または近赤外の波長帯の情報が得られるため、前述したように、被写体に対して様々な分析を行うことができる。
【0087】
また、4種類のフィルタに、全波長帯の光を透過する透明のフィルタ(以下、「Wフィルタ」という。)を含めるようにしてもよい。図29は、このような場合におけるフィルタアレイ60中におけるフィルタ61の配置例を示す図である。このような構成とすると、撮像センサ30では、1度の露光で、被写体のカラー情報とともに、被写体からの光についての純粋な輝度成分の情報が得られることとなる。これとともに、Wフィルタは全波長帯の光を透過するため、Wフィルタが配置されるユニットU中に含まれる受光画素の感度を向上させることができる。したがって、図29に示すフィルタアレイ60が採用された撮像装置1は、被写体の輝度が極端に低い場合であっても、Wフィルタが配置されるユニットUを用いることにより、その被写体の画像を得ることができる。このため、この撮像装置1は、昼夜を問わない使用が要求される監視カメラや車載カメラなどに利用することができる。
【0088】
また、ユニットUの数は4つに限定されず、4以上であればどのような数であってもよい。図30は、ユニットUの数を6つとした場合のフィルタアレイ60中におけるフィルタ61の配置例を示す図である。このような場合であっても、6つのフィルタ61は透過する光の波長帯が互いに異なるようにし、図30の例においては図13に示す分光透過特性を有する6種類のフィルタが採用されている。このようにユニットUの数を増加させると、1度の露光で取得できる波長帯の数を増加することができるため、コンピュータなどにおいて被写体からの光の分光分布などを演算する際の演算精度を向上させることができる。
【0089】
また、図31に示すように、可視波長帯を例えば16分割し、分割されたそれぞれの波長帯の光を透過可能な16種類のフィルタ(F1〜F16フィルタ)を用意し、図32に示すように、16のユニットUにF1〜F16フィルタをそれぞれ配置するようにしてもよい。図32に示すフィルタアレイ60が採用された撮像装置1では、1度の露光で16の波長帯の光の強度を得ることができ、精度の高い分光測色計として利用することができる。なお、撮像装置1を分光測色計として利用する場合は、1度の露光で取得できる波長帯の数は16以上であることが好ましい。
【0090】
<3.第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。本実施の形態の撮像装置1の構成は第2の実施の形態とほぼ同様であるが、本実施の形態では、各ユニットUごとに取得される複数の画像を再配置して、1つの再配置画像を生成するようにしている。
【0091】
図33は、本実施の形態の撮像部40の概略構成を示す分解斜視図である。本実施の形態の撮像部40は、第2の実施の形態とほぼ同様に、複数のマイクロレンズ21を平面的に配列して有するマイクロレンズアレイ20と、複数のフィルタ61を平面的に配列して有するフィルタアレイ60と、複数の格子71を平面的に配列して有する隔壁70と、複数の受光画素を平面的に配列して有する撮像センサ30とを、光が入射する側からこの順に備えている。撮像センサ30の複数の受光画素で構成される受光面は、複数の結像領域31に区分される。そして、この結像領域31に対して、1のマイクロレンズ21と、1のフィルタ61と、1の格子71とが対応づけられて、これらが1のユニットUを形成している。ただし、本実施の形態の撮像部40は多数のユニットU、具体的には、水平方向にM個、素直方向にN個に配列された複数のユニットUを備えている。
【0092】
図34は、複数のユニットUと複数の受光画素Pとの関係を示す図であり、上部は撮像センサ30内におけるユニットU(すなわち結像領域31)の配列を、下部は一のユニットU内における受光画素Pの配列を示している。図に示すように、撮像センサ30の受光面は水平M個×垂直N個のユニットUに区分され、一のユニットUには水平m個×垂直n個の受光画素Pが含まれている。
【0093】
各ユニットUでは、水平m×垂直n画素からなる被写体の画像(以下、「ユニット画像」という。)が得られる。このユニット画像は、A/D変換器41においてデジタル信号とされた後、画像処理部42に入力される。そして、画像処理部42において各ユニットUで得られたユニット画像に含まれる画素が再配置され、水平方向N×n画素、垂直方向M×m画素からなる再配置画像が生成される。
【0094】
マイクロレンズアレイ20を形成する複数のマイクロレンズ21間には視差があることから、この視差を原因として、結像領域31間において微妙に異なった位置に被写体の光像が結像される。したがって、複数のユニット画像間では、含まれる被写体像の位置は微妙に異なることとなる。本実施の形態では、このようなユニット画像間の被写体像の位置の相違を利用し、複数のユニット画像の画素を再配置することで、高解像度となる単一の再配置画像を得るようにしている。
【0095】
ここで、撮像センサ30上における各ユニットUの水平方向の座標をI,垂直方向の座標をJとし、ユニットU内における受光画素Pの水平方向の座標をi,垂直方向の座標をjとし、各ユニット画像の識別には取得されたユニットUの座標(I,J)を用い、ユニット画像中の各画素の識別には取得された受光画素Pの座標(i,j)を用いるものとする。図34においては、各ユニットU内にそれぞれの座標(I,J)を示し、各受光画素P内にそれぞれの座標(i,j)を示している。
【0096】
そして、再配置画像中の各画素の水平方向の座標をx、垂直方向の座標をyとすると、再配置処理においてユニット画像(I,J)中の画素(i,j)を配置すべき座標(x,y)は、次の式(3)および式(4)で表現される。
【0097】
x=M(i−1)+I …(3)
y=N(j−1)+J …(4)
再配置処理においては、式(3)および式(4)により求められる座標(x,y)を各画素の目標座標とし、全ユニット画像の全画素をそれぞれの目標座標に配置することで、再配置画像が生成されることとなる。
【0098】
本実施の形態では、フィルタアレイ60を形成する複数のフィルタ61として、透過する光の波長帯が異なる4種類のフィルタが採用されている。この4種類のフィルタとしては、図3に示す分光透過特性を有するBフィルタ、G1フィルタ、G2フィルタおよびRフィルタが用いられている。
【0099】
図35は、フィルタアレイ60中における4種類のフィルタの各ユニットU(すなわち、各マイクロレンズ21)への配置例を示す図である。図35に示すように、Gタイプフィルタ(G1フィルタおよびG2フィルタ)は、ユニットUの配列における市松模様の一方の領域に対応するユニットUに配置されている。そして、G1フィルタとG2フィルタとは、垂直方向に対して交互に配置される。一方、BフィルタおよびRフィルタは、上記市松模様の他方の領域(Gタイプフィルタが配置されていない領域)に対応するユニットUに配置される。そして、BフィルタとRフィルタとは、垂直方向に対して交互に配置される。つまり、このフィルタの配列は、図4に示すフィルタの配列と同様となっている。
【0100】
各ユニット画像中の画素の色は、取得されたユニットU内のフィルタ61が透過する光の波長帯に対応する。つまり、Bフィルタが配置されたユニットUからはB画素のみのユニット画像、G1フィルタが配置されたユニットUからはG1画素のみのユニット画像、G2フィルタが配置されたユニットUからはG2画素のみのユニット画像、Rフィルタが配置されたユニットUからはR画素のみのユニット画像がそれぞれ得られる。したがって、本実施の形態の撮像装置1においても、1度の露光によって4つの波長帯の光の強度を得ることができる。
【0101】
また、これらのユニット画像について、上記のような再配置処理を行うと、再配置画像中の画素が対応する色の配列は、フィルタアレイ60中における4種類のフィルタの配列と同様になる。このため、図35に示すフィルタアレイ60を採用すると、図4に示す撮像センサ3から得られるセンサ出力画像と同等の画像が、再配置画像として得られることとなる。このことから、この再配置画像については、第1の実施の形態と全く同様の画像処理を行うことができる。
【0102】
なお、本実施の形態においてもフィルタの種類の数は4以上であればどのような数であってもよく、また、フィルタとしては、どのような波長帯の光を透過するものであってもよい。したがって、フィルタアレイ60中におけるフィルタの配列としては、図10、図11、図14、図16、図19、図21に示した配列のいずれであっても採用することができる。
【0103】
◎なお、上述した具体的実施の形態には以下の構成を有する発明が含まれている。
【0104】
(1) 請求項5に記載の撮像装置において、
前記複数のフィルタはそれぞれ、緑色波長帯の光を透過する第1タイプフィルタ、前記第1タイプフィルタよりも短い波長帯の光を透過する第2タイプフィルタ、および、前記第1タイプフィルタよりも長い波長帯の光を透過する第3タイプフィルタのいずれかに区分され、
前記第1タイプフィルタは、前記複数のマイクロレンズの配列における市松模様の一方の領域に対応する前記マイクロレンズに対して配置され、
前記第2および第3タイプフィルタは、前記市松模様の他方の領域に対応する前記マイクロレンズに対してそれぞれ均等に配置されることを特徴とする撮像装置。
【0105】
これによれば、人間の眼は緑色波長帯の光に対しての感度が高いため、緑色波長帯の光を透過する第1タイプフィルタを市松模様の一方の領域に配置して、第2および第3タイプフィルタよりも配置数を多くすることで、取得される画像の解像感を高めることができる。
【0106】
(2) 請求項1または上記(1)に記載の撮像装置において、
前記第2タイプフィルタは、近紫外線の波長帯を透過するフィルタを含むことを特徴とする撮像装置。
【0107】
これによれば、近紫外線の波長帯の光の強度を得ることができるため、被写体に対して様々な分析を行うことができる。
【0108】
(3) 請求項1または上記(1)に記載の撮像装置において、
前記第3タイプフィルタは、近赤外線の波長帯を透過するフィルタを含むことを特徴とする撮像装置。
【0109】
これによれば、近赤外線の波長帯の光の強度を得ることができるため、被写体に対して様々な分析を行うことができる。
【0110】
(4) 請求項4に記載の撮像装置において、
前記所定数のフィルタは、近紫外線または近赤外線の波長帯を透過するフィルタを含むことを特徴とする撮像装置。
【0111】
これによれば、近紫外線または近赤外線の波長帯の光の強度を得ることができるため、被写体に対して様々な分析を行うことができる。
【0112】
【発明の効果】
以上、説明したように、請求項1の発明によれば、1度の露光によって4以上の波長帯の光の強度を得ることができる。また、人間の眼は緑色波長帯の光に対しての感度が高いため、緑色波長帯の光を透過する第1タイプフィルタを市松模様の一方の領域に配置して、第2および第3タイプフィルタよりも配置数を多くすることで、取得される画像の解像感を高めることができる。
【0113】
また、請求項2の発明によれば、3原色に対応する3つのグループごとに1原色に対応する画素の値が導出されるため、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する画像を、一般的なカラー表示装置への表示やカラー印刷装置での印刷に用いることができる。
【0114】
また、請求項3の発明によれば、3つの第2画像から構成される第3画像を圧縮して1の圧縮画像を生成するため、4以上の第2画像から構成される第3画像を圧縮して1の圧縮画像を生成する場合よりも圧縮画像のデータ量を抑制することができる。
【0115】
また、請求項4の発明によれば、被写体からの同一点からの4以上の波長帯の光の強度を1度の露光によって得ることができる。また、撮像装置を小型化することができる。
【0116】
また、請求項5の発明によれば、1度の露光によって4以上の波長帯の光の強度を得ることができる。また、撮像装置を小型化することができる。
【図面の簡単な説明】
【図1】フィルタの配列がベイヤー配列となる撮像センサを示す図である。
【図2】撮像装置の基本的な構成を示す図である。
【図3】フィルタの分光透過特性の例を示す図である。
【図4】フィルタの配置例を示す図である。
【図5】センサ出力画像から通常画像を生成する手法を示す図である。
【図6】演算に用いるフィルタマスクの例を示す図である。
【図7】演算に用いるフィルタマスクの例を示す図である。
【図8】演算に用いるフィルタマスクの例を示す図である。
【図9】センサ出力画像から3つの色成分画像を生成する手法を示す図である。
【図10】フィルタの配置例を示す図である。
【図11】フィルタの配置例を示す図である。
【図12】演算に用いるフィルタマスクの例を示す図である。
【図13】フィルタの分光透過特性の例を示す図である。
【図14】フィルタの配置例を示す図である。
【図15】フィルタの分光透過特性の例を示す図である。
【図16】フィルタの配置例を示す図である。
【図17】演算に用いるフィルタマスクの例を示す図である。
【図18】フィルタの分光透過特性の例を示す図である。
【図19】フィルタの配置例を示す図である。
【図20】フィルタの分光透過特性の例を示す図である。
【図21】フィルタの配置例を示す図である。
【図22】等色関数を示す図である。
【図23】フィルタの分光透過特性の例を示す図である。
【図24】ハニカムセンサに対するフィルタの配置例を示す図である。
【図25】第2の実施の形態の撮像部の概略構成を示す図である。
【図26】フィルタアレイにおけるフィルタの配置例を示す図である。
【図27】フィルタアレイにおけるフィルタの配置例を示す図である。
【図28】フィルタアレイにおけるフィルタの配置例を示す図である。
【図29】フィルタアレイにおけるフィルタの配置例を示す図である。
【図30】フィルタアレイにおけるフィルタの配置例を示す図である。
【図31】フィルタの分光透過特性の例を示す図である。
【図32】フィルタアレイにおけるフィルタの配置例を示す図である。
【図33】第3の実施の形態の撮像部の概略構成を示す図である。
【図34】複数のユニットと複数の受光画素との関係を示す図である。
【図35】フィルタアレイにおけるフィルタの配置例を示す図である。
【符号の説明】
1 撮像装置
2 レンズ
3 撮像センサ
20 マイクロレンズアレイ
30 撮像センサ
60 フィルタアレイ
70 隔壁
U ユニット
P 受光画素
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for acquiring light intensities in a plurality of wavelength bands.
[0002]
[Prior art]
Generally, an imaging apparatus such as a digital still camera and a digital video camera includes an imaging sensor that obtains the intensity of light reflected from a subject in three wavelength bands respectively corresponding to three primary colors to obtain color information of the subject. I have to. FIG. 1 is a diagram showing a conventional general imaging sensor 300. The imaging sensor 300 has a plurality of light receiving pixels P arranged two-dimensionally, and each of the light receiving pixels P is provided with one of filters that transmit light in a wavelength band corresponding to three primary colors. As shown in the figure, the G filters that transmit light in the green wavelength band are arranged in a checkered pattern (one of the checkered patterns), and the B filters that transmit light in the blue wavelength band and the light that transmits the red wavelength band. The R filters are arranged evenly in the remaining area (the other area of the checkered pattern). This RGB arrangement is called a “Bayer arrangement”. By employing such an imaging sensor, the imaging apparatus can obtain the light intensities (three primary colors) in three wavelength bands as color information of the subject (for example, see Patent Document 1).
[0003]
On the other hand, in the past, attempts have been made to obtain the spectral reflectance of an object from an image obtained by an imaging apparatus in order to solve the problem of metamerism or to analyze the components of an object. I have. The spectral reflectance of the subject can be obtained by obtaining the spectral distribution of the reflected light from discrete color information of the reflected light from the subject, and removing the spectral distribution of the illumination light from the spectral distribution of the reflected light. As a method of obtaining a spectral distribution from discrete color information of reflected light, spline interpolation processing, estimation by principal component analysis, Winner estimation, and the like are known.
[0004]
However, the spectral distribution of the reflected light cannot be obtained with high accuracy only by the intensity of light in three wavelength bands obtained by a general imaging device. For this reason, a multi-band camera, which is an imaging device capable of acquiring the intensity of light in four or more wavelength bands, has been proposed. Conventionally proposed methods of a multi-band camera include the following.
[0005]
1. A color wheel type in which four or more filters having different spectral transmission characteristics are arranged in a disk shape, and these filters are sequentially arranged in the path of incident light to perform imaging.
[0006]
2. A tunable filter system that uses an interferometer or an optical element that transmits only a specific wavelength band due to the polarization phenomenon of liquid crystal, and sequentially changes the transmitted wavelength band to perform imaging.
[0007]
3. A grating system that separates incident light into different wavelength bands by diffraction and performs two-dimensional imaging by scanning.
[0008]
In addition, there is Patent Document 2 as prior art document information related to this application.
[0009]
[Patent Document 1]
U.S. Pat. No. 3,971,065
[Patent Document 2]
JP 2001-61109 A
[0010]
[Problems to be solved by the invention]
However, conventionally proposed multi-band cameras require switching and scanning of wavelength bands, and in each case, it is not possible to obtain the intensity of light in all the target wavelength bands with a single exposure. There is a problem that it takes a long time and an object or the like that moves at a relatively high speed cannot be a subject.
[0011]
The present invention has been made in view of the above problems, and has as its object to provide a technique capable of obtaining light intensities in four or more wavelength bands by one exposure.
[0012]
[Means for Solving the Problems]
In order to solve the above problem, an invention according to claim 1 is an imaging apparatus, wherein a first type filter that transmits light in a green wavelength band and a second type filter that transmits light in a wavelength band shorter than the first type filter. A type filter, and an imaging sensor having a two-dimensional array of a plurality of light receiving pixels each having a third type filter that transmits light in a wavelength band longer than the first type filter, The first type filter is attached to the light receiving pixels corresponding to one area of the checkered pattern in the array of the plurality of light receiving pixels, and the second and third type filters correspond to the other area of the checkered pattern. And at least one of the first to third type filters includes two or more types of filters having different wavelength bands of transmitted light. It is characterized in.
[0013]
According to a second aspect of the present invention, in the imaging device according to the first aspect, the image sensor outputs an image having a plurality of pixels corresponding to any one of four or more colors, and the four or more types are output. Are classified into any one of three groups corresponding to the three primary colors. For each of the groups, the value of the pixel corresponding to the one primary color is determined from the value of the pixel corresponding to the color included in the group. Derivation means for deriving a value is further provided.
[0014]
According to a third aspect of the present invention, in the imaging device according to the first aspect, the image sensor outputs a first image having a plurality of pixels respectively corresponding to any one of four or more colors. Each kind of color is classified into any one of three groups corresponding to the three primary colors, and for each of the groups, from the pixel values corresponding to the colors included in the group, one second image And a compression unit that compresses a third image composed of the three generated second images to generate one compressed image.
[0015]
The invention according to claim 4 is an imaging apparatus, wherein the imaging sensor has a predetermined number of four or more imaging regions formed of a plurality of light receiving pixels arranged in a plane, and the imaging sensor includes a plurality of imaging regions. A microlens array having the predetermined number of microlenses for forming a light image of a subject in a plane, and the predetermined number of filters corresponding to the predetermined number of microlenses in a plane. Wherein the predetermined number of filters have different wavelength bands of transmitted light.
[0016]
The invention according to claim 5 is an imaging apparatus, wherein the imaging sensor includes a plurality of imaging regions including a plurality of light receiving pixels arranged in a plane, and an optical image of a subject is provided on the plurality of imaging regions. A microlens array having a plurality of planarly arranged microlenses, each of which forms an image, a filter array having a plurality of planarly arranged filters respectively corresponding to the plurality of microlenses, and A rearrangement unit that rearranges pixels included in the image of the subject obtained in each of the image regions to generate one rearranged image, wherein the plurality of filters are arranged in a wavelength band of transmitted light. Are different from each other in four or more types.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
<1. First Embodiment>
<1-1. Configuration>
FIG. 2 is a diagram illustrating a basic configuration of the imaging device according to the embodiment of the present invention. The imaging device 1 is configured as, for example, a digital still camera, a digital video camera, or a colorimeter. Regardless of the configuration of the imaging device 1, the basic configuration of the imaging device 1 is the same. That is, the imaging apparatus 1 mainly includes an imaging unit 40, an A / D converter 41, an image processing unit 42, an overall control unit 50, a card slot 43, an operation input unit 44, and a data output terminal 45.
[0019]
The imaging unit 40 includes the lens 2 and the imaging sensor 3 that photoelectrically converts a light image of a subject formed by the lens 2 and outputs an image signal (hereinafter, simply referred to as an “image”). The image output from the image sensor 3 is converted into a digital signal by the A / D converter 41, and a predetermined process is performed by the image processing unit 42 as needed. The image thus obtained is recorded on a memory card 91 inserted in the card slot 43 or transmitted to an external device 92 connected via the data output terminal 45.
[0020]
The operation input unit 44 indicates an operation member for receiving various commands such as an instruction to start imaging from a user. The imaging device 1 performs a predetermined operation in response to the operation of the operation input unit 44.
[0021]
The overall control unit 50 has a control function for controlling each unit of the above-described imaging apparatus 1 and a data processing function for performing various data processing, and includes a microcomputer. More specifically, the overall control unit 50 includes a CPU 51 as its main body, a ROM 52 for storing a control program and the like, a RAM 53 as a work area, and the like. Various functions of the overall control unit 50 are realized by the CPU 51 executing a control program stored in the ROM 52.
[0022]
The imaging sensor 3 included in the imaging unit 40 includes a plurality of light receiving pixels each having a filter (color filter) that passes light in a specific wavelength band, two-dimensionally arranged. Each of the light receiving pixels photoelectrically converts the light transmitted through the filter attached thereto and outputs a signal charge corresponding to the intensity thereof. In this embodiment, there are four types of filters having different wavelength bands of transmitted light. Thereby, the imaging device 1 is a multi-band camera capable of acquiring the intensities of light in four wavelength bands.
[0023]
FIG. 3 is a diagram illustrating an example of spectral transmission characteristics of four types of filters attached to light receiving pixels. Each of the four types of filters has a spectral transmission characteristic of transmitting light in a visible wavelength band (about 380 to about 780 nm). As shown in the figure, among the four types of filters, there are a B filter, a G1 filter, a G2 filter, and an R filter, starting from the one that transmits short wavelength bands. The B filter transmits light in the blue wavelength band, the G1 filter transmits light in a relatively short wavelength band of the green wavelength band, the G2 filter transmits light in a relatively long wavelength band in the green wavelength band, The R filter transmits light in the red wavelength band. That is, in the present embodiment, two types of filters, a G1 filter and a G2 filter, are included as filters of a type that transmits light in the green wavelength band (hereinafter, referred to as “G-type filters”). The peaks of the spectral transmission characteristic lines of the G1 filter and the G2 filter are arranged, for example, at positions where the peaks of the spectral transmission characteristic lines of the B filter and the R filter are equally divided into three. Hereinafter, the color of light transmitted by the R filter is R, the color of light transmitted by the G1 filter is G1, the color of light transmitted by the G2 filter is G2, and the color of light transmitted by the B filter is B. Also, let G be the color of light transmitted by a general G filter that transmits light in the green wavelength band. Here, R, G, and B are three primary colors of light.
[0024]
FIG. 4 is a diagram showing an example of the arrangement of these four types of filters in the image sensor 3. As shown in FIG. 4, the G type filters (G1 filter and G2 filter) are attached to the light receiving pixels P corresponding to one area of the checkered pattern in the array of the plurality of light receiving pixels P. Then, the G1 filter and the G2 filter are alternately arranged in the vertical direction. On the other hand, the B filter and the R filter are attached to the light receiving pixels P corresponding to the other area of the checkered pattern (the area where the G type filter is not arranged). The B filters and the R filters are alternately arranged in the vertical direction. That is, the G1 filter and the G2 filter are evenly arranged at the positions of the G filters in the Bayer array (see FIG. 1), and the B and R filters are arranged at the same positions as in the Bayer array. As a result, the four types of filters are uniformly arranged on the entire light receiving surface of the image sensor 3.
[0025]
These four types of filters are formed by repeating the selective formation of a dyed layer (a resin film of gelatin or the like) using photolithography technology four times on light-receiving pixels made of silicon or the like. The spectral transmission characteristics of each filter are adjusted by the dye that dyes the dyed layer and the thickness of the dyed layer. Note that the spectral transmission characteristics of the filter are not limited to those shown in FIG. 3, and may be characteristics according to the purpose of the imaging device 1. For example, if the imaging device 1 is to image an object that emits (or reflects) light having a bright line spectrum such as a fluorescent lamp, one filter of the image sensor 3 mainly transmits the bright line spectrum. It may have a spectral transmission characteristic. Further, in the case of the imaging device 1 used for a specific purpose, it is preferable to adjust the spectral transmission characteristics of the filter in consideration of changes in characteristics due to an environment in which the imaging device is used and aging.
[0026]
The signal output from each light receiving pixel of the image sensor 3 indicates the intensity of light in any of the four wavelength bands shown in FIG. 3 according to the type of filter attached to the light receiving pixel from which the signal was output. It will be. Therefore, the imaging device 1 can obtain light intensities of four wavelength bands by one exposure.
[0027]
<1-2. Image processing>
The signal output from each light receiving pixel of the imaging sensor 3 is a value of each pixel in an image output from the imaging sensor 3 (hereinafter, referred to as a “sensor output image”). Therefore, the value of each pixel included in the sensor output image indicates the intensity of any one of the four wavelength bands, that is, a value corresponding to any one of the colors B, G1, G2, and R. As a result, the sensor output image is in a state having four types of color values. The arrangement of the colors corresponding to each pixel in the sensor output image is the same as the arrangement of the filters shown in FIG.
[0028]
The sensor output image is preferably subjected to appropriate processing according to the use at the output destination. For this reason, in the imaging device 1 of the present embodiment, the image processing unit 42 performs image processing on the sensor output image according to the output destination of the sensor output image. Hereinafter, the processing content of the image processing unit 42 will be described. In the following description, in the image, the pixel corresponding to R corresponds to the R pixel, the pixel corresponding to B corresponds to the B pixel, the pixel corresponding to G corresponds to the G pixel, the pixel corresponding to G1 corresponds to the G1 pixel, and G2. The pixels are respectively referred to as G2 pixels.
[0029]
<1-2-1. Operation>
First, a case will be described in which a computer is connected as the external device 92, and the computer uses a sensor output image for calculation for obtaining the spectral distribution of light from a subject. In this case, after the sensor output image is converted into a digital signal by the A / D converter 41, the image is not directly processed by the image processing unit 42, but is directly output to the computer as the external device 92 via the data output terminal 45. Is done. By outputting a sensor output image without performing image processing in this manner, an image including light intensities (four colors) in four wavelength bands without data deterioration due to image processing can be output. By using such an image including the light intensities in the four wavelength bands, it is possible to improve the calculation accuracy when calculating the spectral distribution of light from a subject in a computer.
[0030]
<1-2-2. Display>
Next, a case where a color display device is connected as the external device 92 and a sensor output image is displayed on the color display device will be described. In general, a color display device is configured to display an image in which the color information of each pixel is represented by three primary colors of RGB, and thus the sensor output image cannot be used as it is for display on the color display device. For this reason, when displaying the sensor output image on the color display device, a normal image in which each pixel has the values of the three primary colors of RGB is generated in the image processing unit 42 from the sensor output image.
[0031]
FIG. 5 is a diagram conceptually illustrating a method of generating the normal image D3 from the sensor output image D1. In generating the normal image D3, first, from the sensor output image D1, an image in which each pixel has any one of the three primary colors of RGB and the arrangement of the three primary colors is a Bayer array (hereinafter, referred to as a “Bayer image”). ) D2 is generated, and the generated Bayer image D2 is subjected to interpolation of missing pixel values (a process of generating missing color information in one pixel) to generate a normal image D3.
[0032]
In generating the Bayer image D2, R, G1, G2, and B are divided into three groups corresponding to the three primary colors of RGB, and the value of the pixel corresponding to one primary color of the Bayer image is obtained for each group. Specifically, R among R, G1, G2, and B is classified into the group of primary colors R. Therefore, the value of the R pixel in the sensor output image D1 is set to the value of the R pixel in the Bayer image D2. Similarly, since B among R, G1, G2, and B is classified into the group of primary colors B, the value of the B pixel in the sensor output image D1 is the value of the B pixel in the Bayer image D2. Further, G1 and G2 among R, G1, G2 and B are classified into the group of primary colors G. Therefore, the value of the G pixel of the Bayer image D2 is derived from the values of the G1 pixel and the G2 pixel of the sensor output image D1.
[0033]
The value of the G pixel of the Bayer image D2 at the same position as the G1 pixel of the sensor output image D1 is obtained by convolving the 3 × 3 pixels centered on the G1 pixel of the sensor output image D1 using the filter mask shown in FIG. It is derived by performing an operation. That is, the value of the G pixel is derived by adding the result of multiplying the value of the G1 pixel by the weight α and the result of multiplying the average value of the values of the four G2 pixels in the vicinity by the weight β. . The G pixel value of the Bayer image D2 at the same position as the G2 pixel of the sensor output image D1 is calculated using the filter mask shown in FIG. 7 for 3 × 3 pixels centered on the G2 pixel of the sensor output image D1. It is derived by performing a convolution operation. That is, the value of the G pixel is derived by adding the result of multiplying the value of the G2 pixel by the weight β and the result of multiplying the average value of the values of the four G1 pixels in the vicinity by the weight α. . Here, the weights α and β satisfy the following equation (1).
[0034]
α + β = 1 (1)
The weights α and β can be determined based on the relationship between the spectral transmission characteristics of the G1 filter and the G2 filter and the spectral transmission characteristics of a general G filter. For example, when the wavelength bands of the light transmitted by the G1 filter and the G2 filter are distributed symmetrically with respect to the center position of the wavelength band of the light transmitted by the general G filter, α = β = 0.5. do it. If the G1 filter has a spectral transmission characteristic that is closer to a general G filter than the G2 filter, α is relatively large, and conversely, the spectral transmission characteristic that the G2 filter approximates a general G filter. , Β may be made relatively large.
[0035]
When the Bayer image D2 is generated in this way, interpolation of the missing pixel value is performed. That is, the value of the R pixel in the Bayer image D2 is the value of R for all pixels, the value of the G pixel is the value of G for all pixels, and the value of the B pixel is B for all pixels. Required by Thereby, the normal image D3 in which each pixel has the values of the three primary colors of RGB is generated. Note that the interpolation processing of the missing pixel value is equivalent to generating three color component images composed of only one color value.
[0036]
In this manner, R, G1, G2, and B are divided into three groups corresponding to the three primary colors, and the values of the pixels corresponding to the one primary color of the Bayer image are derived for each group. A normal image D3 in which color information is expressed by three primary colors can be generated from the sensor output image D1. Thus, a sensor output image that cannot be displayed as it is can be used for display on a color display device.
[0037]
When the color display device requires a television signal, after generating the normal image D3 as described above, the RGB values of each pixel are determined by a predetermined method such as the NTSC system, the PAL system, and the SECAM system. May be converted into a television signal of the following format. The conversion from the RGB values to the television signal can be easily performed by a known method.
[0038]
<1-2-3. Printing>
Next, a case where a color printing device is connected as the external device 92 and the sensor output image is printed by the color printing device will be described. Generally, a color printing apparatus prints an image in which the color information of each pixel is represented by three colors of CMY (cyan, magenta, yellow) or four colors of CMYK (cyan, magenta, yellow, black). Be composed. For this reason, the sensor output image cannot be used as it is for printing in a color printing apparatus.
[0039]
Therefore, in this case, the image processing unit 42 first generates a normal image in which the color information of each pixel is represented by the three primary colors of RGB by the same method as that used for display, and further generates the generated normal image. Are converted to CMY values or CMYK values. Conversion from RGB values to CMY values or CMYK values can be easily performed by a known method. Through such processing, the sensor output image can be used for printing in the color printing apparatus.
[0040]
By the way, when the sensor output image is used for display or printing, in order to make the image more beautiful, sharpening processing for enhancing the edge of the subject, gradation correction processing for adjusting contrast, and color correction for adjusting hue and saturation are performed. Image processing such as processing may be performed. Of these image processes, the sharpening process is preferably performed on the sensor output image at a stage before the normal image is generated.
[0041]
In the sharpening process, one pixel of the sensor output image is set as a target pixel, and convolution operation using the filter mask of FIG. 8 is performed on 5 × 5 pixels centered on the target pixel to obtain the target pixel. A new value for the pixel is determined. By performing such a calculation using all the pixels of the sensor output image as the target pixels, the edge of the subject in the sensor output image is emphasized. In the sensor output image, there are four pixels corresponding to the same color as the target pixel and having the same horizontal or vertical direction in a 5 × 5 pixel region centered on the target pixel. This is the same even when a pixel corresponding to any color becomes a target pixel. Therefore, by performing the calculation using the filter mask shown in FIG. 8 on the sensor output image, the calculation can be performed between pixels corresponding to the same color. That is, it is possible to obtain a calculation result that is not affected by the values of the pixels corresponding to other colors. Note that the gradation correction processing and the color correction processing may be performed on any of the sensor output image and the normal image because the processing result of the target pixel is not affected by the values of the peripheral pixels.
[0042]
<1-2-4. Record>
Next, a case where a sensor output image is recorded on the memory card 91 will be described. In general, when recording an image (Bayer image) output from an image sensor in which a filter array has a Bayer array, interpolation of missing pixel values is performed to obtain a normal image in which each pixel has three primary color values of RGB. And performs a compression process and records it as a compressed image. That is, a color component image for each of the three primary colors of RGB is generated, and a normal image composed of the three color component images is compressed.
[0043]
Similarly, a color component image for each of four colors B, G1, G2, and R is generated from a sensor output image obtained from the imaging sensor 3 of the present embodiment, and is configured from the four color component images. When a compressed image is generated by compressing an image, the data amount of the compressed image is increased by the increase in the number of colors. On the other hand, a normal image in which color information is expressed in three primary colors is generated by the same method as used for display, and when this normal image is compressed, the values of G1 and G2 among the four color values Will be lost.
[0044]
For this reason, in the imaging apparatus 1 of the present embodiment, R, G1, G2, and B are divided into three groups corresponding to the three primary colors of RGB, and one pixel is provided for each group while maintaining the pixel values. A color component image is generated. FIG. 9 is a diagram conceptually illustrating a method of generating three color component images from a sensor output image. As shown in the figure, one color component image D4r composed of only the value of R is generated from the value of the R pixel of the sensor output image D1, and composed only of the value of B from the value of the B pixel of the sensor output image D1. One color component image D4b is generated. Further, one color component image D4g is generated from the values of the G1 pixel and the G2 pixel of the sensor output image D1.
[0045]
In generating the color component image D4g, the value of the pixel not corresponding to G1 or G2 is derived based on the values of both the G1 pixel and the G2 pixel existing around the pixel. At the same time, the values of the G1 pixel and the G2 pixel are not changed and are maintained as they are in the color component image D4g. That is, the color component image D4g has both values of G1 and G2. Accordingly, a compressed image obtained by compressing the image D4 including the three color component images D4r, D4g, and D4b includes four color values of R, G1, G2, and B. Further, since this compressed image is obtained by compressing an image composed of three color component images, the data amount is substantially equal to that of a compressed image obtained by compressing a normal image, and the compressed image is composed of four color component images. The amount of data can be suppressed as compared with a case where a compressed image is generated by compressing an image to be compressed.
[0046]
When the compressed image obtained in this manner is used, an expansion process is performed on the compressed image to restore the image D4, and G1 and G2 pixels are respectively extracted from the color component image D4g included in the image D4. By extracting, the values of the four colors R, G1, G2, and B can be used.
[0047]
<1-3. Modification>
This embodiment is not limited to the above description, and various modifications are possible. Hereinafter, such modified examples will be described. In the following, the color of light transmitted by a filter with a symbol attached to its name is indicated by the symbol attached to the filter. For example, the color of light transmitted by the X filter is indicated by X.
[0048]
<1-3-1. Multiple B or R type filters>
In the above embodiment, the G-type filter that transmits light in the green wavelength band includes two types of filters, the G1 filter and the G2 filter. However, a filter that transmits light in the blue wavelength band (hereinafter, referred to as a G-type filter). A filter that transmits light in the red wavelength band (hereinafter, referred to as an “R-type filter”) may include two or more types of filters.
[0049]
FIG. 10 shows a B1 filter that transmits light in a relatively short wavelength band among blue wavelength bands, a B2 filter that transmits light in a relatively long wavelength band among blue wavelength bands, and a filter attached to a light receiving pixel. FIG. 9 is a diagram showing an example of the arrangement of filters in the image sensor 3 when there are four types of filters, a G filter and an R filter. In this case, the B type filter includes two types of filters, a B1 filter and a B2 filter. As a result, the image sensor 3 outputs a sensor output image including a plurality of pixels respectively corresponding to any one of the four colors B1, B2, G, and R, and obtains light intensities in four wavelength bands.
[0050]
FIG. 11 shows an R1 filter that transmits light of a relatively short wavelength band in the red wavelength band and an R2 filter that transmits light of a relatively long wavelength band in the red wavelength band, as filters attached to the light receiving pixels. FIG. 9 is a diagram illustrating an example of the arrangement of filters in the image sensor 3 when there are four types of filters, a G filter and a B filter. In this case, the R type filter includes two types of filters, an R1 filter and an R2 filter. As a result, the image sensor 3 outputs a sensor output image including a plurality of pixels respectively corresponding to any of the four colors B, G, R1, and R2, and obtains light intensities in four wavelength bands.
[0051]
In any case, the G-type filter is attached to the light-receiving pixels P corresponding to one of the areas of the checkered pattern in the array of the plurality of light-receiving pixels P, and the B-type filter and the R-type filter have the checkered pattern. The light receiving pixels P corresponding to the other area (the area where the G type filter is not disposed) are evenly applied. Since the human eye has high sensitivity to light in the green wavelength band, the G-type filter is arranged in one of the checkered areas as described above, and the number of arrangements is larger than that of the B-type filter and the R-type filter. This can enhance the resolution of the acquired image.
[0052]
Also, when generating a Bayer image from a sensor output image obtained from the image sensor 3 shown in FIG. 10 or 11 for use in display or the like, similarly to the above, three groups corresponding to the three primary colors of RGB are used. , And the values of the pixels corresponding to one primary color of the Bayer image may be obtained for each group. For example, the value of the B pixel of the Bayer image at the same position as the B1 pixel of the sensor output image obtained from the imaging sensor 3 shown in FIG. Can be derived by performing a convolution operation using the filter mask shown in FIG. Further, the value of the B pixel of the Bayer image at the same position as the B2 pixel of the sensor output image can be derived by using the filter mask shown in FIG. 12 in which α and β are interchanged.
[0053]
<1-3-2.6 types of filters>
Further, the B-type filter, the G-type filter, and the R-type filter may include two types of filters, respectively, and the intensity of light in six wavelength bands may be obtained by a total of six types of filters.
[0054]
FIG. 13 is a diagram illustrating an example of the spectral transmission characteristics of the six types of filters in such a case. As shown in the figure, as the six types of filters, there are a B1 filter, a B2 filter, a G1 filter, a G2 filter, an R1 filter, and an R2 filter, starting from a filter that transmits a short wavelength band. Thus, two types of filters are included as a B type filter, two types of filters are included as a G type filter, and two types of filters are included as an R type filter.
[0055]
FIG. 14 is a diagram illustrating an example of the arrangement of these six types of filters in the image sensor 3. Also in this case, the G type filter is attached to the light receiving pixels P corresponding to one area of the checkered pattern in the array of the plurality of light receiving pixels P, and the B type filter and the R type filter are applied to the other area of the checkered pattern. (The area where the G type filter is not disposed) is evenly applied to the light receiving pixels P corresponding to the area. As a result, the image sensor 3 outputs a sensor output image including a plurality of pixels respectively corresponding to any of the six colors B1, B2, G1, G2, R1, and R2, and the intensity of light in the six wavelength bands is reduced. can get.
[0056]
Also, when generating a Bayer image from the sensor output image obtained from the image sensor 3, similarly to the above, the six colors are divided into three groups corresponding to the three primary colors of RGB, and each group is divided into three colors. What is necessary is just to obtain the value of the pixel corresponding to one primary color of the Bayer image. The primary color B group is divided into B1 and B2, the primary color G group is divided into G1 and G2, and the primary color R group is divided into R1 and R2. Then, a filter mask as shown in FIG. 6 may be used to derive the G pixel value of the Bayer image, and a filter mask as shown in FIG. 12 may be used to derive the B pixel and R pixel values of the Bayer image.
[0057]
<1-3-3.8 types of filters>
Also, the B-type filter and the R-type filter each include two types of filters, and the G-type filter includes four types of filters so that a total of eight types of filters can obtain light intensities in eight wavelength bands. It may be.
[0058]
FIG. 15 is a diagram illustrating an example of the spectral transmission characteristics of the eight types of filters in such a case. As shown in the figure, as the eight types of filters, there are a B1 filter, a B2 filter, a G1 filter, a G2 filter, a G3 filter, a G4 filter, an R1 filter, and an R2 filter, starting from a filter that transmits a short wavelength band. Accordingly, two types of filters are included as the B type filter, four types of filters are included as the G type filter, and two types of filters are included as the R type filter.
[0059]
FIG. 16 is a diagram illustrating an example of the arrangement of these eight types of filters in the image sensor 3. Also in this case, the G type filter is attached to the light receiving pixels P corresponding to one of the areas of the checkered pattern in the array of the plurality of light receiving pixels P. Then, in this region, the G1 to G4 filters are respectively arranged evenly. Further, the B-type filter and the R-type filter are evenly applied to the light receiving pixels P corresponding to the other area of the checkered pattern (the area where the G-type filter is not arranged). As a result, the image sensor 3 outputs a sensor output image including a plurality of pixels respectively corresponding to any one of the eight colors B1, B2, G1, G2, G3, G4, R1, and R2. Light intensity is obtained.
[0060]
As the number of wavelength bands that can be obtained in this way increases, the calculation accuracy when calculating the spectral distribution of light from a subject or the like in a computer or the like can be improved. The number of wavelength bands that can be acquired matches the number of types of filters, but the number of types of filters may be any number as long as it is four or more. In order to obtain a highly accurate spectral distribution, it is necessary to obtain light intensities in four or more wavelength bands.
[0061]
Also, when generating a Bayer image from the sensor output image obtained from the imaging sensor 3, similarly to the above, the eight colors are divided into three groups corresponding to the three primary colors of RGB, and each group is divided into eight colors. What is necessary is just to obtain the value of the pixel corresponding to one primary color of the Bayer image. The primary color B group is divided into B1 and B2, the primary color G group is divided into G1, G2, G3 and G4, and the primary color R group is divided into R1 and R2.
[0062]
To derive the values of the B pixel and the R pixel of the Bayer image, a filter mask as shown in FIG. 12 may be used. On the other hand, for deriving the value of the G pixel of the Bayer image, for example, a filter mask shown in FIG. 17 can be used. More specifically, for example, the value of the G pixel of the Bayer image at the same position as the G1 pixel of the sensor output image is calculated using the filter mask shown in FIG. 17 for 5 × 5 pixels centered on the G1 pixel of the sensor output image. Is derived by a convolution operation using. That is, the value of the G pixel is obtained by adding the weight α to the value of the G1 pixel. 1 , The values of the four G2 pixels, two G3 pixels, and two G4 pixels in the vicinity are weighted by α. 2 , Α 3 , Α 4 Is obtained by adding the average value of the result of multiplying by. Where the weight α 1 , Α 2 , Α 3 , Α 4 Satisfies the following expression (2).
[0063]
α 1 + Α 2 + Α 3 + Α 4 = 1 ... (2)
These weights α 1 ~ Α 4 Can be determined by the relationship between the spectral transmission characteristics of each of the G1 to G4 filters and the spectral transmission characteristics of a general G filter. That is, α is set so that the weight of a pixel to which a filter whose spectral transmission characteristic approximates to that of the G filter is added becomes larger. 1 ~ Α 4 Is determined. The value of the G pixel of the Bayer image at the same position as each of the G2 pixel, G3 pixel, and G4 pixel is calculated by the weight α of the filter mask shown in FIG. 1 ~ Α 4 May be derived using an appropriately modified one.
[0064]
<1-3-4. Near ultraviolet or near infrared wavelength band>
Although the filters of the above embodiments all transmit light in the visible wavelength band, the light receiving pixels made of silicon have wavelengths from near ultraviolet (about 300 nm) to near infrared (about 1100 nm). Since the light can be subjected to photoelectric conversion, the plurality of types of filters may include a filter that transmits light in a near-ultraviolet or near-infrared wavelength band.
[0065]
FIG. 18 is a diagram illustrating an example of spectral transmission characteristics of four types of filters including a UV filter that transmits light in a near ultraviolet wavelength band. As shown in the figure, the four types of filters include a B filter, a G filter, and an R filter that transmit light in the visible wavelength band, and a UV filter that transmits light in the near ultraviolet wavelength band.
[0066]
FIG. 19 is a diagram illustrating an example of the arrangement of these four types of filters in the image sensor 3. UV filters are classified into filters of a type that transmits light in a shorter wavelength band than G-type filters (hereinafter, referred to as “short-wavelength type filters”). This short wavelength type filter includes two types of filters, a UV filter and a B filter. The G type filter is attached to the light receiving pixels P corresponding to one area of the checkered pattern in the array of the plurality of light receiving pixels P, and the short wavelength type filter and the R type filter are used for the other area of the checkered pattern (the G type filter). Are uniformly applied to the light-receiving pixels P corresponding to the area where is not arranged. Then, the UV filter and the B filter are evenly arranged in a region where the short wavelength type filter is arranged.
[0067]
From such an imaging sensor 3, light intensities in four wavelength bands including a near ultraviolet wavelength band and wavelength bands respectively corresponding to the three primary colors of RGB are obtained. That is, in the image sensor 3, information of the near-ultraviolet wavelength band of the light from the subject is obtained together with the color information of the subject in one exposure.
[0068]
FIG. 20 is a diagram illustrating an example of spectral transmission characteristics of four types of filters including an IR filter that transmits light in a near-infrared wavelength band. As shown in the figure, there are four types of filters, a B filter, a G filter, and an R filter that transmit light in the visible wavelength band, and an IR filter that transmits light in the near infrared wavelength band.
[0069]
FIG. 21 is a diagram showing an example of arrangement of these four types of filters in the image sensor 3. IR filters are classified as filters of a type that transmits light in a longer wavelength band than G-type filters (hereinafter, referred to as “long-wavelength type filters”). The long wavelength type filter includes two types of filters, an IR filter and an R filter. The G type filter is attached to the light receiving pixels P corresponding to one area of the checkered pattern in the arrangement of the plurality of light receiving pixels P, and the long wavelength type filter and the B type filter are used for the other area of the checkered pattern (the G type filter). Are uniformly applied to the light-receiving pixels P corresponding to the area where is not arranged. Then, the IR filter and the R filter are evenly arranged in a region where the long wavelength type filter is arranged.
[0070]
From such an image sensor 3, light intensities in four wavelength bands including a near-infrared wavelength band and wavelength bands respectively corresponding to the three primary colors of RGB are obtained. That is, in the image sensor 3, information of the near-infrared wavelength band of the light from the subject is obtained together with the color information of the subject in one exposure.
[0071]
The near-ultraviolet wavelength band is a wavelength band in which insects and the like have visibility, so that if light intensity in the near-ultraviolet wavelength band is obtained, various analyzes can be performed on subjects such as plants. Also, light in the near-ultraviolet wavelength band is often scattered by the subject, and is therefore suitable for detecting wrinkles and spots on the face. On the other hand, light in the near-infrared wavelength band is less likely to be scattered or absorbed by the subject and easily penetrates the living body. It can be performed.
[0072]
<1-3-5. Reproduction of color matching function>
If there are four types of filters as filters applied to the light receiving pixels of the image sensor 3, it is possible to reproduce a color matching function representing the sensitivity of the human eye. FIG. 22 is a diagram illustrating a color matching function. As shown in the figure, the color matching function is represented by three curves of r, g, and b. The curve r has a portion rn that protrudes to the negative side.
[0073]
Therefore, in order to reproduce such a color matching function, as shown in FIG. 23, an R1 filter having a spectral transmission characteristic that matches the characteristic of the positive portion of the curve r of the color matching function, and a curve of the color matching function An R2 filter having a spectral transmission characteristic whose polarity is opposite to the characteristic of the negative part rn of r, a G filter having a spectral transmission characteristic matching the characteristic of the curve g of the color matching function, and a characteristic of a curve b of the color matching function B filters having the same spectral transmission characteristics are set. These four types of filters may be arranged on the image sensor 3 as in FIG. 11, for example.
[0074]
The value obtained from the light-receiving pixel with the G filter is the primary color G value, the value obtained from the light-receiving pixel with the B filter is the primary color B value, and the value obtained from the light-receiving pixel with the R1 filter is obtained. The value obtained by subtracting the value obtained by the light receiving pixel provided with the R2 filter from the value is defined as the value of the primary color R. By doing so, the color matching function is substantially reproduced, and the values of the three primary colors corresponding to the values felt by the human eye can be obtained.
[0075]
<1-3-6. Honeycomb arrangement>
Further, the imaging sensor 3 may be a honeycomb sensor in which the arrangement of the light receiving pixels is a honeycomb arrangement. In the honeycomb sensor, light receiving pixels are arranged in a honeycomb shape (adjacent light receiving pixels are shifted by half a pixel). FIG. 24 is a diagram illustrating an example of the arrangement of four types of filters, a B filter, a G1 filter, a G2 filter, and an R filter, with respect to the honeycomb sensor 3a. The arrangement of the filter shown in FIG. 24 corresponds to the arrangement of the filter shown in FIG. 4 rotated by 45 degrees.
[0076]
In such a honeycomb sensor 3a, a wiring portion between the light receiving pixels P is not required, so that a space is created, and each light receiving pixel can be enlarged as compared with the imaging sensor 3 described above. It becomes.
[0077]
When the types of filters having different wavelength bands of transmitted light are increased, the bandwidth of light transmitted by each filter becomes narrower, so that the sensitivity of a light receiving pixel provided with such a filter may be reduced. There is. When the honeycomb sensor 3a is employed as the imaging sensor 3, the size of each light receiving pixel can be increased, so that such a decrease in the sensitivity of the light receiving pixel can be prevented.
[0078]
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, the filter is arranged for each light receiving pixel of the image sensor, but in the present embodiment, the filter is arranged for each unit including a plurality of light receiving pixels. . The configuration of the imaging device 1 of the present embodiment is almost the same as that shown in FIG. 2, but the configuration of the imaging unit 40 is different.
[0079]
FIG. 25 is an exploded perspective view illustrating a schematic configuration of the imaging unit 40 according to the present embodiment. Light from the subject enters from the upper part of FIG. As shown in the drawing, the imaging unit 40 includes a microlens array 20 having a total of four horizontal 2 × vertical 2 microlenses 21 arranged in a plane, and a total of four horizontal 2 × vertical 2 filters 61. A filter array 60 having a plurality of grids 71 arranged horizontally and 2 × vertically 2 arranged in a plane, and an image sensor 30 having a plurality of light receiving pixels arranged in a plane. Are provided in this order from the light incident side.
[0080]
The light-receiving surface composed of a plurality of light-receiving pixels of the image sensor 30 is divided into a total of four image areas 31 (horizontal 2 × vertical 2), and four micro lenses 21 are provided for each of the four image areas 31. Is formed. Further, the four filters 61 are arranged corresponding to the four microlenses 21, respectively, and transmit only light of a specific wavelength band among the light that has passed through the microlenses 21. Furthermore, the four gratings 71 are arranged corresponding to each of the four microlenses 21 so as to prevent interference between light passing through one microlens 21 and light passing through the other microlenses 21. Function.
[0081]
That is, one microlens 21, one filter 61, and one grating 71 are associated with one imaging region 31, and these are one unit as shown by a dashed line in the drawing. U. The light image of the subject formed in the image forming area 31 in the same unit U by the microlens 21 is photoelectrically converted by a plurality of light receiving pixels included in the image forming area 31 into one image. Therefore, an image of one subject is obtained for each unit U, and images of four subjects are obtained by the entire imaging sensor 30. The acquired four images are converted into digital signals in the A / D converter 41, subjected to predetermined processing in the image processing unit 42 as necessary, and stored in the memory card 91 or transmitted to the external device 92. .
[0082]
Since the focal length of the microlens is shorter than the focal length of a normal lens, the imaging device 1 can be downsized by configuring the imaging unit 40 according to the present embodiment. Further, when a plurality of types of filters are formed for each light receiving pixel as in the first embodiment, the number of manufacturing steps of the image sensor may increase, and the manufacturing cost of the imaging apparatus may increase. According to the configuration of the imaging unit 40 of the embodiment, the filter may be arranged for each unit, so that the size of the filter can be relatively large. This makes it relatively easy to manufacture the filter, thereby reducing the manufacturing cost of the imaging device.
[0083]
The wavelength band of the light transmitted by the filter in each unit U corresponds to the color of a pixel in an image obtained in the same unit U. The four filters 61 forming the filter array 60 have different wavelength bands of transmitted light. That is, in this embodiment, four types of filters are employed. As these four types of filters, a B filter, a G1 filter, a G2 filter, and an R filter having the spectral transmission characteristics shown in FIG. 3 are used. FIG. 26 is a diagram illustrating an example of the arrangement of four types of filters 61 in each unit U in the filter array 60.
[0084]
With such a configuration, the imaging apparatus 1 can obtain four images having different colors for the same subject by one exposure. That is, the imaging apparatus 1 can obtain the light intensities of the four wavelength bands by one exposure. Furthermore, the imaging device 1 can obtain the intensity of four wavelength bands with respect to light from the same point of the subject. In other words, four color component images B, G1, G2, and R can be obtained without performing interpolation of the missing pixel value, and no false color or moire caused by the interpolation of the missing pixel value occurs.
[0085]
In the present embodiment, the arrangement of the filters in filter array 60 is not particularly limited, and four types of filters may be arranged in any manner. The four types of filters may transmit any wavelength band as long as the wavelength bands of transmitted light are different from each other.
[0086]
For example, the four types of filters may include a filter that transmits light in the near ultraviolet or near infrared wavelength band. FIG. 27 is a diagram illustrating an arrangement example of the filter 61 in the filter array 60 when the UV filter, the B filter, the G filter, and the R filter having the spectral transmission characteristics illustrated in FIG. 19 are employed. FIG. 28 is a diagram illustrating an example of the arrangement of the filters 61 in the filter array 60 when the B filter, the G filter, the R filter, and the IR filter having the spectral transmission characteristics illustrated in FIG. 20 are employed. With such a configuration, the image sensor 30 can obtain information on the near-ultraviolet or near-infrared wavelength band of the light from the subject together with the color information of the subject in one exposure, as described above. Various analyzes can be performed on the subject.
[0087]
Further, the four types of filters may include a transparent filter (hereinafter, referred to as “W filter”) that transmits light in all wavelength bands. FIG. 29 is a diagram illustrating an example of the arrangement of the filters 61 in the filter array 60 in such a case. With such a configuration, the image sensor 30 can obtain pure color component information about light from the subject together with color information of the subject in one exposure. At the same time, since the W filter transmits light in all wavelength bands, the sensitivity of the light receiving pixels included in the unit U in which the W filter is arranged can be improved. Therefore, the imaging apparatus 1 employing the filter array 60 shown in FIG. 29 obtains an image of the subject by using the unit U in which the W filter is arranged, even when the brightness of the subject is extremely low. be able to. For this reason, the imaging device 1 can be used for a surveillance camera, a vehicle-mounted camera, or the like that is required to be used day and night.
[0088]
Further, the number of units U is not limited to four, and may be any number as long as it is four or more. FIG. 30 is a diagram illustrating an example of the arrangement of the filters 61 in the filter array 60 when the number of units U is six. Even in such a case, the six filters 61 have different wavelength bands of transmitted light, and in the example of FIG. 30, six types of filters having the spectral transmission characteristics shown in FIG. 13 are employed. . When the number of units U is increased in this manner, the number of wavelength bands that can be obtained by one exposure can be increased, so that the calculation accuracy when calculating the spectral distribution of light from a subject in a computer or the like can be improved. Can be improved.
[0089]
In addition, as shown in FIG. 31, the visible wavelength band is divided into, for example, 16, and 16 types of filters (F1 to F16 filters) capable of transmitting light in the respective divided wavelength bands are prepared, as shown in FIG. Alternatively, F1 to F16 filters may be arranged in 16 units U, respectively. In the imaging apparatus 1 employing the filter array 60 shown in FIG. 32, light intensity in 16 wavelength bands can be obtained by one exposure, and can be used as a highly accurate spectrophotometer. When the imaging device 1 is used as a spectrocolorimeter, it is preferable that the number of wavelength bands that can be obtained by one exposure is 16 or more.
[0090]
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. Although the configuration of the imaging apparatus 1 of the present embodiment is almost the same as that of the second embodiment, in the present embodiment, a plurality of images acquired for each unit U are rearranged and one An arrangement image is generated.
[0091]
FIG. 33 is an exploded perspective view illustrating a schematic configuration of the imaging unit 40 according to the present embodiment. The imaging unit 40 according to the present embodiment includes a microlens array 20 having a plurality of microlenses 21 arranged in a plane and a plurality of filters 61 arranged in a plane, almost in the same manner as the second embodiment. Filter array 60, a partition 70 having a plurality of grids 71 arranged in a plane, and an image sensor 30 having a plurality of light receiving pixels arranged in a plane from the light incident side in this order. ing. The light receiving surface of the image sensor 30 including a plurality of light receiving pixels is divided into a plurality of imaging regions 31. One micro lens 21, one filter 61, and one grating 71 are associated with this imaging region 31, and these form one unit U. However, the imaging unit 40 according to the present embodiment includes a large number of units U, specifically, a plurality of units U arranged M in the horizontal direction and N in the straight direction.
[0092]
FIG. 34 is a diagram showing a relationship between a plurality of units U and a plurality of light receiving pixels P. The upper part shows the arrangement of the units U (that is, the imaging regions 31) in the image sensor 30, and the lower part shows the arrangement in one unit U. 2 shows the arrangement of the light receiving pixels P in FIG. As shown in the drawing, the light receiving surface of the image sensor 30 is divided into horizontal M units × vertical N units U, and one unit U includes m horizontal × n vertical light receiving pixels P.
[0093]
In each unit U, an image of a subject composed of horizontal m × vertical n pixels (hereinafter, referred to as “unit image”) is obtained. The unit image is converted into a digital signal by the A / D converter 41 and then input to the image processing unit 42. Then, the image processing unit 42 rearranges the pixels included in the unit image obtained in each unit U, and generates a rearranged image including N × n pixels in the horizontal direction and M × m pixels in the vertical direction.
[0094]
Since there is a parallax between the plurality of microlenses 21 forming the microlens array 20, light images of the subject are formed at slightly different positions between the imaging regions 31 due to the parallax. Therefore, the positions of the included subject images are slightly different between the plurality of unit images. In the present embodiment, by utilizing such a difference in the position of the subject image between the unit images, the pixels of the plurality of unit images are rearranged to obtain a single high-resolution rearranged image. ing.
[0095]
Here, the horizontal coordinate of each unit U on the image sensor 30 is I, the vertical coordinate is J, the horizontal coordinate of the light receiving pixel P in the unit U is i, and the vertical coordinate is j, The acquired coordinates (I, J) of the unit U are used to identify each unit image, and the coordinates (i, j) of the acquired light receiving pixel P are used to identify each pixel in the unit image. . In FIG. 34, each coordinate (I, J) is shown in each unit U, and each coordinate (i, j) is shown in each light receiving pixel P.
[0096]
Then, assuming that the horizontal coordinate of each pixel in the rearranged image is x and the vertical coordinate is y, the coordinates at which the pixel (i, j) in the unit image (I, J) is to be arranged in the rearrangement processing. (X, y) is expressed by the following equations (3) and (4).
[0097]
x = M (i-1) + I (3)
y = N (j-1) + J (4)
In the rearrangement process, the coordinates (x, y) obtained by Expressions (3) and (4) are set as target coordinates of each pixel, and all pixels of all unit images are arranged at the respective target coordinates. An arrangement image is generated.
[0098]
In the present embodiment, four types of filters having different wavelength bands of transmitted light are employed as the plurality of filters 61 forming the filter array 60. As these four types of filters, a B filter, a G1 filter, a G2 filter, and an R filter having the spectral transmission characteristics shown in FIG. 3 are used.
[0099]
FIG. 35 is a diagram showing an example of the arrangement of four types of filters in each unit U (that is, each microlens 21) in the filter array 60. As shown in FIG. 35, the G type filters (G1 filter and G2 filter) are arranged in the unit U corresponding to one area of the checkered pattern in the arrangement of the units U. Then, the G1 filter and the G2 filter are alternately arranged in the vertical direction. On the other hand, the B filter and the R filter are arranged in the unit U corresponding to the other area of the checkered pattern (the area where the G type filter is not arranged). The B filters and the R filters are alternately arranged in the vertical direction. That is, the arrangement of the filters is the same as the arrangement of the filters shown in FIG.
[0100]
The color of the pixel in each unit image corresponds to the wavelength band of light transmitted by the filter 61 in the obtained unit U. That is, a unit image of only B pixels is provided from the unit U in which the B filter is provided, a unit image of only G1 pixels is provided from the unit U in which the G1 filter is provided, and only a G2 pixel is provided from the unit U in which the G2 filter is provided. From the unit U in which the unit image and the R filter are arranged, a unit image of only R pixels is obtained. Therefore, also in the imaging device 1 of the present embodiment, it is possible to obtain light intensities of four wavelength bands by one exposure.
[0101]
When the above rearrangement processing is performed on these unit images, the arrangement of the colors corresponding to the pixels in the rearranged image becomes the same as the arrangement of the four types of filters in the filter array 60. Therefore, when the filter array 60 shown in FIG. 35 is adopted, an image equivalent to the sensor output image obtained from the imaging sensor 3 shown in FIG. 4 is obtained as a rearranged image. From this, the same image processing as that of the first embodiment can be performed on this rearranged image.
[0102]
In the present embodiment, the number of types of filters may be any number as long as it is four or more, and the filter may transmit any wavelength band. Good. Therefore, as the arrangement of the filters in the filter array 60, any of the arrangements shown in FIG. 10, FIG. 11, FIG. 14, FIG. 16, FIG. 19, and FIG.
[0103]
◎ Note that the specific embodiments described above include inventions having the following configurations.
[0104]
(1) In the imaging device according to claim 5,
Each of the plurality of filters is a first type filter that transmits light in a green wavelength band, a second type filter that transmits light in a wavelength band shorter than the first type filter, and longer than the first type filter. Divided into any of the third type filters that transmit light in the wavelength band,
The first type filter is disposed with respect to the microlenses corresponding to one area of a checkered pattern in the array of the plurality of microlenses,
The imaging apparatus according to claim 1, wherein the second and third type filters are respectively arranged evenly with respect to the microlenses corresponding to the other area of the checkered pattern.
[0105]
According to this, since the human eye has high sensitivity to light in the green wavelength band, the first type filter that transmits light in the green wavelength band is arranged in one of the checkered areas, and By increasing the number of arrangements compared to the third type filter, it is possible to enhance the resolution of the acquired image.
[0106]
(2) In the imaging device according to claim 1 or (1),
The second type filter includes a filter that transmits a near ultraviolet wavelength band.
[0107]
According to this, since the intensity of light in the near ultraviolet wavelength band can be obtained, various analyzes can be performed on the subject.
[0108]
(3) In the imaging device according to claim 1 or (1),
The third type filter includes a filter that transmits a near-infrared wavelength band.
[0109]
According to this, since the intensity of light in the near-infrared wavelength band can be obtained, various analyzes can be performed on the subject.
[0110]
(4) In the imaging device according to claim 4,
The imaging apparatus according to claim 1, wherein the predetermined number of filters includes a filter that transmits near-ultraviolet rays or near-infrared rays.
[0111]
According to this, since the intensity of light in the near ultraviolet or near infrared wavelength band can be obtained, various analyzes can be performed on the subject.
[0112]
【The invention's effect】
As described above, according to the first aspect of the invention, it is possible to obtain light intensities of four or more wavelength bands by one exposure. In addition, since the human eye has high sensitivity to light in the green wavelength band, the first type filter that transmits light in the green wavelength band is arranged in one of the checkered areas, and the second and third types of filters are arranged. By increasing the number of arrangements compared to the filters, it is possible to enhance the resolution of the acquired image.
[0113]
According to the second aspect of the present invention, a value of a pixel corresponding to one primary color is derived for each of three groups corresponding to three primary colors, so that a plurality of pixels corresponding to any one of four or more types of colors are provided. Can be used for display on a general color display device and printing on a color printing device.
[0114]
According to the third aspect of the present invention, a third image composed of four or more second images is generated by compressing a third image composed of three second images to generate one compressed image. The data amount of the compressed image can be reduced as compared with the case where one compressed image is generated by compression.
[0115]
According to the fourth aspect of the present invention, the intensity of light in four or more wavelength bands from the same point from the subject can be obtained by one exposure. Further, the size of the imaging device can be reduced.
[0116]
According to the fifth aspect of the present invention, it is possible to obtain light intensities of four or more wavelength bands by one exposure. Further, the size of the imaging device can be reduced.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an imaging sensor in which a filter array is a Bayer array.
FIG. 2 is a diagram illustrating a basic configuration of an imaging device.
FIG. 3 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 4 is a diagram illustrating an example of an arrangement of filters.
FIG. 5 is a diagram illustrating a method of generating a normal image from a sensor output image.
FIG. 6 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 7 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 8 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 9 is a diagram illustrating a method of generating three color component images from a sensor output image.
FIG. 10 is a diagram illustrating an example of an arrangement of filters.
FIG. 11 is a diagram illustrating an example of an arrangement of filters.
FIG. 12 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 13 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 14 is a diagram illustrating an example of an arrangement of filters.
FIG. 15 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 16 is a diagram illustrating an example of an arrangement of filters.
FIG. 17 is a diagram illustrating an example of a filter mask used for calculation.
FIG. 18 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 19 is a diagram illustrating an example of an arrangement of filters.
FIG. 20 is a diagram illustrating an example of spectral transmission characteristics of a filter.
FIG. 21 is a diagram illustrating an example of an arrangement of filters.
FIG. 22 is a diagram illustrating a color matching function.
FIG. 23 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 24 is a diagram illustrating an example of an arrangement of a filter with respect to a honeycomb sensor.
FIG. 25 is a diagram illustrating a schematic configuration of an imaging unit according to the second embodiment.
FIG. 26 is a diagram illustrating an example of the arrangement of filters in a filter array.
FIG. 27 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 28 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 29 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 30 is a diagram illustrating an example of an arrangement of filters in a filter array.
FIG. 31 is a diagram illustrating an example of a spectral transmission characteristic of a filter.
FIG. 32 is a diagram showing an example of the arrangement of filters in a filter array.
FIG. 33 is a diagram illustrating a schematic configuration of an imaging unit according to a third embodiment.
FIG. 34 is a diagram showing a relationship between a plurality of units and a plurality of light receiving pixels.
FIG. 35 is a diagram illustrating an example of the arrangement of filters in a filter array.
[Explanation of symbols]
1 Imaging device
2 lens
3 Image sensor
20 micro lens array
30 Image sensor
60 filter array
70 Partition
U unit
P light receiving pixel

Claims (5)

撮像装置であって、
緑色波長帯の光を透過する第1タイプフィルタ、前記第1タイプフィルタよりも短い波長帯の光を透過する第2タイプフィルタ、および、前記第1タイプフィルタよりも長い波長帯の光を透過する第3タイプフィルタのいずれかがそれぞれ付された複数の受光画素を2次元に配列して有する撮像センサ、
を備え、
前記第1タイプフィルタは、前記複数の受光画素の配列における市松模様の一方の領域に対応する前記受光画素に付され、
前記第2および第3タイプフィルタは、前記市松模様の他方の領域に対応する前記受光画素にそれぞれ均等に付され、
前記第1ないし第3タイプフィルタのうちの少なくとも1つは、透過する光の波長帯が異なる2以上の種類のフィルタを含むことを特徴とする撮像装置。
An imaging device,
A first type filter transmitting light in a green wavelength band, a second type filter transmitting light in a wavelength band shorter than the first type filter, and transmitting light in a wavelength band longer than the first type filter. An image sensor having a plurality of light receiving pixels to which any of the third type filters are respectively arranged in a two-dimensional array;
With
The first type filter is attached to the light receiving pixels corresponding to one area of a checkered pattern in the array of the plurality of light receiving pixels,
The second and third type filters are equally applied to the light receiving pixels corresponding to the other area of the checkered pattern, respectively.
At least one of the first to third type filters includes two or more types of filters having different wavelength bands of transmitted light.
請求項1に記載の撮像装置において、
前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する画像を出力し、
前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、
前記グループごとに、該グループに含まれる色に対応する画素の値から、1原色に対応する画素の値を導出する導出手段、
をさらに備えることを特徴とする撮像装置。
The imaging device according to claim 1,
The image sensor outputs an image having a plurality of pixels respectively corresponding to any of four or more colors,
Each of the four or more colors is classified into one of three groups corresponding to three primary colors.
Deriving means for deriving, for each group, a value of a pixel corresponding to one primary color from a value of a pixel corresponding to a color included in the group;
An imaging device, further comprising:
請求項1に記載の撮像装置において、
前記撮像センサは、4種以上の色のいずれかにそれぞれ対応する複数の画素を有する第1画像を出力し、
前記4種以上の色はそれぞれ、3原色に対応する3つのグループのいずれかに区分されるものであり、
前記グループごとに、該グループに含まれる色に対応する画素の値から、1の第2画像を生成する生成手段と、
生成される3つの前記第2画像で構成される第3画像を圧縮して1の圧縮画像を生成する圧縮手段と、
をさらに備えることを特徴とする撮像装置。
The imaging device according to claim 1,
The image sensor outputs a first image having a plurality of pixels corresponding to any of four or more colors,
Each of the four or more colors is classified into one of three groups corresponding to three primary colors.
Generating means for generating, for each group, one second image from values of pixels corresponding to colors included in the group;
Compression means for compressing a third image composed of the three generated second images to generate one compressed image;
An imaging device, further comprising:
撮像装置であって、
複数の受光画素からなる4以上の所定数の結像領域を平面的に配列して有する撮像センサと、
前記所定数の結像領域上に被写体の光像をそれぞれ結像する前記所定数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、
前記所定数のマイクロレンズにそれぞれ対応する前記所定数のフィルタを平面的に配列して有するフィルタアレイと、
を備え、
前記所定数のフィルタは、透過する光の波長帯が互いに異なることを特徴とする撮像装置。
An imaging device,
An image sensor having a predetermined number of four or more image forming regions composed of a plurality of light receiving pixels arranged in a plane,
A microlens array having the predetermined number of microlenses for forming a light image of a subject on the predetermined number of image formation areas in a plane array,
A filter array having the predetermined number of filters respectively corresponding to the predetermined number of microlenses arranged in a plane,
With
The imaging apparatus according to claim 1, wherein the predetermined number of filters have different wavelength bands of transmitted light.
撮像装置であって、
複数の受光画素からなる複数の結像領域を平面的に配列して有する撮像センサと、
前記複数の結像領域上に被写体の光像をそれぞれ結像する複数のマイクロレンズを平面的に配列して有するマイクロレンズアレイと、
前記複数のマイクロレンズにそれぞれ対応する複数のフィルタを平面的に配列して有するフィルタアレイと、
前記複数の結像領域のそれぞれにて得られる被写体の画像に含まれる画素を、再配置することで1の再配置画像を生成する再配置手段と、
を備え、
前記複数のフィルタは、透過する光の波長帯が異なる4以上の種類があることを特徴とする撮像装置。
An imaging device,
An imaging sensor having a plurality of imaging regions consisting of a plurality of light receiving pixels arranged in a plane,
A microlens array having a plurality of microlenses that respectively form a plurality of microlenses for forming light images of a subject on the plurality of imaging regions,
A filter array having a plurality of filters respectively corresponding to the plurality of microlenses arranged in a plane,
A rearrangement unit configured to rearrange pixels included in an image of a subject obtained in each of the plurality of imaging regions to generate one rearranged image;
With
The image pickup apparatus, wherein the plurality of filters include four or more types having different wavelength bands of transmitted light.
JP2003011014A 2003-01-20 2003-01-20 Imaging device Pending JP2004228662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003011014A JP2004228662A (en) 2003-01-20 2003-01-20 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003011014A JP2004228662A (en) 2003-01-20 2003-01-20 Imaging device

Publications (1)

Publication Number Publication Date
JP2004228662A true JP2004228662A (en) 2004-08-12

Family

ID=32900043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003011014A Pending JP2004228662A (en) 2003-01-20 2003-01-20 Imaging device

Country Status (1)

Country Link
JP (1) JP2004228662A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005046248A1 (en) * 2003-11-11 2005-05-19 Olympus Corporation Multi-spectrum image pick up device
JP2006311524A (en) * 2005-03-30 2006-11-09 Pentax Corp Imaging device
JP2007103401A (en) * 2005-09-30 2007-04-19 Matsushita Electric Ind Co Ltd Imaging apparatus and image processing apparatus
WO2007119468A1 (en) * 2006-03-22 2007-10-25 Matsushita Electric Industrial Co., Ltd. Imaging device
JP2008085659A (en) * 2006-09-27 2008-04-10 Pentax Corp Digital camera
JP2008518229A (en) * 2004-10-25 2008-05-29 アールピー ベンチャーズ テクノロジー オフィス アーベー Multispectral and hyperspectral imaging systems
JP2008136251A (en) * 2003-11-11 2008-06-12 Olympus Corp Multispectral image capturing apparatus
JPWO2006064564A1 (en) * 2004-12-16 2008-06-12 富士通株式会社 Imaging apparatus, imaging device, and image processing method
EP2136550A2 (en) * 2008-06-18 2009-12-23 Ricoh Company, Ltd. Image pickup
JP2010062604A (en) * 2008-09-01 2010-03-18 Rohm Co Ltd Imaging sensor
JP2010078970A (en) * 2008-09-26 2010-04-08 Toppan Printing Co Ltd Color filter, its manufacturing method, and solid imaging element having the color filter
JP2010531540A (en) * 2007-06-18 2010-09-24 シリコンファイル・テクノロジーズ・インコーポレイテッド A pixel array having a wide dynamic range and good color reproducibility and resolution, and an image sensor using the pixel array
JP2010212969A (en) * 2009-03-10 2010-09-24 Canon Inc Color image sensor
WO2010122797A1 (en) * 2009-04-22 2010-10-28 パナソニック株式会社 Solid-stage imaging element
JP2010273040A (en) * 2009-05-20 2010-12-02 Canon Inc Image input device, image processing method, and computer program
US7864235B2 (en) 2005-03-30 2011-01-04 Hoya Corporation Imaging device and imaging method including generation of primary color signals
US8134191B2 (en) 2006-01-24 2012-03-13 Panasonic Corporation Solid-state imaging device, signal processing method, and camera
JP2013066168A (en) * 2011-08-26 2013-04-11 Panasonic Corp Imaging element and imaging apparatus
WO2013190938A1 (en) * 2012-06-21 2013-12-27 オリンパス株式会社 Image capturing module and image capturing device
US8629916B2 (en) 2008-08-19 2014-01-14 Rohm Co., Ltd. Camera with imaging unit and imaging unit for camera
JP2014533463A (en) * 2011-11-04 2014-12-11 アイメックImec A spectral camera with overlapping segments of image copies interleaved on a sensor array
JP2015019378A (en) * 2005-03-07 2015-01-29 ディーエックスオー ラブズ Sensor for digital image capturing device and digital image capturing device
WO2016031922A1 (en) * 2014-08-28 2016-03-03 平本 政夫 Multispectral camera
US9609252B2 (en) 2011-08-25 2017-03-28 Sony Corporation Image sensor, imaging apparatus and live body imaging apparatus
US9638575B2 (en) 2013-06-19 2017-05-02 Ricoh Company, Ltd. Measuring apparatus, measuring system, and measuring method
JP2019015565A (en) * 2017-07-05 2019-01-31 パイオニア株式会社 Spectroscopic image acquisition device
JP2019023646A (en) * 2012-10-19 2019-02-14 ハイパーメツド・イメージング・インコーポレイテツド Single-sensor hyperspectral imaging device
JP2019097058A (en) * 2017-11-24 2019-06-20 ブリルニクス インク Solid-state imaging apparatus, manufacturing method of solid-state imaging apparatus, and electronic apparatus
EP3993399A1 (en) * 2020-11-02 2022-05-04 Beijing Xiaomi Mobile Software Co., Ltd. Color filter structure, related photographing method, device, terminal, and storage medium
EP4222949A1 (en) * 2021-04-12 2023-08-09 Viavi Solutions Inc. Optical filter for an optical sensor device
DE102006038814B4 (en) 2005-08-18 2025-07-17 Hoya Corp. Electronic endoscope, endoscope light source unit, endoscope processor and electronic endoscope system

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868936B2 (en) 2003-11-11 2011-01-11 Olympus Corporation Multispectral image capturing apparatus
WO2005046248A1 (en) * 2003-11-11 2005-05-19 Olympus Corporation Multi-spectrum image pick up device
US8134618B2 (en) 2003-11-11 2012-03-13 Olympus Corporation Multispectral image capturing apparatus
JP2008136251A (en) * 2003-11-11 2008-06-12 Olympus Corp Multispectral image capturing apparatus
US7612822B2 (en) 2003-11-11 2009-11-03 Olympus Corporation Multispectral image capturing apparatus
JP2008518229A (en) * 2004-10-25 2008-05-29 アールピー ベンチャーズ テクノロジー オフィス アーベー Multispectral and hyperspectral imaging systems
JP4536072B2 (en) * 2004-12-16 2010-09-01 富士通セミコンダクター株式会社 Imaging device
JPWO2006064564A1 (en) * 2004-12-16 2008-06-12 富士通株式会社 Imaging apparatus, imaging device, and image processing method
JP2015019378A (en) * 2005-03-07 2015-01-29 ディーエックスオー ラブズ Sensor for digital image capturing device and digital image capturing device
US7864235B2 (en) 2005-03-30 2011-01-04 Hoya Corporation Imaging device and imaging method including generation of primary color signals
JP2006311524A (en) * 2005-03-30 2006-11-09 Pentax Corp Imaging device
DE102006038814B4 (en) 2005-08-18 2025-07-17 Hoya Corp. Electronic endoscope, endoscope light source unit, endoscope processor and electronic endoscope system
JP2007103401A (en) * 2005-09-30 2007-04-19 Matsushita Electric Ind Co Ltd Imaging apparatus and image processing apparatus
US8134191B2 (en) 2006-01-24 2012-03-13 Panasonic Corporation Solid-state imaging device, signal processing method, and camera
CN101834988B (en) * 2006-03-22 2012-10-17 松下电器产业株式会社 camera device
WO2007119468A1 (en) * 2006-03-22 2007-10-25 Matsushita Electric Industrial Co., Ltd. Imaging device
US8471918B2 (en) 2006-03-22 2013-06-25 Panasonic Corporation Imaging device with plural imaging regions and parallax computing portion
US7880773B2 (en) 2006-09-27 2011-02-01 Hoya Corporation Imaging device
JP2008085659A (en) * 2006-09-27 2008-04-10 Pentax Corp Digital camera
US8854514B1 (en) * 2007-06-18 2014-10-07 Siliconfile Technologies Inc. Pixel array having wide dynamic range and good color reproduction and resolution and image sensor using the pixel array
US20140293099A1 (en) * 2007-06-18 2014-10-02 Siliconfile Technologies Inc. Pixel array having wide dynamic range and good color reproduction and resolution and image sensor using the pixel array
US8792029B2 (en) 2007-06-18 2014-07-29 Siliconfile Technologies Inc. Pixel array having wide dynamic range and good color reproduction and resolution and image sensor using the pixel array
EP2156659A4 (en) * 2007-06-18 2013-10-30 Siliconfile Technologies Inc PIXÉLISÉ MATRIX HAVING A WIDE DYNAMIC RANGE AND A GOOD REPRODUCTION AND COLOR RESOLUTION AND IMAGE SENSOR USING THE PIXÉLISÉE MATRIX
JP2010531540A (en) * 2007-06-18 2010-09-24 シリコンファイル・テクノロジーズ・インコーポレイテッド A pixel array having a wide dynamic range and good color reproducibility and resolution, and an image sensor using the pixel array
EP2136550A2 (en) * 2008-06-18 2009-12-23 Ricoh Company, Ltd. Image pickup
US8629916B2 (en) 2008-08-19 2014-01-14 Rohm Co., Ltd. Camera with imaging unit and imaging unit for camera
JP2010062604A (en) * 2008-09-01 2010-03-18 Rohm Co Ltd Imaging sensor
JP2010078970A (en) * 2008-09-26 2010-04-08 Toppan Printing Co Ltd Color filter, its manufacturing method, and solid imaging element having the color filter
JP2010212969A (en) * 2009-03-10 2010-09-24 Canon Inc Color image sensor
WO2010122797A1 (en) * 2009-04-22 2010-10-28 パナソニック株式会社 Solid-stage imaging element
JP2010273040A (en) * 2009-05-20 2010-12-02 Canon Inc Image input device, image processing method, and computer program
US9609252B2 (en) 2011-08-25 2017-03-28 Sony Corporation Image sensor, imaging apparatus and live body imaging apparatus
JP2013066168A (en) * 2011-08-26 2013-04-11 Panasonic Corp Imaging element and imaging apparatus
JP2014533463A (en) * 2011-11-04 2014-12-11 アイメックImec A spectral camera with overlapping segments of image copies interleaved on a sensor array
US11092725B2 (en) 2012-06-05 2021-08-17 Samsung Electronics Co., Ltd. Single-sensor hyperspectral imaging device
US11493675B2 (en) 2012-06-05 2022-11-08 Samsung Electronics Co., Ltd. Single-sensor hyperspectral imaging device
US10534116B2 (en) 2012-06-05 2020-01-14 Hypermed Imaging, Inc. Single-sensor hyperspectral imaging device
US9494768B2 (en) 2012-06-21 2016-11-15 Olympus Corporation Image capturing module and image capturing apparatus
JP2014006079A (en) * 2012-06-21 2014-01-16 Olympus Corp Imaging module and imaging device
WO2013190938A1 (en) * 2012-06-21 2013-12-27 オリンパス株式会社 Image capturing module and image capturing device
JP2019023646A (en) * 2012-10-19 2019-02-14 ハイパーメツド・イメージング・インコーポレイテツド Single-sensor hyperspectral imaging device
JP2020115640A (en) * 2012-10-19 2020-07-30 ハイパーメツド・イメージング・インコーポレイテツド Single-sensor hyperspectral imaging device
JP7000479B2 (en) 2012-10-19 2022-01-19 サムスン エレクトロニクス カンパニー リミテッド Single sensor hyperspectral imaging device
US9638575B2 (en) 2013-06-19 2017-05-02 Ricoh Company, Ltd. Measuring apparatus, measuring system, and measuring method
WO2016031922A1 (en) * 2014-08-28 2016-03-03 平本 政夫 Multispectral camera
JPWO2016031922A1 (en) * 2014-08-28 2017-06-15 平本 政夫 Multispectral camera
JP2019015565A (en) * 2017-07-05 2019-01-31 パイオニア株式会社 Spectroscopic image acquisition device
JP2019097058A (en) * 2017-11-24 2019-06-20 ブリルニクス インク Solid-state imaging apparatus, manufacturing method of solid-state imaging apparatus, and electronic apparatus
CN114449137A (en) * 2020-11-02 2022-05-06 北京小米移动软件有限公司 Optical filter structure, shooting method, device, terminal and storage medium
EP3993399A1 (en) * 2020-11-02 2022-05-04 Beijing Xiaomi Mobile Software Co., Ltd. Color filter structure, related photographing method, device, terminal, and storage medium
US12196990B2 (en) 2020-11-02 2025-01-14 Beijing Xiaomi Mobile Software Co., Ltd. Color filter structure, related photographing method, device, terminal, and storage medium
EP4222949A1 (en) * 2021-04-12 2023-08-09 Viavi Solutions Inc. Optical filter for an optical sensor device
US12092522B2 (en) 2021-04-12 2024-09-17 Viavi Solutions Inc. Optical filter for an optical sensor device

Similar Documents

Publication Publication Date Title
JP2004228662A (en) Imaging device
US5889554A (en) Process and system for generating a full color image of multispectral image from the image data of a CCD image sensor with a mosaic color filter
US8576313B2 (en) Color filters and demosaicing techniques for digital imaging
Lyon et al. Eyeing the camera: Into the next century
US7400332B2 (en) Hexagonal color pixel structure with white pixels
US20180270462A1 (en) Imaging processing device and imaging processing method
US7745779B2 (en) Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
TWI444050B (en) Method and apparatus for achieving full color reaction from color mosaic imager
JP6582987B2 (en) Video imaging device, video imaging method, code-type infrared cut filter, and code-type specific color cut filter
KR101639382B1 (en) Apparatus and method for generating HDR image
US20030160881A1 (en) Four color image sensing apparatus
CN101309429A (en) Device and method for processing video signal, imaging device and computer program
WO2017193738A1 (en) Image sensor, imaging method, and imaging device
US20070153099A1 (en) Image signal processing apparatus, imaging apparatus, image signal processing method and computer program thereof
WO2012057622A1 (en) System and method for imaging using multi aperture camera
JP2009511960A (en) System and method for high performance color filter mosaic array
JP2013546249A5 (en)
JP5698875B2 (en) Color imaging device and imaging apparatus
US7864235B2 (en) Imaging device and imaging method including generation of primary color signals
CN209345244U (en) Imaging Systems and Camera Modules
JP2015053578A (en) Color image pickup device and color image pickup method
WO2013164902A1 (en) Solid-state imaging device
JP2004200357A (en) Color imaging device, color filter array, and color imaging device
JP4344257B2 (en) Imaging apparatus and color separation optical system
JP2012010141A (en) Image processing apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613