[go: up one dir, main page]

JP2021100253A - Image pickup device and image pickup apparatus - Google Patents

Image pickup device and image pickup apparatus Download PDF

Info

Publication number
JP2021100253A
JP2021100253A JP2021020145A JP2021020145A JP2021100253A JP 2021100253 A JP2021100253 A JP 2021100253A JP 2021020145 A JP2021020145 A JP 2021020145A JP 2021020145 A JP2021020145 A JP 2021020145A JP 2021100253 A JP2021100253 A JP 2021100253A
Authority
JP
Japan
Prior art keywords
image pickup
image sensor
photoelectric conversion
image
pickup device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021020145A
Other languages
Japanese (ja)
Inventor
寛信 村田
Hironobu Murata
寛信 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021020145A priority Critical patent/JP2021100253A/en
Publication of JP2021100253A publication Critical patent/JP2021100253A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

To provide an image pickup device and an image pickup apparatus that perform focus detection by a pupil-division phase-difference method using infrared light and that capture a visible light image.SOLUTION: In an image pickup unit of an image pickup apparatus, a first image pickup device 31 is a so-called surface-illuminated image pickup device, which photoelectrically converts light incident on a surface side of a semiconductor substrate 50 by means of a photodiode PD, and outputs a photoelectric conversion signal via a wiring layer 51 formed on the surface side of the semiconductor substrate 50. A second image pickup device 32 using an organic photoelectric film is stacked and arranged on a surface side of the first image pickup device 31. A microlens array in which a plurality of microlenses ML are arranged in a two-dimensional manner is stacked and arranged above the second image pickup device 32 (i.e., on the opposite side of the first image pickup device 31). Each pixel of the first image pickup device 31 and the second image pickup device 32 is provided corresponding to each of the microlenses ML. A color filter CF is arranged between each pixel of the second image pickup device 32 and each microlens ML.SELECTED DRAWING: Figure 5

Description

本発明は、撮像素子および撮像装置に関する。 The present invention relates to an image pickup device and an image pickup apparatus.

可視光(RGB)を光電変換する光電変換部を有する半導体基板の上方に、赤外光を吸収して光電変換する光電変換膜が配置され、可視光画像の撮影と赤外光画像の撮影とを同時に行えるように構成された撮像素子が知られている(特許文献1参照)。 A photoelectric conversion film that absorbs infrared light and performs photoelectric conversion is arranged above a semiconductor substrate having a photoelectric conversion unit that photoelectrically converts visible light (RGB), and can take a visible light image and an infrared light image. An image pickup device configured to simultaneously perform the above is known (see Patent Document 1).

特開2012−169676号公報Japanese Unexamined Patent Publication No. 2012-169676

上記従来技術では、瞳分割位相差方式による焦点検出を行うことはできなかった。 With the above-mentioned conventional technique, it is not possible to perform focus detection by the pupil division phase difference method.

第1の態様の撮像素子は、光を光電変換して電荷を生成する有機光電膜と、前記有機光電膜を透過した光を光電変換して電荷を生成する光電変換部と、前記有機光電膜で生成された電荷に基づく信号を出力する第1配線および前記光電変換部で生成された電荷に基づく信号を出力する第2配線を有する配線層と、前記有機光電膜で生成された電荷を出力し前記第1配線と電気的に接続される貫通電極とを有する半導体基板と、を備える。
第2の態様の撮像装置は、第1の態様の撮像素子と、前記有機光電膜で生成された電荷に基づく信号および前記光電変換部で生成された電荷に基づく信号の少なくとも一方に基づいて、光学系による像が前記撮像素子に合焦する合焦位置の検出を行う検出部と、を備える。
The imaging device of the first aspect includes an organic photoelectric film that photoelectrically converts light to generate an electric charge, a photoelectric conversion unit that photoelectrically converts light transmitted through the organic photoelectric film to generate an electric charge, and the organic photoelectric film. A wiring layer having a first wiring that outputs a signal based on the electric charge generated in the above and a second wiring that outputs a signal based on the electric charge generated by the photoelectric conversion unit, and an electric charge generated by the organic photoelectric film are output. A semiconductor substrate having a through electrode electrically connected to the first wiring is provided.
The image pickup apparatus of the second aspect is based on at least one of the image pickup device of the first aspect, the charge-based signal generated by the organic photoelectric film, and the charge-based signal generated by the photoelectric conversion unit. It is provided with a detection unit that detects a focusing position at which an image by an optical system is focused on the image pickup device.

本発明によれば、赤外光を用いた瞳分割位相差方式の焦点検出を行うことができ、且つ可視光画像を撮像することができる。 According to the present invention, it is possible to perform focal detection by a pupil division retardation method using infrared light, and to capture a visible light image.

デジタルカメラの構成例を説明するブロック図である。It is a block diagram explaining the configuration example of a digital camera. 撮像部の概要を説明する図である。It is a figure explaining the outline of the imaging unit. (a)はカラーフィルターの配置例を説明する図であり、(b)は第2撮像素子の各画素の出力を説明する図であり、(c)は第1撮像素子の各画素の出力を説明する図である。(A) is a diagram for explaining an arrangement example of a color filter, (b) is a diagram for explaining the output of each pixel of the second image sensor, and (c) is a diagram for explaining the output of each pixel of the first image sensor. It is a figure explaining. 第1の実施の形態において、(a)は撮像部の半導体レイアウトの一例を説明する図であり、(b)は撮像部を切断線A−Bで切断したときの断面図であり、(c)は撮像部を切断線C−Dで切断したときの断面図である。In the first embodiment, (a) is a diagram illustrating an example of the semiconductor layout of the imaging unit, (b) is a cross-sectional view when the imaging unit is cut along the cutting lines AB, and (c). ) Is a cross-sectional view when the imaging unit is cut along the cutting line CD. (a)は撮像部を切断線A−Bで切断したときの断面図であり、(b)は第2撮像素子における切断線A−Bの画素位置を説明する図である。(A) is a cross-sectional view when the imaging unit is cut along the cutting line AB, and (b) is a diagram for explaining the pixel position of the cutting line AB in the second image sensor. (a)は撮像部を切断線C−Dで切断したときの断面図であり、(b)は第2撮像素子における切断線C−Dの画素位置を説明する図である。(A) is a cross-sectional view when the imaging unit is cut along the cutting line CD, and (b) is a diagram for explaining the pixel position of the cutting line CD in the second image sensor. 図6(a)の一部を拡大した図である。FIG. 6A is an enlarged view of a part of FIG. 6A. 撮像部における1つの画素の回路構成を例示する図である。It is a figure which illustrates the circuit structure of one pixel in the image pickup unit. 焦点検出処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a focus detection process. 撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a shooting process. 第2の実施の形態において、(a)は撮像部の半導体レイアウトの一例を説明する図であり、(b)は撮像部を切断線A−Bで切断したときの断面図であり、(c)は撮像部を切断線C−Dで切断したときの断面図である。In the second embodiment, (a) is a diagram illustrating an example of the semiconductor layout of the imaging unit, (b) is a cross-sectional view when the imaging unit is cut along the cutting lines AB, and (c). ) Is a cross-sectional view when the imaging unit is cut along the cutting line CD. 変形例による撮像部を切断線C−Dで切断したときの断面図である。It is sectional drawing when the image pickup part by the modification is cut at the cutting line CD. 変形例による撮像部の概要を説明する図である。It is a figure explaining the outline of the imaging unit by a modification.

(第1の実施の形態)
図1は、本発明の第1の実施の形態によるデジタルカメラ1の構成を例示する図である。デジタルカメラ1は、撮影光学系10、制御部11、撮像部12、操作部13、液晶モニタ15、およびバッファメモリ16を有する。また、デジタルカメラ1には、メモリカード17が装着されている。
(First Embodiment)
FIG. 1 is a diagram illustrating a configuration of a digital camera 1 according to the first embodiment of the present invention. The digital camera 1 includes a photographing optical system 10, a control unit 11, an imaging unit 12, an operation unit 13, a liquid crystal monitor 15, and a buffer memory 16. A memory card 17 is mounted on the digital camera 1.

撮影光学系10は、複数のレンズにより構成され、撮像部12の撮像面に被写体像を結像させる。撮影光学系10を構成する複数のレンズには、ピント位置を調節するために光軸方向に駆動されるフォーカスレンズが含まれる。フォーカスレンズは、不図示のレンズ駆動部により光軸方向に駆動される。 The photographing optical system 10 is composed of a plurality of lenses, and forms a subject image on the imaging surface of the imaging unit 12. The plurality of lenses constituting the photographing optical system 10 include a focus lens driven in the optical axis direction in order to adjust the focus position. The focus lens is driven in the optical axis direction by a lens driving unit (not shown).

制御部11は、マイクロプロセッサおよびその周辺回路から構成され、不図示のROMに格納された制御プログラムを実行することにより、デジタルカメラ1の各種の制御を行う。また、制御部11は、焦点検出部11aと、画像生成部11bとを機能的に有する。これらの各機能部は、上記の制御プログラムによりソフトウェア的に実装される。なお、これらの各機能部を電子回路により構成することも可能である。 The control unit 11 is composed of a microprocessor and its peripheral circuits, and performs various controls of the digital camera 1 by executing a control program stored in a ROM (not shown). Further, the control unit 11 functionally has a focus detection unit 11a and an image generation unit 11b. Each of these functional units is implemented in software by the above control program. It is also possible to configure each of these functional units with an electronic circuit.

焦点検出部11aは、撮像部12からの出力信号に基づき、撮影光学系10の焦点調節状態を検出する。画像生成部11bは、撮像部12からの出力信号に基づき、カラー画像信号を生成する。 The focus detection unit 11a detects the focus adjustment state of the photographing optical system 10 based on the output signal from the image pickup unit 12. The image generation unit 11b generates a color image signal based on the output signal from the image pickup unit 12.

撮影光学系10によって撮像部12上に結像された被写体像は、撮像部12によって光電変換される。撮像部12からの出力信号は、不図示のA/D変換部でデジタル画像信号に変換され、バッファメモリ16に格納される。 The subject image formed on the imaging unit 12 by the photographing optical system 10 is photoelectrically converted by the imaging unit 12. The output signal from the imaging unit 12 is converted into a digital image signal by an A / D conversion unit (not shown) and stored in the buffer memory 16.

バッファメモリ16に格納されたデジタル画像信号は、各種の画像処理が行われた後、液晶モニタ15に表示されたり、メモリカード17に格納されたりする。メモリカード17は、不揮発性のフラッシュメモリなどから構成され、デジタルカメラ1に対して着脱可能である。 The digital image signal stored in the buffer memory 16 is displayed on the liquid crystal monitor 15 or stored in the memory card 17 after various image processing is performed. The memory card 17 is composed of a non-volatile flash memory or the like, and is removable from the digital camera 1.

操作部13は、レリーズボタンやモード切り替えボタン、電源ボタンなど各種の操作ボタンから構成され、撮影者により操作される。操作部13は、撮影者による上記の各操作ボタンの操作に応じた操作信号を制御部11へ出力する。 The operation unit 13 is composed of various operation buttons such as a release button, a mode switching button, and a power button, and is operated by the photographer. The operation unit 13 outputs an operation signal corresponding to the operation of each of the above operation buttons by the photographer to the control unit 11.

<撮像部の説明>
図2は、本実施形態に係る撮像部12の概要を示す図である。なお、図2では、撮像部12の光入射側を上側とした状態を示している。このため、以下の説明では、撮像部12の光入射側の方向を「上方」または「上」とし、光入射側に対して反対側の方向を「下方」または「下」とする。撮像部12は、第1撮像素子31と、第1撮像素子31の光入射側(上側)で同一光路上に配置された第2撮像素子32とを有する。第2撮像素子32は、赤外光を吸収(光電変換)する有機光電膜で構成される。第2撮像素子32で吸収(光電変換)されなかった可視光は、第2撮像素子32を透過して第1撮像素子31に入射し、第1撮像素子31で光電変換される。第1撮像素子31は、フォトダイオードにより光電変換を行う。第2撮像素子32と第1撮像素子31とは同一の半導体基板上に形成され、各画素位置は一対一に対応する。たとえば第2撮像素子32の1行1列目の画素は、第1撮像素子31の1行1列目の画素に対応する。
<Explanation of imaging unit>
FIG. 2 is a diagram showing an outline of the imaging unit 12 according to the present embodiment. Note that FIG. 2 shows a state in which the light incident side of the imaging unit 12 is on the upper side. Therefore, in the following description, the direction of the image pickup unit 12 on the light incident side is referred to as "upward" or "up", and the direction opposite to the light incident side is referred to as "downward" or "downward". The image pickup unit 12 has a first image pickup element 31 and a second image pickup element 32 arranged on the same optical path on the light incident side (upper side) of the first image pickup element 31. The second image sensor 32 is composed of an organic photoelectric film that absorbs infrared light (photoelectric conversion). Visible light that has not been absorbed (photoelectrically converted) by the second image sensor 32 passes through the second image sensor 32, enters the first image sensor 31, and is photoelectrically converted by the first image sensor 31. The first image sensor 31 performs photoelectric conversion by a photodiode. The second image sensor 32 and the first image sensor 31 are formed on the same semiconductor substrate, and each pixel position has a one-to-one correspondence. For example, the pixels in the first row and first column of the second image sensor 32 correspond to the pixels in the first row and first column of the first image sensor 31.

図3(a)は、第2撮像素子32の上方に設けられるカラーフィルターCFの配置を示す。図3(b)は、第2撮像素子32の各画素の出力を示す。図3(c)は、第1撮像素子31の各画素の出力を示す。図3(a)〜(c)において、横方向をx軸、縦方向をy軸とし、画素Pの座標をP(x,y)と表記する。 FIG. 3A shows the arrangement of the color filter CF provided above the second image sensor 32. FIG. 3B shows the output of each pixel of the second image sensor 32. FIG. 3C shows the output of each pixel of the first image sensor 31. In FIGS. 3A to 3C, the horizontal direction is the x-axis, the vertical direction is the y-axis, and the coordinates of the pixel P are expressed as P (x, y).

第2撮像素子32の上方には、図3(a)に示すように、赤(R)、緑(G)、青(B)の3色をそれぞれ透過するカラーフィルターCFがいわゆるベイヤ配列で設けられている。このカラーフィルターCFは、RGBいずれかの光のほか、赤外光も透過するように構成されている。なお、カラーフィルターCFの上方には赤外フィルターは設けられていない。具体的には、画素P(1,1)の上方に配置されたカラーフィルターCF(1,1)は、Gの光と赤外光とを透過する。このため、第2撮像素子の画素P(1,1)にはGの光と赤外光が入射される。同様に、画素P(2,1)の上方に配置されたカラーフィルターCF(2,1)は、Bの光と赤外光とを透過する。このため、第2撮像素子の画素P(2,1)にはBの光と赤外光が入射される。 As shown in FIG. 3A, a color filter CF that transmits three colors of red (R), green (G), and blue (B) is provided above the second image sensor 32 in a so-called Bayer arrangement. Has been done. This color filter CF is configured to transmit infrared light as well as RGB light. An infrared filter is not provided above the color filter CF. Specifically, the color filter CF (1,1) arranged above the pixel P (1,1) transmits the light of G and the infrared light. Therefore, the light of G and the infrared light are incident on the pixels P (1,1) of the second image sensor. Similarly, the color filter CF (2,1) arranged above the pixel P (2,1) transmits the light of B and the infrared light. Therefore, the light of B and the infrared light are incident on the pixels P (2, 1) of the second image sensor.

図3(b)に示す第2撮像素子32では、各画素Pを、赤外光を光電変換する有機光電膜としている。そのため、各画素Pで赤外光が吸収され、可視光が透過される。たとえば、赤外光およびGの光が入射される画素P(1,1)は、赤外光(IR)を光電変換してGの光を透過する。同様に、赤外光およびBの光が入射される画素P(2,1)は、赤外光(IR)を光電変換してBの光を透過する。赤外光およびRの光が入射される画素P(1,2)は、赤外光(IR)を光電変換してRの光を透過する。また、詳しくは後述するが、第2撮像素子32の各画素Pは、瞳分割位相差方式に対応する焦点検出用画素で構成される。 In the second image sensor 32 shown in FIG. 3B, each pixel P is an organic photoelectric film that photoelectrically converts infrared light. Therefore, infrared light is absorbed by each pixel P and visible light is transmitted. For example, the pixels P (1,1) to which the infrared light and the G light are incident are photoelectrically converted into the infrared light (IR) and transmitted through the G light. Similarly, the pixels P (2, 1) to which the infrared light and the light of B are incident are photoelectrically converted into the infrared light (IR) and transmitted through the light of B. Pixels P (1, 2) to which infrared light and R light are incident are photoelectrically converted into infrared light (IR) and transmitted through R light. Further, as will be described in detail later, each pixel P of the second image sensor 32 is composed of focus detection pixels corresponding to the pupil division phase difference method.

図3(c)に示す第1撮像素子31では、各画素Pにおいて、第2撮像素子32を透過する可視光を光電変換する。第1撮像素子31において、たとえばGの光が入射される画素P(1,1)ではG成分の画像信号が得られる。同様に、Bの光が入射される画素P(2,1)ではB成分の画像信号、Rの光が入射される画素P(1,2)ではR成分の画像信号がそれぞれ得られる。 In the first image sensor 31 shown in FIG. 3C, visible light transmitted through the second image sensor 32 is photoelectrically converted in each pixel P. In the first image sensor 31, for example, the image signal of the G component is obtained at the pixels P (1,1) to which the light of G is incident. Similarly, the pixel P (2,1) on which the light of B is incident obtains an image signal of the B component, and the pixel P (1,2) on which the light of R is incident obtains an image signal of the R component.

このように、本実施形態に係る撮像部12では、有機光電膜で構成される第2撮像素子32が第1撮像素子31に対して赤外フィルターの役割を果たす。したがって、従来のデジタルカメラにおいて撮像素子の手前に設置していた赤外フィルターを省略することができる。 As described above, in the image pickup unit 12 according to the present embodiment, the second image pickup device 32 composed of the organic photoelectric film acts as an infrared filter for the first image pickup device 31. Therefore, it is possible to omit the infrared filter installed in front of the image sensor in the conventional digital camera.

また、本実施形態に係る撮像部12では、第1撮像素子31に撮像用画素を配置し、第2撮像素子32に焦点検出用画素を全面に均等に配置している。したがって、撮像用画素の一部に焦点検出用画素を配置する従来技術のように複雑な画素補間処理を行う必要がなく、第2撮像素子32からは赤外光による焦点検出用信号、第1撮像素子31からは可視光によるカラー(RGB)画像信号をそれぞれ独立して得ることができる。なお、撮像部12では、第1撮像素子31と第2撮像素子32とがそれぞれ独立に駆動できるように構成されているので、自由度の高い蓄積時間制御が可能となっている。 Further, in the image pickup unit 12 according to the present embodiment, the image pickup pixels are arranged on the first image pickup element 31, and the focus detection pixels are evenly arranged on the entire surface of the second image pickup element 32. Therefore, it is not necessary to perform complicated pixel interpolation processing as in the conventional technique in which the focus detection pixel is arranged in a part of the image pickup pixels, and the focus detection signal by infrared light from the second image sensor 32, the first A color (RGB) image signal by visible light can be independently obtained from the image sensor 31. Since the image sensor 12 is configured so that the first image sensor 31 and the second image sensor 32 can be driven independently, it is possible to control the storage time with a high degree of freedom.

図4(a)は、撮像部12の半導体レイアウトの一例である。尚、図4(a)は、先に説明した図3の各画素P(1,1)から画素P(2,2)に対応する。図4(b)および図5(a)は、図4(a)の画素P(1,1)および画素(2,1)を水平方向に切断線A−Bで切断したときの断面図である。また、図5(b)は、第2撮像素子32における切断線A−Bの画素位置がわかり易いように描いた図である。切断線A−Bは、光電変換部PC_A(1,1)およびPC_A(2,1)の部分を切断する。図4(c)および図6(a)は、図4(a)の画素P(2,1)および画素(2,2)を垂直方向に切断線C−Dで切断したときの断面図である。また、図6(b)は、第2撮像素子32における切断線C−Dの画素位置がわかり易いように描いた図である。切断線C−Dは、光電変換部PC_A(2,1),PC_B(2,1),PC_A(2,2)およびPC_B(2,2)の部分を切断する。図7は、図6(a)の一部を拡大した図である。 FIG. 4A is an example of the semiconductor layout of the imaging unit 12. Note that FIG. 4A corresponds to pixels P (1,1) to pixels P (2, 2) of FIG. 3 described above. 4 (b) and 5 (a) are cross-sectional views when the pixels P (1, 1) and the pixels (2, 1) of FIG. 4 (a) are horizontally cut along the cutting lines AB. is there. Further, FIG. 5B is a diagram drawn so that the pixel positions of the cutting lines AB in the second image sensor 32 can be easily understood. The cutting line AB cuts the portions of the photoelectric conversion unit PC_A (1,1) and PC_A (2,1). 4 (c) and 6 (a) are cross-sectional views when the pixels P (2, 1) and the pixels (2, 2) of FIG. 4 (a) are vertically cut along the cutting line CD. is there. Further, FIG. 6B is a diagram drawn so that the pixel positions of the cutting lines CD in the second image sensor 32 can be easily understood. The cutting line CD cuts the portions of the photoelectric conversion units PC_A (2,1), PC_B (2,1), PC_A (2,2), and PC_B (2,2). FIG. 7 is an enlarged view of a part of FIG. 6A.

図5に示すように、第1撮像素子31は、いわゆる表面照射型の撮像素子であり、半導体基板50の表面側に入射した光をフォトダイオードPDにより光電変換し、半導体基板50の表面側に形成された配線層51を介して光電変換信号を出力する。有機光電膜を用いた第2撮像素子32は、第1撮像素子31の上記表面側に積層配置される。また、第2撮像素子32の上方(すなわち第1撮像素子31とは反対側)には、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイが積層配置されている。第1撮像素子31および第2撮像素子32の各画素は、マイクロレンズMLの各々に対応して設けられている。また、第2撮像素子32の各画素と各マイクロレンズMLとの間には、上述したカラーフィルターCFが配置されている。 As shown in FIG. 5, the first image sensor 31 is a so-called surface-illuminated image sensor, and the light incident on the surface side of the semiconductor substrate 50 is photoelectrically converted by the photodiode PD to the surface side of the semiconductor substrate 50. A photoelectric conversion signal is output via the formed wiring layer 51. The second image sensor 32 using the organic photoelectric film is laminated and arranged on the surface side of the first image sensor 31. Further, above the second image sensor 32 (that is, on the side opposite to the first image sensor 31), a microlens array in which a plurality of microlens MLs are arranged two-dimensionally is stacked. Each pixel of the first image sensor 31 and the second image sensor 32 is provided corresponding to each of the microlenses ML. Further, the above-mentioned color filter CF is arranged between each pixel of the second image sensor 32 and each microlens ML.

第2撮像素子32から出力される光電変換信号は、配線層51を介して信号出力端52から取り出される。信号出力端52の両側は分離層53,54が配置されている。また、分離層53,54を隔ててフォトダイオードPD(1,1)およびPD(2,1)が配置されている。第1撮像素子31の各画素Pは、撮像用画素であり、1つの撮像用画素に対して1つのフォトダイオードPDが設けられている。なお、図4〜図6では、配線層51は3層構造になっているが2層構造であってもよい。 The photoelectric conversion signal output from the second image sensor 32 is taken out from the signal output end 52 via the wiring layer 51. Separation layers 53 and 54 are arranged on both sides of the signal output terminal 52. In addition, photodiodes PD (1,1) and PDs (2,1) are arranged with the separation layers 53 and 54 separated from each other. Each pixel P of the first image sensor 31 is an image pickup pixel, and one photodiode PD is provided for one image pickup pixel. Although the wiring layer 51 has a three-layer structure in FIGS. 4 to 6, it may have a two-layer structure.

また、図6に示すように、第2撮像素子32の各画素Pは、焦点検出用画素であり、1つの画素Pが図中縦方向に2分割され、1つの画素Pにつき2つの光電変換部PC_AおよびPC_Bが設けられている。たとえば、画素P(2,1)には、光電変換部PC_A(2,1)と光電変換部PC_B(2,1)が設けられている。具体的には、図7に示すように、画素P(2,1)では、共通電極uと部分電極d_A(2,1)との間に有機光電膜mを挟んで光電変換部PC_A(2,1)が構成される。また、共通電極uと部分電極d_B(2,1)との間に有機光電膜mを挟んで光電変換部PC_B(2,1)が構成される。なお、共通電極uはマイクロレンズML側に配置され、部分電極d_A,d_Bは第1撮像素子31側に配置される。また、共通電極uと部分電極d_A,d_Bは透明電極である。部分電極d_A(2,1)は、マイクロレンズML(2,1)の中心O(2,1)に対して図中上側に設けられ、部分電極d_B(2,1)は、マイクロレンズML(2,1)の中心O(2,1)に対して図中下側に設けられる。部分電極d_A(2,1)と部分電極d_B(2,1)とは、互いに接しないように、それぞれマイクロレンズML(2,1)の中心O(2,1)から若干の間隔をおいて設けられる。他の画素Pについても同様に構成される。 Further, as shown in FIG. 6, each pixel P of the second image sensor 32 is a focus detection pixel, and one pixel P is divided into two in the vertical direction in the drawing, and two photoelectric conversions are performed for each pixel P. Parts PC_A and PC_B are provided. For example, the pixel P (2,1) is provided with a photoelectric conversion unit PC_A (2,1) and a photoelectric conversion unit PC_B (2,1). Specifically, as shown in FIG. 7, in the pixel P (2,1), the photoelectric conversion unit PC_A (2) sandwiches the organic photoelectric film m between the common electrode u and the partial electrode d_A (2,1). , 1) is configured. Further, the photoelectric conversion unit PC_B (2,1) is configured with the organic photoelectric film m sandwiched between the common electrode u and the partial electrode d_B (2,1). The common electrode u is arranged on the microlens ML side, and the partial electrodes d_A and d_B are arranged on the first image sensor 31 side. Further, the common electrode u and the partial electrodes d_A and d_B are transparent electrodes. The partial electrode d_A (2,1) is provided on the upper side in the drawing with respect to the center O (2,1) of the microlens ML (2,1), and the partial electrode d_B (2,1) is a microlens ML (2,1). It is provided on the lower side in the figure with respect to the center O (2,1) of 2,1). The partial electrode d_A (2,1) and the partial electrode d_B (2,1) are separated from the center O (2,1) of the microlens ML (2,1) so as not to come into contact with each other. It is provided. The other pixels P are similarly configured.

第2撮像素子32の各画素Pは、光電変換部PC_Aと光電変換部PC_Bとにより撮影光学系10の一対の瞳領域をそれぞれ通過した一対の光束をそれぞれ受光し、瞳分割位相差方式により撮影光学系10の焦点調節状態を検出するための焦点検出信号を出力する。ここで、図5(a)の配線層51は、図6(a)において、配線層51Aと配線層51Bとに対応する。配線層51Aは有機光電膜の光電変換部PC_A(2,1)の信号を信号出力端52Aに出力し、配線層51Bは有機光電膜の光電変換部PC_B(2,1)の信号を信号出力端52Bに出力する。図5(a)の配線層51では、配線層51Aと配線層51Bとが重なっているため1つしか見えていない。 Each pixel P of the second imaging element 32 receives a pair of light fluxes that have passed through the pair of pupil regions of the photographing optical system 10 by the photoelectric conversion unit PC_A and the photoelectric conversion unit PC_B, respectively, and photographs by the pupil division phase difference method. A focus detection signal for detecting the focus adjustment state of the optical system 10 is output. Here, the wiring layer 51 of FIG. 5A corresponds to the wiring layer 51A and the wiring layer 51B in FIG. 6A. The wiring layer 51A outputs the signal of the photoelectric conversion unit PC_A (2,1) of the organic photoelectric film to the signal output terminal 52A, and the wiring layer 51B outputs the signal of the photoelectric conversion unit PC_B (2,1) of the organic photoelectric film. Output to end 52B. In the wiring layer 51 of FIG. 5A, only one is visible because the wiring layer 51A and the wiring layer 51B overlap each other.

第1撮像素子31および第2撮像素子32の同じ位置の画素Pは、同一のマイクロレンズMLから入射する被写体光を受光する。たとえば、図5に示すように、画素P(1,1)に対応するマイクロレンズML(1,1)から入射された被写体光のうち、赤外光およびGの光はカラーフィルターCF(1,1)を透過し、RおよびBの光はカラーフィルターCF(1,1)により遮蔽される。第2撮像素子32において、画素P(1,1)の光電変換部を構成する有機光電膜による光電変換部PC_A(1,1)および光電変換部PC_B(1,1)は、カラーフィルターCF(1,1)を透過した赤外光を光電変換し、Gの光を透過する。第1撮像素子31において、画素P(1,1)を構成するフォトダイオードPD(1,1)は、光電変換部PC(1,1)を透過したGの光を受光して光電変換する。 The pixels P at the same position of the first image sensor 31 and the second image sensor 32 receive the subject light incident from the same microlens ML. For example, as shown in FIG. 5, among the subject lights incident from the microlens ML (1,1) corresponding to the pixel P (1,1), the infrared light and the G light are the color filter CF (1,1). It passes through 1) and the light of R and B is blocked by the color filter CF (1,1). In the second imaging element 32, the photoelectric conversion unit PC_A (1,1) and the photoelectric conversion unit PC_B (1,1) using the organic photoelectric film constituting the photoelectric conversion unit of the pixel P (1,1) are formed by the color filter CF (1,1). The infrared light transmitted through 1, 1) is photoelectrically converted, and G light is transmitted. In the first image sensor 31, the photodiode PD (1,1) constituting the pixel P (1,1) receives the light of G transmitted through the photoelectric conversion unit PC (1,1) and performs photoelectric conversion.

また、図5に示すように、第2撮像素子32と第1撮像素子31との間には、第1撮像素子31の隣接する画素間の境界部分(信号出力端52および分離層53,54)の上に、配線層51を内部に含む平坦化層55が形成されている。さらに、第2撮像素子32と第1撮像素子31との間には、第1撮像素子31の各画素PのフォトダイオードPDの上に、平坦化層55よりも高屈折率の材料で構成された光導波路56が形成されている。光導波路56は、第2撮像素子32の各画素Pを透過した可視光を、光導波路56と平坦化層55との境界面57で全反射させ、第1撮像素子31の各画素PのフォトダイオードPDに導光する。また、光導波路56の第2撮像素子32側の寸法は、第1撮像素子31側(フォトダイオードPD側)の寸法よりも大きくなっている。以上のような構成により、第2撮像素子32の各画素を透過した光束同士でクロストークが発生して、第1撮像素子31の1つの画素に第2撮像素子32の複数の画素を通過した光束が入射するのを防止することができる。すなわち、第2撮像素子32および第1撮像素子31の同じ位置の画素が、同一のマイクロレンズMLからの入射光を受光することができる。 Further, as shown in FIG. 5, between the second image sensor 32 and the first image sensor 31, a boundary portion between adjacent pixels of the first image sensor 31 (signal output end 52 and separation layers 53, 54). ), A flattening layer 55 including a wiring layer 51 inside is formed. Further, between the second image sensor 32 and the first image sensor 31, a material having a higher refractive index than the flattening layer 55 is formed on the photodiode PD of each pixel P of the first image sensor 31. The optical waveguide 56 is formed. The optical waveguide 56 totally reflects the visible light transmitted through each pixel P of the second image sensor 32 at the interface 57 between the optical waveguide 56 and the flattening layer 55, and the photo of each pixel P of the first image sensor 31 is reflected. Guide the light to the diode PD. Further, the dimension of the optical waveguide 56 on the second image sensor 32 side is larger than the dimension of the first image sensor 31 side (photodiode PD side). With the above configuration, crosstalk occurs between the light flux transmitted through each pixel of the second image sensor 32, and a plurality of pixels of the second image sensor 32 pass through one pixel of the first image sensor 31. It is possible to prevent the light flux from being incident. That is, the pixels at the same positions of the second image sensor 32 and the first image sensor 31 can receive the incident light from the same microlens ML.

図8は、撮像部12における1つの画素P(x,y)の回路構成を例示する図である。画素P(x,y)は、第1撮像素子31を構成するための回路として、フォトダイオードPDと、転送トランジスタTxと、リセットトランジスタRと、出力トランジスタSFと、選択トランジスタSELとを有する。フォトダイオードPDは、入射光の光量に応じた電荷を蓄積する。転送トランジスタTxは、フォトダイオードPDに蓄積された電荷を出力トランジスタSF側の浮遊拡散領域(FD部)に転送する。出力トランジスタSFは選択トランジスタSELを介して電流源PWとソースホロワを構成し、FD部に蓄積された電荷に応じた電気信号を出力信号OUTとして垂直信号線VLINEに出力する。なお、リセットトランジスタRは、FD部の電荷を電源電圧Vccにリセットする。 FIG. 8 is a diagram illustrating a circuit configuration of one pixel P (x, y) in the imaging unit 12. The pixel P (x, y) has a photodiode PD, a transfer transistor Tx, a reset transistor R, an output transistor SF, and a selection transistor SEL as circuits for forming the first image sensor 31. The photodiode PD accumulates an electric charge according to the amount of incident light. The transfer transistor Tx transfers the electric charge accumulated in the photodiode PD to the floating diffusion region (FD unit) on the output transistor SF side. The output transistor SF constitutes a current source PW and a source hollower via the selection transistor SEL, and outputs an electric signal corresponding to the electric charge accumulated in the FD unit to the vertical signal line VLINE as an output signal OUT. The reset transistor R resets the electric charge of the FD portion to the power supply voltage Vcc.

また、画素P(x,y)は、第2撮像素子32を構成するための回路として、有機光電膜による光電変換部PC_A,PC_Bと、リセットトランジスタR_A,R_Bと、出力トランジスタSF_A,SF_Bと、選択トランジスタSEL_A,SEL_Bとを有する。有機光電膜による光電変換部PC_A,PC_Bは、非透過光を光量に応じた電気信号に変換し、選択トランジスタSEL_A,SEL_Bを介して電流源PW_AおよびPW_Bとそれぞれソースホロワを構成する出力トランジスタSF_A,SF_Bを介して出力信号OUT_A,OUT_Bとして垂直信号線VLINE_A,VLINE_Bにそれぞれ出力する。なお、リセットトランジスタR_A,R_Bは、光電変換部PC_A,PC_Bの出力信号をリファレンス電圧Vrefにリセットする。また、有機光電膜の動作用として高電圧Vpcが与えられている。各トランジスタはMOS_FETで構成される。 Further, the pixels P (x, y) include photoelectric conversion units PC_A and PC_B using an organic photoelectric film, reset transistors R_A and R_B, and output transistors SF_A and SF_B as circuits for forming the second image sensor 32. It has selection transistors SEL_A and SEL_B. The photoelectric conversion units PC_A and PC_B using an organic photoelectric film convert non-transmitted light into an electric signal according to the amount of light, and output transistors SF_A and SF_B that form a source holower with current sources PW_A and PW_B via selection transistors SEL_A and SEL_B, respectively. The output signals OUT_A and OUT_B are output to the vertical signal lines VLINE_A and VLINE_B, respectively. The reset transistors R_A and R_B reset the output signals of the photoelectric conversion units PC_A and PC_B to the reference voltage Vref. Further, a high voltage Vpc is given for the operation of the organic photoelectric film. Each transistor is composed of MOS_FET.

ここで、第1撮像素子31に係る回路の動作について説明する。まず、選択信号φSELが”High”になると、選択トランジスタSELがオンする。次に、リセット信号φRが”High”になると、FD部で電源電圧Vccにリセットされ、出力信号OUTもリセットレベルになる。そして、リセット信号φRが”Low”になった後、転送信号φTxが”High”になり、フォトダイオードPDに蓄積された電荷がFD部に転送され、出力信号OUTが電荷量に応じて変化し始め、安定する。そして、転送信号φTxが”Low”になり、画素から垂直信号線VLINEに読み出される出力信号OUTの信号レベルが確定する。そして、垂直信号線VLINEに読み出された各画素の出力信号OUTは、不図示の水平出力回路に行毎に一時的に保持された後、撮像部12から出力される。このようにして、撮像部12の第1撮像素子31の各画素から信号が読み出される。 Here, the operation of the circuit related to the first image sensor 31 will be described. First, when the selection signal φSEL becomes “High”, the selection transistor SEL is turned on. Next, when the reset signal φR becomes “High”, the FD unit resets the power supply voltage Vcc, and the output signal OUT also reaches the reset level. Then, after the reset signal φR becomes “Low”, the transfer signal φTx becomes “High”, the charge accumulated in the photodiode PD is transferred to the FD section, and the output signal OUT changes according to the amount of charge. Start and stabilize. Then, the transfer signal φTx becomes “Low”, and the signal level of the output signal OUT read from the pixels to the vertical signal line VLINE is determined. Then, the output signal OUT of each pixel read out on the vertical signal line VLINE is temporarily held for each line in a horizontal output circuit (not shown), and then output from the imaging unit 12. In this way, signals are read from each pixel of the first image sensor 31 of the image pickup unit 12.

また、第2撮像素子32に係る回路の動作について説明する。まず、選択信号φSEL_A(またはφSEL_B)が”High”になると、選択トランジスタSEL_A(またはSEL_B)がオンする。次にリセット信号φR_A(またはφR_B)が”High”になり、出力信号OUT_A(またはφOUT_B)もリセットレベルになる。そして、リセット信号φR_A(またはφR_B)が”Low”になった直後から有機光電膜による光電変換部PC_A(またはPC_B)の電荷蓄積が開始され、電荷量に応じて出力信号OUT_A(または出力信号OUT_B)が変化する。そして、出力信号OUT_A(または出力信号OUT_B)が不図示の水平出力回路に行毎に一時的に保持された後、撮像部12から出力される。このようにして、撮像部12の第2撮像素子32の各画素から信号が読み出される。 Further, the operation of the circuit related to the second image sensor 32 will be described. First, when the selection signal φSEL_A (or φSEL_B) becomes “High”, the selection transistor SEL_A (or SEL_B) is turned on. Next, the reset signal φR_A (or φR_B) becomes “High”, and the output signal OUT_A (or φOUT_B) also becomes the reset level. Immediately after the reset signal φR_A (or φR_B) becomes “Low”, charge accumulation of the photoelectric conversion unit PC_A (or PC_B) by the organic photoelectric film is started, and the output signal OUT_A (or output signal OUT_B) is started according to the amount of charge. ) Changes. Then, the output signal OUT_A (or output signal OUT_B) is temporarily held for each line in a horizontal output circuit (not shown), and then output from the imaging unit 12. In this way, signals are read from each pixel of the second image sensor 32 of the image pickup unit 12.

<焦点検出処理>
次に、制御部11により実行される焦点検出処理の流れを、図9に示すフローチャートを用いて説明する。図9に示す焦点検出処理は、制御部11が実行する制御プログラムに含まれる。撮影者により所定の焦点検出操作(例えばレリーズボタンを半押しする操作など)が行われると、制御部11は、図9に示す焦点検出処理を開始する。
<Focus detection process>
Next, the flow of the focus detection process executed by the control unit 11 will be described with reference to the flowchart shown in FIG. The focus detection process shown in FIG. 9 is included in the control program executed by the control unit 11. When a predetermined focus detection operation (for example, an operation of pressing the release button halfway) is performed by the photographer, the control unit 11 starts the focus detection process shown in FIG.

まず、ステップS1で撮像部12に被写体像を撮像させる。これにより、第1撮像素子31および第2撮像素子32のそれぞれから光電変換信号が出力される。 First, in step S1, the imaging unit 12 is made to image the subject image. As a result, photoelectric conversion signals are output from each of the first image sensor 31 and the second image sensor 32.

ステップS2において、焦点検出部11aは、第2撮像素子32から出力された赤外光による焦点検出信号に基づいて、瞳分割位相差方式による焦点検出処理を実行し、撮影光学系10の焦点調節状態を示すデフォーカス量を算出する。なお、瞳分割位相差方式による焦点検出処理については周知技術であるため、詳細な説明は省略する。 In step S2, the focus detection unit 11a executes the focus detection process by the pupil division phase difference method based on the focus detection signal by the infrared light output from the second image sensor 32, and adjusts the focus of the photographing optical system 10. Calculate the defocus amount indicating the state. Since the focus detection process by the pupil division phase difference method is a well-known technique, detailed description thereof will be omitted.

ステップS3において、制御部11は、ステップS2の焦点検出処理によってデフォーカス量が算出できたか、すなわち焦点検出できたかを判定する。焦点検出できた場合には、制御部11は、ステップS3を肯定判定してステップS4へ進む。一方、焦点検出できなかった場合には、制御部11は、ステップS3を否定判定してステップS6へ進む。 In step S3, the control unit 11 determines whether the defocus amount can be calculated by the focus detection process in step S2, that is, whether the focus can be detected. If the focus can be detected, the control unit 11 positively determines step S3 and proceeds to step S4. On the other hand, if the focus cannot be detected, the control unit 11 negatively determines step S3 and proceeds to step S6.

ステップS4において、焦点検出部11aは、ステップS2で算出されたデフォーカス量に基づいて、不図示のレンズ駆動部を制御して、撮影光学系10のフォーカスレンズを駆動させ、合焦位置へ移動させる。 In step S4, the focus detection unit 11a controls a lens drive unit (not shown) based on the defocus amount calculated in step S2 to drive the focus lens of the photographing optical system 10 and move to the in-focus position. Let me.

ステップS5において、制御部11は、焦点検出処理の終了が指示されたか否かを判定する。焦点検出処理の終了が指示された場合にはステップS5を肯定判定して、制御部11は、焦点検出処理を終了する。一方、焦点検出処理の終了が指示されていない場合にはステップS5を否定判定して、制御部11は、ステップS1に戻る。 In step S5, the control unit 11 determines whether or not the end of the focus detection process is instructed. When the end of the focus detection process is instructed, step S5 is determined affirmatively, and the control unit 11 ends the focus detection process. On the other hand, if the end of the focus detection process is not instructed, step S5 is negatively determined, and the control unit 11 returns to step S1.

ステップS3が否定判定された場合に進むステップS6において、焦点検出部11aは、第2撮像素子32の各画素Pにおいて、隣接する2つの光電変換部PC_A,PC_Bから出力される光電変換信号を加算して、1つの画素Pにつき1つの信号を生成する。これにより、第2撮像素子32で撮像された赤外光画像を取得することができる。 In step S6, which proceeds when step S3 is negatively determined, the focus detection unit 11a adds the photoelectric conversion signals output from two adjacent photoelectric conversion units PC_A and PC_B in each pixel P of the second imaging element 32. Then, one signal is generated for each pixel P. As a result, the infrared light image captured by the second image sensor 32 can be acquired.

ステップS7において、焦点検出部11aは、ステップS6で取得した赤外光画像に基づいて、コントラスト方式による焦点検出処理を実行する。具体的には、焦点検出部11aは、取得した赤外光画像に基づいて、焦点評価値(コントラスト値)を演算する。なお、コントラスト方式を簡単に説明すると、フォーカスレンズを駆動させながら周期的に被写体像を撮像し、フォーカスレンズの位置ごとの被写体像のコントラスト量を調べ、コントラスト量が極大となるフォーカスレンズの位置を合焦位置として特定する方式である。 In step S7, the focus detection unit 11a executes the focus detection process by the contrast method based on the infrared light image acquired in step S6. Specifically, the focus detection unit 11a calculates a focus evaluation value (contrast value) based on the acquired infrared light image. To briefly explain the contrast method, the subject image is periodically imaged while driving the focus lens, the contrast amount of the subject image is examined for each position of the focus lens, and the position of the focus lens at which the contrast amount is maximized is determined. This is a method of specifying the focus position.

ステップS8において、焦点検出部11aは、ステップS7で演算した焦点評価値に基づいてフォーカスレンズが合焦位置にあるか、すなわち焦点検出されたかを判定する。フォーカスレンズが合焦位置にあると判定された場合には、制御部11は、ステップS8を肯定判定して、ステップS5へ進む。一方、フォーカスレンズが合焦位置にないと判定された場合、または、赤外光信号による焦点検出を行えないと判定された場合には、制御部11は、ステップS8を否定判定して、ステップS9へ進む。 In step S8, the focus detection unit 11a determines whether the focus lens is in the in-focus position, that is, whether the focus is detected, based on the focus evaluation value calculated in step S7. When it is determined that the focus lens is in the in-focus position, the control unit 11 positively determines step S8 and proceeds to step S5. On the other hand, if it is determined that the focus lens is not in the in-focus position, or if it is determined that the focus cannot be detected by the infrared light signal, the control unit 11 negates step S8 and steps. Proceed to S9.

ステップS9において、焦点検出部11aは赤外光信号による焦点検出が可能か否かを判定する。赤外光信号で焦点検出できない、もしくは精度が足りない、もしくは可視光での焦点検出が必要であると判定された場合には、制御部11は、ステップS9を否定判定してステップS11へ進む。一方、赤外光信号による焦点検出が可能であると判定された場合には、制御部11は、ステップS9を肯定判定してステップS10へ進む。 In step S9, the focus detection unit 11a determines whether or not the focus can be detected by the infrared light signal. If it is determined that the focus cannot be detected by the infrared light signal, the accuracy is insufficient, or the focus detection by visible light is necessary, the control unit 11 negatively determines step S9 and proceeds to step S11. .. On the other hand, when it is determined that the focus can be detected by the infrared light signal, the control unit 11 positively determines step S9 and proceeds to step S10.

ステップS10において、焦点検出部11aは、いわゆる山登り動作によって合焦位置を探索するために、不図示のレンズ駆動部を制御して、フォーカスレンズを所定方向に所定量だけ駆動させて、ステップS6に戻る。すなわち、焦点検出部11aは、ステップS6〜S10を繰り返して、焦点評価値が極大となるフォーカスレンズの位置、すなわち合焦位置を探索して、合焦位置にフォーカスレンズを駆動させる。 In step S10, the focus detection unit 11a controls a lens driving unit (not shown) to drive the focus lens in a predetermined direction by a predetermined amount in order to search for the focusing position by a so-called mountain climbing operation, and in step S6. Return. That is, the focus detection unit 11a repeats steps S6 to S10 to search for the position of the focus lens at which the focus evaluation value becomes maximum, that is, the in-focus position, and drives the focus lens to the in-focus position.

ステップS9が否定判定された場合に進むステップS11において、焦点検出部11aは、第1撮像素子31で撮像された可視光画像に基づいて、コントラスト方式による焦点検出処理を実行する。具体的には、焦点検出部11aは、取得した可視光画像に基づいて、焦点評価値(コントラスト値)を演算する。 In step S11, which proceeds when step S9 is negatively determined, the focus detection unit 11a executes the focus detection process by the contrast method based on the visible light image captured by the first image sensor 31. Specifically, the focus detection unit 11a calculates a focus evaluation value (contrast value) based on the acquired visible light image.

ステップS12において、焦点検出部11aは、ステップS11で演算した焦点評価値に基づいて、フォーカスレンズが合焦位置にあるか、すなわち焦点検出されたかを判定する。フォーカスレンズが合焦位置にあると判定された場合には、制御部11は、ステップS12を肯定判定して、ステップS5へ進む。一方、フォーカスレンズが合焦位置にないと判定された場合には、制御部11は、ステップS12を否定判定して、ステップS13へ進む。 In step S12, the focus detection unit 11a determines whether the focus lens is in the in-focus position, that is, whether the focus is detected, based on the focus evaluation value calculated in step S11. When it is determined that the focus lens is in the in-focus position, the control unit 11 positively determines step S12 and proceeds to step S5. On the other hand, if it is determined that the focus lens is not in the in-focus position, the control unit 11 negatively determines step S12 and proceeds to step S13.

ステップS13において、焦点検出部11aは、いわゆる山登り動作によって合焦位置を探索するために、不図示のレンズ駆動部を制御して、フォーカスレンズを所定方向に所定量だけ駆動させて、ステップS11に戻る。すなわち、焦点検出部11aは、ステップS11〜S13を繰り返して、焦点評価値が極大となるフォーカスレンズの位置、すなわち合焦位置を探索して、合焦位置にフォーカスレンズを駆動させる。 In step S13, the focus detection unit 11a controls a lens driving unit (not shown) to drive the focus lens in a predetermined direction by a predetermined amount in order to search for the focusing position by a so-called mountain climbing operation, and in step S11. Return. That is, the focus detection unit 11a repeats steps S11 to S13 to search for the position of the focus lens at which the focus evaluation value becomes maximum, that is, the in-focus position, and drives the focus lens to the in-focus position.

このように、本実施形態のデジタルカメラ1では、撮像部12からの出力信号に基づいて以下の3種類の焦点検出処理を行うことができ、以下の3種類の焦点検出処理を適宜使い分けることができる。
(1)第2撮像素子32からの赤外光信号に基づく瞳分割位相差方式による焦点検出処理(2)第2撮像素子32からの赤外光信号に基づくコントラスト方式による焦点検出処理(3)第1撮像素子31からの可視光信号に基づくコントラスト方式による焦点検出処理
As described above, in the digital camera 1 of the present embodiment, the following three types of focus detection processes can be performed based on the output signal from the imaging unit 12, and the following three types of focus detection processes can be appropriately used. it can.
(1) Focus detection process by pupil division phase difference method based on infrared light signal from second image sensor 32 (2) Focus detection process by contrast method based on infrared light signal from second image sensor 32 (3) Focus detection processing by the contrast method based on the visible light signal from the first image sensor 31

<撮影処理>
図10は、制御部11が実行する撮影処理の流れを説明するフローチャートである。制御部11は、メインスイッチがオン操作されると、撮像部12に所定のフレームレートで光電変換を開始させ、画像信号に基づくスルー画像を液晶モニタ15に逐次再生表示させると共に、図10に例示した処理を実行するプログラムを起動する。なお、スルー画像は、撮影指示前に取得するモニタ用の画像である。
<Shooting process>
FIG. 10 is a flowchart illustrating a flow of shooting processing executed by the control unit 11. When the main switch is turned on, the control unit 11 causes the imaging unit 12 to start photoelectric conversion at a predetermined frame rate, sequentially reproduces and displays a through image based on the image signal on the liquid crystal monitor 15, and is illustrated in FIG. Start the program that executes the processed processing. The through image is an image for a monitor acquired before the shooting instruction.

図10のステップS21において、制御部11は、撮影指示が行われたか否かを判定する。制御部11は、レリーズボタンが押下操作されると、ステップS21を肯定判定してステップS22へ進む。制御部11は、レリーズボタンが押下操作されない場合には、ステップS21を否定判定してステップS28へ進む。 In step S21 of FIG. 10, the control unit 11 determines whether or not a shooting instruction has been given. When the release button is pressed, the control unit 11 positively determines step S21 and proceeds to step S22. If the release button is not pressed, the control unit 11 determines that step S21 is negative and proceeds to step S28.

ステップS28において、制御部11は、タイムアップか否かを判定する。制御部11は、所定時間(たとえば、5秒)を計時した場合にステップS28を肯定判定して図9による処理を終了する。制御部11は、計時時間が所定時間に満たない場合には、ステップS28を否定判定してステップS21へ戻る。 In step S28, the control unit 11 determines whether or not the time is up. When the predetermined time (for example, 5 seconds) is timed, the control unit 11 positively determines step S28 and ends the process according to FIG. If the time counting time is less than the predetermined time, the control unit 11 negatively determines step S28 and returns to step S21.

ステップS22において、制御部11は、AE処理およびAF処理を行う。AE処理では、上記スルー画像用の画像信号のレベルに基づいて露出演算を行い、適正露出が得られるように絞り値AVとシャッター速度TVを決定する。AF処理は、設定されている焦点検出エリアに含まれる画素列からの出力信号列に基づいて、上述した焦点検出処理を行ってフォーカス調節をする。制御部11は、以上のAE、AF処理を行うとステップS23へ進む。 In step S22, the control unit 11 performs AE processing and AF processing. In the AE process, the exposure calculation is performed based on the level of the image signal for the through image, and the aperture value AV and the shutter speed TV are determined so that an appropriate exposure can be obtained. In the AF process, the focus is adjusted by performing the focus detection process described above based on the output signal sequence from the pixel sequence included in the set focus detection area. When the control unit 11 performs the above AE and AF processes, the control unit 11 proceeds to step S23.

ステップS23において、制御部11は撮影処理を行ってステップS24へ進む。具体的には、上記AVに基づいて不図示の絞りを制御し、上記TVに基づく蓄積時間で撮像部12に記録用の光電変換を行わせる。 In step S23, the control unit 11 performs a shooting process and proceeds to step S24. Specifically, an aperture (not shown) is controlled based on the AV, and the imaging unit 12 is made to perform photoelectric conversion for recording at the accumulation time based on the TV.

ステップS24において、制御部11の画像生成部11bは、第1撮像素子31からの出力信号を用いて画像信号を生成する。上述したように第1撮像素子31からはいわゆるベイヤ配列の画像信号を取得することができるので、画像生成部11bは、公知の色補間処理を用いて第1撮像素子31の出力信号からRGB3色のカラー画像信号を生成することができる。さらに画像生成部11bは、生成したカラー画像信号に対して所定の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を行う。 In step S24, the image generation unit 11b of the control unit 11 generates an image signal using the output signal from the first image sensor 31. As described above, since the image signal of the so-called bayer arrangement can be acquired from the first image sensor 31, the image generation unit 11b uses a known color interpolation process to obtain RGB 3 colors from the output signal of the first image sensor 31. Color image signal can be generated. Further, the image generation unit 11b performs predetermined image processing (gradation conversion processing, contour enhancement processing, white balance adjustment processing, etc.) on the generated color image signal.

ステップS25において、制御部11は、ステップS24の画像処理後の撮影画像を液晶モニタ15に表示させて、ステップS26へ進む。 In step S25, the control unit 11 displays the captured image after the image processing in step S24 on the liquid crystal monitor 15, and proceeds to step S26.

ステップS26において、制御部11は、ステップS24の画像処理後の撮影画像を記録するための画像ファイルを生成し、ステップS27へ進む。 In step S26, the control unit 11 generates an image file for recording the captured image after the image processing in step S24, and proceeds to step S27.

ステップS27において、制御部11は、ステップS26で生成した画像ファイルをメモリカード17に記録して、撮影処理を終了する。 In step S27, the control unit 11 records the image file generated in step S26 on the memory card 17 and ends the shooting process.

以上説明した実施形態によれば、次の作用効果が得られる。
デジタルカメラ1の撮像部12は、半導体基板50の表面側に入射した光を光電変換して光電変換信号を生成し、半導体基板50の表面側に形成された配線層51を介して光電変換信号を出力する第1撮像素子31を備える。また、撮像部12は、第1撮像素子31の半導体基板50の表面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して光電変換信号を生成し、配線層51を介して光電変換信号を出力する第2撮像素子32を備える。また、撮像部12は、第2撮像素子32の第1撮像素子31とは反対側に積層配置され、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイを備える。第1撮像素子31は、マイクロレンズMLの各々に対応して設けられた撮像用画素を複数有する。第2撮像素子32は、マイクロレンズMLの各々に対応して設けられた焦点検出用画素を複数有する。焦点検出用画素は、瞳分割位相差方式により撮影光学系10の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素である。第2撮像素子32と第1撮像素子31との間には、第2撮像素子32の焦点検出用画素を透過した可視光を第1撮像素子31の撮像用画素に導光する光導波路56が形成されている。このような構成により、第2撮像素子32からの赤外光の焦点検出信号に基づいて、高速且つ高精度な瞳分割位相差方式による焦点検出を行うことができる。赤外光により焦点検出を行うので、暗視野、低輝度時にも焦点検出精度を高めることができる。さらに、第2撮像素子32の各焦点検出用画素を透過した光束同士でクロストークが発生するのを防止することができ、第1撮像素子31により可視光画像を適切に撮像することができる。
According to the embodiment described above, the following effects can be obtained.
The image sensor 12 of the digital camera 1 photoelectrically converts the light incident on the surface side of the semiconductor substrate 50 to generate a photoelectric conversion signal, and the photoelectric conversion signal is generated via the wiring layer 51 formed on the surface side of the semiconductor substrate 50. A first image pickup device 31 for outputting the light is provided. Further, the image pickup unit 12 is laminated and arranged on the surface side of the semiconductor substrate 50 of the first image pickup element 31, and uses an organic photoelectric film that absorbs infrared light and transmits visible light to photoelectrically convert infrared light into photoelectric light. A second image sensor 32 that generates a conversion signal and outputs a photoelectric conversion signal via the wiring layer 51 is provided. Further, the image pickup unit 12 includes a microlens array in which a plurality of microlens MLs are arranged in a two-dimensional manner and are stacked on the side of the second image pickup element 32 opposite to the first image pickup element 31. The first image pickup device 31 has a plurality of imaging pixels provided corresponding to each of the microlens MLs. The second image pickup device 32 has a plurality of focus detection pixels provided corresponding to each of the microlens MLs. The focus detection pixel is a focus detection pixel that outputs a focus detection signal for detecting the focus adjustment state of the photographing optical system 10 by the pupil division phase difference method. Between the second image sensor 32 and the first image sensor 31, an optical waveguide 56 that guides visible light transmitted through the focus detection pixels of the second image sensor 32 to the image pickup pixels of the first image sensor 31 is provided. It is formed. With such a configuration, it is possible to perform focus detection by a high-speed and highly accurate pupil division phase difference method based on the focus detection signal of infrared light from the second image sensor 32. Since the focus is detected by infrared light, the focus detection accuracy can be improved even in a dark field and low brightness. Further, it is possible to prevent crosstalk from occurring between the light beams transmitted through the focal detection pixels of the second image sensor 32, and the visible light image can be appropriately captured by the first image sensor 31.

(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。以下の説明では、第2の実施形態における撮像部112について、第1の実施形態と異なっている点を主に説明し、第1の実施形態と同様の構成については説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the following description, the imaging unit 112 in the second embodiment will be mainly described in that it is different from the first embodiment, and the description of the same configuration as in the first embodiment will be omitted.

図11を用いて第2の実施の形態による撮像部112の構成について説明する。図11(a)は、撮像部112の半導体レイアウトの一例である。尚、図11(a)は、先に説明した図3の各画素P(1,1)から画素P(2,2)に対応する。図11(b)は、図11(a)の画素P(1,1)および画素(2,1)を水平方向に切断線A−Bで切断したときの断面図である。図11(c)は、図11(a)の画素P(2,1)および画素(2,2)を垂直方向に切断線C−Dで切断したときの断面図である。 The configuration of the imaging unit 112 according to the second embodiment will be described with reference to FIG. FIG. 11A is an example of the semiconductor layout of the imaging unit 112. Note that FIG. 11A corresponds to pixels P (1,1) to pixels P (2, 2) of FIG. 3 described above. 11 (b) is a cross-sectional view of the pixels P (1, 1) and the pixels (2, 1) of FIG. 11 (a) when they are cut in the horizontal direction along the cutting lines AB. 11 (c) is a cross-sectional view of the pixels P (2, 1) and the pixels (2, 2) of FIG. 11 (a) when they are cut in the vertical direction along the cutting line CD.

第1の実施の形態と異なり、第2の実施の形態における第1撮像素子131は、いわゆる裏面照射型の撮像素子である。したがって第1撮像素子131は、半導体基板150の裏面側に入射した光をフォトダイオードPDにより光電変換して光電変換信号を生成し、半導体基板150の表面側に形成された配線層151を介して上記光電変換信号を出力する。第1の実施の形態と同様の有機光電膜を用いた第2撮像素子132は、第1撮像素子131の上記裏面側に積層配置される。第1の実施の形態と同様に、第2撮像素子132の上方(すなわち第1撮像素子131とは反対側)には、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイが積層配置されている。また、第2撮像素子132の各画素と各マイクロレンズMLとの間には、第1の実施の形態と同様に、カラーフィルターCFが配置されている。 Unlike the first embodiment, the first image sensor 131 in the second embodiment is a so-called back-illuminated image sensor. Therefore, the first image sensor 131 photoelectrically converts the light incident on the back surface side of the semiconductor substrate 150 by the photodiode PD to generate a photoelectric conversion signal, and transmits the photoelectric conversion signal via the wiring layer 151 formed on the front surface side of the semiconductor substrate 150. The above photoelectric conversion signal is output. The second image pickup device 132 using the same organic photoelectric film as in the first embodiment is laminated and arranged on the back surface side of the first image pickup device 131. Similar to the first embodiment, a microlens array in which a plurality of microlens MLs are arranged two-dimensionally is laminated above the second image sensor 132 (that is, on the side opposite to the first image sensor 131). It is arranged. Further, a color filter CF is arranged between each pixel of the second image sensor 132 and each microlens ML as in the first embodiment.

第1撮像素子131の半導体基板150には、第2撮像素子132と配線層151とを接続するための貫通ビア(シリコン貫通電極(TSV:Through Silicon Via))152が形成されている。第2撮像素子132から出力される光電変換信号は、貫通ビア152を介して配線層151から出力される。貫通ビア152は、第2撮像素子132の各画素Pの各光電変換部PC_A,PC_B(部分電極d_A,d_B)ごとに設けられている。 A through silicon via (TSV: Through Silicon Via) 152 for connecting the second image sensor 132 and the wiring layer 151 is formed on the semiconductor substrate 150 of the first image sensor 131. The photoelectric conversion signal output from the second image sensor 132 is output from the wiring layer 151 via the through via 152. The penetration via 152 is provided for each photoelectric conversion unit PC_A, PC_B (partial electrodes d_A, d_B) of each pixel P of the second image sensor 132.

第2の実施の形態の撮像部112では、第1撮像素子131を裏面照射型で構成したので、第1の実施の形態と異なり、第2撮像素子132と第1撮像素子131の受光面との間に配線層が設けられていない。したがって、第2の実施の形態では、第1の実施形態と比べて第2撮像素子132と第1撮像素子131の受光面との間の距離を短くできるので、第2撮像素子132の各画素を透過した光束同士でクロストークが発生して、第1撮像素子31の1つの画素に第2撮像素子132の複数の画素を通過した光束が入射するのを防止することができる。すなわち、第2撮像素子132および第1撮像素子131の同じ位置の画素が、同一のマイクロレンズMLからの入射光を受光することができる。 In the image pickup unit 112 of the second embodiment, since the first image pickup element 131 is configured as a back-illuminated type, unlike the first embodiment, the second image pickup element 132 and the light receiving surface of the first image pickup element 131 No wiring layer is provided between the two. Therefore, in the second embodiment, the distance between the light receiving surface of the second image sensor 132 and the light receiving surface of the first image sensor 131 can be shortened as compared with the first embodiment, so that each pixel of the second image sensor 132 can be shortened. It is possible to prevent the light flux that has passed through the plurality of pixels of the second image sensor 132 from being incident on one pixel of the first image sensor 31 due to cross talk between the light flux transmitted through the light beam. That is, the pixels at the same positions of the second image sensor 132 and the first image sensor 131 can receive the incident light from the same microlens ML.

以上説明した実施形態によれば、次の作用効果が得られる。
撮像部112は、半導体基板150の裏面側に入射した光を光電変換して光電変換信号を生成し、半導体基板150の表面側に形成された配線層151を介して光電変換信号を出力する裏面照射型の第1撮像素子131を備える。また、撮像部112は、第1撮像素子131の半導体基板150の裏面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して光電変換信号を生成し、配線層151を介して光電変換信号を出力する第2撮像素子132を備える。また、撮像部112は、第2撮像素子132の第1撮像素子131とは反対側に積層配置され、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイを備える。第1撮像素子131は、マイクロレンズMLの各々に対応して設けられた撮像用画素を複数有する。第2撮像素子132は、マイクロレンズMLの各々に対応して設けられた焦点検出用画素を複数有する。焦点検出用画素は、瞳分割位相差方式により撮影光学系10の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素である。このような構成により、第2撮像素子32からの赤外光の焦点検出信号に基づいて、高速且つ高精度な瞳分割位相差方式による焦点検出を行うことができる。さらに、第2撮像素子32の各焦点検出用画素を透過した光束同士でクロストークが発生するのを防止することができ、第1撮像素子31により可視光画像を適切に撮像することができる。
According to the embodiment described above, the following effects can be obtained.
The image pickup unit 112 photoelectrically converts the light incident on the back surface side of the semiconductor substrate 150 to generate a photoelectric conversion signal, and outputs the photoelectric conversion signal via the wiring layer 151 formed on the front surface side of the semiconductor substrate 150. An irradiation type first image pickup device 131 is provided. Further, the image pickup unit 112 is laminated and arranged on the back surface side of the semiconductor substrate 150 of the first image pickup element 131, and uses an organic photoelectric film that absorbs infrared light and transmits visible light to photoelectrically convert infrared light into photoelectric light. A second image sensor 132 that generates a conversion signal and outputs a photoelectric conversion signal via the wiring layer 151 is provided. Further, the image pickup unit 112 includes a microlens array in which a plurality of microlens MLs are arranged in a two-dimensional manner and are laminated on the side of the second image pickup element 132 opposite to the first image pickup element 131. The first image pickup device 131 has a plurality of imaging pixels provided corresponding to each of the microlens MLs. The second image pickup device 132 has a plurality of focus detection pixels provided corresponding to each of the microlens MLs. The focus detection pixel is a focus detection pixel that outputs a focus detection signal for detecting the focus adjustment state of the photographing optical system 10 by the pupil division phase difference method. With such a configuration, it is possible to perform focus detection by a high-speed and highly accurate pupil division phase difference method based on the focus detection signal of infrared light from the second image sensor 32. Further, it is possible to prevent crosstalk from occurring between the light beams transmitted through the focal detection pixels of the second image sensor 32, and the visible light image can be appropriately captured by the first image sensor 31.

(変形例1)
上述した実施の形態では、第2撮像素子32の焦点検出用画素の各々が2つの光電変換部PC_AおよびPC_Bを有し、光電変換部PC_Aが撮影光学系10の一対の瞳領域をそれぞれ通過した一対の光束のうちの一方を受光し、光電変換部PC_Bが、上記一対の光束のうちの他方を受光する例について説明した。
(Modification example 1)
In the above-described embodiment, each of the focus detection pixels of the second image sensor 32 has two photoelectric conversion units PC_A and PC_B, and the photoelectric conversion unit PC_A has passed through the pair of pupil regions of the photographing optical system 10, respectively. An example in which one of the pair of luminous fluxes is received and the photoelectric conversion unit PC_B receives the other of the pair of luminous fluxes has been described.

しかしながら、焦点検出用画素は上記のような構成に限らなくてよく、たとえば、図12に示すように、光電変換部PC_Aのみを有する焦点検出用画素と、光電変換部PC_Bのみを有する焦点検出用画素が交互に配置されているようにしてもよい。たとえば、画素P(2,1)は、共通電極uと部分電極d_A(2,1)との間に有機光電膜mを挟んで構成された光電変換部PC_A(2,1)のみを有する。部分電極d_A(2,1)は、マイクロレンズML(2,1)の中心O(2,1)に対して図中上側に設けられる。また、画素P(2,2)は、共通電極uと部分電極d_B(2,2)との間に有機光電膜mを挟んで構成された光電変換部PC_B(2,2)のみを有する。部分電極d_B(2,2)は、マイクロレンズML(2,2)の中心O(2,2)に対して図中下側に設けられる。図12に示す構成では、部分電極d_Aおよび部分電極d_BをそれぞれマイクロレンズMLの中心Oから間隔を空けずに設けることができるので、上述した実施の形態の構成(図7)と比べて、光電変換部PC_Aおよび光電変換部PC_Bの面積を広くすることができる。 However, the focus detection pixel is not limited to the above configuration. For example, as shown in FIG. 12, the focus detection pixel having only the photoelectric conversion unit PC_A and the focus detection pixel having only the photoelectric conversion unit PC_B are used. The pixels may be arranged alternately. For example, the pixel P (2,1) has only the photoelectric conversion unit PC_A (2,1) formed by sandwiching the organic photoelectric film m between the common electrode u and the partial electrode d_A (2,1). The partial electrode d_A (2,1) is provided on the upper side in the drawing with respect to the center O (2,1) of the microlens ML (2,1). Further, the pixel P (2, 2) has only the photoelectric conversion unit PC_B (2, 2) formed by sandwiching the organic photoelectric film m between the common electrode u and the partial electrode d_B (2, 2). The partial electrode d_B (2,2) is provided on the lower side in the drawing with respect to the center O (2,2) of the microlens ML (2,2). In the configuration shown in FIG. 12, since the partial electrodes d_A and the partial electrodes d_B can be provided at intervals from the center O of the microlens ML, respectively, the photoelectric is compared with the configuration of the above-described embodiment (FIG. 7). The areas of the conversion unit PC_A and the photoelectric conversion unit PC_B can be increased.

なお、第2撮像素子32において、各焦点検出用画素における瞳分割方向は、上述した方向に限らなくてよく、縦方向、横方向、斜め方向のいずれであってもよいし、様々な方向の焦点検出用画素が混在するようにしてもよい。 In the second image sensor 32, the pupil division direction in each focus detection pixel is not limited to the above-mentioned direction, and may be any of a vertical direction, a horizontal direction, and an oblique direction, and may be in various directions. The focus detection pixels may be mixed.

(変形例2)
上述した第2の実施の形態による撮像部112において、第1撮像素子131についても、瞳分割位相差方式の焦点検出を行えるようにしてもよい。すなわち、第1撮像素子131の各画素Pに2つのフォトダイオードPD_AおよびPD_Bを設け、2つのフォトダイオードPD_AおよびPD_Bが撮影光学系10の一対の瞳領域をそれぞれ通過した一対の光束をそれぞれ受光するように構成してもよい。第1撮像素子131には赤外光がカットされた光束が入射されるため、可視光での瞳分割位相差方式の焦点検出を行うことができる。また、この場合、たとえば、図13に示すように、第2撮像素子132においては各焦点検出用画素の瞳分割方向を縦方向とし、第1撮像素子131においては各焦点検出用画素の瞳分割方向を横方向とするなど、第2撮像素子132と第1撮像素子131とで瞳分割方向を変えるようにしてもよい。こうすることにより、たとえば、瞳分割方向が縦方向である方が焦点検出しやすい被写体の場合には第2撮像素子132からの出力信号を用いて焦点検出を行うことができる。一方、瞳分割方向が横方向である方が焦点検出しやすい被写体の場合には第1撮像素子131からの出力信号を用いて焦点検出を行うことができる。このように、第1撮像素子131と第2撮像素子132を適宜使い分けることができ、焦点検出精度を高めることができる。また、第1撮像素子131において瞳分割方向が縦方向の焦点検出用画素と横方向の焦点検出用画素とを混在させるようにしてもよいし、第2撮像素子132において瞳分割方向が縦方向の焦点検出用画素と横方向の焦点検出用画素とを混在させるようにしてもよい。
(Modification 2)
In the image pickup unit 112 according to the second embodiment described above, the focus detection of the pupil division phase difference method may also be performed on the first image pickup element 131. That is, two photodiodes PD_A and PD_B are provided in each pixel P of the first image sensor 131, and the two photodiodes PD_A and PD_B receive a pair of light fluxes that have passed through the pair of pupil regions of the photographing optical system 10, respectively. It may be configured as follows. Since a light beam in which infrared light is cut is incident on the first image sensor 131, it is possible to perform focal detection by the pupil division phase difference method with visible light. In this case, for example, as shown in FIG. 13, in the second image sensor 132, the pupil division direction of each focus detection pixel is set to the vertical direction, and in the first image sensor 131, the pupil division of each focus detection pixel is set. The pupil division direction may be changed between the second image sensor 132 and the first image sensor 131, such as when the direction is lateral. By doing so, for example, in the case of a subject whose focus detection is easier when the pupil division direction is the vertical direction, focus detection can be performed using the output signal from the second image sensor 132. On the other hand, in the case of a subject whose focus detection is easier when the pupil division direction is the lateral direction, focus detection can be performed using the output signal from the first image sensor 131. In this way, the first image sensor 131 and the second image sensor 132 can be appropriately used, and the focus detection accuracy can be improved. Further, in the first image sensor 131, the focus detection pixels whose pupil division direction is in the vertical direction and the focus detection pixels in the horizontal direction may be mixed, or in the second image sensor 132, the pupil division direction is in the vertical direction. The focus detection pixel and the lateral focus detection pixel may be mixed.

(変形例3)
上述した実施の形態のデジタルカメラ1に、赤外線投光器を設けるようにしてもよい。赤外線投光器により赤外線を投光することにより、上述した赤外光による焦点検出処理においてさらに焦点検出精度を高めることができる。赤外線投光器は一様な赤外光を照射してもよいし、照射する赤外光にパターンを持たせてもよい。照射する赤外光にパターンを持たせる場合は、焦点検出を補助するような投影像としてもよいし、グリッド状に配置した多点像を投影してもよい。グリッド状に配置した多点像を投影する場合は、投影されたグリッドの歪量を演算することで、距離検出を行うこともできる。
(Modification example 3)
An infrared projector may be provided in the digital camera 1 of the above-described embodiment. By projecting infrared rays with an infrared projector, the focus detection accuracy can be further improved in the above-mentioned focus detection process using infrared light. The infrared projector may irradiate a uniform infrared light, or the infrared light to be irradiated may have a pattern. When the infrared light to be irradiated has a pattern, it may be a projected image that assists the focus detection, or a multipoint image arranged in a grid may be projected. When projecting a multipoint image arranged in a grid shape, distance detection can also be performed by calculating the amount of distortion of the projected grid.

(変形例4)
上述した実施の形態では、第2撮像素子32の各焦点検出用画素において隣接する光電変換部同士の光電変換信号を加算することで赤外光画像を取得し、コントラスト方式による焦点検出に用いる例について説明したが、赤外光画像をこの他の用途に用いてもよい。たとえば、第1撮像素子31により撮像された可視光画像と第2撮像素子32により撮像された赤外光画像とを比較して、可視光画像上ではヘッドライトなどの強い光によって隠れた人物を赤外光画像上で検出するようにしてもよい。また、赤外光は波長が長く物体の最表面よりも深部の像が得られるため、人間の顔を撮影した赤外光画像に基づいて人間の肌の内部を解析して、たとえば、肌の内部に隠れたしみなどの検出を行うこともできる。
(Modification example 4)
In the above-described embodiment, an infrared light image is acquired by adding photoelectric conversion signals between adjacent photoelectric conversion units in each focus detection pixel of the second image sensor 32, and is used for focus detection by a contrast method. However, the infrared light image may be used for other purposes. For example, by comparing the visible light image captured by the first image sensor 31 with the infrared light image captured by the second image sensor 32, a person hidden by strong light such as a headlight is displayed on the visible light image. It may be detected on an infrared light image. Infrared light has a long wavelength and an image deeper than the outermost surface of an object can be obtained. Therefore, the inside of human skin is analyzed based on an infrared light image of a human face, for example, of the skin. It is also possible to detect stains hidden inside.

(変形例5)
上述した実施の形態では、カラーフィルターの配置をベイヤ配列として、第1撮像素子31からベイヤ配列の画像信号を得られる例について説明したが、カラーフィルターの配置をこの他の配置としてもよい。また、R、G、Bの光をそれぞれ透過するカラーフィルターを配置する例について説明したが、これに限らなくてよく、たとえば、Cy、Mg、Yeの光をそれぞれ透過するカラーフィルターを配置するようにしてもよい。
(Modification 5)
In the above-described embodiment, the example in which the image signal of the Bayer array can be obtained from the first image sensor 31 with the arrangement of the color filters as the Bayer array has been described, but the arrangement of the color filters may be other arrangements. Further, an example of arranging a color filter that transmits R, G, and B light has been described, but the present invention is not limited to this. For example, a color filter that transmits Cy, Mg, and Ye light may be arranged. It may be.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。各実施形態および変形例は、適宜組合せてもよい。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Each embodiment and modification may be combined as appropriate. Other aspects conceivable within the scope of the technical idea of the present invention are also included within the scope of the present invention.

1…デジタルカメラ、10…撮影光学系、11…制御部、11a…焦点検出部、11b…画像生成部、12,112…撮像部、31,131…第1撮像素子、32,132…第2撮像素子 1 ... Digital camera, 10 ... Imaging optical system, 11 ... Control unit, 11a ... Focus detection unit, 11b ... Image generation unit, 12,112 ... Imaging unit, 31,131 ... First image sensor, 32,132 ... Second Image sensor

Claims (8)

光を光電変換して電荷を生成する有機光電膜と、
前記有機光電膜を透過した光を光電変換して電荷を生成する光電変換部と、前記有機光電膜で生成された電荷に基づく信号を出力する第1配線および前記光電変換部で生成された電荷に基づく信号を出力する第2配線を有する配線層と、前記有機光電膜で生成された電荷を出力し前記第1配線と電気的に接続される貫通電極とを有する半導体基板と、
を備える撮像素子。
An organic photoelectric film that converts light by photoelectric conversion to generate an electric charge,
A photoelectric conversion unit that photoelectrically converts the light transmitted through the organic photoelectric film to generate an electric charge, a first wiring that outputs a signal based on the charge generated by the organic photoelectric film, and an electric charge generated by the photoelectric conversion unit. A semiconductor substrate having a wiring layer having a second wiring that outputs a signal based on the above, and a through electrode that outputs a charge generated by the organic photoelectric film and is electrically connected to the first wiring.
An image sensor comprising.
請求項1に記載の撮像素子において、
前記光電変換部は、前記半導体基板において、前記有機光電膜と前記配線層との間に設けられる撮像素子。
In the image pickup device according to claim 1,
The photoelectric conversion unit is an image pickup device provided between the organic photoelectric film and the wiring layer on the semiconductor substrate.
請求項1または請求項2に記載の撮像素子において、
前記半導体基板は、複数の前記光電変換部を有し、
前記貫通電極は、複数の前記光電変換部の間において、前記半導体基板を貫通する撮像素子。
In the image pickup device according to claim 1 or 2.
The semiconductor substrate has a plurality of the photoelectric conversion units, and has a plurality of photoelectric conversion units.
The through electrode is an image sensor that penetrates the semiconductor substrate between the plurality of photoelectric conversion units.
請求項1から請求項3までのいずれか一項に記載の撮像素子において、
マイクロレンズと、
前記有機光電膜で生成された電荷を出力するための複数の電極と、
を備え、
前記有機光電膜は、前記マイクロレンズを透過した光を光電変換して電荷を生成し、
前記光電変換部は、前記有機光電膜と複数の前記電極を透過した光を光電変換する撮像素子。
The image sensor according to any one of claims 1 to 3.
With a micro lens
A plurality of electrodes for outputting the electric charge generated by the organic photoelectric film, and
With
The organic photoelectric film photoelectrically converts the light transmitted through the microlens to generate an electric charge.
The photoelectric conversion unit is an image pickup device that photoelectrically converts light transmitted through the organic photoelectric film and the plurality of electrodes.
請求項1から請求項4までのいずれか一項に記載の撮像素子において、
前記有機光電膜と前記光電変換部とを異なる電荷蓄積時間で制御する制御部を備える撮像素子。
The image sensor according to any one of claims 1 to 4.
An image pickup device including a control unit that controls the organic photoelectric film and the photoelectric conversion unit with different charge accumulation times.
請求項1から請求項5までのいずれか一項に記載の撮像素子において、
前記有機光電膜を透過した光を前記光電変換部に導光する導波路を備える撮像素子。
The image sensor according to any one of claims 1 to 5.
An image pickup device including a waveguide that guides light transmitted through the organic photoelectric film to the photoelectric conversion unit.
請求項1から請求項6までのいずれか一項に記載の撮像素子と、
前記有機光電膜で生成された電荷に基づく信号および前記光電変換部で生成された電荷に基づく信号の少なくとも一方に基づいて、光学系による像が前記撮像素子に合焦する合焦位置の検出を行う検出部と、
を備える撮像装置。
The image sensor according to any one of claims 1 to 6,
Detection of the in-focus position where the image by the optical system is focused on the image sensor based on at least one of the charge-based signal generated by the organic photoelectric film and the charge-based signal generated by the photoelectric conversion unit. The detector to perform and
An imaging device comprising.
請求項7に記載の撮像装置において、
前記検出部は、前記有機光電膜で生成された電荷に基づく信号に基づいて前記合焦位置が検出できないと前記光電変換部で生成された電荷に基づく信号に基づいて前記合焦位置を検出し、前記光電変換部で生成された電荷に基づく信号に基づいて前記合焦位置が検出できないと前記有機光電膜で生成された電荷に基づく信号に基づいて前記合焦位置を検出する撮像装置。
In the imaging device according to claim 7,
If the detection unit cannot detect the in-focus position based on the charge-based signal generated by the organic photoelectric film, the detection unit detects the in-focus position based on the charge-based signal generated by the photoelectric conversion unit. An imaging device that detects the in-focus position based on a signal based on the charge generated by the organic photoelectric film when the in-focus position cannot be detected based on the signal based on the charge generated by the photoelectric conversion unit.
JP2021020145A 2018-12-27 2021-02-10 Image pickup device and image pickup apparatus Pending JP2021100253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021020145A JP2021100253A (en) 2018-12-27 2021-02-10 Image pickup device and image pickup apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018244753A JP2019086785A (en) 2018-12-27 2018-12-27 Imaging element and imaging device
JP2021020145A JP2021100253A (en) 2018-12-27 2021-02-10 Image pickup device and image pickup apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018244753A Division JP2019086785A (en) 2018-12-27 2018-12-27 Imaging element and imaging device

Publications (1)

Publication Number Publication Date
JP2021100253A true JP2021100253A (en) 2021-07-01

Family

ID=66763036

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018244753A Pending JP2019086785A (en) 2018-12-27 2018-12-27 Imaging element and imaging device
JP2021020145A Pending JP2021100253A (en) 2018-12-27 2021-02-10 Image pickup device and image pickup apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018244753A Pending JP2019086785A (en) 2018-12-27 2018-12-27 Imaging element and imaging device

Country Status (1)

Country Link
JP (2) JP2019086785A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12363428B2 (en) * 2022-03-11 2025-07-15 Canon Kabushiki Kaisha Image pickup apparatus simultaneously obtaining visible and invisible light images, control method therefor, and storage medium storing control program therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020218563A1 (en) 2019-04-26 2020-10-29
JP2021193412A (en) * 2020-06-08 2021-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd Device, imaging device, imaging system, and mobile object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343456A (en) * 2005-06-08 2006-12-21 Canon Inc Focus detecting device, and imaging apparatus
JP2011029337A (en) * 2009-07-23 2011-02-10 Sony Corp Solid-state imaging device, method of manufacturing the same, and electronic apparatus
JP2011103335A (en) * 2009-11-10 2011-05-26 Fujifilm Corp Image sensor and image capturing apparatus
JP2013012556A (en) * 2011-06-28 2013-01-17 Sony Corp Solid-state image pickup device, manufacturing method of the same and electronic apparatus
JP2013070030A (en) * 2011-09-06 2013-04-18 Sony Corp Imaging device, electronic apparatus, and information processor
JP2013145292A (en) * 2012-01-13 2013-07-25 Nikon Corp Solid-state imaging device and electronic camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054355B2 (en) * 2008-10-16 2011-11-08 Omnivision Technologies, Inc. Image sensor having multiple sensing layers
JP2011243862A (en) * 2010-05-20 2011-12-01 Sony Corp Imaging device and imaging apparatus
JP2012220715A (en) * 2011-04-08 2012-11-12 Sharp Corp Display device
JP2013187475A (en) * 2012-03-09 2013-09-19 Olympus Corp Solid state imaging device and camera system
JP2012169676A (en) * 2012-05-31 2012-09-06 Fujifilm Corp Solid state imaging device
JP6118058B2 (en) * 2012-10-02 2017-04-19 キヤノン株式会社 Solid-state imaging device, imaging apparatus, and control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343456A (en) * 2005-06-08 2006-12-21 Canon Inc Focus detecting device, and imaging apparatus
JP2011029337A (en) * 2009-07-23 2011-02-10 Sony Corp Solid-state imaging device, method of manufacturing the same, and electronic apparatus
JP2011103335A (en) * 2009-11-10 2011-05-26 Fujifilm Corp Image sensor and image capturing apparatus
JP2013012556A (en) * 2011-06-28 2013-01-17 Sony Corp Solid-state image pickup device, manufacturing method of the same and electronic apparatus
JP2013070030A (en) * 2011-09-06 2013-04-18 Sony Corp Imaging device, electronic apparatus, and information processor
JP2013145292A (en) * 2012-01-13 2013-07-25 Nikon Corp Solid-state imaging device and electronic camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12363428B2 (en) * 2022-03-11 2025-07-15 Canon Kabushiki Kaisha Image pickup apparatus simultaneously obtaining visible and invisible light images, control method therefor, and storage medium storing control program therefor

Also Published As

Publication number Publication date
JP2019086785A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6458343B2 (en) Imaging device
US10686004B2 (en) Image capturing element and image capturing device image sensor and image-capturing device
JP7298635B2 (en) Imaging element and imaging device
US20150358593A1 (en) Imaging apparatus and image sensor
CN104205808B (en) Image pickup device and image pickup element
JP5276374B2 (en) Focus detection device
JP5547349B2 (en) Digital camera
JP5076416B2 (en) Imaging device and imaging apparatus
JP2021100253A (en) Image pickup device and image pickup apparatus
JP2000292685A (en) Image pick-up element
US8541747B2 (en) Solid-state image sensor and image sensing apparatus
WO2012066846A1 (en) Solid-state image sensor and imaging device
JP2018056522A (en) Imaging element and focus adjustment device
US20190258025A1 (en) Image sensor, focus detection apparatus, and electronic camera
JP5486284B2 (en) Imaging device
CN108701703B (en) Camera element and camera device
US20190371847A1 (en) Image sensor, focus detection apparatus, and electronic camera
JP7419975B2 (en) Imaging element and imaging device
JP2015159231A (en) Solid-state imaging device
JP2018046563A (en) Imaging element
CN110476417A (en) Photographing element and photographic device
JP2018056517A (en) Image sensor and focus adjustment device
JP2018056520A (en) Imaging element and focus adjustment device
JP2014215526A (en) Imaging element and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920