[go: up one dir, main page]

JP2018066931A - Solid state image pickup element, control method thereof, and imaging apparatus - Google Patents

Solid state image pickup element, control method thereof, and imaging apparatus Download PDF

Info

Publication number
JP2018066931A
JP2018066931A JP2016206720A JP2016206720A JP2018066931A JP 2018066931 A JP2018066931 A JP 2018066931A JP 2016206720 A JP2016206720 A JP 2016206720A JP 2016206720 A JP2016206720 A JP 2016206720A JP 2018066931 A JP2018066931 A JP 2018066931A
Authority
JP
Japan
Prior art keywords
phase difference
evaluation value
signal
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016206720A
Other languages
Japanese (ja)
Other versions
JP2018066931A5 (en
JP6881940B2 (en
Inventor
誠 伊勢
Makoto Ise
誠 伊勢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016206720A priority Critical patent/JP6881940B2/en
Priority to US15/784,354 priority patent/US10284800B2/en
Publication of JP2018066931A publication Critical patent/JP2018066931A/en
Priority to US16/358,854 priority patent/US10609315B2/en
Publication of JP2018066931A5 publication Critical patent/JP2018066931A5/ja
Application granted granted Critical
Publication of JP6881940B2 publication Critical patent/JP6881940B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ハイブリッドAFを用いて、迅速且つ高精度なオートフォーカスを実現し得る固体撮像素子及びその制御方法並びに撮像装置を提供する。【解決手段】複数の画素が行列状に配列された画素アレイと、位相差検出方式による焦点検出のための位相差評価値を、複数の画素のうちに含まれている位相差検出用画素からの信号に基づいて算出する第1の算出部と、画素アレイによって取得される画像信号に生ずる欠損であって、複数の画素のうちに位相差検出用画素が含まれていることによって生ずる欠損を補うための信号を、位相差検出用画素以外の画素からの信号を用いた補間によって生成する補間処理部と、コントラスト検出方式による焦点検出のためのコントラスト評価値を、補間処理部による補間によって生成された信号を含む画像信号に基づいて算出する第2の算出部とを有している。【選択図】図2−2A solid-state imaging device, a control method therefor, and an imaging apparatus capable of realizing quick and highly accurate autofocus using hybrid AF are provided. A pixel array in which a plurality of pixels are arranged in a matrix and a phase difference evaluation value for focus detection by a phase difference detection method are obtained from a phase difference detection pixel included in the plurality of pixels. A defect that occurs in the image signal acquired by the first calculation unit and the pixel array, and that is caused by including a phase difference detection pixel among a plurality of pixels. Interpolation processing unit that generates signals to compensate by interpolation using signals from pixels other than phase difference detection pixels, and contrast evaluation value for focus detection by contrast detection method is generated by interpolation by interpolation processing unit And a second calculation unit that calculates based on the image signal including the processed signal. [Selection] Figure 2-2

Description

本発明は、固体撮像素子及びその制御方法並びに撮像装置に関する。   The present invention relates to a solid-state imaging device, a control method thereof, and an imaging apparatus.

デジタルカメラやビデオカメラ等の撮像装置には、被写体のピント(レンズのフォーカス位置)を自動的に合わせるオートフォーカス(AF:Auto Focus)機能が搭載されている。   An imaging apparatus such as a digital camera or a video camera is equipped with an auto focus (AF) function that automatically adjusts the focus (lens focus position) of a subject.

迅速なオートフォーカスを実現するためには、高いフレームレートで焦点検出用の信号を読み出す必要がある。しかし、焦点検出用の信号を高いフレームレートで読み出した場合には、固体撮撮像素子の後段に位置する信号処理部へのデータ転送量の増加を招く。そこで、AF評価値を検出するAF評価値検出部を固体撮像素子の内部に設け、当該AF評価値検出部によって検出されたAF評価値を外部に出力する固体撮像素子が提案されている(特許文献1参照)。   In order to realize quick autofocus, it is necessary to read out a focus detection signal at a high frame rate. However, when the focus detection signal is read out at a high frame rate, the amount of data transferred to the signal processing unit located at the subsequent stage of the solid-state imaging device is increased. In view of this, there has been proposed a solid-state imaging device in which an AF evaluation value detection unit for detecting an AF evaluation value is provided inside the solid-state imaging device, and the AF evaluation value detected by the AF evaluation value detection unit is output to the outside (patent). Reference 1).

特開2015−12489号公報Japanese Patent Laying-Open No. 2015-12487

ところで、AF方式として、位相差検出方式によるAF、即ち、位相差AFと、コントラスト検出方式によるAF、即ち、コントラストAFとを組み合わせたハイブリッドAFが知られている。ハイブリッドAFにおいては、位相差AFによってフォーカスレンズを合焦近傍位置まで移動させ、更に、コントラストAFによってフォーカスレンズを合焦位置に移動させる方法が一般的である。これにより、合焦までの時間の短縮と合焦精度の向上とが図られる。しかしながら、特許文献1では、このようなハイブリッドAF技術について考慮されていないため、撮影条件などによっては、必ずしも迅速且つ高精度なオートフォーカスを実現し得なかった。   By the way, as the AF method, there is known a hybrid AF in which AF by a phase difference detection method, that is, phase difference AF, and AF by a contrast detection method, that is, contrast AF are combined. In the hybrid AF, a method of moving the focus lens to the in-focus position by phase difference AF and further moving the focus lens to the in-focus position by contrast AF is common. This shortens the time until focusing and improves focusing accuracy. However, in Patent Document 1, since such a hybrid AF technique is not taken into consideration, it is not always possible to realize a quick and highly accurate autofocus depending on photographing conditions and the like.

本発明の目的は、ハイブリッドAFを用いて、迅速且つ高精度なオートフォーカスを実現し得る固体撮像素子及びその制御方法並びに撮像装置を提供することにある。   An object of the present invention is to provide a solid-state imaging device, a control method therefor, and an imaging apparatus capable of realizing quick and highly accurate autofocus using hybrid AF.

本発明の一観点によれば、複数の画素が行列状に配列された画素アレイと、位相差検出方式による焦点検出のための位相差評価値を、前記複数の画素のうちに含まれている位相差検出用画素からの信号に基づいて算出する第1の算出部と、前記画素アレイによって取得される画像信号に生ずる欠損であって、前記複数の画素のうちに前記位相差検出用画素が含まれていることによって生ずる欠損を補うための信号を、前記位相差検出用画素以外の前記画素からの信号を用いた補間によって生成する補間処理部と、コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記補間処理部による前記補間によって生成された前記信号を含む前記画像信号に基づいて算出する第2の算出部とを有することを特徴とする固体撮像素子が提供される。   According to an aspect of the present invention, a pixel array in which a plurality of pixels are arranged in a matrix and a phase difference evaluation value for focus detection by a phase difference detection method are included in the plurality of pixels. A first calculation unit configured to calculate based on a signal from a phase difference detection pixel; and a defect that occurs in an image signal acquired by the pixel array, and the phase difference detection pixel is included in the plurality of pixels. An interpolation processing unit that generates a signal for compensating for a defect caused by being included by interpolation using signals from the pixels other than the phase difference detection pixel, and a contrast for focus detection by a contrast detection method A solid-state imaging device comprising: a second calculation unit that calculates an evaluation value based on the image signal including the signal generated by the interpolation by the interpolation processing unit. It is subjected.

本発明によれば、ハイブリッドAFを用いて、迅速且つ高精度なオートフォーカスを実現し得る固体撮像素子及びその制御方法並びに撮像装置を提供することができる。   According to the present invention, it is possible to provide a solid-state imaging device, a control method therefor, and an imaging apparatus that can realize quick and highly accurate autofocus using hybrid AF.

第1実施形態による撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device by 1st Embodiment. 図2(a)は、第1実施形態による固体撮像素子の構造を示す斜視図である。FIG. 2A is a perspective view showing the structure of the solid-state imaging device according to the first embodiment. 図2(b)及び図2(c)は、第1実施形態による固体撮像素子を示す回路図である。2B and 2C are circuit diagrams illustrating the solid-state imaging device according to the first embodiment. 通常行に配された画素と撮像光学系とを示す図である。It is a figure which shows the pixel and imaging optical system which were distribute | arranged to the normal line. 位相差AF行に配された画素と撮像光学系とを示す図である。It is a figure which shows the pixel and imaging optical system which were distribute | arranged to phase difference AF line. 第1実施形態による固体撮像素子における読み出しの際の選択行の例を示す図である。It is a figure which shows the example of the selection line at the time of the reading in the solid-state image sensor by 1st Embodiment. 第1実施形態による固体撮像素子における画素のレイアウトを示す図である。It is a figure which shows the layout of the pixel in the solid-state image sensor by 1st Embodiment. 補間処理を概念的に示す図である。It is a figure which shows an interpolation process notionally. 第1実施形態による撮像装置の動作を示すタイムチャートである。It is a time chart which shows operation | movement of the imaging device by 1st Embodiment. 第1実施形態による撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device by 1st Embodiment. 第2実施形態による撮像装置の動作を示すタイムチャートである。It is a time chart which shows operation | movement of the imaging device by 2nd Embodiment. 第2実施形態による撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device by 2nd Embodiment.

本発明の実施の形態を、添付の図面を参照して以下に詳細に説明するが、本発明は、以下の実施形態に限定されるものではない。
[第1実施形態]
第1実施形態による固体撮像素子及びその制御方法並びに撮像装置について図1乃至図8を用いて説明する。図1は、本実施形態による撮像装置の構成を示すブロック図である。ここでは、本実施形態による撮像装置100が、動画像や静止画像を取得し得る電子カメラ、即ち、デジタルカメラである場合を例に説明するが、これに限定されるものではない。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings, but the present invention is not limited to the following embodiments.
[First Embodiment]
A solid-state imaging device, a control method thereof, and an imaging apparatus according to a first embodiment will be described with reference to FIGS. FIG. 1 is a block diagram illustrating the configuration of the imaging apparatus according to the present embodiment. Here, the case where the imaging apparatus 100 according to the present embodiment is an electronic camera that can acquire moving images and still images, that is, a digital camera will be described as an example, but the present invention is not limited thereto.

図1に示すように、撮像装置100は、光学鏡筒101と、固体撮像素子102と、駆動部103と、信号処理部104と、圧縮伸長部105と、制御部106と、発光部107と、操作部108と、画像表示部109と、画像記録部110とを備えている。   As shown in FIG. 1, the imaging apparatus 100 includes an optical barrel 101, a solid-state imaging device 102, a drive unit 103, a signal processing unit 104, a compression / decompression unit 105, a control unit 106, and a light emitting unit 107. , An operation unit 108, an image display unit 109, and an image recording unit 110.

光学鏡筒(レンズユニット)101は、被写体からの光を固体撮像素子102に集光するためのレンズ群を備えている。かかるレンズ群には、フォーカスレンズやズームレンズが含まれる。かかるレンズ群と、後述するマイクロレンズML(図3、図4参照)とが相俟って、撮像光学系を構成する。光学鏡筒101は、AF機構、ズーム駆動機構、メカニカルシャッタ機構、絞り機構等を含む光学機構部1011を備えている。光学機構部1011は、制御部106からの制御信号に基づいて、駆動部(駆動回路)103によって駆動される。   The optical barrel (lens unit) 101 includes a lens group for condensing light from a subject onto the solid-state image sensor 102. Such a lens group includes a focus lens and a zoom lens. Such a lens group and a microlens ML (see FIGS. 3 and 4) described later constitute an imaging optical system. The optical barrel 101 includes an optical mechanism unit 1011 including an AF mechanism, a zoom drive mechanism, a mechanical shutter mechanism, a diaphragm mechanism, and the like. The optical mechanism unit 1011 is driven by a drive unit (drive circuit) 103 based on a control signal from the control unit 106.

固体撮像素子102は、後述する画素201と、A/Dコンバータ(図示せず)とを含んでいる。固体撮像素子102は、例えば、XY読み出し方式のCMOS型イメージセンサである。固体撮像素子102は、制御部106からの制御信号に基づいて、駆動部103によって駆動される。固体撮像素子102は、露光・蓄積、信号読み出し、リセット等の撮像動作を行い、撮像動作によって取得される信号、即ち、撮像信号(以下、「画像信号」、「画像データ」ともいう)を出力する。固体撮像素子102は、AF評価値算出部1021を備えている。AF評価値算出部1021は、固体撮像素子102によって取得される信号に基づいて、AF評価値、即ち、位相差評価値及びコントラスト評価値を算出し、算出したAF評価値を制御部106に出力する。   The solid-state image sensor 102 includes a pixel 201 described later and an A / D converter (not shown). The solid-state image sensor 102 is, for example, an XY readout type CMOS image sensor. The solid-state image sensor 102 is driven by the drive unit 103 based on a control signal from the control unit 106. The solid-state imaging device 102 performs an imaging operation such as exposure / accumulation, signal readout, and reset, and outputs a signal acquired by the imaging operation, that is, an imaging signal (hereinafter also referred to as “image signal” or “image data”). To do. The solid-state image sensor 102 includes an AF evaluation value calculation unit 1021. The AF evaluation value calculation unit 1021 calculates an AF evaluation value, that is, a phase difference evaluation value and a contrast evaluation value, based on a signal acquired by the solid-state imaging device 102, and outputs the calculated AF evaluation value to the control unit 106. To do.

信号処理部104は、制御部106の制御下で、固体撮像素子102によって取得される画像信号に対して、ホワイトバランス調整処理、色補正処理、AE(Auto Exposure)処理等の所定の信号処理を施す。   The signal processing unit 104 performs predetermined signal processing such as white balance adjustment processing, color correction processing, and AE (Auto Exposure) processing on the image signal acquired by the solid-state imaging device 102 under the control of the control unit 106. Apply.

圧縮伸長部105は、制御部106の制御下で動作する。圧縮伸長部105は、信号処理部104から送られてくる画像信号に対して圧縮符号化処理を行うことにより、符号化画像データを生成する。圧縮符号化処理においては、例えば、JPEG(Joint Photographic Coding Experts Group)方式等の所定の静止画像データフォーマットが用いられる。また、圧縮伸長部105は、制御部106から送られてくる符号化画像データに対して伸長復号化処理を行うことにより、復号化画像データを得る。なお、圧縮伸長部105は、動画像データに対して圧縮符号化処理や伸長復号化処理を行うこともできる。動画像データに対する圧縮符号化処理や伸長復号化処理においては、例えば、MPEG(Moving Picture Experts Group)方式等が用いられる。   The compression / decompression unit 105 operates under the control of the control unit 106. The compression / decompression unit 105 generates encoded image data by performing compression encoding processing on the image signal sent from the signal processing unit 104. In the compression encoding process, for example, a predetermined still image data format such as JPEG (Joint Photographic Coding Experts Group) method is used. The compression / decompression unit 105 obtains decoded image data by performing an expansion decoding process on the encoded image data transmitted from the control unit 106. Note that the compression / decompression unit 105 can also perform compression encoding processing and decompression decoding processing on moving image data. In compression encoding processing and decompression decoding processing for moving image data, for example, a moving picture experts group (MPEG) method or the like is used.

制御部106は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を備える。CPUがROM等に記憶されたプログラムを実行することによって、撮像装置100全体が制御部106によって統括的に制御される。   The control unit 106 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). When the CPU executes a program stored in a ROM or the like, the entire imaging apparatus 100 is controlled in an integrated manner by the control unit 106.

信号処理部104によって行われるAE処理において被写体の露光値が低いと判断された場合には、制御部106は、発光部107を制御することによって被写体に対して光を発し、被写体に対する照明を行う。発光部107としては、例えば、キセノン管を用いたストロボ装置やLED発光装置等が用いられる。   When it is determined in the AE process performed by the signal processing unit 104 that the exposure value of the subject is low, the control unit 106 controls the light emitting unit 107 to emit light to illuminate the subject. . As the light emitting unit 107, for example, a strobe device using a xenon tube, an LED light emitting device, or the like is used.

操作部108は、例えば、シャッタレリーズボタン等の各種操作キー、レバー、ダイヤル、タッチパネル等であり、ユーザによる操作入力に応じた操作信号を制御部106に与える。   The operation unit 108 is, for example, various operation keys such as a shutter release button, a lever, a dial, a touch panel, and the like, and gives an operation signal corresponding to an operation input by the user to the control unit 106.

画像表示部109は、例えば、LCD(Liquid Crystal Display)等の表示デバイス(図示せず)と、当該表示デバイスに対するインタフェース(図示せず)とを備えている。画像表示部109は、制御部106から送られる画像データに応じた画像を、表示デバイスの表示画面に表示する。   The image display unit 109 includes, for example, a display device (not shown) such as an LCD (Liquid Crystal Display) and an interface (not shown) for the display device. The image display unit 109 displays an image corresponding to the image data sent from the control unit 106 on the display screen of the display device.

画像記録部110としては、例えば、可搬型の半導体メモリ、光ディスク、HDD(Hard Disk Drive)、磁気テープ等の記録媒体が用いられる。画像記録部110には、圧縮伸長部105によって圧縮符号化処理が施された符号化画像データが画像ファイルとして記録される。画像記録部110は、制御部106によって指定された画像ファイルを記録媒体から読み出し、当該画像ファイルを制御部106に出力する。制御部106は、画像記録部110から読み出された符号化画像データの伸長符号化処理を圧縮伸長部105によって行わせることにより、復号化画像データを得る。   As the image recording unit 110, for example, a recording medium such as a portable semiconductor memory, an optical disk, a HDD (Hard Disk Drive), or a magnetic tape is used. The image recording unit 110 records the encoded image data subjected to the compression encoding process by the compression / decompression unit 105 as an image file. The image recording unit 110 reads the image file designated by the control unit 106 from the recording medium, and outputs the image file to the control unit 106. The control unit 106 obtains decoded image data by causing the compression / decompression unit 105 to perform decompression coding processing of the encoded image data read from the image recording unit 110.

次に、本実施形態による撮像装置100の基本的な動作について説明する。例えば、静止画像を撮影する際には、静止画像の撮像前において、固体撮像素子102が以下のように動作する。即ち、固体撮像素子102は、後述する画素201から出力される画像信号に対してCDS処理とAGC処理とを順次実施し、これらの処理が施された画像信号をA/Dコンバータを用いてデジタル画像信号に変換する。なお、CDSは、Correlated Double Sampling(相関二重サンプリング)の略である。また、AGCは、Automatic Gain Control(自動利得制御)の略である。こうして得られたデジタル画像信号は、AF評価値算出部1021や信号処理部104に送信される。   Next, the basic operation of the imaging apparatus 100 according to the present embodiment will be described. For example, when capturing a still image, the solid-state image sensor 102 operates as follows before capturing a still image. That is, the solid-state imaging device 102 sequentially performs CDS processing and AGC processing on an image signal output from the pixel 201 described later, and digitally outputs the image signal subjected to these processing using an A / D converter. Convert to image signal. Note that CDS is an abbreviation for Correlated Double Sampling. AGC is an abbreviation for Automatic Gain Control (automatic gain control). The digital image signal thus obtained is transmitted to the AF evaluation value calculation unit 1021 and the signal processing unit 104.

AF評価値算出部1021は、固体撮像素子102によって取得される画像信号から位相差評価値やコントラスト評価値等のAF評価値を算出し、算出したAF評価値を制御部106に出力する。制御部106は、AF評価値に基づいて、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定し、決定したフィードバック制御量を駆動部103に出力する。駆動部103は、制御部106から与えられるフィードバック制御量に基づいて、光学機構部1011に備えられたAF機構を用いてフォーカスレンズを駆動する。   The AF evaluation value calculation unit 1021 calculates an AF evaluation value such as a phase difference evaluation value or a contrast evaluation value from the image signal acquired by the solid-state imaging device 102, and outputs the calculated AF evaluation value to the control unit 106. The control unit 106 determines a feedback control amount, that is, a focus lens drive amount based on the AF evaluation value, and outputs the determined feedback control amount to the drive unit 103. The drive unit 103 drives the focus lens using the AF mechanism provided in the optical mechanism unit 1011 based on the feedback control amount given from the control unit 106.

信号処理部104は、固体撮像素子102から出力されるデジタル画像信号に対して、例えば画質補正処理を施すことにより、例えば、カメラスルー画像信号、即ち、ライブビュー画像信号を生成する。信号処理部104は、生成したライブビュー画像信号を、制御部106を介して画像表示部109に送信する。画像表示部109には、ライブビュー画像信号に応じたライブビュー画像が表示される。ユーザは、画像表示部109に表示されたライブビュー画像を目視しつつ、画角合わせ(フレーミング)等を行うことができる。   The signal processing unit 104 generates, for example, a camera-through image signal, that is, a live view image signal, by performing, for example, image quality correction processing on the digital image signal output from the solid-state image sensor 102. The signal processing unit 104 transmits the generated live view image signal to the image display unit 109 via the control unit 106. The image display unit 109 displays a live view image corresponding to the live view image signal. The user can perform angle-of-view alignment (framing) and the like while viewing the live view image displayed on the image display unit 109.

ライブビュー画像が画像表示部109に表示されている状態で、操作部108に備えられたシャッタレリーズボタンがユーザによって押下されると、制御部106は、以下のような処理を行う。即ち、制御部106は、駆動部103を介して固体撮像素子102を制御することにより、1フレーム分の撮像信号、即ち、1フレーム分のデジタル画像信号を、固体撮像素子102から信号処理部104に送信させる。信号処理部104は、固体撮像素子102から送信された1フレーム分のデジタル画像信号に対して例えば画質補正処理を施し、画質補正処理後のデジタル画像信号、即ち、画像データを圧縮伸長部105に送信する。圧縮伸長部105は、画像データに対して圧縮符号化の処理を施すことにより、符号化画像データを得る。圧縮伸長部105によって得られた符号化画像データは、制御部106を介して画像記録部110に送信される。こうして、固体撮像素子102を用いて取得された静止画像の画像ファイルが、画像記録部110に記録される。   When the shutter release button provided in the operation unit 108 is pressed by the user while the live view image is displayed on the image display unit 109, the control unit 106 performs the following processing. In other words, the control unit 106 controls the solid-state image sensor 102 via the drive unit 103, whereby an image signal for one frame, that is, a digital image signal for one frame is transmitted from the solid-state image sensor 102 to the signal processing unit 104. To send to. The signal processing unit 104 performs, for example, image quality correction processing on the digital image signal for one frame transmitted from the solid-state imaging device 102, and the digital image signal after the image quality correction processing, that is, image data is sent to the compression / decompression unit 105. Send. The compression / decompression unit 105 obtains encoded image data by performing compression encoding processing on the image data. The encoded image data obtained by the compression / decompression unit 105 is transmitted to the image recording unit 110 via the control unit 106. In this way, an image file of a still image acquired using the solid-state image sensor 102 is recorded in the image recording unit 110.

画像記録部110に記録された静止画像の画像ファイルを再生する際には、制御部106は、以下のような処理を行う。即ち、制御部106は、操作部108を介してユーザによって選択された画像ファイルを、画像記録部110から読み出す。そして、制御部106は、画像記録部110から読み出した画像ファイルを圧縮伸長部105に送信する。圧縮伸長部105は、当該画像ファイルに対して伸長復号化の処理を施すことにより、復号化画像データを得る。制御部106は、圧縮伸長部105によって得られた復号化画像データを、画像表示部109に送信する。画像表示部109は、復号化画像データに応じた静止画像を表示する。   When playing back an image file of a still image recorded in the image recording unit 110, the control unit 106 performs the following processing. That is, the control unit 106 reads the image file selected by the user via the operation unit 108 from the image recording unit 110. Then, the control unit 106 transmits the image file read from the image recording unit 110 to the compression / decompression unit 105. The compression / decompression unit 105 obtains decoded image data by performing an expansion decoding process on the image file. The control unit 106 transmits the decoded image data obtained by the compression / decompression unit 105 to the image display unit 109. The image display unit 109 displays a still image corresponding to the decoded image data.

制御部106は、動画像データを記録する際には、以下のような処理を行う。即ち、制御部106は、駆動部103を介して固体撮像素子102を制御することによって、固体撮像素子102から順次出力されるデジタル画像信号を信号処理部104に順次入力させる。信号処理部104は、順次入力されるデジタル画像信号に対して所定の画像処理を順次行うことにより、画像データ、即ち、動画像データを生成する。圧縮伸長部105は、動画像データに対して圧縮符号化の処理を施すことにより、符号化動画像データを得る。圧縮伸長部105によって得られる符号化動画像データは、制御部106を介して画像記録部110に順次転送され、動画像ファイルとして画像記録部110に記録される。   The control unit 106 performs the following processing when recording moving image data. In other words, the control unit 106 controls the solid-state imaging device 102 via the driving unit 103 to sequentially input digital image signals sequentially output from the solid-state imaging device 102 to the signal processing unit 104. The signal processing unit 104 generates image data, that is, moving image data, by sequentially performing predetermined image processing on sequentially input digital image signals. The compression / decompression unit 105 obtains encoded moving image data by performing compression encoding processing on the moving image data. The encoded moving image data obtained by the compression / decompression unit 105 is sequentially transferred to the image recording unit 110 via the control unit 106 and is recorded in the image recording unit 110 as a moving image file.

画像記録部110に記録された動画像ファイルを再生する際には、制御部106は、以下のような処理を行う。即ち、制御部106は、操作部108を介してユーザによって選択された動画像ファイルを、画像記録部110から読み出す。制御部106は、画像記録部110から読み出した動画像ファイルを圧縮伸長部105に送信する。圧縮伸長部105は、動画像ファイルに対して伸長復号化の処理を施すことにより、復号化動画像データを得る。制御部106は、圧縮伸長部105によって得られた復号化動画像データを画像表示部109に送信する。画像表示部109は、復号化動画像データに応じた動画像を表示する。   When playing back a moving image file recorded in the image recording unit 110, the control unit 106 performs the following processing. That is, the control unit 106 reads out the moving image file selected by the user via the operation unit 108 from the image recording unit 110. The control unit 106 transmits the moving image file read from the image recording unit 110 to the compression / decompression unit 105. The compression / decompression unit 105 obtains decoded moving image data by performing an expansion decoding process on the moving image file. The control unit 106 transmits the decoded moving image data obtained by the compression / decompression unit 105 to the image display unit 109. The image display unit 109 displays a moving image corresponding to the decoded moving image data.

図2(a)は、本実施形態による撮像装置に備えられた固体撮像素子の構造を示す斜視図である。図2(a)に示すように、本実施形態による固体撮像素子102は、第1の半導体チップ20と第2の半導体チップ21とを有しており、第2の半導体チップ21上に第1の半導体チップ20が積層された積層型イメージセンサである。第1の半導体チップ20は、複数の画素(画素部)201が2次元マトリクス状、即ち、行列状に配列された画素アレイ206を有しており、第1の半導体チップ20は、第2の半導体チップ21に対して光入射側に配置されている。即ち、第1の半導体チップ20は、第2の半導体チップ21に対して、光学像の受光側に位置している。第2の半導体チップ21には、後述する列走査回路213a、213bと、行走査回路212とを含む画素駆動回路(読み出し回路、読み出し部)が形成されている。また、第2の半導体チップ21には、AF評価値算出部1021や補間処理部219も形成されている。   FIG. 2A is a perspective view showing the structure of the solid-state imaging device provided in the imaging apparatus according to the present embodiment. As shown in FIG. 2A, the solid-state imaging device 102 according to the present embodiment includes a first semiconductor chip 20 and a second semiconductor chip 21, and the first semiconductor chip 21 is first on the second semiconductor chip 21. This is a stacked image sensor in which the semiconductor chips 20 are stacked. The first semiconductor chip 20 includes a pixel array 206 in which a plurality of pixels (pixel portions) 201 are arranged in a two-dimensional matrix, that is, in a matrix, and the first semiconductor chip 20 includes the second semiconductor chip 20 The semiconductor chip 21 is arranged on the light incident side. That is, the first semiconductor chip 20 is positioned on the light receiving side of the optical image with respect to the second semiconductor chip 21. The second semiconductor chip 21 is formed with a pixel drive circuit (read circuit, read unit) including column scan circuits 213a and 213b, which will be described later, and a row scan circuit 212. The second semiconductor chip 21 is also formed with an AF evaluation value calculation unit 1021 and an interpolation processing unit 219.

本実施形態では、画素201が形成される第1の半導体チップ20と周辺回路が形成される第2の半導体チップ21とが別個になっているため、画素201の製造プロセスと周辺回路の製造プロセスとが分離されている。このため、本実施形態においては、配線の細線化や高密度化等が周辺回路等において実現され、固体撮像素子102の高速化、小型化、高機能化等が実現される。   In the present embodiment, since the first semiconductor chip 20 in which the pixel 201 is formed and the second semiconductor chip 21 in which the peripheral circuit is formed are separated, the manufacturing process of the pixel 201 and the manufacturing process of the peripheral circuit And are separated. For this reason, in the present embodiment, thinning and high density of the wiring are realized in the peripheral circuit and the like, and the high speed, miniaturization, high functionality, etc. of the solid-state imaging device 102 are realized.

図2(b)及び図2(c)は、本実施形態による固体撮像素子を示す回路図である。図2(c)は、画素201の構成を示す回路図である。図2(b)に示すように、第1の半導体チップ20には、2次元マトリクス状に配列された複数の画素201が形成されている。画素201は、水平方向において、転送信号線203、リセット信号線204、行選択信号線205にそれぞれ接続されており、垂直方向において、列信号線202a又は列信号線202bにそれぞれ接続されている。なお、列信号線202a、202bの接続先の画素201は、読み出し行によって異なっている。即ち、後述する位相差検出用(焦点検出用)の画素201SHA、201SHB(図4(a)参照)が含まれている行、即ち、位相差AF行(AF行)に位置する画素201は、列信号線202bに接続されている。一方、位相差検出用の画素201SHA、201SHBが含まれていない行、即ち、通常行に位置する画素201は、列信号線202aに接続されている。   2B and 2C are circuit diagrams showing the solid-state imaging device according to the present embodiment. FIG. 2C is a circuit diagram illustrating a configuration of the pixel 201. As shown in FIG. 2B, the first semiconductor chip 20 is formed with a plurality of pixels 201 arranged in a two-dimensional matrix. The pixel 201 is connected to the transfer signal line 203, the reset signal line 204, and the row selection signal line 205 in the horizontal direction, and is connected to the column signal line 202a or the column signal line 202b in the vertical direction. Note that the pixel 201 to which the column signal lines 202a and 202b are connected differs depending on the readout row. That is, the pixels 201SHA and 201SHB (see FIG. 4A) for phase difference detection (focus detection) described later, that is, the pixels 201 located in the phase difference AF row (AF row) are: It is connected to the column signal line 202b. On the other hand, the row not including the phase difference detection pixels 201SHA and 201SHB, that is, the pixel 201 located in the normal row is connected to the column signal line 202a.

図2(c)に示すように、画素201は、光電変換素子であるフォトダイオードPDと、転送トランジスタM1と、リセットトランジスタM2と、増幅トランジスタM3と、選択トランジスタM4と、フローティングディフュージョンFDとを有している。トランジスタM1〜M4としては、例えば、nチャネル型のMOSFET(MOS Field−Effect Transistor)が用いられている。   As shown in FIG. 2C, the pixel 201 includes a photodiode PD which is a photoelectric conversion element, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, a selection transistor M4, and a floating diffusion FD. doing. As the transistors M1 to M4, for example, n-channel MOSFETs (MOS Field-Effect Transistors) are used.

転送トランジスタM1のゲートには、転送信号線203が接続されている。リセットトランジスタM2のゲートには、リセット信号線204が接続されている。選択トランジスタM4のゲートには、行選択信号線205が接続されている。これらの信号線203〜205は水平方向に延在しており、同一行に位置する画素201が同時に駆動される。これによって、ライン順次動作型のローリングシャッタ又は全行同時動作型のグローバルシャッタの動作を実現することができる。更に、選択トランジスタM4のソースには、列信号線202a又は列信号線202bが接続されている。   A transfer signal line 203 is connected to the gate of the transfer transistor M1. A reset signal line 204 is connected to the gate of the reset transistor M2. A row selection signal line 205 is connected to the gate of the selection transistor M4. These signal lines 203 to 205 extend in the horizontal direction, and the pixels 201 located in the same row are driven simultaneously. As a result, the operation of a line sequential operation type rolling shutter or an all row simultaneous operation type global shutter can be realized. Further, the column signal line 202a or the column signal line 202b is connected to the source of the selection transistor M4.

フォトダイオードPDは、光電変換によって電荷を生成する。フォトダイオードPDのアノード側は接地されており、フォトダイオードPDのカソード側は転送トランジスタM1のソースに接続されている。転送トランジスタM1がON状態になると、フォトダイオードPDの電荷がフローティングディフュージョンFDに転送される。フローティングディフュージョンFDには寄生容量が存在するため、フローティングディフュージョンFDにはフォトダイオードPDから転送された電荷が蓄積される。   The photodiode PD generates charges by photoelectric conversion. The anode side of the photodiode PD is grounded, and the cathode side of the photodiode PD is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the floating diffusion FD. Since there is a parasitic capacitance in the floating diffusion FD, charges transferred from the photodiode PD are accumulated in the floating diffusion FD.

増幅トランジスタM3のドレインには電源電圧Vddが印加され、増幅トランジスタM3のゲートはフローティングディフュージョンFDに接続されている。増幅トランジスタM3のゲートの電位は、フローティングディフュージョンFDに蓄積された電荷に応じた電位となる。選択トランジスタM4は、信号が読み出される画素201を選択するためのものであり、選択トランジスタM4のドレインは増幅トランジスタM3のソースに接続されている。また、選択トランジスタM4のソースは、列信号線202a又は列信号線202bに接続されている。選択トランジスタM4がON状態になると、増幅トランジスタM3のゲートの電位に応じた出力信号が、列信号線202a又は列信号線202bに出力される。リセットトランジスタM2のドレインには電源電圧Vddが印加され、リセットトランジスタM2のソースはフローティングディフュージョンFDに接続されている。リセットトランジスタM2がON状態になることによって、フローティングディフュージョンFDの電位は電源電圧Vddにリセットされる。   The power supply voltage Vdd is applied to the drain of the amplification transistor M3, and the gate of the amplification transistor M3 is connected to the floating diffusion FD. The potential of the gate of the amplification transistor M3 becomes a potential corresponding to the electric charge accumulated in the floating diffusion FD. The selection transistor M4 is for selecting the pixel 201 from which a signal is read, and the drain of the selection transistor M4 is connected to the source of the amplification transistor M3. The source of the selection transistor M4 is connected to the column signal line 202a or the column signal line 202b. When the selection transistor M4 is turned on, an output signal corresponding to the gate potential of the amplification transistor M3 is output to the column signal line 202a or the column signal line 202b. The power supply voltage Vdd is applied to the drain of the reset transistor M2, and the source of the reset transistor M2 is connected to the floating diffusion FD. When the reset transistor M2 is turned on, the potential of the floating diffusion FD is reset to the power supply voltage Vdd.

第2の半導体チップ21には、カラムADCブロック211が備えられている。カラムADCブロック211は、列信号線202a又は列信号線202bに接続されている。更に、第2の半導体チップ21には、各行の走査を行う行走査回路212と、各列の走査を行う列走査回路213a、213bとが備えられている。更に、第2の半導体チップ21には、制御部106からの制御信号に基づいて、行走査回路212、列走査回路213a、213b、カラムADCブロック211の動作タイミングをそれぞれ制御するタイミング制御回路214が備えられている。更に、第2の半導体チップ21には、列走査回路213a、213bによって制御されるタイミングに従ってカラムADCブロック211からの信号を転送する水平信号線215a、215bが備えられている。   The second semiconductor chip 21 is provided with a column ADC block 211. The column ADC block 211 is connected to the column signal line 202a or the column signal line 202b. Further, the second semiconductor chip 21 is provided with a row scanning circuit 212 that performs scanning of each row and column scanning circuits 213a and 213b that perform scanning of each column. Further, the second semiconductor chip 21 includes a timing control circuit 214 that controls the operation timings of the row scanning circuit 212, the column scanning circuits 213a and 213b, and the column ADC block 211 based on a control signal from the control unit 106, respectively. Is provided. Further, the second semiconductor chip 21 is provided with horizontal signal lines 215a and 215b for transferring signals from the column ADC block 211 in accordance with timing controlled by the column scanning circuits 213a and 213b.

更に、第2の半導体チップ21は、水平信号線215bを介して出力されるデジタル画像信号の出力先を切り替えるためのスイッチ216を備えている。スイッチ216を第1の設定にした際には、水平信号線215bを介して出力されるデジタル画像信号の出力先が、AF評価値算出部1021に備えられた位相差評価値算出部217に設定される。一方、スイッチ216を第2の設定にした際には、水平信号線215bを介して出力されるデジタル画像信号の出力先が、補間処理部219に設定される。   Further, the second semiconductor chip 21 includes a switch 216 for switching the output destination of the digital image signal output via the horizontal signal line 215b. When the switch 216 is set to the first setting, the output destination of the digital image signal output via the horizontal signal line 215b is set in the phase difference evaluation value calculation unit 217 provided in the AF evaluation value calculation unit 1021. Is done. On the other hand, when the switch 216 is set to the second setting, the output destination of the digital image signal output via the horizontal signal line 215b is set in the interpolation processing unit 219.

上述したように、位相差検出用の画素201SHA、201SHBが含まれている行、即ち、位相差AF行に位置する画素201は、列信号線202bに接続されている。このため、位相差AF行に位置する画素201によって取得される信号は、列信号線202bと水平信号線215bとを介して転送される。位相差AF行に位置する位相差検出用の画素201SHA、201SHBによって取得される信号は、列信号線202bと水平信号線215bとスイッチ216とを介して、位相差評価値算出部217に転送される。   As described above, the row including the phase difference detection pixels 201SHA and 201SHB, that is, the pixel 201 located in the phase difference AF row is connected to the column signal line 202b. For this reason, the signal acquired by the pixel 201 located in the phase difference AF row is transferred via the column signal line 202b and the horizontal signal line 215b. Signals acquired by the phase difference detection pixels 201SHA and 201SHB located in the phase difference AF row are transferred to the phase difference evaluation value calculation unit 217 via the column signal line 202b, the horizontal signal line 215b, and the switch 216. The

ところで、位相差AF行には、位相差検出用の画素201SHA、201SHBのみならず、撮像用の画素201Gも位置している(図4(a)参照)。なお、R(赤色)、G(緑色)、B(青色)のような特定の分光感度を有する画素について説明する際には、201R、201G、201Bという符号をそれぞれ用いることとする。また、位相差検出用の画素について説明する際には、201SHA、201SHBという符号をそれぞれ用いることとする。また、画素一般について説明する際には、201という符号を用いることとする。位相差AF行に位置する画素201のうちの撮像用の画素201Gによって取得される信号は、列信号線202bと水平信号線215bとスイッチ216とを介して、補間処理部219に送信される。位相差検出用の画素201SHA、201SHBが含まれていない行、即ち、通常行に位置する画素201は、上述したように列信号線202aに接続されている。このため、通常行に位置する画素201によって取得される信号は、列信号線202aと水平信号線215aとを介して補間処理部219に出力される。このように、補間処理部219には、水平信号線215aを介して出力されるデジタル画像信号と、水平信号線215bを介して出力されるデジタル画像信号とが入力される。補間処理部219によって補間処理が適宜施された信号、即ち、画像信号は、AF評価値算出部1021に備えられたコントラスト評価値算出部218と、信号処理部104とに出力される。   By the way, not only the phase difference detection pixels 201SHA and 201SHB but also the imaging pixel 201G are located in the phase difference AF row (see FIG. 4A). Note that when describing pixels having specific spectral sensitivities such as R (red), G (green), and B (blue), reference numerals 201R, 201G, and 201B are used, respectively. Further, when describing the pixels for phase difference detection, reference numerals 201SHA and 201SHB are used, respectively. In the description of general pixels, reference numeral 201 is used. A signal acquired by the imaging pixel 201G among the pixels 201 located in the phase difference AF row is transmitted to the interpolation processing unit 219 via the column signal line 202b, the horizontal signal line 215b, and the switch 216. The rows that do not include the phase difference detection pixels 201SHA and 201SHB, that is, the pixels 201 located in the normal row are connected to the column signal line 202a as described above. For this reason, a signal acquired by the pixels 201 located in the normal row is output to the interpolation processing unit 219 via the column signal line 202a and the horizontal signal line 215a. As described above, the interpolation processing unit 219 receives the digital image signal output via the horizontal signal line 215a and the digital image signal output via the horizontal signal line 215b. A signal appropriately subjected to interpolation processing by the interpolation processing unit 219, that is, an image signal is output to the contrast evaluation value calculation unit 218 provided in the AF evaluation value calculation unit 1021 and the signal processing unit 104.

位相差評価値算出部217によって算出される位相差評価値と、コントラスト評価値算出部218によって算出されるコントラスト評価値とは、制御部106にそれぞれ出力される。補間処理部219によって補間処理が適宜施された信号、即ち、画像信号は、信号処理部104に送信され、例えばライブビュー表示の際にはライブビュー用の画像に用いられる。
なお、通常行に位置する画素201から水平信号線215aに転送される信号を、第1の画像信号と称することとする。また、位相差AF行に位置する画素201から水平信号線215bに転送される信号を、第2の画像信号と称することとする。
The phase difference evaluation value calculated by the phase difference evaluation value calculation unit 217 and the contrast evaluation value calculated by the contrast evaluation value calculation unit 218 are output to the control unit 106, respectively. A signal that is appropriately subjected to the interpolation processing by the interpolation processing unit 219, that is, an image signal is transmitted to the signal processing unit 104, and is used for an image for live view, for example, in live view display.
Note that a signal transferred from the pixel 201 located in the normal row to the horizontal signal line 215a is referred to as a first image signal. A signal transferred from the pixel 201 located in the phase difference AF row to the horizontal signal line 215b is referred to as a second image signal.

図5(a)は、本実施形態による固体撮像素子における読み出しの際の選択行の例を示す図である。図5(a)には、マトリクス状に配された複数の画素201のうちの16行×6列の画素201が抜き出されて示されている。これらの画素201は、ベイヤー配列となっている。本実施形態では、第1の画像信号の取得と、第2の画像信号の取得とを並行して行うことができるように、第1の画像信号を取得する際の選択行と第2の画像信号を取得する際の選択行とがそれぞれ設定されている。第1の画像信号は、列信号線202aに出力されるようになっている。一方、第2の画像信号は、列信号線202bに出力されるようになっている。なお、行番号が1,2の行、及び、行番号が9,10の行は、第2の画像信号を取得する際の選択行であり、第2の画像信号を取得するための画素群(第2の画素群)が配されている。行番号が3〜8の行、及び、行番号が11〜16の行は、第1の画像信号を取得する際の選択行であり、第1の画像信号を取得するための画素群(第1の画素群)が配されている。   FIG. 5A is a diagram illustrating an example of a selected row at the time of reading in the solid-state imaging device according to the present embodiment. In FIG. 5A, 16 rows × 6 columns of pixels 201 out of a plurality of pixels 201 arranged in a matrix are shown. These pixels 201 are in a Bayer array. In the present embodiment, the selected row and the second image when acquiring the first image signal so that the acquisition of the first image signal and the acquisition of the second image signal can be performed in parallel. A selection line for acquiring a signal is set for each. The first image signal is output to the column signal line 202a. On the other hand, the second image signal is output to the column signal line 202b. Note that the rows with the row numbers 1 and 2 and the rows with the row numbers 9 and 10 are selected rows when the second image signal is acquired, and a pixel group for acquiring the second image signal. (Second pixel group) is arranged. The rows with the row numbers 3 to 8 and the rows with the row numbers 11 to 16 are selected rows when the first image signal is acquired, and the pixel group (first number 1 pixel group).

図5(b)は、本実施形態による固体撮像素子における画素のレイアウトを示す図である。図5(b)には、マトリクス状に配された複数の画素201のうちの一部の画素201が抜き出されて示されている。複数の通常行のうちの一部の行に位置する画素201から出力される信号R、Gr、Gb、Bと、複数の位相差AF行のうちの一部の行に位置する画素201Gから出力される信号Gr、Gbとは、コントラスト評価値を取得する際にも用いられる。コントラスト評価値の取得に用いられる信号を出力する画素201が位置する行は、コントラストAF行とも称される。図5(b)に示すように、コントラストAF行は、位相差AF行と通常行とを含んでいる。通常行のみならず位相差AF行をも含むようにコントラストAF行を設定するのは、コントラストAF行を広範囲に設定することにより、高精度なコントラスト評価値を取得するためである。   FIG. 5B is a diagram illustrating a pixel layout in the solid-state imaging device according to the present embodiment. FIG. 5B shows a part of the pixels 201 extracted from the plurality of pixels 201 arranged in a matrix. The signals R, Gr, Gb, and B output from the pixels 201 located in some of the plurality of normal rows and the pixels 201G located in some of the plurality of phase difference AF rows The signals Gr and Gb to be used are also used when acquiring a contrast evaluation value. The row in which the pixel 201 that outputs a signal used for acquiring the contrast evaluation value is also referred to as a contrast AF row. As shown in FIG. 5B, the contrast AF line includes a phase difference AF line and a normal line. The reason why the contrast AF line is set so as to include not only the normal line but also the phase difference AF line is to acquire a highly accurate contrast evaluation value by setting the contrast AF line in a wide range.

第2の画像信号には、位相差検出用の画素201SHA、201SHBによって取得される信号が含まれているため、迅速なオートフォーカスを実現すべく、フレームレートを速くすることが重視される。このため、第2の画像信号は、間引き率が比較的高く設定される。一方、第1の画像信号は、ライブビュー表示等に用いられるため、画質が重視される。このため、第1の画像信号は、間引き率が比較的低く設定される。行番号が1〜8の行に注目すると、第1の画像信号は、垂直方向に配された同色の4画素のうちの1画素を間引くことによって得られ、第2の画像信号は、垂直方向に配された同色の4画素のうちの3画素を間引くことによって得られる。第1の画像信号の取得においては、第1のフレームレートで第1の画素群が読み出される。第2の画像信号の取得においては、第1のフレームレートより速い第2のフレームレートで第2の画素群が読み出される。ここでは、第2のフレームレートを第1のフレームレートの3倍とする場合を例に説明する。   Since the second image signal includes signals acquired by the phase difference detection pixels 201SHA and 201SHB, it is important to increase the frame rate in order to realize quick autofocus. For this reason, the second image signal is set to have a relatively high thinning rate. On the other hand, since the first image signal is used for live view display or the like, image quality is important. For this reason, the first image signal is set to have a relatively low thinning rate. When attention is paid to the rows having the row numbers 1 to 8, the first image signal is obtained by thinning out one pixel out of four pixels of the same color arranged in the vertical direction, and the second image signal is obtained in the vertical direction. Is obtained by thinning out three pixels out of four pixels of the same color arranged in. In acquiring the first image signal, the first pixel group is read out at the first frame rate. In acquiring the second image signal, the second pixel group is read out at a second frame rate that is faster than the first frame rate. Here, a case where the second frame rate is set to three times the first frame rate will be described as an example.

このように、本実施形態では、第1の画像信号が読み出される行と、第2の画像信号が読み出される行とが別個に設定されている。このため、本実施形態によれば、異なる電荷蓄積時間、異なるデータサイズ、異なるフレームレートの第1の画像信号及び第2の画像信号を、並行して取得することができる。なお、ここでは、第2の画像信号を取得するための第2の画素群が行番号1,2の行に位置し、第1の画像信号を取得するための第1の画素群が行番号3〜8の行に位置する場合を例に説明したが、これに限定されるものではない。また、読み出しにおける間引き率も、適宜設定することができる。   Thus, in the present embodiment, the row from which the first image signal is read out and the row from which the second image signal is read out are set separately. Therefore, according to the present embodiment, the first image signal and the second image signal having different charge accumulation times, different data sizes, and different frame rates can be acquired in parallel. Here, the second pixel group for acquiring the second image signal is located in the row of row numbers 1 and 2, and the first pixel group for acquiring the first image signal is row number. Although the case where it located in the 3-8 line was demonstrated to the example, it is not limited to this. Further, the thinning rate in reading can also be set as appropriate.

画素201から列信号線202a又は列信号線202bに出力されたアナログの信号は、カラムADCブロック211においてアナログからデジタルに変換される。列走査回路213aは、カラムADCブロック211から出力されるデジタルの第1の画像信号を、水平信号線215aを介して補間処理部219に送信する。また、列走査回路213bは、カラムADCブロック211から出力されるデジタルの第2の画像信号を、水平信号線215bを介して位相差評価値算出部217や補間処理部219に送信する。また、補間処理部219によって補間処理が施された信号、即ち、画像信号は、コントラスト評価値算出部218に送信されるとともに、固体撮像素子102に設けられた出力端子222を介して信号処理部104に出力される。   An analog signal output from the pixel 201 to the column signal line 202 a or the column signal line 202 b is converted from analog to digital in the column ADC block 211. The column scanning circuit 213a transmits the digital first image signal output from the column ADC block 211 to the interpolation processing unit 219 via the horizontal signal line 215a. Further, the column scanning circuit 213b transmits the digital second image signal output from the column ADC block 211 to the phase difference evaluation value calculation unit 217 and the interpolation processing unit 219 via the horizontal signal line 215b. The signal subjected to the interpolation processing by the interpolation processing unit 219, that is, the image signal is transmitted to the contrast evaluation value calculation unit 218, and is also transmitted through the output terminal 222 provided in the solid-state imaging device 102. 104 is output.

制御部106は、固体撮像素子102に設けられた位相差評価値算出部217からの信号を用い、位相差検出方式によるオートフォーカス制御、即ち、位相差フォーカス制御(位相差AF)を行う。更に、制御部106は、固体撮像素子102に設けられたコントラスト評価値算出部218からの信号を用い、コントラスト検出方式によるオートフォーカス制御、即ち、コントラストフォーカス制御(コントラストAF)をも行う。   The control unit 106 performs autofocus control by the phase difference detection method, that is, phase difference focus control (phase difference AF), using a signal from the phase difference evaluation value calculation unit 217 provided in the solid-state imaging device 102. Furthermore, the control unit 106 also performs autofocus control using a contrast detection method, that is, contrast focus control (contrast AF), using a signal from the contrast evaluation value calculation unit 218 provided in the solid-state imaging device 102.

位相差評価値算出部217は、位相差検出方式による焦点検出のための位相差評価値を、複数の画素201のうちに含まれている位相差検出用画素201SHA、201SHBからの信号に基づいて算出するものである。位相差評価値算出部217は、複数の位相差検出用の画素201SHA、201SHBからの信号SHA、SHBによって生成される一対の像信号に対して相関演算を行い、一対の像信号の相対的な位置ずれを示す位相差を算出する。そして、位相差評価値算出部217は、当該位相差に基づいて、フォーカスがどれくらい外れているかを示す量であるデフォーカス量Dfを算出する。制御部106は、当該デフォーカス量Dfに基づいて、合焦に近い状態にするためにフォーカスレンズをどの程度移動させるべきかを示す量、即ち、合焦近傍位置までのフォーカスレンズの駆動量を算出する。制御部106は、算出した駆動量の分だけフォーカスレンズが移動するように、駆動部103を介して光学機構部1011を制御する。コントラスト評価値算出部218は、コントラストAF行からの画像信号における高周波成分を抽出することによって、コントラスト評価値を算出する。制御部106は、当該コントラスト評価値に基づいて、フォーカスレンズの駆動を適宜行う。   The phase difference evaluation value calculation unit 217 calculates a phase difference evaluation value for focus detection by the phase difference detection method based on signals from the phase difference detection pixels 201SHA and 201SHB included in the plurality of pixels 201. Is to be calculated. The phase difference evaluation value calculation unit 217 performs a correlation operation on the pair of image signals generated by the signals SHA and SHB from the plurality of phase difference detection pixels 201SHA and 201SHB, and calculates the relative of the pair of image signals. A phase difference indicating a positional deviation is calculated. Then, based on the phase difference, the phase difference evaluation value calculation unit 217 calculates a defocus amount Df that is an amount indicating how much the focus is off. Based on the defocus amount Df, the control unit 106 indicates an amount indicating how much the focus lens should be moved in order to obtain a state close to focusing, that is, the driving amount of the focus lens up to the in-focus position. calculate. The control unit 106 controls the optical mechanism unit 1011 via the drive unit 103 so that the focus lens moves by the calculated drive amount. The contrast evaluation value calculation unit 218 calculates a contrast evaluation value by extracting a high frequency component in the image signal from the contrast AF row. The control unit 106 appropriately drives the focus lens based on the contrast evaluation value.

図3は、画素と撮像光学系とを示す図である。図3(a)は、画素を示す平面図である。図3(a)に示す2行×2列の4つの画素201はいずれも撮像用の画素である。これら4つの画素201のうちの対角に位置する2箇所には、G(緑色)の分光感度を有する画素201Gがそれぞれ配されており、他の2箇所には、R(赤色)とB(青色)の分光感度を有する画素201R、201Bがそれぞれ配されている。このような画素配列は、ベイヤー配列と称される。図3(a)には、ベイヤー配列の1つの画素単位が抜き出されて示されている。図3(b)は、撮像光学系と画素との関係を示す断面図である。図3(b)は、図3(a)のA−A線断面に対応している。   FIG. 3 is a diagram illustrating a pixel and an imaging optical system. FIG. 3A is a plan view showing a pixel. All of the four pixels 201 of 2 rows × 2 columns shown in FIG. 3A are imaging pixels. Among these four pixels 201, two pixels 201G having a spectral sensitivity of G (green) are arranged at two diagonal positions, and R (red) and B ( Pixels 201R and 201B having a spectral sensitivity of (blue) are arranged. Such a pixel array is called a Bayer array. FIG. 3A shows one pixel unit extracted from the Bayer array. FIG. 3B is a cross-sectional view showing the relationship between the imaging optical system and the pixels. FIG. 3B corresponds to a cross section taken along line AA in FIG.

図3(b)に示すように、固体撮像素子102の第1の半導体チップ20の半導体基板301には、フォトダイオードPDが形成されている。フォトダイオードPDは、マトリクス状に形成された複数の画素201の各々に対応するように形成されている。フォトダイオードPDが形成された半導体基板301上には、多層配線構造302が形成されている。多層配線構造302は、配線層CLと絶縁層303とによって構成されている。配線層CLは、固体撮像素子102内において各種信号を伝達するための信号線を構成している。多層配線構造302上には、カラーフィルタ層304が形成されている。カラーフィルタ層304は、R(赤色)のカラーフィルタCFと、G(緑色)のカラーフィルタCFと、B(青色)のカラーフィルタCFとを含む。これらカラーフィルタCF、CF、CFは、各々の画素201に対応するように形成されている。なお、図3(a)において、Rは、RのカラーフィルタCFが配されている箇所を概念的に示しており、Gは、GのカラーフィルタCFが配されている箇所を概念的に示しており、Bは、BのカラーフィルタCFが配されている箇所を概念的に示している。 As shown in FIG. 3B, the photodiode PD is formed on the semiconductor substrate 301 of the first semiconductor chip 20 of the solid-state imaging device 102. The photodiode PD is formed so as to correspond to each of the plurality of pixels 201 formed in a matrix. A multilayer wiring structure 302 is formed on the semiconductor substrate 301 on which the photodiode PD is formed. The multilayer wiring structure 302 includes a wiring layer CL and an insulating layer 303. The wiring layer CL constitutes a signal line for transmitting various signals in the solid-state imaging device 102. A color filter layer 304 is formed on the multilayer wiring structure 302. The color filter layer 304 includes a color filter CF R of R (red), a color filter CF G of G (green), and a color filter CF B of B (blue). These color filters CF R , CF G , and CF B are formed so as to correspond to the respective pixels 201. Incidentally, in FIG. 3 (a), R is the portion where the color filter CF R of R is disposed is conceptually shows, G conceptually a portion where the color filter CF G of G is arranged B indicates conceptually a portion where the B color filter CF B is disposed.

カラーフィルタ層304上には、マイクロレンズML、即ち、オン半導体チップマイクロレンズが配されている。マイクロレンズMLは、各々の画素201に対応するように形成されている。マイクロレンズMLとフォトダイオードPDとは、撮像光学系TLの射出瞳EPを通過する光束305を可能な限り有効に取り込むような構成となっている。換言すれば、撮像光学系TLの射出瞳EPとフォトダイオードPDとの間に共役関係が成立するようにマイクロレンズMLが形成されている。しかも、フォトダイオードPDの有効面積が大きく設定されている。なお、図3(b)では、Rの画素201に入射する光束305を例として示しているが、Gの画素201に入射する光束や、Bの画素201に入射する光束ついても同様である。このように、撮像用のRGBの画素201に対応した射出瞳EPは大きな径を有しており、被写体からの光束が効率良く画素201に達する。従って、各々の画素201において、S/N比の高い画像信号が得られる。   On the color filter layer 304, a microlens ML, that is, an on-semiconductor chip microlens is arranged. The microlens ML is formed so as to correspond to each pixel 201. The microlens ML and the photodiode PD are configured to capture the light beam 305 passing through the exit pupil EP of the imaging optical system TL as effectively as possible. In other words, the microlens ML is formed so that a conjugate relationship is established between the exit pupil EP of the imaging optical system TL and the photodiode PD. In addition, the effective area of the photodiode PD is set large. In FIG. 3B, the light beam 305 incident on the R pixel 201 is shown as an example, but the same applies to the light beam incident on the G pixel 201 and the light beam incident on the B pixel 201. Thus, the exit pupil EP corresponding to the RGB pixels 201 for imaging has a large diameter, and the light flux from the subject reaches the pixels 201 efficiently. Therefore, an image signal with a high S / N ratio is obtained in each pixel 201.

図4は、画素と撮像光学系とを示す図である。図4(a)は、画素の平面図である。画像信号を得る際、Gの分光感度を有する画素201Gからの出力は輝度情報の主成分をなす。人間の画像認識特性は輝度情報に敏感であるため、Gの分光感度を有する画素201Gからの出力が欠損すると、画質劣化が認められやすい。一方、Rの画素201R(図3参照)やBの画素201B(図3参照)は、主として色情報を取得するための画素であり、人間は色情報には比較的鈍感である。このため、色情報を取得するためのRやBの画素201R、201Bに多少の欠損が生じても、人間は画質劣化に気づきにくい。そこで、本実施形態では、2行×2列の4つの画素201のうちの2つのGの画素201Gについては撮像用の画素として残し、Rの画素201RとBの画素201Bの位置に、位相差検出用の画素201SHA、201SHBをそれぞれ配している。図4(a)において、SHAは、Rの画素201Rの位置に配された位相差検出用の画素201SHAを概念的に示しており、SHBは、Bの画素201Bの位置に配された位相差検出用の画素201SHBを概念的に示している。上述したように、位相差AF行には、位相差検出用の画素201SHA、201SHBのみならず撮像用の画素201Gも位置している。複数の位相差検出用の画素201SHAは、第1の位相差検出用画素群を構成している。複数の位相差検出用の画素201SHBは、第2の位相差検出用画素群を構成している。   FIG. 4 is a diagram illustrating a pixel and an imaging optical system. FIG. 4A is a plan view of a pixel. When obtaining an image signal, the output from the pixel 201G having G spectral sensitivity forms the main component of the luminance information. Since human image recognition characteristics are sensitive to luminance information, if the output from the pixel 201G having G spectral sensitivity is lost, image quality degradation is likely to be recognized. On the other hand, the R pixel 201R (see FIG. 3) and the B pixel 201B (see FIG. 3) are pixels for mainly acquiring color information, and humans are relatively insensitive to color information. For this reason, even if some deficiencies occur in the R and B pixels 201R and 201B for obtaining color information, it is difficult for humans to notice image quality deterioration. Therefore, in the present embodiment, two G pixels 201G out of the four pixels 201 in 2 rows × 2 columns are left as imaging pixels, and the phase difference is set at the position of the R pixel 201R and the B pixel 201B. Detection pixels 201SHA and 201SHB are arranged respectively. In FIG. 4A, SHA conceptually shows the phase difference detection pixel 201SHA arranged at the position of the R pixel 201R, and SHB is the phase difference arranged at the position of the B pixel 201B. A pixel 201SHB for detection is conceptually shown. As described above, not only the phase difference detection pixels 201SHA and 201SHB but also the imaging pixel 201G are located in the phase difference AF row. The plurality of phase difference detection pixels 201SHA constitute a first phase difference detection pixel group. The plurality of phase difference detection pixels 201SHB constitute a second phase difference detection pixel group.

図4(b)は、図4(a)のB−B線断面に対応している。位相差検出用の画素201SHA、201SHBにおいても、撮像用の画素201R、201G、201Bと同様に、半導体基板301にフォトダイオードPDが形成されている。位相差検出用の画素201SHA、201SHBからの信号は画像には用いられないため、位相差検出用の画素201SHA、201SHBには、色分離用のカラーフィルタCF、CFの代わりに透明膜(白色膜)CFが配されている。位相差検出用の画素201SHA、201SHBにおいては、瞳分割を実現するため、配線層CLが、開口部OPHA、OPHBを有する遮光部を構成している。x方向において瞳分割を行うため、開口部OPHA、OPHBはマイクロレンズMLの中心に対してx方向に偏在している。位相差検出用の画素201SHAの開口部OPHAは、マイクロレンズMLの中心に対して−x方向に偏在している。このため、位相差検出用の画素201SHAのフォトダイオードPDは、撮像光学系TLの射出瞳に含まれる複数の瞳領域EPHA、EPHBのうちの+x側の瞳領域、即ち、第1の瞳領域EPHAを通過した光束を受光する。画素201SHAは、撮像光学系TLの射出瞳の第1の瞳領域EPHAを通過する光束に応じた信号を取得する。一方、位相差検出用の画素201SHBの開口部OPHBは、マイクロレンズの中心に対して+x方向に偏在している。このため、位相差検出用の画素201SHBのフォトダイオードPDは、撮像光学系TLの射出瞳に含まれる複数の瞳領域EPHA、EPHBのうちの−x側の瞳領域、即ち、第2の瞳領域EPHBを通過した光束を受光する。画素201SHBは、撮像光学系TLの射出瞳の第2の瞳領域EPHBを通過する光束に応じた信号を取得する。 FIG. 4B corresponds to a cross section taken along line B-B in FIG. Also in the phase difference detection pixels 201SHA and 201SHB, the photodiode PD is formed on the semiconductor substrate 301 in the same manner as the imaging pixels 201R, 201G, and 201B. Since the signals from the phase difference detection pixels 201SHA and 201SHB are not used in the image, the phase difference detection pixels 201SHA and 201SHB have a transparent film (instead of the color separation filters CF R and CF B ). white film) CF W is disposed. Pixel 201SHA for phase difference detection in the 201SHB, for realizing the pupil division, the wiring layer CL is, the opening OP HA, constitutes a shielding portion having a OP HB. Since pupil division is performed in the x direction, the openings OP HA and OP HB are unevenly distributed in the x direction with respect to the center of the microlens ML. Opening OP HA of the pixel 201SHA for phase difference detection are localized in the -x direction with respect to the center of the microlens ML. For this reason, the photodiode PD of the pixel 201SHA for phase difference detection is the + x-side pupil region of the plurality of pupil regions EP HA and EP HB included in the exit pupil of the imaging optical system TL, that is, the first pupil. The light beam that has passed through the region EP HA is received. The pixel 201SHA acquires a signal corresponding to the light beam passing through the first pupil region EP HA of the exit pupil of the imaging optical system TL. On the other hand, the opening OP HB of the phase difference detection pixel 201SHB is unevenly distributed in the + x direction with respect to the center of the microlens. For this reason, the photodiode PD of the phase difference detection pixel 201SHB is a pupil region on the −x side of the plurality of pupil regions EP HA and EP HB included in the exit pupil of the imaging optical system TL, that is, the second The light beam that has passed through the pupil region EP HB is received. The pixel 201SHB acquires a signal corresponding to the light beam passing through the second pupil region EP HB of the exit pupil of the imaging optical system TL.

x方向に規則的に配列された複数の位相差検出用の画素201SHA、即ち、第1の位相差検出用画素群によって取得された被写体像を、第1の像とする。また、x方向に規則的に配列された複数の位相差検出用の画素201SHB、即ち、第2の位相差検出用画素群によって取得された被写体像を、第2の像とする。そして、第1の像と第2の像との相対な位置ずれ量、即ち、位相差を検出することによって、当該位相差に基づいて被写体に対するフォーカスレンズのデフォーカス量Dfを算出することができる。   A subject image acquired by a plurality of phase difference detection pixels 201SHA regularly arranged in the x direction, that is, a first phase difference detection pixel group is defined as a first image. A plurality of phase difference detection pixels 201SHB regularly arranged in the x direction, that is, a subject image acquired by the second phase difference detection pixel group is defined as a second image. Then, by detecting the relative positional deviation amount between the first image and the second image, that is, the phase difference, the defocus amount Df of the focus lens with respect to the subject can be calculated based on the phase difference. .

画素201から列信号線202a、202bに出力される信号は、カラムADCブロック211によってアナログからデジタルに変換される。カラムADCブロック211によってデジタルに変換された信号は、列走査回路213a、213bによってカラムADCブロック211から水平信号線215a、215bにそれぞれ出力される。水平信号線215aに出力される信号R、Gr、Gb、Bは、補間処理部219に出力される。一方、水平信号線215bに出力される信号は、スイッチ216を介して出力される。位相差検出用の画素201SHA、201SHBからの信号SHA、SHBは、スイッチ216を第1の設定にすることによって、位相差評価値算出部217に入力される。位相差AF行に位置する撮像用の画素201Gからの信号Gr、Gbは、スイッチ216を第2の設定にすることによって、補間処理部219に入力される。   A signal output from the pixel 201 to the column signal lines 202 a and 202 b is converted from analog to digital by the column ADC block 211. The signals digitally converted by the column ADC block 211 are output from the column ADC block 211 to the horizontal signal lines 215a and 215b by the column scanning circuits 213a and 213b, respectively. The signals R, Gr, Gb, and B output to the horizontal signal line 215a are output to the interpolation processing unit 219. On the other hand, the signal output to the horizontal signal line 215b is output via the switch 216. The signals SHA and SHB from the phase difference detection pixels 201SHA and 201SHB are input to the phase difference evaluation value calculation unit 217 by setting the switch 216 to the first setting. Signals Gr and Gb from the imaging pixel 201G located in the phase difference AF row are input to the interpolation processing unit 219 by setting the switch 216 to the second setting.

位相差評価値算出部217は、水平信号線215bとスイッチ216とを介して位相差評価値算出部217に送信される信号SHA、SHBに基づいて、相関演算によって位相差評価値を算出する。即ち、位相差評価値算出部217は、位相差検出方式による焦点検出のための位相差評価値を、画素201SHA、201SHBからの信号SHA、SHBに基づいて算出する。位相差評価値算出部217によって算出された位相差評価値は、固体撮像素子102に設けられた出力端子223を介して制御部106に出力される。位相差評価値算出部217は、画素アレイ206によって取得される画像信号の信号処理部104への出力の完了の如何にかかわらず、位相差評価値の算出が完了し次第、当該位相差評価値を制御部106に出力する。   The phase difference evaluation value calculation unit 217 calculates a phase difference evaluation value by correlation calculation based on the signals SHA and SHB transmitted to the phase difference evaluation value calculation unit 217 via the horizontal signal line 215b and the switch 216. That is, the phase difference evaluation value calculation unit 217 calculates a phase difference evaluation value for focus detection by the phase difference detection method based on the signals SHA and SHB from the pixels 201SHA and 201SHB. The phase difference evaluation value calculated by the phase difference evaluation value calculation unit 217 is output to the control unit 106 via the output terminal 223 provided in the solid-state image sensor 102. The phase difference evaluation value calculation unit 217 performs the calculation of the phase difference evaluation value as soon as the calculation of the phase difference evaluation value is completed regardless of whether the output of the image signal acquired by the pixel array 206 to the signal processing unit 104 is completed. Is output to the control unit 106.

補間処理部219には、通常行から読み出される信号R、Gr、Gb、Bが水平信号線215aを介して送信され、位相差AF行から読み出される信号Gr、Gbが水平信号線215bとスイッチ216とを介して送信される。補間処理部219は、これらの信号を適宜用いて補間処理を行う。   Signals R, Gr, Gb, and B read from the normal row are transmitted to the interpolation processing unit 219 via the horizontal signal line 215a, and signals Gr and Gb read from the phase difference AF row are transmitted to the horizontal signal line 215b and the switch 216. And sent through. The interpolation processing unit 219 performs interpolation processing using these signals as appropriate.

図6は、補間処理を概念的に示す図である。図6(a)は、位相差検出用の画素201SHAが位置している箇所において欠損しているRの信号を、補間処理によって取得する様子を示している。補間処理部219は、画素アレイ206によって取得される画像信号に生ずる欠損であって、複数の画素のうちに位相差検出用画素が含まれていることによって生ずる欠損を補うための信号を、位相差検出用画素以外の画素からの信号を用いた補間により生成する。即ち、補間処理部219は、位相差検出用の画素201SHA以外の画素201からの信号を用いて、当該位相差検出用の画素201SHAが位置している箇所において欠損しているRの信号を補間処理によって生成する。より具体的には、補間処理部219は、位相差検出用の画素201SHAの周辺に位置している6つの画素201Rからの信号を加算平均することによって、当該位相差検出用の画素201SHAが位置している箇所において欠損しているRの信号を取得する。また、図6(b)は、位相差検出用の画素201SHBが位置している箇所において欠損しているBの信号を、補間処理によって取得する様子を示している。補間処理部219は、位相差検出用の画素201SHB以外の画素201からの信号を用いて、当該位相差検出用の画素201SHBが位置している箇所において欠損しているBの信号を補間処理によって生成する。より具体的には、補間処理部219は、位相差検出用の画素201SHBの周辺に位置している6つの画素201Bからの信号を加算平均することによって、当該位相差検出用の画素201SHBが位置している箇所において欠損しているBの信号を取得する。なお、水平信号線215bを介して送信される信号Gr、Gbに対しては、通常は特段の補正処理は行われない。しかし、水平信号線215bを介して送信される信号Gr、Gbと、水平信号線215aを介して送信される信号Gr、Gbとの特性の差に基づいて、水平信号線215bを介して送信される信号Gr、Gbに対して適宜補正処理を行うようにしてもよい。   FIG. 6 is a diagram conceptually illustrating the interpolation processing. FIG. 6A shows a state in which an R signal missing at a location where the phase difference detection pixel 201SHA is located is acquired by interpolation processing. The interpolation processing unit 219 outputs a signal for compensating for a defect that is generated in the image signal acquired by the pixel array 206 and is generated when the phase difference detection pixel is included in the plurality of pixels. It is generated by interpolation using signals from pixels other than the phase difference detection pixels. That is, the interpolation processing unit 219 uses the signal from the pixel 201 other than the phase difference detection pixel 201SHA to interpolate the missing R signal at the location where the phase difference detection pixel 201SHA is located. Generate by processing. More specifically, the interpolation processing unit 219 adds and averages the signals from the six pixels 201R located around the phase difference detection pixel 201SHA so that the phase difference detection pixel 201SHA is positioned. The missing R signal is acquired at the location where the error occurs. FIG. 6B shows a state in which a missing B signal is obtained by interpolation processing at a location where the phase difference detection pixel 201SHB is located. The interpolation processing unit 219 uses a signal from the pixel 201 other than the phase difference detection pixel 201SHB, and performs interpolation processing on the missing B signal at the location where the phase difference detection pixel 201SHB is located. Generate. More specifically, the interpolation processing unit 219 adds and averages signals from six pixels 201B located around the phase difference detection pixel 201SHB, so that the phase difference detection pixel 201SHB is positioned. The missing B signal is obtained at the location where the error occurs. Note that special correction processing is not normally performed on the signals Gr and Gb transmitted via the horizontal signal line 215b. However, it is transmitted via the horizontal signal line 215b based on the difference in characteristics between the signals Gr and Gb transmitted via the horizontal signal line 215b and the signals Gr and Gb transmitted via the horizontal signal line 215a. Correction processing may be appropriately performed on the signals Gr and Gb.

位相差検出用の画素201SHA、201SHBが位置している箇所に対応する信号であって、補間処理部219による補間処理によって生成された信号R、Bが、コントラスト評価値算出部218と信号処理部104とに送信される。また、位相差AF行に位置する撮像用の画素201Gからの信号Gr、Gbが、補間処理部219を介してコントラスト評価値算出部218と信号処理部104とに送信される。また、通常行に位置する撮像用の画素201からの信号R、Gr、Gb、Bが、補間処理部219を介してコントラスト評価値算出部218に送信される。コントラスト評価値算出部218は、コントラスト検出方式による焦点検出のためのコントラスト評価値を、補間処理部219による補間によって生成された信号を含む画像信号に基づいて算出するものである。コントラスト評価値算出部218は、コントラスト演算を行うことにより、補間処理が施された画像信号に基づいてコントラスト評価値を算出する。コントラスト評価値算出部218によって算出されたコントラスト評価値は、固体撮像素子102に設けられた出力端子224を介して制御部106に出力される。コントラスト評価値算出部218は、画素アレイ206によって取得される画像信号の信号処理部104への出力の完了の如何にかかわらず、コントラスト評価値の算出が完了し次第、当該コントラスト評価値を制御部106に出力する。   Signals R and B corresponding to the location where the pixels 201SHA and 201SHB for phase difference detection are located and generated by the interpolation processing by the interpolation processing unit 219 are the contrast evaluation value calculation unit 218 and the signal processing unit. 104. Further, signals Gr and Gb from the imaging pixel 201G located in the phase difference AF row are transmitted to the contrast evaluation value calculation unit 218 and the signal processing unit 104 via the interpolation processing unit 219. Further, signals R, Gr, Gb, and B from the imaging pixels 201 located in the normal row are transmitted to the contrast evaluation value calculation unit 218 via the interpolation processing unit 219. The contrast evaluation value calculation unit 218 calculates a contrast evaluation value for focus detection by the contrast detection method based on an image signal including a signal generated by interpolation by the interpolation processing unit 219. The contrast evaluation value calculation unit 218 calculates a contrast evaluation value based on the image signal subjected to the interpolation processing by performing contrast calculation. The contrast evaluation value calculated by the contrast evaluation value calculation unit 218 is output to the control unit 106 via the output terminal 224 provided in the solid-state image sensor 102. The contrast evaluation value calculation unit 218 controls the contrast evaluation value as soon as the calculation of the contrast evaluation value is completed regardless of whether the output of the image signal acquired by the pixel array 206 to the signal processing unit 104 is completed. It outputs to 106.

本実施形態では、位相差検出用の画素201SHA、201SHBにおいて生じるRやBの信号の欠損が、補間処理部219による補間処理によって解消される。このため、本実施形態では、位相差AF行を含む広い範囲からの信号に基づいてコントラスト評価値を算出し得る。位相差AF行を含む広い範囲からの信号に基づいてコントラスト評価値を算出するため、本実施形態によれば、高精度なコントラスト評価値を得ることができる。   In the present embodiment, the loss of R and B signals generated in the phase difference detection pixels 201SHA and 201SHB is eliminated by the interpolation processing by the interpolation processing unit 219. Therefore, in the present embodiment, the contrast evaluation value can be calculated based on signals from a wide range including the phase difference AF row. Since the contrast evaluation value is calculated based on a signal from a wide range including the phase difference AF row, according to the present embodiment, a highly accurate contrast evaluation value can be obtained.

また、本実施形態では、かかる欠損が補間処理部219によって解消されるため、第1の画像信号と、欠損が解消された第2の画像信号とを用いて、間引きをしない高精細な画像信号を得ることができる。かかる画像信号は、例えば、ライブビュー表示の際には、ライブビュー用の画像に用いられる。
ここでは、列信号線202aと水平信号線215aとを介して第1の画像信号を出力する経路を第1のチャネルCH1と称し、列信号線202bと水平信号線215bとを介して第2の画像信号を出力する経路を第2のチャネルCH2と称することとする。
Further, in the present embodiment, since such a defect is eliminated by the interpolation processing unit 219, a high-definition image signal that is not thinned out using the first image signal and the second image signal from which the defect has been eliminated. Can be obtained. Such an image signal is used for an image for live view, for example, at the time of live view display.
Here, a path for outputting the first image signal via the column signal line 202a and the horizontal signal line 215a is referred to as a first channel CH1, and the second channel via the column signal line 202b and the horizontal signal line 215b. A path for outputting an image signal is referred to as a second channel CH2.

図7は、本実施形態による撮像装置の動作を示すタイムチャートである。図7は、オートフォーカス動作を行いつつライブビュー表示を行うモード、即ち、AF評価モードでの動作を示している。   FIG. 7 is a time chart illustrating the operation of the imaging apparatus according to the present embodiment. FIG. 7 shows an operation in a mode in which live view display is performed while performing an autofocus operation, that is, an AF evaluation mode.

AF評価モードは、制御部106からのAF制御信号がON状態になることによって開始される。AF制御信号がON状態となるタイミングをT0とする。タイミングT0においては、垂直同期信号VDがHighレベルからLowレベルに変化する。垂直同期信号VDと同期して、第1の画像信号の取得、即ち、通常行に位置する画素201からの信号の取得と、第2の画像信号の取得、即ち、位相差AF行に位置する画素201からの信号の取得とが開始される。上述したように、第1の画像信号は第1のチャネルCH1を介して出力され、第2の画像信号は第2のチャネルCH2を介して出力される。   The AF evaluation mode is started when the AF control signal from the control unit 106 is turned on. The timing when the AF control signal is turned on is T0. At timing T0, the vertical synchronization signal VD changes from the High level to the Low level. In synchronization with the vertical synchronization signal VD, the acquisition of the first image signal, that is, the acquisition of the signal from the pixel 201 located in the normal row and the acquisition of the second image signal, that is, the phase difference is located in the AF row. Acquisition of a signal from the pixel 201 is started. As described above, the first image signal is output via the first channel CH1, and the second image signal is output via the second channel CH2.

T0〜TF1の期間においては、位相差AF行に位置する画素201SHA、201SHBからの信号の読み出しが行われる。位相差AF行に位置する画素201SHA、201SHBからの信号の読み出しは、通常行に位置する画素201からの信号の読み出しと並行して行われる。位相差AF行に位置する画素201SHA、201SHBから読み出された位相差評価用の信号SHA、SHBは、水平信号線215bとスイッチ216とを介して位相差評価値算出部217に送信される。そして、TF1〜TF2の期間においては、位相差評価値算出部217によって位相差評価値が算出される。TF2〜TF3の期間においては、位相差評価値算出部217によって算出された位相差評価値が制御部106に出力される。   During the period from T0 to TF1, signals are read from the pixels 201SHA and 201SHB located in the phase difference AF row. Reading of signals from the pixels 201SHA and 201SHB located in the phase difference AF row is performed in parallel with reading of signals from the pixels 201 located in the normal row. The phase difference evaluation signals SHA and SHB read from the pixels 201SHA and 201SHB located in the phase difference AF row are transmitted to the phase difference evaluation value calculation unit 217 via the horizontal signal line 215b and the switch 216. In the period of TF1 to TF2, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217. In the period from TF <b> 2 to TF <b> 3, the phase difference evaluation value calculated by the phase difference evaluation value calculation unit 217 is output to the control unit 106.

T0からTF1Cの期間においては、画像信号の取得、即ち、ライブビュー用の信号の取得が行われる。第1の画像信号と、欠損が解消された第2の画像信号とによって、かかる画像信号が構成される。TF1CからTF2Cの期間においては、補間処理部219によって補間処理が施された信号に基づいて、コントラスト評価値算出部218によってコントラスト評価値が算出される。TF2C〜TF3Cの期間においては、コントラスト評価値算出部218によって算出されたコントラスト評価値が制御部106に出力される。   In the period from T0 to TF1C, an image signal is acquired, that is, a live view signal is acquired. Such an image signal is constituted by the first image signal and the second image signal from which the defect is eliminated. In the period from TF1C to TF2C, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value based on the signal subjected to the interpolation processing by the interpolation processing unit 219. In the period from TF2C to TF3C, the contrast evaluation value calculated by the contrast evaluation value calculation unit 218 is output to the control unit 106.

垂直同期信号VDは、所定の時間間隔ΔT毎にLowレベルに変化する。なお、Lowレベルに変化した垂直同期信号は、所定時間経過後にHighレベルに戻る。かかる所定の時間間隔ΔTは、1フレーム分のライブビュー用の信号の取得に要する期間と、コントラスト評価値が算出される期間と、コントラスト評価値を出力する期間との和に相当している。即ち、所定の時間間隔ΔTは、1フレーム分のライブビュー用信号取得期間と、コントラスト評価値算出期間と、コントラスト評価値出力期間との和に相当している。本実施形態では、所定の時間間隔ΔT内において、AF評価が例えば3回行われる。位相差評価用の信号の取得、即ち、第2の画像信号の取得は、ライブビュー用の信号の取得、即ち、第1の画像信号の取得と独立且つ並行して行われる。   The vertical synchronization signal VD changes to the low level at every predetermined time interval ΔT. Note that the vertical synchronization signal that has changed to the Low level returns to the High level after a predetermined time has elapsed. The predetermined time interval ΔT corresponds to the sum of a period required for acquiring a live view signal for one frame, a period during which the contrast evaluation value is calculated, and a period during which the contrast evaluation value is output. That is, the predetermined time interval ΔT corresponds to the sum of the live view signal acquisition period for one frame, the contrast evaluation value calculation period, and the contrast evaluation value output period. In the present embodiment, AF evaluation is performed, for example, three times within a predetermined time interval ΔT. Acquisition of the signal for phase difference evaluation, that is, acquisition of the second image signal is performed independently and in parallel with acquisition of the signal for live view, that is, acquisition of the first image signal.

制御部106は、所望の合焦状態が得られるか否かを判定し、所望の合焦状態が得られる場合には、AF制御信号をOFF状態、即ち、Lowレベルに戻す。図7においては、タイミングT1が、AF制御信号がOFF状態になるタイミングを示している。AF制御信号がOFF状態になると、AF評価が中止され、ライブビュー用の画像の取得が継続して行われる。   The control unit 106 determines whether or not a desired in-focus state is obtained. If the desired in-focus state is obtained, the control unit 106 returns the AF control signal to an OFF state, that is, a low level. In FIG. 7, timing T1 indicates the timing at which the AF control signal is turned off. When the AF control signal is turned off, the AF evaluation is stopped and the live view image is continuously acquired.

図8は、本実施形態による撮像装置の動作を示すフローチャートである。
ユーザによる操作部108の操作によって撮像装置100の電源がON状態になると、制御部106は、撮像装置100を待機状態にする。制御部106は、AF評価モードで撮像装置100を動作させることを要するか否かを、ユーザによる操作部108の操作等に基づいて判定する(ステップS801)。AF評価モードで撮像装置100を動作させることを要しない場合には(ステップS801においてNO)、ライブビュー用信号の取得を開始する(ステップS802)。そして、ライブビュー用信号の取得によって得られるライブビュー画像を画像表示部109に表示する(ステップS820)。一方、AF評価モードで撮像装置100を動作させることを要する場合には(ステップS801においてYES)、制御部106は、AF制御信号をON状態にし(ステップS803)、位相差評価用の信号の取得回数nを0に設定する(ステップS804)。
FIG. 8 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment.
When the power of the imaging device 100 is turned on by the operation of the operation unit 108 by the user, the control unit 106 places the imaging device 100 in a standby state. The control unit 106 determines whether or not it is necessary to operate the imaging apparatus 100 in the AF evaluation mode based on the operation of the operation unit 108 by the user (step S801). When it is not necessary to operate the imaging apparatus 100 in the AF evaluation mode (NO in step S801), acquisition of a live view signal is started (step S802). Then, the live view image obtained by acquiring the live view signal is displayed on the image display unit 109 (step S820). On the other hand, when it is necessary to operate the imaging apparatus 100 in the AF evaluation mode (YES in step S801), the control unit 106 turns on the AF control signal (step S803) and acquires a signal for phase difference evaluation. The number of times n is set to 0 (step S804).

この後、制御部106は、ライブビュー用の信号の取得を固体撮像素子102に開始させるとともに(ステップS812)、位相差評価用の信号の取得を固体撮像素子102に開始させる(ステップS805)。制御部106は、位相差評価用の信号の取得を固体撮像素子102に開始させた後、位相差評価用の信号の取得回数nをインクリメントする(ステップS806)。この後、位相差評価値の算出が位相差評価値算出部217によって行われる(ステップS807)。位相差評価値の算出においては、ステップS805において取得された位相差評価用の信号SHA、SHBに基づいて、位相差評価値算出部217が位相差評価値の算出を行い、これにより、デフォーカス量Dfが得られる。位相差評価値算出部217は、デフォーカス量Dfの算出を完了し次第、位相差評価値、具体的には、デフォーカス量Dfを制御部106に出力する。この後、ステップS808に移行する。   Thereafter, the control unit 106 causes the solid-state image sensor 102 to start acquiring a live view signal (step S812) and causes the solid-state image sensor 102 to start acquiring a phase difference evaluation signal (step S805). The control unit 106 causes the solid-state imaging device 102 to start acquiring a signal for phase difference evaluation, and then increments the number n of acquisition of a signal for phase difference evaluation (step S806). Thereafter, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217 (step S807). In the calculation of the phase difference evaluation value, the phase difference evaluation value calculation unit 217 calculates the phase difference evaluation value based on the phase difference evaluation signals SHA and SHB acquired in step S805. The quantity Df is obtained. The phase difference evaluation value calculation unit 217 outputs the phase difference evaluation value, specifically, the defocus amount Df to the control unit 106 as soon as the calculation of the defocus amount Df is completed. Thereafter, the process proceeds to step S808.

ステップS807が行われるのと並行して、ステップS813が行われる。ステップS813では、補間処理部219によって補間処理が行われる。この後、ライブビュー用の信号の読み出しが完了するのを待って、コントラスト評価値の算出がコントラスト評価値算出部218によって行われる(ステップS814)。コントラスト評価値の算出においては、コントラストAF行から読み出された信号であって、適宜補間処理が施された信号に基づいて、コントラスト評価値算出部218がコントラスト評価値AF_Kの算出を行う。コントラスト評価値算出部218は、コントラスト評価値AF_Kの算出を完了し次第、コントラスト評価値AF_Kを制御部106に出力する。コントラスト評価値AF_Kは、ステップS815において用いられる。   In parallel with step S807, step S813 is performed. In step S813, the interpolation processing unit 219 performs interpolation processing. Thereafter, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value after waiting for the completion of the reading of the live view signal (step S814). In the calculation of the contrast evaluation value, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value AF_K based on the signal read from the contrast AF row and appropriately subjected to the interpolation process. The contrast evaluation value calculation unit 218 outputs the contrast evaluation value AF_K to the control unit 106 as soon as the calculation of the contrast evaluation value AF_K is completed. The contrast evaluation value AF_K is used in step S815.

ステップS808においては、制御部106は、ステップS807において算出されたデフォーカス量Dfが、所望のデフォーカス量の範囲内であるか否かを、以下の式(1)に基づいて判定する。
Df_min<Df<Df_max ・・・・(1)
ここで、Df_min、Df_maxは、所望のデフォーカス量Dfの最小値と最大値であり、例えば、制御部106に備えられたROMに予め格納されている。なお、これらの値Df_min、Df_maxは、設計時に決定されてもよいし、調整時に決定されてもよい。
In step S808, the control unit 106 determines whether or not the defocus amount Df calculated in step S807 is within a desired defocus amount range based on the following equation (1).
Df_min <Df <Df_max (1)
Here, Df_min and Df_max are a minimum value and a maximum value of the desired defocus amount Df, and are stored in advance in a ROM provided in the control unit 106, for example. Note that these values Df_min and Df_max may be determined at the time of design or may be determined at the time of adjustment.

デフォーカス量Dfが式(1)を満たさない場合には(ステップS808においてNO)、ステップS809に移行する。ステップS809では、当該デフォーカス量Dfに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。そして、制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(位相差AF制御)。ステップS810では、制御部106は、位相差評価用の信号の取得回数nが3であるか否かを判定する。位相差評価用の信号の取得回数nが3でない場合には、ステップS805に戻る。一方、位相差評価用の信号の取得回数nが3である場合には、ライブビュー表示を行った(ステップS817)後、ステップS804に戻る。   If the defocus amount Df does not satisfy Expression (1) (NO in step S808), the process proceeds to step S809. In step S809, based on the defocus amount Df, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. Then, the control unit 106 controls the optical mechanism unit 1011 via the driving unit 103 to drive the focus lens in the optical barrel 101 (phase difference AF control). In step S810, the control unit 106 determines whether or not the number n of acquisitions of the phase difference evaluation signal is three. If the number n of acquisition of the signal for phase difference evaluation is not 3, the process returns to step S805. On the other hand, when the number n of acquisitions of signals for phase difference evaluation is 3, live view display is performed (step S817), and the process returns to step S804.

デフォーカス量Dfが式(1)を満たす場合には(ステップS808においてYES)、ステップS811に移行する。ステップS811では、制御部106は、位相差評価用の信号の取得回数nが3であるか否かを判定する。位相差評価用の信号の取得回数nが3でない場合には(ステップS811においてNO)、ステップS805に戻る。一方、位相差評価用の信号の取得回数nが3である場合には(ステップS811においてYES)、ステップS815に移行する。   If the defocus amount Df satisfies Expression (1) (YES in step S808), the process proceeds to step S811. In step S811, the control unit 106 determines whether or not the number n of acquisitions of the phase difference evaluation signal is three. If the number n of acquisition of the signal for phase difference evaluation is not 3 (NO in step S811), the process returns to step S805. On the other hand, when the number n of acquisition of the signal for phase difference evaluation is 3 (YES in step S811), the process proceeds to step S815.

ステップS815では、ステップS814において取得されたコントラスト評価値AF_Kが、所望のコントラスト量の範囲内であるか否かを、以下の式(2)に基づいて判定する。
K_min<AF_K<K_max ・・・・(2)
ここで、K_min、K_maxは、所望のコントラスト評価値AF_Kの最小値と最大値であり、例えば制御部106内に備えられたROMに格納されている。なお、これらの値K_min、K_maxは、設計時に決定されてもよいし、調整時に決定されてもよい。
In step S815, it is determined based on the following formula (2) whether the contrast evaluation value AF_K acquired in step S814 is within a desired contrast amount range.
K_min <AF_K <K_max (2)
Here, K_min and K_max are the minimum value and the maximum value of the desired contrast evaluation value AF_K, and are stored in, for example, a ROM provided in the control unit 106. Note that these values K_min and K_max may be determined at the time of design or may be determined at the time of adjustment.

コントラスト評価値AF_Kが式(2)を満たさない場合には(ステップS815においてNO)、ステップS816に移行する。ステップS816では、当該コントラスト評価値AF_Kに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。そして、制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(コントラストAF制御)。この後、ステップS817に移行する。コントラスト評価値AF_Kが式(2)を満たす場合には(ステップS815においてYES)、制御部106はAF制御信号をOFF状態にする(ステップS818)。この後、制御部106は、位相差評価用の信号の取得を終了させ(ステップS819)、ステップS812において取得したライブビュー用の信号を画像表示部109に表示する(ステップS820)。   When contrast evaluation value AF_K does not satisfy Expression (2) (NO in step S815), the process proceeds to step S816. In step S816, based on the contrast evaluation value AF_K, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. Then, the control unit 106 drives the focus lens in the optical barrel 101 by controlling the optical mechanism unit 1011 via the drive unit 103 (contrast AF control). Thereafter, the process proceeds to step S817. When the contrast evaluation value AF_K satisfies Expression (2) (YES in step S815), the control unit 106 turns off the AF control signal (step S818). Thereafter, the control unit 106 ends the acquisition of the phase difference evaluation signal (step S819), and displays the live view signal acquired in step S812 on the image display unit 109 (step S820).

このように、本実施形態によれば、画素アレイ206に位相差検出用の画素201SHA、201SHBが含まれていることによって画像信号に生ずる欠損を、位相差検出用の画素201SHA、201SHB以外の画素201からの信号を用いて補間する。そして、補間された画像信号に基づいて、コントラスト検出方式による焦点検出のためのコントラスト評価値を算出する。位相差検出用の画素201SHA、201SHBを含む行を含む広い範囲の画像信号に基づいてコントラスト評価値を算出し得るため、本実施形態によれば、高精度なコントラスト評価値を得ることができる。即ち、本実施形態によれば、画素アレイ206を構成する複数の画素201のうちに位相差検出用の画素201SHA、201SHBが含まれているにもかかわらず、高精度なコントラスト評価値を得ることができる。位相差検出用の画素201SHA、201SHBによって迅速なオートフォーカスが可能であるため、本実施形態によれば、オートフォーカスを迅速且つ高精度に行い得る撮像装置を提供することができる。   As described above, according to the present embodiment, the pixel array 206 includes the phase difference detection pixels 201SHA and 201SHB, and defects that occur in the image signal are detected as pixels other than the phase difference detection pixels 201SHA and 201SHB. Interpolation is performed using the signal from 201. Based on the interpolated image signal, a contrast evaluation value for focus detection by the contrast detection method is calculated. Since the contrast evaluation value can be calculated based on a wide range of image signals including rows including the pixels 201SHA and 201SHB for phase difference detection, according to the present embodiment, a highly accurate contrast evaluation value can be obtained. That is, according to the present embodiment, it is possible to obtain a highly accurate contrast evaluation value even though the plurality of pixels 201 constituting the pixel array 206 include the pixels 201SHA and 201SHB for detecting the phase difference. Can do. Since rapid autofocus is possible with the phase difference detection pixels 201SHA and 201SHB, according to the present embodiment, an imaging apparatus capable of performing autofocus quickly and with high accuracy can be provided.

[第2実施形態]
第2実施形態による固体撮像素子及びその制御方法並びに撮像装置について図9及び図10を用いて説明する。図1乃至図8に示す第1実施形態による固体撮像素子及びその制御方法並びに撮像装置と同一の構成要素には、同一の符号を付して説明を省略または簡潔にする。
本実施形態による撮像装置100は、静止画像の連続的な取得、即ち、静止画像の連写を行うものである。
[Second Embodiment]
A solid-state imaging device, a control method thereof, and an imaging apparatus according to the second embodiment will be described with reference to FIGS. 9 and 10. The same components as those of the solid-state imaging device, the control method thereof, and the imaging device according to the first embodiment shown in FIGS. 1 to 8 are denoted by the same reference numerals, and description thereof is omitted or simplified.
The imaging apparatus 100 according to the present embodiment performs continuous acquisition of still images, that is, continuous shooting of still images.

図9は、本実施形態による撮像装置の動作を示すタイムチャートである。静止画像を連続的に取得するモードである静止画像連写モードは、制御部106からの静止画像連写制御信号がON状態になることによって開始される。制御部106は、光学機構部1011に備えられたメカニカルシャッタ機構や絞り機構等を、駆動部103を介して制御しつつ、駆動部103を介して固体撮像素子102を制御する。具体的には、画素201に対してリセット動作を行い、メカニカルシャッタ(シャッタ)を開くことによって画素201への露光を開始する。画素201への露光が開始されると、フォトダイオードPDによって光電変換が開始される。予め設定された露出条件を満たすような所定の露光時間が経過した後、制御部106は、駆動部103を介してシャッタを閉じる。シャッタが閉じられることによって、画素201への露光が完了する。画素201への露光が完了すると、第1の画像信号の取得、即ち、静止画像用の信号の取得と、第2の画像信号の取得、即ち、位相差評価用の信号の取得とが開始される。第1の画像信号の取得と第2の画像信号の取得とが開始されるタイミングは、TF0である。第1の画像信号は第1のチャネルCH1を介して出力され、第2の画像信号は第2のチャネルCH2を介して出力される。第1の画像信号を取得する際の選択行と、第2の画像信号を取得する際の選択行は、例えば、図5を用いて上述した第1実施形態の場合と同様とすることができる。   FIG. 9 is a time chart illustrating the operation of the imaging apparatus according to the present embodiment. A still image continuous shooting mode, which is a mode for continuously acquiring still images, is started when a still image continuous shooting control signal from the control unit 106 is turned on. The control unit 106 controls the solid-state imaging device 102 through the drive unit 103 while controlling the mechanical shutter mechanism, the diaphragm mechanism, and the like provided in the optical mechanism unit 1011 through the drive unit 103. Specifically, a reset operation is performed on the pixel 201, and exposure to the pixel 201 is started by opening a mechanical shutter (shutter). When exposure to the pixel 201 is started, photoelectric conversion is started by the photodiode PD. After a predetermined exposure time that satisfies a preset exposure condition has elapsed, the control unit 106 closes the shutter via the drive unit 103. By closing the shutter, the exposure to the pixel 201 is completed. When the exposure to the pixel 201 is completed, acquisition of a first image signal, that is, acquisition of a signal for a still image and acquisition of a second image signal, that is, acquisition of a signal for phase difference evaluation are started. The The timing at which the acquisition of the first image signal and the acquisition of the second image signal is started is TF0. The first image signal is output via the first channel CH1, and the second image signal is output via the second channel CH2. The selected row for acquiring the first image signal and the selected row for acquiring the second image signal can be the same as those in the first embodiment described above with reference to FIG. 5, for example. .

TF0〜TF1の期間においては、水平信号線215bとスイッチ216とを介して、位相差評価用の信号SHA、SHBが位相差評価値算出部217に送信される。そして、TF1〜TF2の期間においては、位相差評価値算出部217によって位相差評価値が算出される。TF2〜TF3の期間においては、位相差評価値算出部217によって算出された位相差評価値が制御部106に出力される。制御部106は、位相差評価値に基づいて、光学鏡筒101に備えられたフォーカスレンズを、駆動部103を介して駆動する。   During the period from TF0 to TF1, phase difference evaluation signals SHA and SHB are transmitted to the phase difference evaluation value calculation unit 217 via the horizontal signal line 215b and the switch 216. In the period of TF1 to TF2, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217. In the period from TF <b> 2 to TF <b> 3, the phase difference evaluation value calculated by the phase difference evaluation value calculation unit 217 is output to the control unit 106. The control unit 106 drives the focus lens provided in the optical barrel 101 via the drive unit 103 based on the phase difference evaluation value.

TF0〜TF1Cの期間においては、静止画像用の信号の取得が行われる。TF1C〜TF2Cの期間においては、コントラスト評価値算出部218によってコントラスト評価値が算出される。TF2C〜TF3Cの期間においては、コントラスト評価値算出部218によって算出されたコントラスト評価値が制御部106に出力される。制御部106は、コントラスト評価値に基づいて、光学鏡筒101に備えられたフォーカスレンズを、駆動部103を介して駆動する。フォーカスレンズの駆動が完了し、静止画像連写モードが終了していない場合には、次の静止画像の取得に移行する。   In the period from TF0 to TF1C, acquisition of a still image signal is performed. In the period from TF1C to TF2C, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value. In the period from TF2C to TF3C, the contrast evaluation value calculated by the contrast evaluation value calculation unit 218 is output to the control unit 106. The control unit 106 drives the focus lens provided in the optical barrel 101 via the drive unit 103 based on the contrast evaluation value. When the driving of the focus lens is completed and the still image continuous shooting mode is not ended, the process proceeds to acquisition of the next still image.

図10は、本実施形態による撮像装置の動作を示すフローチャートである。まず、ユーザによる操作部108への操作入力に応じて、制御部106は、撮像装置100を待機状態から静止画像連写モードに移行させる。ステップS1001においては、制御部106は、駆動部103を介して、光学機構部1011に備えられたメカニカルシャッタを開く。これにより、画素201への露光が開始され、フォトダイオードPDによって光電変換が開始され、電荷の蓄積が開始される(ステップS1002)。所定の露光時間が経過した後、制御部106は、駆動部103を介して、光学機構部1011に備えられたメカニカルシャッタを閉じる(ステップS1003)。   FIG. 10 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment. First, in response to an operation input to the operation unit 108 by the user, the control unit 106 shifts the imaging device 100 from the standby state to the still image continuous shooting mode. In step S <b> 1001, the control unit 106 opens a mechanical shutter provided in the optical mechanism unit 1011 via the drive unit 103. Thereby, exposure to the pixel 201 is started, photoelectric conversion is started by the photodiode PD, and charge accumulation is started (step S1002). After a predetermined exposure time has elapsed, the control unit 106 closes the mechanical shutter provided in the optical mechanism unit 1011 via the drive unit 103 (step S1003).

次に、制御部106は、静止画像用の信号の取得を固体撮像素子102に開始させるとともに(ステップS1007)、位相差評価用の信号の取得を固体撮像素子102に開始させる(ステップS1004)。この後、位相差評価値の算出が位相差評価値算出部217によって行われる(ステップS1005)。位相差評価値の算出(ステップS1005)においては、ステップS1004において取得された位相差評価用の信号SHA、SHBに基づいて、位相差評価値算出部217が位相差評価値の算出を行い、これにより、デフォーカス量Dfが得られる。位相差評価値算出部217は、位相差評価値の算出を完了し次第、位相差評価値、具体的には、デフォーカス量Dfを制御部106に出力する。この後、ステップS1006に移行する。   Next, the control unit 106 causes the solid-state image sensor 102 to start acquiring a still image signal (step S1007), and causes the solid-state image sensor 102 to start acquiring a phase difference evaluation signal (step S1004). Thereafter, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217 (step S1005). In the calculation of the phase difference evaluation value (step S1005), the phase difference evaluation value calculation unit 217 calculates the phase difference evaluation value based on the phase difference evaluation signals SHA and SHB acquired in step S1004. Thus, the defocus amount Df is obtained. The phase difference evaluation value calculation unit 217 outputs the phase difference evaluation value, specifically, the defocus amount Df to the control unit 106 as soon as the calculation of the phase difference evaluation value is completed. Thereafter, the process proceeds to step S1006.

ステップS1006においては、制御部106は、ステップS1005において算出されたデフォーカス量Dfが、所望のデフォーカス量の範囲内であるか否かを、第1実施形態において上述した式(1)に基づいて判定する。デフォーカス量Dfが式(1)を満たさない場合には(ステップS1006においてNO)、ステップS1010に移行する。ステップS1010では、デフォーカス量Dfに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。ステップS1010では、制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(位相差AF制御)。この後、ステップS1013に移行する。デフォーカス量Dfが式(1)を満たす場合には(ステップS1006においてYES)、ステップS1011に移行する。   In step S1006, the control unit 106 determines whether or not the defocus amount Df calculated in step S1005 is within a desired defocus amount range based on the equation (1) described above in the first embodiment. Judgment. If the defocus amount Df does not satisfy Expression (1) (NO in step S1006), the process proceeds to step S1010. In step S1010, based on the defocus amount Df, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. In step S1010, the control unit 106 drives the focus lens in the optical barrel 101 by controlling the optical mechanism unit 1011 via the drive unit 103 (phase difference AF control). Thereafter, the process proceeds to step S1013. When the defocus amount Df satisfies Expression (1) (YES in step S1006), the process proceeds to step S1011.

ステップS1005が行われるのと並行して、ステップS1008が行われる。ステップS1008では、補間処理部219によって補間処理が行われる。この後、ライブビュー用の信号の読み出しが完了するのを待って、コントラスト評価値の算出がコントラスト評価値算出部218によって行われる(ステップS1009)。コントラスト評価値の算出においては、コントラストAF行から読み出された信号であって、適宜補間処理が施された信号に基づいて、コントラスト評価値算出部218がコントラスト評価値AF_Kの算出を行う。コントラスト評価値算出部218は、コントラスト評価値AF_Kの算出を完了し次第、コントラスト評価値AF_Kを制御部106に出力する。コントラスト評価値AF_Kは、ステップS1011において用いられる。   In parallel with step S1005, step S1008 is performed. In step S1008, interpolation processing is performed by the interpolation processing unit 219. Thereafter, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value after waiting for the completion of the reading of the live view signal (step S1009). In the calculation of the contrast evaluation value, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value AF_K based on the signal read from the contrast AF row and appropriately subjected to the interpolation process. The contrast evaluation value calculation unit 218 outputs the contrast evaluation value AF_K to the control unit 106 as soon as the calculation of the contrast evaluation value AF_K is completed. The contrast evaluation value AF_K is used in step S1011.

ステップS1011では、ステップS1009において取得されたコントラスト評価値AF_Kが、所望のコントラスト量の範囲内であるか否かを、第1実施形態において上述した式(2)に基づいて判定する。コントラスト評価値AF_Kが式(2)を満たさない場合には(ステップS1011においてNO)、ステップS1012に移行する。ステップS1012では、当該コントラスト評価値AF_Kに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(コントラストAF制御)。この後、ステップS1013に移行する。コントラスト評価値AF_Kが式(2)を満たす場合には(ステップS1011においてYES)、ステップS1013に移行する。   In step S1011, whether or not the contrast evaluation value AF_K acquired in step S1009 is within a desired contrast amount range is determined based on Expression (2) described above in the first embodiment. If the contrast evaluation value AF_K does not satisfy Expression (2) (NO in step S1011), the process proceeds to step S1012. In step S1012, based on the contrast evaluation value AF_K, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. The control unit 106 drives the focus lens in the optical barrel 101 by controlling the optical mechanism unit 1011 via the drive unit 103 (contrast AF control). Thereafter, the process proceeds to step S1013. When contrast evaluation value AF_K satisfies Expression (2) (YES in step S1011), the process proceeds to step S1013.

ステップS1013では、ユーザによる操作部108の操作入力に応じて、制御部106が、静止画像連写モードを終了させるか否かを判定する。静止画像連写モードを終了させない場合には(ステップS1013においてNO)、ステップS1001に戻り、次の静止画像の取得を開始する。一方、静止画像連写モードを終了させる場合には(ステップS1013においてYES)、次の静止画像の取得を行わず、待機状態に移行する。
このように、静止画像の連写を行う場合にも本発明を適用し得る。本実施形態においても、オートフォーカスを迅速且つ高精度に行い得る撮像装置を提供することができる。
In step S <b> 1013, the control unit 106 determines whether to end the still image continuous shooting mode in response to an operation input of the operation unit 108 by the user. If the still image continuous shooting mode is not terminated (NO in step S1013), the process returns to step S1001, and acquisition of the next still image is started. On the other hand, when the still image continuous shooting mode is to be ended (YES in step S1013), the next still image is not acquired and the process shifts to a standby state.
As described above, the present invention can also be applied to continuous shooting of still images. Also in the present embodiment, it is possible to provide an imaging apparatus that can perform autofocus quickly and with high accuracy.

[変形実施形態]
以上、好適な実施形態に基づいて本発明について詳述したが、本発明はこれらの実施形態に限定されるものではなく、要旨を逸脱しない範囲での様々な形態も本発明に含まれる。また、上述の実施形態の一部を適宜組み合わせてもよい。
[Modified Embodiment]
As mentioned above, although this invention was explained in full detail based on suitable embodiment, this invention is not limited to these embodiment, Various forms in the range which does not deviate from a summary are also contained in this invention. Moreover, you may combine suitably a part of above-mentioned embodiment.

例えば、上記実施形態では、撮像装置100がデジタルカメラである場合を例に説明したが、撮像装置100はデジタルカメラに限定されるものではない。例えば、撮像装置100は、デジタルビデオカメラであってもよいし、携帯情報端末の機能と携帯電話機の機能とを併せ持つ電子機器であるスマートフォンであってもよい。また、撮像装置100は、例えば、タブレット端末、携帯情報端末(PDA:Personal Digital Assistant)等であってもよい。   For example, in the above embodiment, the case where the imaging apparatus 100 is a digital camera has been described as an example, but the imaging apparatus 100 is not limited to a digital camera. For example, the imaging apparatus 100 may be a digital video camera, or may be a smartphone that is an electronic device having both the functions of a portable information terminal and a mobile phone. Further, the imaging device 100 may be, for example, a tablet terminal, a personal digital assistant (PDA), or the like.

また、第1実施形態では、ライブビュー表示を行いつつオートフォーカス動作を行う場合を例に説明したが、これに限定されるものでない。例えば、動画像の撮影を行いつつオートフォーカス動作を行う場合にも本発明を適用し得る。   In the first embodiment, the case where the autofocus operation is performed while performing live view display has been described as an example, but the present invention is not limited to this. For example, the present invention can be applied to the case where an autofocus operation is performed while capturing a moving image.

また、上記実施形態では、AF評価値を固体撮像素子102から制御部106に出力し、制御部106が駆動部103を介して光学機構部1011を制御する場合を例に説明したが、これに限定されるものではない。例えば、オートフォーカス動作を司る機能ブロックに固体撮像素子102からAF評価値を直接出力するようにしてもよい。   In the above embodiment, the AF evaluation value is output from the solid-state imaging device 102 to the control unit 106, and the control unit 106 controls the optical mechanism unit 1011 via the drive unit 103 as an example. It is not limited. For example, the AF evaluation value may be directly output from the solid-state imaging device 102 to the functional block that controls the autofocus operation.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100・・・撮像装置
101・・・光学鏡筒
102・・・固体撮像素子
1021・・・AF評価値算出部
103・・・駆動部
106・・・制御部
201・・・画素
217・・・位相差評価値算出部
218・・・コントラスト評価値算出部
219・・・補間処理部
DESCRIPTION OF SYMBOLS 100 ... Imaging device 101 ... Optical barrel 102 ... Solid-state image sensor 1021 ... AF evaluation value calculation part 103 ... Drive part 106 ... Control part 201 ... Pixel 217 ... Phase difference evaluation value calculation unit 218... Contrast evaluation value calculation unit 219... Interpolation processing unit

Claims (9)

複数の画素が行列状に配列された画素アレイと、
位相差検出方式による焦点検出のための位相差評価値を、前記複数の画素のうちに含まれている位相差検出用画素からの信号に基づいて算出する第1の算出部と、
前記画素アレイによって取得される画像信号に生ずる欠損であって、前記複数の画素のうちに前記位相差検出用画素が含まれていることによって生ずる欠損を補うための信号を、前記位相差検出用画素以外の前記画素からの信号を用いた補間によって生成する補間処理部と、
コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記補間処理部による前記補間によって生成された前記信号を含む前記画像信号に基づいて算出する第2の算出部と
を有することを特徴とする固体撮像素子。
A pixel array in which a plurality of pixels are arranged in a matrix;
A first calculation unit that calculates a phase difference evaluation value for focus detection by a phase difference detection method based on a signal from a phase difference detection pixel included in the plurality of pixels;
A signal for compensating for a defect that occurs in an image signal acquired by the pixel array and is generated when the phase difference detection pixel is included in the plurality of pixels. An interpolation processing unit that generates by interpolation using signals from the pixels other than the pixels;
A second calculation unit that calculates a contrast evaluation value for focus detection by a contrast detection method based on the image signal including the signal generated by the interpolation by the interpolation processing unit. Solid-state image sensor.
前記位相差評価値の算出が第1の算出部によって完了した場合には、前記画素アレイによって取得される前記画像信号の出力の完了の如何にかかわらず、前記位相差評価値を出力することを特徴とする請求項1に記載の固体撮像素子。   When the calculation of the phase difference evaluation value is completed by the first calculation unit, the phase difference evaluation value is output regardless of whether the output of the image signal acquired by the pixel array is completed. The solid-state imaging device according to claim 1. 前記画素アレイは第1の半導体チップに形成され、
前記第1の算出部、前記補間処理部及び前記第2の算出部は、前記第1の半導体チップと異なる第2の半導体チップに形成され、
前記第1の半導体チップと前記第2の半導体チップとが積層されていることを特徴とする請求項1又は2に記載の固体撮像素子。
The pixel array is formed on a first semiconductor chip;
The first calculation unit, the interpolation processing unit, and the second calculation unit are formed on a second semiconductor chip different from the first semiconductor chip,
The solid-state imaging device according to claim 1, wherein the first semiconductor chip and the second semiconductor chip are stacked.
前記補間処理部によって補間された前記画像信号を出力することを特徴とする請求項1乃至3のいずれか1項に記載の固体撮像素子。   The solid-state imaging device according to claim 1, wherein the image signal interpolated by the interpolation processing unit is output. 前記位相差評価値及び前記コントラスト評価値は、前記補間処理部によって補間された前記画像信号が出力される出力端子とは異なる出力端子を介して出力されることを特徴とする請求項1乃至4のいずれか1項に記載の固体撮像素子。   5. The phase difference evaluation value and the contrast evaluation value are output via an output terminal different from an output terminal from which the image signal interpolated by the interpolation processing unit is output. The solid-state image sensor of any one of these. 前記位相差検出用画素を含む行からの信号の読み出しは、前記位相差検出用画素を含まない行からの信号の読み出しと並行して行われることを特徴とする請求項1乃至5のいずれか1項に記載の固体撮像素子。   6. The signal readout from the row including the phase difference detection pixel is performed in parallel with the readout of the signal from the row not including the phase difference detection pixel. The solid-state imaging device according to item 1. 前記画素アレイは、複数の前記位相差検出用画素を含み、
前記複数の位相差検出用画素は、撮像光学系の射出瞳の第1の瞳領域を通過する光束に応じた信号を取得する第1の位相差検出用画素と、前記射出瞳の前記第1の瞳領域とは異なる第2の瞳領域を通過する光束に応じた信号を取得する第2の位相差検出用画素とを含み、
前記第1の算出部は、前記第1の位相差検出用画素と前記第2の位相差検出用画素とからの信号に基づいて前記位相差評価値を算出することを特徴とする請求項1乃至6のいずれか1項に記載の固体撮像素子。
The pixel array includes a plurality of the phase difference detection pixels,
The plurality of phase difference detection pixels include a first phase difference detection pixel that acquires a signal according to a light beam that passes through a first pupil region of an exit pupil of the imaging optical system, and the first phase difference detection pixel. A second phase difference detection pixel that acquires a signal according to a light flux that passes through a second pupil region different from the pupil region of
The first calculation unit calculates the phase difference evaluation value based on signals from the first phase difference detection pixel and the second phase difference detection pixel. The solid-state image sensor of any one of thru | or 6.
複数の画素が行列状に配列された画素アレイの前記複数の画素のうちに含まれている位相差検出用画素からの信号に基づいて、位相差検出方式による焦点検出のための位相差評価値を算出するステップと、
前記画素アレイによって取得される画像信号に生ずる欠損であって、前記複数の画素のうちに前記位相差検出用画素が含まれていることによって生ずる欠損を補うための信号を、前記位相差検出用画素以外の前記画素からの信号を用いた補間によって生成するステップと、
コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記補間によって生成された前記信号を含む前記画像信号に基づいて算出するステップと
を有することを特徴とする固体撮像素子の制御方法。
A phase difference evaluation value for focus detection by a phase difference detection method based on a signal from a phase difference detection pixel included in the plurality of pixels of a pixel array in which a plurality of pixels are arranged in a matrix. Calculating steps,
A signal for compensating for a defect that occurs in an image signal acquired by the pixel array and is generated when the phase difference detection pixel is included in the plurality of pixels. Generating by interpolation using signals from said pixels other than pixels;
A method for controlling a solid-state imaging device, comprising: calculating a contrast evaluation value for focus detection by a contrast detection method based on the image signal including the signal generated by the interpolation.
複数の画素が行列状に配列された画素アレイと、位相差検出方式による焦点検出のための位相差評価値を、前記複数の画素のうちに含まれている位相差検出用画素からの信号に基づいて算出する第1の算出部と、前記画素アレイによって取得される画像信号に生ずる欠損であって、前記複数の画素のうちに前記位相差検出用画素が含まれていることによって生ずる欠損を補うための信号を、前記位相差検出用画素以外の前記画素からの信号を用いた補間によって生成する補間処理部と、コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記補間処理部による前記補間によって生成された前記信号を含む前記画像信号に基づいて算出する第2の算出部とを有する固体撮像素子と、
前記位相差評価値と前記コントラスト評価値とに基づいて、フォーカスレンズを駆動するための制御を行う制御部と
を有することを特徴とする撮像装置。
A pixel array in which a plurality of pixels are arranged in a matrix and a phase difference evaluation value for focus detection by a phase difference detection method are used as signals from the phase difference detection pixels included in the plurality of pixels. A defect that occurs in the image signal acquired by the first calculation unit calculated based on the pixel array, and the defect that occurs when the phase difference detection pixel is included in the plurality of pixels. An interpolation processing unit that generates a signal for compensation by interpolation using a signal from the pixel other than the phase difference detection pixel, and a contrast evaluation value for focus detection by a contrast detection method is determined by the interpolation processing unit. A solid-state imaging device having a second calculation unit for calculating based on the image signal including the signal generated by the interpolation;
An imaging apparatus comprising: a control unit that performs control for driving a focus lens based on the phase difference evaluation value and the contrast evaluation value.
JP2016206720A 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor Expired - Fee Related JP6881940B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016206720A JP6881940B2 (en) 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor
US15/784,354 US10284800B2 (en) 2016-10-21 2017-10-16 Solid-state image pickup element, method of controlling a solid-state image pickup element, and image pickup apparatus
US16/358,854 US10609315B2 (en) 2016-10-21 2019-03-20 Solid-state image pickup element, apparatus, and method for focus detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206720A JP6881940B2 (en) 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor

Publications (3)

Publication Number Publication Date
JP2018066931A true JP2018066931A (en) 2018-04-26
JP2018066931A5 JP2018066931A5 (en) 2019-11-28
JP6881940B2 JP6881940B2 (en) 2021-06-02

Family

ID=62086180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206720A Expired - Fee Related JP6881940B2 (en) 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor

Country Status (1)

Country Link
JP (1) JP6881940B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112702544A (en) * 2019-10-22 2021-04-23 三星电子株式会社 Image sensor including multiple autofocus pixel groups
WO2022070941A1 (en) * 2020-09-29 2022-04-07 富士フイルム株式会社 Imaging device, driving method for imaging device, and program
JP2023108236A (en) * 2022-01-25 2023-08-04 キヤノン株式会社 Imaging apparatus, imaging element, control method for imaging apparatus, and control method for imaging element

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012489A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Imaging device, imaging apparatus, control method thereof, and control program
JP2016005189A (en) * 2014-06-18 2016-01-12 オリンパス株式会社 Imaging element, and imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012489A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Imaging device, imaging apparatus, control method thereof, and control program
JP2016005189A (en) * 2014-06-18 2016-01-12 オリンパス株式会社 Imaging element, and imaging device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112702544A (en) * 2019-10-22 2021-04-23 三星电子株式会社 Image sensor including multiple autofocus pixel groups
WO2022070941A1 (en) * 2020-09-29 2022-04-07 富士フイルム株式会社 Imaging device, driving method for imaging device, and program
JP7459279B2 (en) 2020-09-29 2024-04-01 富士フイルム株式会社 IMAGING APPARATUS, DRIVING METHOD OF IMAGING APPARATUS, AND PROGRAM
US12126920B2 (en) 2020-09-29 2024-10-22 Fujifilm Corporation Imaging apparatus, driving method of imaging apparatus, and program
JP7709565B2 (en) 2020-09-29 2025-07-16 富士フイルム株式会社 IMAGING APPARATUS, DRIVING METHOD OF IMAGING APPARATUS, AND PROGRAM
JP2023108236A (en) * 2022-01-25 2023-08-04 キヤノン株式会社 Imaging apparatus, imaging element, control method for imaging apparatus, and control method for imaging element
JP7631245B2 (en) 2022-01-25 2025-02-18 キヤノン株式会社 Image capture device, image capture element, image capture device control method, and image capture element control method

Also Published As

Publication number Publication date
JP6881940B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
US10609315B2 (en) Solid-state image pickup element, apparatus, and method for focus detection
KR101215124B1 (en) Imaging apparatus and imaging method
US7538311B2 (en) Image sensor and digital camera
CN103501405B (en) Picture pick-up device
JP6765860B2 (en) Image sensor, image sensor, and image signal processing method
US10277853B2 (en) Image capturing apparatus and control method of the same
US10812704B2 (en) Focus detection device, method and storage medium, for controlling image sensor operations
US11290648B2 (en) Image capture apparatus and control method thereof
JP2008072470A (en) Photoelectric conversion element and imaging apparatus
JP6881940B2 (en) Solid-state image sensor, its control method, and image sensor
JP2018019296A (en) Imaging apparatus and control method therefor
JP6881939B2 (en) Solid-state image sensor, its control method, and image sensor
JP6521731B2 (en) Imaging device, control method therefor, and control program
JP6223160B2 (en) Imaging device, control method thereof, and control program
JP7277284B2 (en) Focus adjustment device and focus adjustment method
JP7439772B2 (en) Imaging device and imaging device
US10893199B2 (en) Imaging apparatus and control method thereof
JP6821723B2 (en) Imaging device and its control method
JP7210172B2 (en) Imaging device and its control method
JP6762849B2 (en) Image sensor, its control method, program and recording medium
JP2021016201A (en) Solid state imaging device and imaging apparatus
JP7247975B2 (en) Imaging element and imaging device
JP6798532B2 (en) Image sensor and image sensor
JP2017034344A (en) Imaging apparatus and control method therefor
JP2023121622A (en) Detection apparatus and detection method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210506

R151 Written notification of patent or utility model registration

Ref document number: 6881940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees